Préparez-vous : l'IA pourrait causer l'extinction de l'humanité.
Mardi, des centaines de leaders et de chercheurs de l'industrie de l'IA, y compris des cadres de Microsoft, Google et OpenAI, ont lancé une mise en garde alarmante. Ils affirment que la technologie d'intelligence artificielle qu'ils développent pourrait un jour poser un danger réel et imminent à l'existence de l'humanité. Aux côtés des horreurs des pandémies et des guerres nucléaires, ils considèrent l'IA comme un risque sociétal de même ampleur.
Dans une lettre publiée par le Center for AI Safety, les spécialistes de l'IA ont offert cette déclaration caractérisée par sa brièveté frappante : «Atténuer le risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire.»
C'est tout, c'est tout ce qu'ils disent.
Le communiqué présente l'IA comme une menace imminente, semblable à une catastrophe nucléaire ou à une pandémie mondiale. Mais les signataires, ces magiciens de l'industrie technologique, n'ont pas étendu leur avertissement sinistre.
Comment exactement ce scénario de fin du monde est-il censé se dérouler? Quand devrions-nous marquer nos calendriers pour la montée de nos seigneurs robots? Pourquoi l'IA, une invention de l'innovation humaine, se retournerait-elle contre ses créateurs? Le silence de ces architectes de l'intelligence artificielle était assourdissant, et ils n'ont fourni aucune réponse.
En effet, ces leaders de l'industrie n'étaient pas plus informatifs qu'un chatbot avec une réponse préenregistrée. Dans le domaine des menaces mondiales, l'IA semble avoir soudainement sauté la file d'attente, dépassant le changement climatique, les conflits géopolitiques et même les invasions extraterrestres en termes de recherches par mots clés sur Google.
Il est intéressant de noter que les entreprises ont tendance à plaider en faveur de réglementations lorsque cela correspond à leurs intérêts. Cela pourrait être considéré comme leur façon de dire : «Nous souhaitons avoir notre mot à dire dans la définition de ces réglementations». C'est comme si le renard demandait de nouvelles règles dans le poulailler.
Il convient également de noter que le PDG d'OpenAI, Sam Altman, a été en faveur de la réglementation aux États-Unis. Cependant, il a menacé de quitter l'Europe si les politiciens du continent continuaient à essayer de réglementer l'IA. «Nous allons essayer de nous conformer», a déclaré Altman lors d'un panel à l'University College London. «Si nous pouvons nous conformer, nous le ferons. Et si nous ne pouvons pas, nous cesserons de fonctionner.»
Il est juste de dire qu'il est ensuite revenu sur ses propos quelques jours plus tard, affirmant qu'OpenAI n'avait aucun plan de quitter l'Europe. Cela s'est bien sûr produit après qu'il ait eu la chance de discuter avec les régulateurs de la question lors d'une «semaine très productive».
very productive week of conversations in europe about how to best regulate AI! we are excited to continue to operate here and of course have no plans to leave.
— Sam Altman (@sama) May 26, 2023
L'IA est risquée, mais est-elle si risquée ?
Les dangers potentiels de l'intelligence artificielle n'ont pas échappé aux experts. Une précédente lettre ouverte signée par 31 810 signataires, dont Elon Musk, Steve Wozniak, Yuval Harari et Andrew Yang, a appelé à une pause dans la formation de modèles d'IA puissants.
« Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable », précise la lettre, en précisant que « cela ne signifie pas une pause dans le développement de l'IA en général, mais simplement un recul par rapport à la dangereuse course aux modèles de boîtes noires imprévisibles de plus en plus grands avec des capacités émergentes ».
La question d'un potentiel AI Foom (dans lequel une IA devient capable d'améliorer ses propres systèmes, augmentant ses capacités au point de dépasser l'intelligence humaine) est discutée depuis des années. Cependant, le rythme rapide du changement aujourd'hui, associé à une couverture médiatique substantielle, a propulsé le débat sur la scène mondiale.
Cela a généré des points de vue divers sur la façon dont l'IA va (et non pas simplement pourrait) impacter l'avenir des interactions sociales.
Certains envisagent une ère utopique où l'IA et les humains alignés interagissent, et où l'avancement technologique règne en maître. D'autres croient que l'humanité s'adaptera à l'IA, avec de nouveaux emplois créés autour de la technologie, similaire à la croissance de l'emploi qui a suivi l'invention de l'automobile. D'autres encore maintiennent que l'IA a une chance significative de mûrir et de devenir incontrôlable, posant une véritable menace pour l'humanité.
Jusqu'à présent, c'est business as usual dans le monde de l'IA. Gardez un œil sur votre ChatGPT, votre Bard ou votre Siri - ils pourraient être à une mise à jour logicielle de dominer le monde. Mais pour l'instant, il semble que la plus grande menace pour l'humanité ne soit pas nos propres inventions, mais plutôt notre talent illimité pour l'hyperbole.