3 min de lecture
Préparez-vous : l'avènement d'une superintelligence artificielle est proche.
Un article de blog coécrit par le PDG d'OpenAI, Sam Altman, le président d'OpenAI, Greg Brockman, et le scientifique en chef d'OpenAI, Ilya Sutskever, met en garde contre le développement de l'intelligence artificielle qui nécessite une réglementation stricte pour éviter des scénarios potentiellement catastrophiques.
«Il est maintenant temps de commencer à réfléchir à la gouvernance de la superintelligence», a déclaré Altman, reconnaissant que les futurs systèmes d'IA pourraient dépasser considérablement l'AGI en termes de capacité. «Étant donné le tableau tel que nous le voyons maintenant, il est concevable qu'au cours des dix prochaines années, les systèmes d'IA dépassent les niveaux de compétence des experts dans la plupart des domaines et effectuent autant d'activités productives que l'une des plus grandes entreprises d'aujourd'hui.»
Faisant écho aux préoccupations soulevées par Altman lors de son témoignage récent devant le Congrès, le trio a exposé trois piliers qu'ils ont jugés cruciaux pour une planification stratégique future.
Premièrement, OpenAI estime qu'il doit y avoir un équilibre entre le contrôle et l'innovation, et a plaidé en faveur d'un accord social «qui nous permette à la fois de maintenir la sécurité et d'aider à une intégration harmonieuse de ces systèmes dans la société».
Ensuite, ils ont défendu l'idée d'une «autorité internationale» chargée d'inspections de systèmes, d'application d'audits, de tests de conformité aux normes de sécurité, et de restrictions de déploiement et de sécurité. En établissant des parallèles avec l'Agence internationale de l'énergie atomique, ils ont suggéré à quoi pourrait ressembler un organisme de réglementation mondial de l'IA.
Enfin, ils ont souligné la nécessité de disposer de la «capacité technique» pour maintenir le contrôle sur la superintelligence et la «sécuriser». Ce que cela implique reste nébuleux, même pour OpenAI, mais le post a mis en garde contre des mesures réglementaires onéreuses telles que des licences et des audits pour la technologie qui ne répond pas aux critères de la superintelligence.
En substance, l'idée est de maintenir la superintelligence alignée sur les intentions de ses formateurs, en évitant un «scénario foom» - une explosion rapide et incontrôlable des capacités de l'IA qui dépasse le contrôle humain.
OpenAI met également en garde contre l'impact potentiellement catastrophique que le développement incontrôlé de modèles d'IA pourrait avoir sur les sociétés futures. D'autres experts du domaine ont déjà soulevé des préoccupations similaires, du parrain de l'IA aux fondateurs d'entreprises d'IA comme Stability AI et même d'anciens travailleurs d'OpenAI impliqués dans la formation du GPT LLM dans le passé. Cet appel urgent à une approche proactive de la gouvernance et de la réglementation de l'IA a attiré l'attention des régulateurs du monde entier.
OpenAI croit que une fois que ces points seront abordés, le potentiel de l'IA pourra être plus librement exploité pour le bien: «Cette technologie peut améliorer nos sociétés, et la capacité créative de chacun à utiliser ces nouveaux outils est certaine de nous étonner», ont-ils déclaré.
Les auteurs ont également expliqué que l'espace est actuellement en croissance à un rythme accéléré, et cela ne va pas changer. «L'arrêter nécessiterait quelque chose comme un régime de surveillance mondial, et même cela n'est pas garanti de fonctionner», lit-on dans le blog.
Malgré ces défis, la direction d'OpenAI reste engagée à explorer la question, «Comment pouvons-nous nous assurer que la capacité technique de maintenir une superintelligence en sécurité est atteinte?» Le monde n'a pas de réponse pour le moment, mais il en a certainement besoin - une réponse que ChatGPT ne peut pas fournir.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.