Le président de Microsoft, Brad Smith, a ajouté son nom cette semaine à la liste croissante de géants de l'industrie technologique qui sonnent l'alarme et appellent les gouvernements à réglementer l'intelligence artificielle (IA).

«Le gouvernement doit aller plus vite», a déclaré Smith lors d'une discussion en panel jeudi matin à Washington, D.C. qui comprenait des décideurs politiques, a rapporté The New York Times.

L'appel de Microsoft à la réglementation intervient à un moment où le développement rapide de l'intelligence artificielle - en particulier des outils d'IA générative - est de plus en plus scruté par les régulateurs.

AD

L'IA générative fait référence à un système d'intelligence artificielle capable de générer du texte, des images ou d'autres médias en réponse à des instructions fournies par l'utilisateur. Des exemples notables comprennent la plateforme de génération d'images Midjourney, Bard de Google et ChatGPT d'OpenAI.

L'appel à la réglementation de l'IA s'est intensifié depuis le lancement public de ChatGPT en novembre. Des personnalités éminentes, dont Warren Buffett, Elon Musk et même le PDG d'OpenAI, Sam Altman, ont exprimé leur préoccupation quant aux dangers potentiels de la technologie. Un facteur clé dans la grève en cours des scénaristes de la WGA est la crainte que l'IA puisse être utilisée pour remplacer les scénaristes humains, un sentiment partagé par les artistes de jeux vidéo maintenant que les studios de jeux envisagent cette technologie.

Smith a soutenu qu'il fallait exiger des développeurs qu'ils obtiennent une licence avant de déployer des projets d'IA avancés et a suggéré que ce qu'il appelait l'IA «à haut risque» ne devrait fonctionner que dans des centres de données d'IA agréés.

Le cadre de Microsoft a également appelé les entreprises à prendre la responsabilité de gérer la technologie qui a fait sensation dans le monde, suggérant que l'impulsion n'incombe pas uniquement aux gouvernements de gérer l'impact potentiel de l'IA sur la société.

AD

«Cela signifie que vous informez le gouvernement lorsque vous commencez les tests», a déclaré Smith. «Même lorsqu'il est autorisé pour le déploiement, vous avez le devoir de continuer à le surveiller et de signaler au gouvernement s'il y a des problèmes inattendus qui se posent.»

Malgré les préoccupations, Microsoft a misé gros sur l'IA, investissant apparemment plus de 13 milliards de dollars dans le développeur de ChatGPT OpenAI et intégrant le chatbot populaire dans son navigateur web Bing.

«Nous sommes engagés et déterminés en tant qu'entreprise à développer et déployer l'IA de manière sûre et responsable», a écrit Smith dans un article sur la gouvernance de l'IA. «Nous reconnaissons également, cependant, que les garde-fous nécessaires pour l'IA nécessitent un sens de responsabilité largement partagé et ne devraient pas être laissés aux seules entreprises technologiques.»

En mars, Microsoft a publié son Security Copilot, le premier outil spécialisé de sa gamme Copilot qui utilise l'IA pour aider les professionnels de l'informatique et de la cybersécurité à identifier les menaces cybernétiques à l'aide de grands ensembles de données.

Les commentaires de Smith font écho à ceux du PDG d'OpenAI, Sam Altman, lors d'une audience devant le Comité judiciaire du Sénat américain la semaine dernière. Altman a suggéré la création d'une agence fédérale chargée de réglementer et d'établir des normes pour le développement de l'IA.

«Je formerais une nouvelle agence qui accorde des licences à tout effort au-dessus d'une certaine échelle de capacités, et qui peut retirer cette licence et garantir la conformité aux normes de sécurité», a déclaré Altman.

Microsoft n'a pas répondu immédiatement à la demande de commentaire de Decrypt.


Vous souhaitez en savoir plus sur l'IA ? Découvrez notre dernier cours Decrypt U, «Getting Started with AI». Il couvre tout, de l'histoire de l'IA à l'apprentissage automatique, ChatGPT et ChainGPT. En savoir plus ici.

AD

Stay on top of crypto news, get daily updates in your inbox.