Par Jason Nelson
4 min de lecture
Mercredi, Sam Altman a été réintégré en tant que PDG d'OpenAI après 72 heures de turbulences. Mais même si la poussière retombe chez cette entreprise d'IA, un nouveau rapport de Reuters suggère que la justification du départ d'Altman - selon laquelle il n'était «pas transparent» - pourrait être liée à une étape majeure franchie par OpenAI dans la course vers l'intelligence artificielle générale (AGI).
Selon l'agence de presse, des sources proches de la situation ont déclaré que des chercheurs avaient envoyé une lettre au conseil d'administration d'OpenAI pour les avertir d'une nouvelle découverte en matière d'IA qui pourrait menacer l'humanité, ce qui a incité le conseil à destituer Altman de son poste de direction.
Ces sources anonymes ont déclaré à Reuters que la directrice technique d'OpenAI, Mira Murati, a déclaré aux employés que la percée, décrite comme «Q Star» ou «(Q*)», était la raison de la décision contre Altman, qui a été prise sans la participation du président du conseil d'administration, Greg Brockman, qui a démissionné d'OpenAI en signe de protestation.
Les troubles chez OpenAI ont été présentés comme une bataille idéologique entre ceux qui voulaient accélérer le développement de l'IA et ceux qui souhaitaient ralentir les travaux au profit d'un progrès plus responsable et réfléchi, communément appelé «décels». Après le lancement de GPT-4, plusieurs membres éminents de l'industrie technologique ont signé une lettre ouverte demandant à OpenAI de ralentir le développement de futurs modèles d'IA.
Mais comme Decrypt l'a rapporté ce week-end, des experts en IA ont théorisé que les chercheurs d'OpenAI avaient atteint une étape majeure qui ne pouvait pas être divulguée publiquement, ce qui a entraîné une confrontation entre les origines humanistes à but non lucratif d'OpenAI et son avenir commercial très réussi.
Le samedi, moins de 24 heures après le coup d'État, la nouvelle a commencé à se répandre selon laquelle OpenAI cherchait à conclure un accord pour ramener Altman alors que des centaines d'employés menaçaient de démissionner. Les concurrents leur ont ouvert leurs bras et leurs portefeuilles pour les accueillir.
OpenAI n'a pas encore répondu à la demande de commentaire de Decrypt.
L'intelligence artificielle générale fait référence à une IA capable de comprendre, d'apprendre et d'appliquer son intelligence pour résoudre n'importe quel problème, tout comme un être humain. L'AGI peut généraliser son apprentissage et son raisonnement à diverses tâches, s'adaptant à de nouvelles situations et à des emplois pour lesquels elle n'a pas été explicitement programmée.
Jusqu'à récemment, l'idée de l'AGI (ou de la Singularité) était considérée comme étant à des décennies de distance, mais avec les progrès de l'IA, notamment le ChatGPT d'OpenAI, Claude d'Anthropic et Bard de Google, les experts estiment que nous sommes à quelques années, pas à des décennies, de cette étape.
« Je dirais maintenant, de trois à huit ans, c'est mon avis, et la raison est en partie que les grands modèles de langage comme Llama2 de Meta et GPT-4 d'OpenAI aident et représentent un véritable progrès », a déclaré précédemment Ben Goertzel, PDG de SingularityNET et pionnier de l'IA, à Decrypt. « Ces systèmes ont considérablement accru l'enthousiasme du monde pour l'AGI, vous disposerez donc de plus de ressources, à la fois financières et humaines - plus de jeunes intelligents souhaitent se plonger dans le travail et travailler sur l'AGI. »
Édité par Ryan Ozawa.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.