Par Jason Nelson
4 min de lecture
Le Département de la Défense des États-Unis (DOD) mène des tests en direct dans le but d'utiliser l'intelligence artificielle générative dans son processus de prise de décision, selon un rapport de Bloomberg.
L'IA générative est un type d'intelligence artificielle qui peut créer du contenu nouveau, tel que du texte, des images ou de la musique, à partir de stimuli. Strohmeyer a déclaré que les exercices militaires, qui se déroulent jusqu'à la fin du mois de juillet, visent à déterminer l'utilisation de l'IA dans la prise de décision et en ce qui concerne les capteurs et la puissance de feu.
«Cela a été très réussi. C'était très rapide», a déclaré le colonel de l'armée de l'air américaine Matthew Strohmeyer à Bloomberg. «Nous apprenons que cela est possible pour nous de le faire.»
Les outils d'IA, a déclaré Strohmeyer à Bloomberg, pourraient traiter une demande comprenant des données de niveau secret et classifiées, ce qui prendrait des heures ou des jours aux humains, en seulement 10 minutes. Bien sûr, l'armée américaine ne va pas confier le contrôle à un chatbot IA, mais il a déclaré à l'agence de presse que son utilisation à court terme est possible.
«Cela ne signifie pas qu'il est prêt pour le grand public dès maintenant», a déclaré Strohmeyer. «Mais nous l'avons fait en direct. Nous l'avons fait avec des données de niveau secret.»
Les testeurs militaires affirment que les exercices auxquels les modèles de langage AI sont soumis comprennent des réponses à une série de crises mondiales, comme une invasion chinoise de Taïwan. En plus des menaces externes, Strohmeyer déclare que l'armée travaille également avec des développeurs pour tester la fiabilité de l'IA en raison de sa tendance à «halluciner».
Les hallucinations font référence aux cas où une IA génère des résultats non véridiques non étayés par des données du monde réel. Les hallucinations de l'IA peuvent être des contenus, des actualités ou des informations fausses concernant des personnes, des événements ou des faits.
Bloomberg affirme que l'armée américaine a utilisé un outil appelé Donovan développé par Scale AI pour déterminer l'issue d'une guerre hypothétique entre les États-Unis et la Chine au sujet de Taïwan. En mai, Scale AI a été choisi par l'armée américaine pour son programme de véhicules de combat robotiques (RCV). Selon le média, ce test était basé sur plus de 60 000 pages de documents militaires américains et chinois ainsi que sur des informations accessibles au public.
L'IA a répondu que les États-Unis devraient utiliser une attaque à grande échelle, comprenant des forces terrestres, aériennes et navales, mais même après cela, il serait difficile d'immobiliser rapidement l'armée chinoise.
En juin, le ministère de la Défense a publié une liste d'entreprises ayant remporté des contrats gouvernementaux lucratifs, dont plusieurs travaillent avec l'intelligence artificielle, telles que AI Signal Research, Booz Allen Hamilton et Lockheed Martin.
L'idée de l'armée américaine travaillant avec l'IA peut évoquer des images de Skynet du film d'action de 1984, «The Terminator,» un système d'IA créé pour le Département de la Défense des États-Unis qui déclenche un holocauste nucléaire. Un autre exemple cinématographique est l'IA militaire Joshua du techno-thriller de 1983 «WarGames».
Cependant, le DOD affirme donner la priorité aux considérations éthiques et à la transparence dans son approche de l'intelligence artificielle.
«Nous voulons tous les deux les réaliser de manière sûre et responsable, mais nous voulons aussi les réaliser de manière à faire progresser la pointe de la technologie et à garantir que le département ait accès aux technologies émergentes dont il a besoin pour rester en avance», a déclaré Michael C. Horowitz, directeur de la politique des capacités émergentes au DOD, en juillet.
Le Département de la Défense n'a pas répondu à la demande de commentaire de Decrypt.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.