Les dernières années ont apporté des innovations rapides à la technologie de l'intelligence artificielle (IA). L'IA se trouve maintenant dans de nombreux secteurs différents, et de plus en plus d'entreprises expérimentent l'intégration de systèmes d'IA dans leurs opérations commerciales afin d'augmenter l'efficacité, d'élargir leur portée ou d'étendre leur gamme de produits et services. De plus, l'IA n'a jamais occupé une place aussi importante dans l'opinion publique : l'investissement de 10 milliards de dollars de Microsoft dans OpenAI, l'entreprise qui a lancé le chatbot ChatGPT fin 2022, et la façon dont ce système d'IA a fait sensation dans le monde entier ne sont que les dernières preuves de la domination de l'IA.

Mais à mesure que l'IA continue de se propager et devient plus vaste et plus puissante, elle présente également une variété de dangers, allant du petit au potentiellement existentiel. Bien sûr, tous ces dangers ne sont pas également probables, mais ils restent des raisons de se méfier de cette nouvelle technologie. Ci-dessous, nous examinons de plus près certains des nombreux dangers de l'IA.

Deepfakes et désinformation

Un deepfake est une image ou une vidéo artificielle convaincante générée par ordinateur. Le mot «deepfake» peut provenir du terme lié à l'IA «deep learning», le processus par lequel certains systèmes d'IA analysent d'énormes quantités de données pour s'entraîner et «apprendre». Les deepfakes sont une préoccupation émergente ces dernières années.

AD

De nombreux deepfakes contiennent des images ou des vidéos de célébrités, mais ils peuvent également être utilisés pour créer divers autres types de désinformation ou de contenu malveillant, des reportages d'actualités trompeurs à la pornographie de vengeance, et bien plus encore.

Les dangers potentiels des deepfakes sont importants et ils représentent l'un des exemples les plus visibles d'une catégorie plus large de risques liés à l'IA : la désinformation. L'IA peut être utilisée pour créer et diffuser largement du matériel incorrect mais qui semble convaincant. Il existe toute une série de conséquences sociales, politiques et juridiques pour les deepfakes et autres désinformations générées par l'IA, et l'un des plus grands problèmes est qu'il n'existe actuellement pratiquement aucune réglementation sur ces matériaux.

Vie privée

L'IA utilise d'énormes quantités d'informations pour s'entraîner, et ces informations sont généralement constituées de données réelles provenant de personnes réelles. Cela constitue à lui seul une atteinte potentielle à la vie privée. Et il existe des exemples spécifiques de systèmes d'IA, y compris des outils de computer vision et de reconnaissance faciale, entre autres, qui présentent des menaces encore plus grandes pour la vie privée. Les systèmes d'IA peuvent être entraînés à reconnaître les visages humains individuels, ce qui leur permet de surveiller potentiellement les sociétés et d'exercer un contrôle sur le comportement humain. Utilisés par des acteurs malveillants, ces programmes d'IA pourraient jouer un rôle clé dans la répression sociétale à grande échelle, voire pire.

Perte d'emploi

L'une des préoccupations les plus courantes concernant l'IA est qu'elle conduira à l'automatisation de compétences et de processus si efficace qu'elle entraînera l'élimination d'emplois humains, voire de secteurs entiers. En réalité, les experts sont divisés sur l'impact possible de l'IA sur les emplois. Une étude récente suggère que quelque 85 millions d'emplois pourraient être perdus en raison de l'automatisation de l'IA entre 2020 et 2025. Une autre suggère que l'IA pourrait créer 97 millions de nouveaux emplois d'ici 2025.

D'une part, l'IA vise à automatiser de nombreuses tâches simples utilisées dans certains environnements de travail : pensez à la menace que représente la tendance vers les véhicules autonomes pour le métier de livreur, par exemple.

AD

D'autre part, l'IA générative - l'IA utilisée pour créer du nouveau contenu plutôt que pour automatiser des tâches préexistantes - a probablement de nombreux obstacles à surmonter avant de pouvoir constituer une menace pour les emplois humains. Ces postes nécessitent souvent des caractéristiques humaines uniques comme l'empathie et la créativité.

Certains experts estiment que l'IA entraînera une crise de l'emploi, car les emplois qu'elle élimine et les emplois qu'elle crée ne se chevauchent pas en termes de compétences. Les travailleurs déplacés des emplois éliminés, comme l'exemple du poste de chauffeur-livreur ci-dessus, sont moins susceptibles de postuler aux emplois générés par l'IA, qui pourraient être liés à des compétences et des expériences plus spécifiques.

Biais, discrimination et la question du «techno-solutionnisme»

La société a tendance à voir l'IA à travers le prisme du «techno-solutionnisme», c'est-à-dire la croyance que la technologie est une solution miracle à divers problèmes alors qu'elle n'est qu'un outil. Il est crucial de se rappeler que les systèmes d'IA ne sont pas parfaits et qu'ils peuvent en réalité refléter et amplifier de nombreux biais et incohérences humains préexistants.

Plus les systèmes d'IA sont appliqués à des problèmes qui impliquent un potentiel de partialité et de discrimination, plus ce problème devient important. De nombreuses entreprises utilisent déjà l'IA pour aider à trier et traiter les candidatures d'emploi. Bien que l'IA ait l'avantage de pouvoir analyser beaucoup plus de candidatures en même temps que les examinateurs humains, cela ne signifie pas qu'elle est exempte de biais. Les systèmes d'IA dans ce cas doivent être conçus et surveillés très attentivement pour s'assurer qu'ils ne traitent pas certains candidats de manière injuste.

Un exemple concret de la situation ci-dessus s'est produit en 2018, lorsque Amazon a cessé d'utiliser un outil de recrutement propriétaire après qu'il soit devenu évident que le système d'IA avait été formé sur des données systématiquement biaisées contre les candidates féminines.

Le biais et la discrimination sont également des facteurs potentiels importants dans les algorithmes de recommandation présents sur les moteurs de recherche et les réseaux sociaux. Ces programmes d'IA peuvent et vont probablement confirmer et renforcer les biais sans une planification minutieuse.

Volatilité financière

L'IA a le potentiel de bouleverser le secteur financier. Un nombre croissant de sociétés d'investissement s'appuient sur l'IA pour analyser et sélectionner les titres à acheter et à vendre. Beaucoup utilisent également des systèmes d'IA pour le processus réel d'achat et de vente d'actifs. Les algorithmes de trading basés sur l'IA bénéficient de la clarté lorsque les analystes humains peuvent être influencés par l'émotion. Mais ils ne tiennent pas compte de l'impact et du contexte plus large sur la société. Les marchés reposent sur des niveaux de confiance et peuvent facilement être influencés par la peur des investisseurs. Il est facile d'imaginer une situation dans laquelle les outils d'investissement basés sur l'IA visant à maximiser les profits effectuent un grand nombre d'achats et de ventes en peu de temps, déclenchant la panique parmi les participants humains sur le marché et entraînant des krachs éclair ou d'autres volatilités.

La Singularité

Peut-être la plus grande menace que l'IA représente, bien que la moins comprise, concerne ce qu'on appelle une «singularité», ou un moment où l'intelligence artificielle dépasse l'intelligence humaine. Ce changement critique pourrait marquer le moment où les humains ne sont plus capables de contrôler l'IA, et où l'IA domine la façon dont la société est créée (ou détruite). La discussion sur la Singularité est presque entièrement théorique, car personne ne sait exactement ce qui pourrait se produire à mesure que l'IA devient de plus en plus puissante. Mais les implications potentielles pourraient être drastiques, et certains experts pensent que la Singularité pourrait même conduire à l'extinction de la race humaine.

AD

Lorsque l'IA dépasse l'intelligence humaine, elle pourrait être capable de développer des idées auxquelles aucun humain n'a jamais pensé auparavant. Cette IA super-humaine serait toujours motivée à s'améliorer, tout comme l'IA d'aujourd'hui vise à le faire, et l'écart entre l'IA en constante amélioration et les êtres humains se creuserait encore plus rapidement.

Cette IA pourrait avoir un énorme bénéfice pour la société, trouver des moyens que les humains ne pourraient pas trouver pour éradiquer les maladies, la pauvreté ou le changement climatique. D'un autre côté, elle pourrait trouver que les humains ne sont pas utiles à ses objectifs et concevoir des moyens de détruire la société ou de tuer des gens à grande échelle. La réalité est inconnue, mais elle n'est pas complètement hors de notre contrôle. Des experts en futurisme technologique comme Ray Kurzweil croient que la Singularité est susceptible de se produire dans les décennies à venir, tandis que d'autres pensent que nous pourrions n'être qu'à quelques années. Beaucoup pensent également que les façons dont les humains créent l'IA maintenant pourraient avoir des implications pour une éventuelle Singularité, quelle que soit sa date. Il est donc d'autant plus important que la société se pose les questions éthiques et les dangers de l'IA le plus tôt possible.

Fiche de référence

  • L'intelligence artificielle (IA) est une nouvelle technologie dominante qui a le potentiel d'automatiser, de maximiser l'efficacité et de transformer de nombreuses industries.
  • Plus l'IA devient puissante, plus elle pose différents types de menaces.
  • Certains des principaux dangers de l'IA incluent la désinformation (y compris la création d'images et de vidéos convaincantes connues sous le nom de deepfakes), les préoccupations liées à la vie privée, la perte d'emplois, les biais et discriminations, la volatilité du marché et financier, et une soi-disant singularité dans laquelle l'IA dépasse l'intelligence humaine.
  • On estime que l'IA rendra obsolètes environ 85 millions d'emplois entre 2020 et 2025, mais elle devrait également créer 97 millions d'emplois d'ici 2025.
  • Certains experts estiment que la Singularité pourrait se produire dans la prochaine décennie, bien que les implications de cet événement soient largement inconnues et spéculatives.

Stay on top of crypto news, get daily updates in your inbox.