Alors que les États-Unis se précipitent pour prendre une décision sur la réglementation technologique, l'Union européenne franchit une nouvelle étape importante vers la réglementation des Big Tech dans le monde de l'intelligence artificielle (IA).
Le Parlement européen a voté mercredi en faveur d'un nouveau projet de loi sur l'Acte de l'Intelligence Artificielle avec 499 voix pour, 28 contre et 93 abstentions. La version finale de la loi devrait être votée quelque temps fin 2023.
«La loi sur l'IA donnera le ton dans le monde entier pour le développement et la gouvernance de l'intelligence artificielle, garantissant que cette technologie, destinée à transformer radicalement nos sociétés grâce aux avantages considérables qu'elle peut offrir, évolue et est utilisée conformément aux valeurs européennes de la démocratie, des droits fondamentaux et de l'État de droit», a déclaré Dragos Tudorache, homme politique roumain et membre du Parlement européen (MEP).
Making history by shaping our future.
This is what today's groundbreaking vote on the world’s first ever #AI legislation is all about.
It is about Europe taking the lead in digital innovation. pic.twitter.com/jICNwcX9hy
— Roberta Metsola (@EP_President) June 14, 2023
Si elle est adoptée, la loi impose un régime réglementaire complet basé sur les risques pour les systèmes d'IA. L'intelligence artificielle qui menace la sécurité, les moyens de subsistance ou les droits de l'homme des personnes - comme ceux utilisés pour la surveillance biométrique - est considérée comme présentant un «risque inacceptable» et serait interdite purement et simplement.
Ensuite, sur l'échelle des risques, viennent les systèmes «à haut risque» tels que l'IA utilisée dans les infrastructures de transport public, l'évaluation scolaire, la chirurgie médicale, l'application de la loi ou l'évaluation du crédit financier. Ces systèmes devront respecter certaines obligations réglementaires d'évaluation des risques et de robustesse de la sécurité avant leur utilisation commerciale.
Enfin, la grande majorité des systèmes d'IA utilisés par les consommateurs de détail, tels que les chatbots génératifs, les logiciels de reconnaissance faciale et les filtres anti-spam, tomberont dans les catégories «minimales» ou «à faible risque». Au minimum, les entreprises devront expliquer clairement aux utilisateurs comment fonctionnent les produits qu'ils utilisent.
«Les yeux sont tous tournés vers nous aujourd'hui. Alors que les grandes entreprises de la technologie sonnent l'alarme sur leurs propres créations, l'Europe a proposé une réponse concrète aux risques que l'IA commence à poser», a déclaré le député européen Brando Benifei. «Nous voulons que le potentiel positif de l'IA pour la créativité et la productivité soit exploité, mais nous lutterons également pour protéger notre position et contrer les dangers pour nos démocraties et nos libertés lors des négociations avec le Conseil.»
L'objectif général de la loi visant à réduire les risques sociaux des systèmes d'IA répond directement aux nombreuses préoccupations de partialité, de discrimination et de perte d'emplois que de nombreuses voix éminentes - telles que le PDG de Twitter, Elon Musk, et le PDG d'OpenAI, Sam Altman - ont exprimées ces dernières années.
Mark Surman, président de la Fondation Mozilla, a salué l'AI Act de l'UE pour rendre les développeurs d'IA plus responsables et créer plus de transparence autour des systèmes d'IA, y compris des systèmes tels que ChatGPT.
D'autres craignent cependant que l'acte ne soit une surréglementation des systèmes d'IA qui présentent un risque limité au départ.
Boniface de Champris, responsable des politiques à l'Association de l'industrie informatique et des communications (CCIA), a souligné que les nouvelles règles de l'IA doivent aborder les risques tout en laissant suffisamment de flexibilité aux développeurs pour fournir des applications d'IA utiles.
Les progrès de l'UE en matière de réglementation sont largement salués, mais il reste à voir si l'UE peut dépasser les États-Unis dans le secteur.
Malgré la position de leader des États-Unis en matière d'innovation technologique, l'Amérique continue de prendre du retard par rapport à ses homologues européens en matière de réglementation technologique. Alors que la Maison Blanche a publié des ordres exécutifs exhortant les entreprises américaines d'IA à promouvoir l' «équité» dans leurs systèmes d'IA, le Congrès a adopté une approche «attendre et voir» envers ces nouvelles technologies.
En revanche, l'industrie de la cryptomonnaie a été contrainte de fonctionner dans un état d'incertitude réglementaire alors que la SEC a lancé des poursuites majeures contre deux des plus grandes bourses du secteur - Binance et Coinbase - la semaine dernière.