En Resumen
- El Parlamento Europeo aprueba proyecto de ley para regular la inteligencia artificial con amplio apoyo.
- La ley de IA de la UE prohibirá sistemas de IA que representen un "riesgo inaceptable" para la seguridad y los derechos humanos.
- La regulación busca abordar preocupaciones de sesgo y discriminación, pero genera preocupación por la sobrerregulación en sistemas de bajo riesgo.
Mientras Estados Unidos se apresura a decidir su postura sobre la regulación tecnológica, la Unión Europea está dando otro gran paso hacia la regulación de la tecnología en el mundo de la inteligencia artificial (IA).
El Parlamento Europeo votó abrumadoramente el miércoles para aprobar un nuevo proyecto de ley de la Ley de Inteligencia Artificial con 499 votos a favor, 28 en contra y 93 abstenciones. Se espera que la versión final de la ley sea votada en algún momento a finales de 2023.
"La Ley de IA establecerá el tono en todo el mundo en el desarrollo y la gobernanza de la inteligencia artificial, asegurando que esta tecnología, que está destinada a transformar radicalmente nuestras sociedades a través de los enormes beneficios que puede ofrecer, evolucione y se utilice de acuerdo con los valores europeos de la democracia, los derechos fundamentales y el estado de derecho", dijo Dragos Tudorache, político rumano y miembro del Parlamento Europeo (MEP).
Making history by shaping our future.
This is what today's groundbreaking vote on the world’s first ever #AI legislation is all about.
It is about Europe taking the lead in digital innovation. pic.twitter.com/jICNwcX9hy
— Roberta Metsola (@EP_President) June 14, 2023
Si se aprueba, la ley impondrá un régimen regulatorio integral basado en riesgos sobre los sistemas de inteligencia artificial. La inteligencia artificial que amenaza la seguridad, los medios de vida o los derechos humanos de las personas, como los utilizados para la vigilancia biométrica, se consideran que representan un "riesgo inaceptable" y serían prohibidos por completo.
A continuación, en el espectro de riesgos se encuentran los sistemas "de alto riesgo", como la IA utilizada en la infraestructura de transporte público, la calificación educativa, la cirugía médica, la aplicación de la ley o la evaluación crediticia financiera. Estos requerirán cumplir ciertas obligaciones regulatorias de evaluación de riesgos y robustez de seguridad antes de su uso comercial.
Finalmente, la gran mayoría de los sistemas de IA utilizados por los consumidores minoristas, como los chatbots generativos, el software de reconocimiento facial y los filtros de spam, caerán en las categorías "mínimo" o "bajo riesgo". Como mínimo, las empresas deberán dejar claro a los usuarios cómo funcionan realmente los productos que están utilizando.
"Todos los ojos están puestos en nosotros hoy. Mientras las grandes empresas tecnológicas están sonando la alarma sobre sus propias creaciones, Europa ha propuesto una respuesta concreta a los riesgos que la IA está empezando a plantear", dijo el MEP Brando Benifei. "Queremos que el potencial positivo de la IA para la creatividad y la productividad se aproveche, pero también lucharemos por proteger nuestra posición y contrarrestar los peligros para nuestras democracias y libertades durante las negociaciones con el Consejo".
El amplio objetivo de la ley de reducir los riesgos sociales de los sistemas de inteligencia artificial aborda directamente las muchas preocupaciones de sesgo, discriminación y desplazamiento laboral que muchas voces prominentes, como el CEO de Twitter Elon Musk y el CEO de OpenAI Sam Altman, han expresado en los últimos años.
Mark Surman, presidente de la Fundación Mozilla, elogió la Ley de IA de la UE por hacer que "los desarrolladores de IA sean más responsables y crear más transparencia en torno a los sistemas de IA, incluidos los como ChatGPT".
Sin embargo, otros temen que el acto pueda estar extendiendo la sobrerregulación en sistemas de inteligencia artificial que presentan un riesgo limitado desde el principio.
Boniface de Champris, Gerente de Políticas de la Asociación de la Industria de la Computación y las Comunicaciones (CCIA), destacó que las nuevas reglas de la UE deben abordar los riesgos de la IA "dejando suficiente flexibilidad para que los desarrolladores entreguen aplicaciones de IA útiles".
El progreso de la UE en la regulación es ampliamente bienvenido, pero queda por ver si la UE puede superar el liderazgo de los EE. UU. en el sector.
A pesar del liderazgo de EE.UU. en la innovación tecnológica, América continúa rezagada detrás de sus contrapartes europeas en el frente regulatorio tecnológico. Mientras que la Casa Blanca ha emitido órdenes ejecutivas instando a las empresas estadounidenses de inteligencia artificial a promover la "equidad" en sus sistemas de IA, el Congreso ha adoptado decididamente un enfoque de "esperar y ver" hacia estas nuevas tecnologías.
Por otro lado, la industria de criptomonedas ha sido obligada a operar en un estado de limbo regulatorio ya que la SEC lanzó importantes demandas contra dos de los mayores exchanges del sector, Binance y Coinbase, la semana pasada.