Por Jason Nelson
5 min lectura
Varios gobiernos del mundo están cada vez más inquietos ante la caja de Pandora de la inteligencia artificial avanzada que se abrió de par en par con el lanzamiento al público de ChatGPT de OpenAI. A pesar de que se están considerando posibles regulaciones, no está claro si el genio puede volver a ser encerrado en la botella.
El martes, el comisionado de privacidad de Canadá dijo que estaba investigando ChatGPT, uniéndose a colegas en una creciente lista de países, incluidos Alemania, Francia y Suecia, que han expresado preocupaciones sobre el popular chatbot después de que Italia lo prohibiera por completo el domingo.
"La tecnología de inteligencia artificial y sus efectos en la privacidad es una prioridad para mi oficina", dijo Philippe Dufresne, el Comisionado de Privacidad de Canadá, en un comunicado. “Necesitamos estar al tanto, y adelantarnos, a los avances tecnológicos rápidos, y esa es una de mis áreas clave de enfoque como Comisionado”.
La prohibición en Italia se derivó de un incidente del 20 de marzo en el que OpenAI reconoció un error en el sistema que expuso la información de pago de los usuarios y el historial de chat. OpenAI retiró brevemente ChatGPT para solucionar el problema.
“No necesitamos una prohibición en las aplicaciones de inteligencia artificial, sino formas de garantizar valores como la democracia y la transparencia”, dijo un portavoz del Ministerio del Interior alemán al medio de comunicación alemán Handelsblatt el lunes.
Pero, ¿es posible prohibir el software y la inteligencia artificial en un mundo donde existen redes privadas virtuales (VPN)?
Una VPN es un servicio que permite a los usuarios acceder de forma segura y privada a Internet al crear una conexión cifrada entre su dispositivo y un servidor remoto. Esta conexión enmascara la dirección IP del usuario, haciendo que parezca que están accediendo a Internet desde la ubicación del servidor remoto en lugar de su ubicación real.
Además, "una prohibición de IA puede no ser realista porque ya hay muchos modelos de IA en uso y se están desarrollando más", dijo Jake Maymar, vicepresidente de Innovaciones en la firma de consultoría de IA Glimpse Group, a Decrypt. “La única forma de hacer cumplir una prohibición de IA sería prohibir el acceso a las computadoras y la tecnología en la nube, lo cual no es una solución práctica”.
El intento de Italia de prohibir ChatGPT se produce en medio de una creciente preocupación sobre el impacto que la inteligencia artificial tendrá en la privacidad y la seguridad de los datos, y su posible mal uso.
Un grupo de expertos en IA, el Centro de Política de IA y Digital, presentó una denuncia formal ante la Comisión Federal de Comercio de EE. UU. el mes pasado, acusando a OpenAI de prácticas engañosas y desleales después de la aparición de una carta abierta firmada por varios miembros destacados de la comunidad tecnológica que pedían frenar el desarrollo de la inteligencia artificial.
OpenAI intentó abordar estas preocupaciones en una entrada de blog del 5 de abril sobre seguridad en IA que describía el compromiso de la empresa con la investigación de seguridad a largo plazo y la cooperación con la comunidad de IA.
OpenAI dijo que tiene como objetivo mejorar la precisión de los hechos, reduciendo la probabilidad de "alucinaciones", al tiempo que protege la privacidad de los usuarios y los niños, incluida la investigación de opciones de verificación de edad. “También reconocemos que, como cualquier tecnología, estas herramientas conllevan riesgos reales, por lo que trabajamos para garantizar que la seguridad esté integrada en nuestro sistema en todos los niveles”, escribió la empresa.
El mensaje de OpenAI no fue bien recibido por algunos, quienes lo calificaron de "decoración de la ventana" de relaciones públicas en Twitter que no abordaba el riesgo existencial que plantea la IA.
Mientras algunos advierten sobre ChatGPT, otros dicen que el chatbot no es el problema, sino una cuestión más amplia del uso previsto de la sociedad.
"Este momento brinda la oportunidad de considerar qué tipo de sociedad queremos ser, qué reglas queremos aplicar a todos por igual, impulsados por IA o no, y qué tipo de reglas económicas sirven mejor a la sociedad", dijo Barath Raghavan, profesor asociado de Ciencias de la Computación en USC Viterbi, a Decrypt. "Las mejores respuestas políticas no serán aquellas que se dirijan a mecanismos tecnológicos específicos de la IA actual (que rápidamente quedarán obsoletos), sino a comportamientos y reglas que nos gustaría ver aplicadas universalmente".
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.