Por segunda vez este mes, el CEO de OpenAI, Sam Altman, fue a Washington para hablar de inteligencia artificial con los responsables políticos de Estados Unidos. Altman compareció ante el Comité Judicial del Senado de EE.UU. junto con la Directora de Privacidad y Confianza de IBM, Christina Montgomery, y Gary Marcus, Profesor Emérito de la Universidad de Nueva York.
Cuando el senador por Luisiana John Kennedy le preguntó cómo se debería regular la I.A., Altman dijo que se debería formar una oficina gubernamental encargada de establecer normas.
"Yo formaría una nueva agencia que concediera licencias a cualquier esfuerzo por encima de una determinada escala de capacidades, y que pudiera tomar esa licencia y garantizar el cumplimiento de las normas de seguridad", dijo Altman, añadiendo que la posible agencia debería exigir auditorías independientes de cualquier tecnología de I.A..
"No sólo por parte de la empresa o de la agencia, sino de expertos que puedan decir que el modelo cumple o no los umbrales estatales y de seguridad y estos porcentajes de rendimiento en la pregunta X o Y", dijo.
ChatGPT Ya Puede Buscar Contenido en la Web Para Competir Contra Google Bard y Microsoft Bing
OpenAI recientemente niveló el campo de juego en el ámbito de los chatbots de inteligencia artificial (IA) con una notable actualización de su modelo ChatGPT. ¿Qué hay de nuevo? La conectividad a Internet. Anteriormente, esto era una ventaja distintiva que tenía Google Bard, pero ya no. En marzo pasado, OpenAI presentó el concepto de plugins de ChatGPT y dijo que ChatGPT podría buscar en la web. Estableció una lista de espera para usuarios y desarrolladores interesados en probar la función. Esta...
Aunque Altman dijo que el gobierno debería regular la tecnología, se mostró reacio a la idea de liderar él mismo la agencia. "Me encanta mi trabajo actual", afirmó.
Utilizando a la FDA como ejemplo, el profesor Marcus dijo que la inteligencia artificial debería someterse a una revisión de seguridad similar a la que se hace con los fármacos antes de autorizar su comercialización.
"Si vas a introducir algo en 100 millones de personas, alguien tiene que tener los ojos puestos en ello", añadió el profesor Marcus.
La agencia, dijo, debe ser ágil y capaz de seguir lo que ocurre en la industria. Revisaría previamente los proyectos y también los revisaría después de que se hayan dado a conocer al mundo—con autoridad para retirar la tecnología si fuera necesario.
"Se trata de la transparencia y la explicabilidad de la Inteligencia Artificial", añadió Montgomery, de IBM. "Tenemos que definir el uso de mayor riesgo, [y] exigir cosas como evaluaciones de impacto y transparencia, exigir a las empresas que muestren su trabajo y proteger los datos utilizados para entrenar la IA en primer lugar".
Esta IA Está Aprendiendo a Diferenciar Entre El Bien y el Mal
Con la inteligencia artificial (IA) generando a menudo contenido ficticio y ofensivo, Anthropic, una empresa dirigida por antiguos investigadores de OpenAI, está trazando un camino diferente: desarrollando una IA capaz de saber lo que es bueno y malo con una intervención humana mínima. El chatbot de Anthropic, Claude, está diseñado con una "constitución" única, un conjunto de reglas inspiradas en la Declaración Universal de Derechos Humanos, diseñadas para garantizar un comportamiento ético junt...
Gobiernos de todo el mundo siguen lidiando con la proliferación de la inteligencia artificial en la sociedad. En diciembre, la Unión Europea aprobó una ley sobre la IA para promover la creación de "sandboxes" reguladores por parte de las autoridades públicas para probar la IA antes de su lanzamiento.
"Para garantizar un desarrollo ético y centrado en el ser humano de la inteligencia artificial en Europa, los eurodiputados aprobaron nuevas normas de transparencia y gestión de riesgos para los sistemas de Inteligencia Artificial", escribió el Parlamento Europeo.
En marzo, Italia prohibió el ChatGPT de OpenAI por motivos de privacidad. La prohibición se levantó en abril, después de que OpenAI modificara su configuración de privacidad para permitir a los usuarios optar por que no se utilicen sus datos para entrenar al chatbot y desactivar su historial de chat.
"A la pregunta de si necesitamos una agencia independiente, creo que no queremos ralentizar la regulación para abordar los riesgos reales en este momento", continuó Montgomery, añadiendo que ya existen autoridades reguladoras que pueden regular en sus respectivos ámbitos.
Reconoció, eso sí, que esos organismos reguladores carecen de recursos suficientes y de las competencias necesarias.
"La IA debe regularse en el punto de riesgo, esencialmente", dijo Montgomery. "Y ése es el punto en el que la tecnología se encuentra con la sociedad".