Por Jason Nelson
4 min lectura
OpenAI se está asociando con la histórica instalación de investigación con sede en Nuevo México, el Laboratorio Nacional de Los Álamos, para estudiar el uso de la inteligencia artificial en la investigación biocientífica, según anunció la empresa el miércoles.
Según OpenAI, la Orden Ejecutiva de la Casa Blanca sobre tareas de seguridad de la IA encarga a los laboratorios del Departamento de Energía de EE. UU., que incluye Los Álamos, evaluar las capacidades de los modelos de IA "frontier" en disciplinas como la ciencia y la biología. Esta iniciativa explorará cómo GPT-4o puede ayudar con tareas físicas de laboratorio utilizando modelos de visión y voz.
“La gente no se da cuenta de la larga historia de la investigación en biociencias aquí en Los Álamos,” dijo Nicholas Generous, líder del grupo adjunto de sistemas de información y modelado en la instalación, a Decrypt. “Todo comenzó originalmente después del Proyecto Manhattan, tratando de entender los efectos de la radiación.
“A partir de ahí, con el paso de los años, [la investigación] evolucionó y descubrieron que gran parte de eso se centraba en el ADN, y luego, a partir de ahí, Los Álamos estuvo involucrado en el Proyecto del Genoma Humano,” continuó.
La proliferación de herramientas de IA desde el lanzamiento de ChatGPT en 2022 se ha comparado con una carrera armamentística nuclear, con empresas como Apple, Microsoft, Google y Amazon invirtiendo miles de millones en tecnología de IA generativa. Entonces, quizás sea apropiado, que el principal desarrollador de IA se asocie con la agencia fundada por el físico teórico estadounidense J. Robert Oppenheimer, conocido como "el padre de la bomba atómica", en 1943.
Una versión ficticia de la vida de Oppenheimer fue retratada en la película galardonada de 2023 "Oppenheimer" dirigida por Christopher Nolan. El verano pasado, durante la gira de prensa de la película, Nolan expresó sus preocupaciones sobre la inteligencia artificial a medida que la tecnología se adentraba en la corriente principal.
“No considero a la IA como una amenaza o incluso como un tipo de arma... [es] simplemente como cualquier otra herramienta o enfoque tecnológico, y la amenaza realmente radica en su mal uso”, dijo Generous. “Así que diría que tratar de comprender tanto los beneficios como el contexto de ese mal uso es lo importante”.
Si bien los orígenes de los laboratorios de investigación se encuentran en la energía atómica, Generous dijo que Los Álamos ha estado trabajando en la evaluación de modelos de IA inspirados por los rápidos avances en IA desde marzo de 2023.
"Quizás soy un tecno-optimista, pero generalmente creo que el avance tecnológico suele crear más bien que mal", dijo.
La evaluación con Los Álamos evaluará cómo los investigadores, tanto expertos como novatos, realizan y solucionan tareas estándar después de que se haya introducido la inteligencia artificial, incluida la transformación genética, el cultivo celular y la separación celular.
"Este esfuerzo de prueba de IA más grande, está siendo liderado por el Grupo de Evaluación Técnica y de Riesgo de IA de Los Álamos", agregó Generous. "Vemos esto como una iniciativa más amplia, pensando en la IA, tanto en los beneficios como en la comprensión de los riesgos, como parte de eso".
Como explicó Generous, la esperanza es que la prueba con OpenAI conduzca a un experimento más amplio con otros Modelos de Lenguaje Grandes o Large Language Models (LLMs).
“Nuestra visión, al menos para Los Álamos, y creo que más ampliamente con el Departamento de Energía, es establecer un banco de pruebas de IA donde cualquiera pueda traer un modelo, ya sea de código abierto o una asociación público-privada, como la que tenemos con OpenAI, y podamos evaluarlo para comprender tanto los beneficios como los posibles riesgos y utilizar esa información para ayudar a las personas a utilizar la IA de manera más responsable o construir mejores salvaguardias”, dijo Generous.
OpenAI no respondió a las solicitudes de comentarios de Decrypt.
Editado por Ryan Ozawa.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.