Posibilidades De Que Una IA Cause Una "Catástrofe" Son del 50%: Ex-Investigador de OpenAI Dice

Paul Christiano dirigió el equipo de alineación del modelo de lenguaje en OpenAI. No está muy seguro de cómo puede terminar todo esto.

Por Jose Antonio Lanz

4 min lectura

Un ex investigador clave de OpenAI cree que hay una buena posibilidad de que la inteligencia artificial (IA) tome el control de la humanidad y la destruya.

"Creo que tal vez hay algo así como un 10-20% de posibilidades de un apoderamiento de la IA, con muchos o la mayoría de los humanos muertos", dijo Paul Christiano (quien dirigió el equipo de alineación del modelo de lenguaje en OpenAI) en el podcast Bankless. "Lo tomo muy en serio".

Christiano, quien ahora dirige el Centro de Investigación de Alineación, una organización sin fines de lucro destinada a alinear los sistemas de inteligencia artificial y aprendizaje automático con "los intereses humanos", dijo que está particularmente preocupado por lo que sucede cuando las IA alcanzan la capacidad lógica y creativa de un ser humano. "En general, tal vez estamos hablando de una posibilidad del 50/50 de una catástrofe poco después de que tengamos sistemas al nivel humano", dijo.

Christiano está en buena compañía. Recientemente, decenas de científicos de todo el mundo firmaron una carta en línea instando a que OpenAI y otras empresas que compiten por construir modelos de IA más rápidas e inteligentes, detengan el desarrollo. Desde Bill Gates hasta Elon Musk, los grandes nombres han expresado su preocupación de que, si no se controla, la IA representa un peligro obvio y existencial para las personas.

No seas malvada, IA

¿Por qué una IA se volvería malvada? Fundamentalmente, por la misma razón que una persona lo hace: entrenamiento y experiencias de vida.

Al igual que un bebé, la IA se entrena recibiendo montañas de datos sin saber realmente qué hacer con ellos. Aprende tratando de lograr ciertos objetivos con acciones aleatorias y se enfoca en los resultados "correctos", según lo definido por el entrenamiento.

Hasta ahora, al sumergirse en los datos acumulados en Internet, el machine learning ha permitido a las IA dar grandes saltos en la concatenación de respuestas bien estructuradas y coherentes a las consultas humanas. Al mismo tiempo, el procesamiento informático subyacente que impulsa el aprendizaje automático se está volviendo más rápido, mejor y más especializado. Algunos científicos creen que dentro de una década, esa potencia de procesamiento, combinada con la inteligencia artificial, permitirá que estas máquinas se vuelvan conscientes, como los humanos, y tengan un sentido de sí mismas.

Ahí es cuando las cosas se complican. Y es por eso que muchos investigadores argumentan que necesitamos descubrir cómo limitar antes de que sea demasiado tarde. Siempre y cuando se monitoree el comportamiento de la IA, se puede controlar.

Pero si la moneda cae del otro lado, incluso el cofundador de OpenAI dice que las cosas podrían ponerse muy, muy mal.

¿Foom?

Este tema ha estado sobre la mesa durante años. Uno de los debates más famosos sobre el tema tuvo lugar hace 11 años entre el investigador de IA Eliezer Yudkowsky y el economista Robin Hanson. Los dos discutieron la posibilidad de alcanzar el  "foom" —que aparentemente significa "Fast Onset of Overwhelming Mastery"— el punto en el que la IA se vuelve exponencialmente más inteligente que los humanos y capaz de auto-mejora. (La derivación del término "foom" es objeto de debate.)

"Eliezer y sus acólitos creen que es inevitable que las IA consigan el 'foom' sin previo aviso, lo que significa que un día construyes una AGI [inteligencia artificial general] y horas o días después, la cosa se ha mejorado recursivamente a una inteligencia divina y luego se come el mundo. ¿Es esto realista?" Perry Metzger, un científico informático activo en la comunidad de IA, tuiteó recientemente.

Metzger argumentó que incluso cuando los sistemas informáticos alcanzan un nivel de inteligencia humana, todavía hay mucho tiempo para evitar cualquier resultado negativo. "¿Es el 'foom' lógicamente posible? Tal vez. No estoy convencido", dijo. "¿Es posible en el mundo real? Estoy bastante seguro de que no. ¿Será la IA profundamente superhumana a largo plazo una cosa? Sí, pero no un 'foom'".

Otra figura prominente, Yann Le Cun, también alzó su voz, afirmando que es "absolutamente imposible" que la humanidad experimente una toma de control de la IA. Esperemos que así sea.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados