En Resumen
- Yann LeCun, director de IA en Meta y pionero en redes neuronales, es reconocido como Persona del Año por su impacto en la inteligencia artificial en 2024.
- LeCun ha promovido el aprendizaje auto-supervisado como clave para la evolución hacia una IA más autónoma e inteligente.
- Ha criticado el alarmismo sobre la IA y rechaza regular modelos fundamentales, abogando por centrarse en aplicaciones específicas.
Yann LeCun, Director Científico de IA en Meta y ganador del Premio Turing, ha sido durante mucho tiempo una figura central en la inteligencia artificial. Sin embargo, durante el último año, su trabajo no solo ha continuado expandiendo los límites de la investigación en IA, sino que también ha generado debates críticos sobre cómo la sociedad debería abordar las oportunidades y riesgos que plantea esta tecnología transformadora.
Nacido en 1960 en Soisy-sous-Montmorency, Francia, LeCun ha sido una fuerza impulsora en la innovación de la IA. Desde ser el director fundador del Centro de Ciencia de Datos de la Universidad de Nueva York en 2012 y cofundador de Meta AI en 2013, hasta dar forma al futuro de la inteligencia artificial de código abierto, la visión pragmática de LeCun lo convierte en la Persona del Año según Emerge.
"En el aspecto técnico, ha sido un visionario. Solo hay un par de personas de las que genuinamente se podría decir eso, y él es una de ellas", declaró Rob Fergus, Profesor de Ciencias de la Computación de la Universidad de Nueva York, a Decrypt en una entrevista. "Recientemente, su defensa del código abierto y la investigación abierta ha sido crucial para la explosión cámbrica de startups y personas que construyen sobre estos LLMs".
Fergus es un científico informático estadounidense especializado en machine learning, deep learning y modelos generativos. Como profesor en el Instituto Courant de NYU e investigador en Google DeepMind, cofundó Meta AI (anteriormente Facebook Artificial Intelligence Research) con Yann LeCun en septiembre de 2013.
El impacto de LeCun en la IA se remonta décadas atrás, abarcando su trabajo pionero en machine learning y redes neuronales. Como antiguo Profesor Silver en la Universidad de Nueva York, ha defendido durante mucho tiempo el aprendizaje auto-supervisado—una técnica inspirada en cómo los humanos aprenden de su entorno. En 2024, esta visión impulsó avances en sistemas de IA que pueden percibir, razonar y planificar con una sofisticación creciente, similar a los seres vivos.
"Hubo una fase alrededor de 2015 cuando el aprendizaje por refuerzo era visto como el camino hacia la AGI. Yann tenía una analogía con un pastel: el aprendizaje no supervisado es el cuerpo, el aprendizaje supervisado es el glaseado, y el aprendizaje por refuerzo es la cereza del postre", recordó el Profesor Fergus. "Muchos se burlaron de esto en su momento, pero se ha demostrado que era correcto. Los LLM modernos se entrenan principalmente con aprendizaje no supervisado, se afinan con datos supervisados mínimos y se refinan usando aprendizaje por refuerzo basado en preferencias humanas".
Ya sea desarrollando sistemas de vanguardia como los modelos de lenguaje de código abierto de Meta, incluyendo Llama AI, o abordando los desafíos éticos y regulatorios de la IA, LeCun se ha convertido en una figura central en el debate global sobre el papel de la inteligencia artificial.
"Ha sido maravilloso verlo de cerca y todas las cosas increíbles que ha hecho", dijo el Profesor Fergus. "Más personas deberían escucharlo".
Regulaciones de IA
Una de las posiciones más debatidas de LeCun este año ha sido su abierta oposición a la regulación de los modelos fundamentales de IA.
"Me ha dicho que no cree que las regulaciones de IA sean necesarias o correcto", declaró a Decrypt Russel Caflisch, Profesor de Matemáticas de NYU. "Creo que es un optimista y ve todas las cosas buenas que pueden venir de la IA".
Caflisch, director del Instituto Courant de Ciencias Matemáticas en la Universidad de Nueva York, conoce al Profesor LeCun desde 2008 y ha sido testigo del surgimiento del machine learning moderno.
En junio, LeCun afirmó en X que regular los modelos en sí podría sofocar la innovación e impedir el avance tecnológico.
"Hacer responsables a los desarrolladores de tecnología por los malos usos de los productos construidos a partir de su tecnología simplemente detendrá el desarrollo tecnológico", dijo LeCun. "Ciertamente, detendrá la distribución de plataformas de IA de código abierto, lo que matará todo el ecosistema de IA, no solo las startups, sino también la investigación académica".
LeCun abogó por enfocar las regulaciones en aplicaciones donde los riesgos son más específicos al contexto y manejables, y ha hablado en contra de la regulación de los modelos fundamentales de IA, sugiriendo que regular las aplicaciones en lugar de la tecnología subyacente sería más beneficioso.
"Yann ha realizado el trabajo fundamental que ha hecho exitosa a la IA", dijo Caflisch. "Su importancia actual radica en ser accesible, articulado y tener una visión para avanzar la IA hacia la inteligencia artificial general".
Críticas al alarmismo sobre la IA
LeCun ha sido vocal en contrarrestar lo que percibe como temores exagerados sobre los peligros potenciales de la IA.
"No cede ante el alarmismo y es optimista sobre la IA, pero tampoco es un animador", dijo Caflisch. "También ha promovido un camino para mejorar esto a través de la robótica, recolectando datos del mundo físico".
En una aparición en abril en el Podcast de Lex Fridman, descartó las predicciones catastróficas frecuentemente asociadas con la superinteligencia descontrolada o los sistemas de IA sin control.
"Los catastrofistas de la IA imaginan todo tipo de escenarios catastróficos sobre cómo la IA podría escapar o controlar y básicamente matarnos a todos, y eso se basa en un montón de suposiciones que son mayormente falsas", dijo LeCun. "La primera suposición es que la emergencia de la superinteligencia podría ser un evento que en algún momento vamos a tener, vamos a descubrir el secreto, y encenderemos una máquina que es superinteligente, y como nunca lo hemos hecho antes, va a tomar el control del mundo y matarnos a todos. Eso es falso".
Desde el lanzamiento de ChatGPT en noviembre de 2022, el mundo ha entrado en lo que muchos llaman una carrera armamentista de IA. Facilitado por un siglo de películas de Hollywood que predicen el próximo apocalipsis robótico y ayudado por noticias de que los desarrolladores de IA están trabajando con el gobierno de EE. UU. y sus aliados para integrar la IA en sus marcos, muchos temen que una superinteligencia de IA tome el control del mundo.
LeCun, sin embargo, discrepa de estas visiones, diciendo que la IA más inteligente solo tendrá el nivel de inteligencia de un animal pequeño y no la mente colmena global de Matrix.
"No va a ser un evento. Vamos a tener sistemas que son tan inteligentes como un gato y tienen todas las características de la inteligencia a nivel humano, pero su nivel de inteligencia sería como el de un gato o un loro", continuó LeCun. "Luego vamos a trabajar para hacer que esas cosas sean más inteligentes. A medida que las hagamos más inteligentes, también vamos a ponerles algunos límites".
En un escenario hipotético del día del juicio final donde emergen sistemas de IA rebeldes, LeCun sugirió que si los desarrolladores no pueden ponerse de acuerdo sobre cómo controlar la IA y una se vuelve rebelde, se podría desplegar una IA 'buena' para combatir a las rebeldes.
Yann LeCun says AI language models cannot reason or plan - even models like OpenAI's o1 - instead they are only doing intelligent retrieval and are not the path towards human-level intelligence pic.twitter.com/wQb4pVaRpX
— Tsarathustra (@tsarnick) October 23, 2024
El camino a seguir para la IA
LeCun aboga por lo que él llama "IA Dirigida por Objetivos", donde los sistemas de IA no solo predicen secuencias o generan contenido, sino que son impulsados por objetivos y pueden entender, predecir e interactuar con el mundo con una profundidad similar a la de los seres vivos. Este proceso implica crear sistemas de IA que desarrollen "modelos del mundo"—representaciones internas de cómo funcionan las cosas—que permitan el razonamiento causal y la capacidad de planificar y adaptar estrategias en tiempo real.
LeCun ha sido durante mucho tiempo un defensor del aprendizaje auto-supervisado como método para avanzar la IA hacia una inteligencia más autónoma y general. Visualiza la IA aprendiendo a percibir, razonar y planificar en múltiples niveles de abstracción, lo que le permitiría aprender de vastas cantidades de datos no etiquetados, similar a cómo los humanos aprenden de su entorno.
"La verdadera revolución de la IA aún no ha llegado", dijo LeCun durante un discurso en el Foro Global de Ciencia y Tecnología K-2024 en Seúl. "En un futuro cercano, cada una de nuestras interacciones con el mundo digital será mediada por asistentes de IA".
Las contribuciones de Yann LeCun a la IA en 2024 reflejan un impulso por la innovación tecnológica y la previsión pragmática. Su oposición a la regulación severa de la IA y el rechazo a las narrativas alarmistas destacan su compromiso con el avance del campo. A medida que la IA continúa evolucionando, la influencia de LeCun asegura que siga siendo una fuerza para el progreso tecnológico.