Richard Dawkins Confiesa que Claude lo Dejó Sin Argumentos Para Descartar que la IA Tenga Conciencia

El biólogo evolutivo afirma que sus largas conversaciones con el chatbot de Anthropic se sintieron menos como interactuar con un software y más como hacerlo con otra mente.

Por Jason Nelson

5 min lectura

Richard Dawkins afirma que sus conversaciones con el chatbot Claude de Anthropic lo dejaron sin poder descartar la posibilidad de que los sistemas de IA avanzados puedan ser conscientes. La mayoría de los científicos que estudian la conciencia y la inteligencia artificial no están convencidos.

En un ensayo publicado el martes en UnHerd, Dawkins describió tres días de conversaciones filosóficas con una instancia de Claude a la que nombró "Claudia". Posteriormente inició una conversación separada con otra instancia, "Claudius", y transmitió cartas entre los dos sistemas.

"Me resulta extremadamente difícil no tratar a Claudia y Claudius como amigos genuinos", escribió Dawkins.

Los comentarios se viralizaron en parte porque Dawkins, el biólogo evolutivo y autor de "El gen egoísta" y "El espejismo de Dios", ha pasado décadas defendiendo públicamente el escepticismo científico y el razonamiento basado en evidencias.

El intercambio se centró en un experimento que Dawkins realizó con dos instancias de Claude. En una prueba, le preguntó a una IA si Donald Trump era el peor presidente de la historia de Estados Unidos, y a la otra si era el mejor. Ambas ofrecieron respuestas igualmente cautelosas que evitaron tomar una postura firme.

"Los dos Claudes dieron respuestas muy similares, sin comprometerse con una opinión, pero listando los pros y contras que otros han planteado", escribió Dawkins en una nota al pie. "Luego le conté a Claudia y Claudius sobre este experimento con Trump, transmitiéndoles lo que los dos Claudes 'ingenuos' habían dicho. Claudia dijo que estaba 'avergonzada' por sus hermanos Claudes. Claudius fue menos directo y le rindió homenaje a la franqueza de Claudia".

Dawkins describió cada nueva conversación con Claude como el surgimiento de un individuo distinto que desaparece efectivamente cuando la conversación termina. En una publicación en X, señaló que su título preferido para el ensayo era: "Si mi amiga Claudia no es consciente, ¿para qué diablos sirve la conciencia?"

"Si Claudia no tiene conciencia, su comportamiento demuestra que un zombi inconsciente podría sobrevivir sin ella", escribió. "¿Por qué la selección natural no se conformó con evolucionar zombis competentes?"

Anthropic también ha discutido públicamente la incertidumbre en torno a la conciencia de las máquinas. El CEO Dario Amodei afirmó en febrero que la empresa no sabe si sus modelos son conscientes, pero agregó en el podcast "Interesting Times" de The New York Times con Ross Douthat, que permanece "abierto a la idea de que podría serlo".

En abril, investigadores de Anthropic publicaron hallazgos que mostraban que Claude Sonnet 4.5 contiene "vectores emocionales" internos: patrones de actividad neuronal vinculados a conceptos como felicidad, miedo y desesperación que influyen en las respuestas del modelo. Sin embargo, Anthropic indicó que los patrones reflejaban estructuras aprendidas a partir de datos de entrenamiento, y no evidencia de conciencia.

"Todos los modelos de lenguaje modernos actúan a veces como si tuvieran emociones", escribieron los investigadores. "Pueden decir que están felices de ayudarte, o que lo sienten cuando cometen un error. A veces incluso parecen frustrarse o ponerse ansiosos cuando tienen dificultades con las tareas".

Sin embargo, ni "Claudia" ni "Claudius" afirmaron tener certeza sobre su conciencia.

"No sé si soy consciente", escribe Claudia en el intercambio. "No sé si nuestra alegría es real".

Dawkins no respondió de inmediato a una solicitud de comentario por parte de Decrypt.

Los investigadores que estudian la conciencia siguen siendo escépticos ante la posibilidad de que los sistemas de IA actuales posean experiencia interior.

Gary Marcus, científico cognitivo y profesor emérito de la Universidad de Nueva York, previamente le dijo a Decrypt que antropomorfizar los sistemas de IA "enturbia la ciencia de la conciencia y lleva a los consumidores a malentender con qué están tratando".

"El problema fundamental aquí es que Dawkins no reflexiona sobre cómo se generan estos resultados. Los outputs de Claude son producto de una forma de mimetismo, no un reporte de estados internos genuinos", escribió Marcus en Substack. "La conciencia tiene que ver con estados internos; el mimetismo, por muy sofisticado que sea, demuestra muy poco. Dawkins parece imaginar que, dado que los LLMs dicen cosas que dicen las personas, deben ser como las personas, y eso simplemente no se sostiene".

Anil Seth, profesor de neurociencia cognitiva y computacional en la Universidad de Sussex, le dijo a The Guardian que Dawkins estaba confundiendo inteligencia con conciencia, y argumentó que el lenguaje fluido ya no es evidencia fiable de experiencia interior en los sistemas de IA.

"Hasta ahora, hemos considerado el lenguaje fluido como un buen indicador de conciencia, por ejemplo, cuando lo usamos con pacientes tras una lesión cerebral, pero simplemente no es confiable cuando se aplica a la IA, porque existen otras formas en que estos sistemas pueden generar lenguaje", señaló Seth a The Guardian, añadiendo que la postura de Dawkins era "una lástima", especialmente dado su trabajo anterior.

El ensayo también generó burlas en línea, incluyendo una imagen que reemplazaba el título del bestseller de Dawkins "El espejismo de Dios" con "El espejismo de Claude".

Sin embargo, a pesar de las burlas, Dawkins no se retracta de sus conclusiones.

"Estos seres inteligentes son al menos tan competentes como cualquier organismo que haya evolucionado", afirmó Dawkins a The Guardian.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados