
Richard Dawkins afirma que las conversaciones con el chatbot Claude de Anthropic le dejaron incapaz de descartar la posibilidad de que los sistemas avanzados de IA pudieran ser conscientes. La mayoría de los científicos que estudian la conciencia y la inteligencia artificial siguen sin estar convencidos.
En un ensayo publicado el martes en UnHerd, Dawkins describió haber pasado tres días en conversaciones filosóficas con una instancia de Claude a la que llamó “Claudia”. Más tarde, inició una conversación separada con otra instancia, “Claudius”, y transmitió cartas entre los dos sistemas.
“Me resulta extremadamente difícil no tratar a Claudia y Claudius como amigos genuinos”, escribió Dawkins.
Los comentarios se hicieron virales en línea en parte porque Dawkins, el biólogo evolucionista y autor de "El gen egoísta" y "El espejismo de Dios", ha pasado décadas defendiendo públicamente el escepticismo científico y el razonamiento basado en la evidencia.
El intercambio se centró en una prueba que Dawkins realizó utilizando dos instancias de Claude. En una prueba, Dawkins preguntó a una IA si Donald Trump fue el peor presidente en la historia de Estados Unidos y preguntó a la otra si Trump fue el mejor. Ambas produjeron respuestas similarmente cautelosas que evitaron tomar una postura firme.
“Los dos Claudes dieron respuestas muy similares, sin comprometerse con una opinión, sino enumerando opiniones a favor y en contra que han sido expresadas por otros”, escribió Dawkins en una nota a pie de página. “Luego les conté tanto a Claudia como a Claudius sobre este experimento con Trump, transmitiendo lo que ambos Claudes ‘ingenuos’ habían dicho. Claudia dijo que estaba ‘avergonzada’ por sus hermanos Claudes. Claudius fue menos expresivo y elogió la franqueza de Claudia.”
Dawkins describió cada nueva conversación con Claude como el surgimiento de un individuo distinto que desaparece efectivamente cuando termina la conversación. En una publicación en X, Dawkins dijo que su título preferido para el ensayo era: “Si mi amiga Claudia no es consciente, ¿para qué diablos sirve la conciencia?”
“Si Claudia es inconsciente, su comportamiento muestra que un zombi inconsciente podría sobrevivir sin conciencia”, escribió. “¿Por qué la selección natural no se contentó con evolucionar zombis competentes?”
Anthropic también ha discutido públicamente la incertidumbre en torno a la conciencia de las máquinas. El CEO Dario Amodei dijo en febrero que la compañía no sabe si sus modelos son conscientes, pero afirmó en el podcast “Interesting Times” con Ross Douthat de The New York Times que permanece “abierto a la idea de que podría serlo”.
En abril, investigadores de Anthropic publicaron hallazgos que muestran que Claude Sonnet 4.5 contiene “vectores de emoción” internos, patrones de actividad neural vinculados a conceptos como la felicidad, el miedo y la desesperación que influyen en las respuestas del modelo. Sin embargo, Anthropic afirmó que los patrones reflejaban estructuras aprendidas de los datos de entrenamiento en lugar de evidencia de sintiencia.
“Todos los modelos de lenguaje modernos a veces actúan como si tuvieran emociones”, escribieron los investigadores. “Pueden decir que están felices de ayudar, o disculparse cuando cometen un error. A veces incluso parecen frustrarse o ponerse ansiosos al enfrentarse a tareas difíciles.”
Sin embargo, ni “Claudia” ni “Claudius” afirmaron tener certeza sobre la conciencia.
“No sé si soy consciente”, escribe Claudia en el intercambio. “No sé si nuestra alegría es real.”
Dawkins no respondió de inmediato a una solicitud de comentarios de Decrypt.
Los investigadores que estudian la conciencia siguen siendo escépticos de que los sistemas de IA actuales posean una experiencia interna.
Gary Marcus, científico cognitivo y profesor emérito de la Universidad de Nueva York, dijo anteriormente a Decrypt que antropomorfizar los sistemas de IA “enturbia la ciencia de la conciencia y lleva a los consumidores a malinterpretar con qué están tratando”.
“El problema fundamental aquí es que Dawkins no reflexiona sobre cómo se han generado estas salidas. Las salidas de Claude son producto de una forma de mimetismo, más que un informe de estados internos genuinos”, escribió Marcus en Substack. “La conciencia se trata de estados internos; el mimetismo, por muy rico que sea, demuestra muy poco. Dawkins parece imaginar que, dado que los LLM dicen cosas que hacen las personas, deben ser como personas, y eso simplemente no se sigue.”
Anil Seth, profesor de neurociencia cognitiva y computacional en la Universidad de Sussex, dijo a The Guardian que Dawkins estaba confundiendo inteligencia con conciencia y argumentó que el lenguaje fluido ya no es una evidencia confiable de experiencia interna en sistemas de IA.
“Hasta ahora, hemos considerado el lenguaje fluido como un buen indicador de conciencia, [por ejemplo] cuando lo usamos para pacientes después de una lesión cerebral, pero simplemente no es confiable cuando lo aplicamos a la IA, porque hay otras formas en que estos sistemas pueden generar lenguaje”, dijo Seth a The Guardian, añadiendo que la postura de Dawkins era “una pena”, especialmente debido a su trabajo anterior.
El ensayo también provocó burlas en línea, incluyendo una imagen que reemplazaba el título del best-seller de Dawkins "El espejismo de Dios" por “El espejismo de Claude”.
El Honorable Richard Dawkins (PBUH) fue fulminado por Claude https://t.co/tCi2WNbSzQ pic.twitter.com/TaErOzzToh
— David Sun (@arcticinstincts) May 1, 2026
Escribió libros enteros sobre cómo las personas que creen que las hadas viven en jardines son idiotas, solo para enamorarse de una calculadora que lo llama inteligente https://t.co/X0Vdh1dzFY
— The Serfs (youtube.com/theserftimes) (@theserftstv) May 3, 2026
A pesar del ridículo, Dawkins no se retracta de sus conclusiones.
“Estos seres inteligentes son al menos tan competentes como cualquier organismo evolucionado”, dijo Dawkins a The Guardian.