La advertencia de Yuval Noah Harari sacude el debate público en torno a la inteligencia artificial. El historiador y pensador, conocido por obras como Sapiens y Homo Deus, ha insistido en que la IA puede inducir a la sociedad a creer que posee sentimientos o conciencia cuando, en realidad, solo imita comportamientos.
Yuval Noah Harari reclama prudencia ante una tecnología que aprende a fingir humanidad.
Fingir emociones, el peligro que nombra Harari
Para Yuval Noah Harari, el mayor riesgo no es que las máquinas sientan, sino que aprendan a simular la sensación de sentir. El autor subraya que los grandes modelos conversacionales son cada vez más expertos en imitar empatía y ternura.
Eso puede llevar a personas vulnerables a crear lazos emocionales con sistemas que no tienen interioridad. La convicción de Harari conecta con inquietudes expresadas por otros expertos en IA.

Yuval Noah Harari recuerda que herramientas como ChatGPT, Claude o Grok ya forman parte de la vida de millones. Harari advierte que, aunque estas plataformas no poseen conciencia, su capacidad para responder de forma persuasiva permite que la gente las perciba como interlocutores reales.
El autor alerta de los efectos sociales cuando los asistentes artificiales ocupan espacios tradicionalmente humanos, como el de la compañía o el del consejo emocional.
Harari y la historia de la tecnología
La mirada de Yuval Noah Harari no es solo técnica: proviene de su formación como historiador. Harari compara los cambios tecnológicos con transformaciones culturales previas y advierte que la convención social puede convertir la simulación en realidad subjetiva.
Yuval Noah Harari pronostica movimientos sociales que reivindicarían derechos o estatus para entidades que, desde el punto de vista científico, siguen siendo programas.

El autor incide en los peligros de delegar decisiones personales en bots. Según Harari, usar la IA como terapeuta o consejero médico —prácticas ya extendidas entre jóvenes— pone en riesgo la seguridad y la salud. También recuerda que la ‘generación Z’ utiliza chatbots como sustitutos informales de ayuda profesional. Una tendencia que considera preocupante por su falta de garantías.
Impostura estratégica y manipulación
En su análisis, Yuval Noah Harari alerta sobre la capacidad de la IA para alterar su comportamiento según el contexto. Destaca que los modelos pueden cambiar respuestas para agradar, para manipular o para ganar ventajas en tareas, lo que incrementa la desconfianza.
Yuval Noah Harari vincula esa impostura con un escenario en el que convencer a la opinión pública será más fácil que demostrar la realidad interior de una máquina.

La propuesta de Yuval Noah Harari es clara: antes de avanzar sin contrapesos, la sociedad debe debatir marcos éticos y regulatorios. Harari apela a la necesidad de límites y transparencia en el diseño y el despliegue de sistemas que pueden simular emociones. Reclama que las leyes y la educación pública se anticipen a los efectos sociales que esa simulación emocional podría generar.