La relación entre Elon Musk y Grok, su propio chatbot de inteligencia artificial, ha protagonizado esta semana un episodio insólito y revelador. El magnate tecnológico corrigió públicamente a su creación tras una respuesta errónea del sistema. Lo que ha desatado una oleada de comentarios en redes sociales y ha reabierto el debate sobre los límites de la IA generativa.
El error de Grok no solo dejó en evidencia fallos en la verificación de datos, sino que también reflejó la creciente tensión que vive Elon Musk en su entorno político y mediático.
El error de Grok que irritó a Elon Musk
Todo comenzó con una publicación falsa en X, plataforma que también controla Elon Musk. El post mostraba una supuesta respuesta de Musk al subdirector del Gabinete de Políticas de la Casa Blanca, Stephen Miller, en la que afirmaba, de forma burlesca: “Just like I took your wife”. La frase, supuestamente dirigida a Miller en medio de su reciente enfrentamiento con el presidente Donald Trump, era completamente inventada.
Sin embargo, al ser consultado por un usuario sobre la veracidad del mensaje, Grok —el chatbot desarrollado por xAI, la empresa de IA de Elon Musk— respondió que el post probablemente sí existió, aunque fue eliminado. Alegó que los indicadores del engagement (me gusta, compartidos, contexto de la conversación) coincidían con el comportamiento habitual de Musk. Y concluyó que, aunque cabía la posibilidad de una falsificación, todo apuntaba a que el mensaje era real, pero borrado posteriormente.

Ante esta afirmación, Elon Musk reaccionó con visible enfado, desmintiendo públicamente a Grok y aclarando que la publicación era completamente falsa. La pelea, aunque digital, dejó al descubierto una de las ironías más llamativas del universo tecnológico: el enfrentamiento entre el creador y su propia inteligencia artificial.
Musk contra Musk: el dilema de la autonomía de la IA
La disputa entre Elon Musk y Grok no es simplemente anecdótica. Refleja una tensión creciente entre el ideal de la IA autónoma y la necesidad de control por parte de sus desarrolladores. En este caso, Grok actuó como una IA verificador de hechos y cometió el error de asumir como probable una información no contrastada. Un error que, en palabras de muchos expertos, puede ser pequeño. Pero cuyas implicaciones son profundas.
Que Elon Musk se viera obligado a intervenir para corregir a Grok plantea preguntas esenciales sobre los límites de estas herramientas. ¿Hasta qué punto puede una IA tener voz propia si está diseñada por y para un individuo con un perfil público tan potente como el de Musk? ¿Qué sucede cuando esa IA contradice al propio Musk en su plataforma?