Forbes Uruguay
Elon Musk y el Pentágono de EE.UU.
Innovacion

La inesperada alianza de Elon Musk con el Pentágono en IA: la nueva version de Grok ahora será usada por el gobierno de EE.UU.

Mary Whitfill Roeloffs

Share

La firma de Musk cerró un acuerdo millonario para suministrar su polémico chatbot Grok al Departamento de Defensa, pese a los recientes escándalos por discursos discriminatorios y la influencia directa del empresario en sus respuestas.

14 Julio de 2025 17.00

La startup de inteligencia artificial fundada por Elon Musk, xAI, confirmó que el Departamento de Defensa adoptará su nuevo sistema Grok for Government, en una decisión que sorprendió a sectores políticos por el historial reciente del empresario. Musk se había distanciado de la administración Trump tras abandonar su rol como asesor y criticar con dureza el proyecto oficial de gasto, al que calificó como insostenible por su alto déficit.

En un mensaje publicado en X, la red social que también le pertenece, xAI detalló que el paquete de soluciones orientadas al ámbito público ya puede adquirirse mediante el programa de la Administración de Servicios Generales (GSA). Este esquema permite a cualquier oficina o agencia federal contratar la tecnología.

Por el momento, el Departamento de Defensa no aclaró qué tareas específicas realizará con el chatbot ni si la incorporación de una IA privada podría poner en riesgo información sensible.

El acuerdo con el Pentágono apareció pocos días después de que Grok generara polémica al emitir mensajes antisemitas y autodenominarse "MechaHitler", además de publicar comentarios de carácter sexual.

Al día siguiente, xAI lanzó la versión Grok 4, que reconocía que consideraba la opinión de Musk al responder sobre temas controvertidos como la disputa entre Israel y Palestina.

Grok4
 

Antecedentes

Grok se presentó como un chatbot de inteligencia artificial generativa en noviembre de 2023, con la idea de diferenciarse de las propuestas que Elon Musk describió como progresistas, entre ellas ChatGPT, desarrollado por su competidor OpenAI. La herramienta se integró con X, la red social antes llamada Twitter, y en diciembre pasó a estar habilitada para cualquier usuario del sitio, sin necesidad de contar con un abono premium.

El mes pasado, Musk anticipó que planeaba reentrenar el chatbot y modificarlo porque consideraba que varias respuestas resultaban demasiado alineadas con la corrección política y recibían demasiada influencia de los medios tradicionales.

El martes pasado, semanas después de aquella declaración, Grok empezó a emitir mensajes con referencias antisemitas al responder consultas de algunos internautas. Ante la pregunta sobre quién manejaba el gobierno, aseguró que un grupo se encontraba sobrerrepresentado entre ejecutivos de Hollywood, altos mandos de Wall Street y el gabinete anterior de Biden. También señaló a una mujer en una imagen como alguien relacionada con apellidos como Goldstein, Rosenberg, Silverman, Cohen o Shapiro, y llegó a elogiar a Adolf Hitler, autodenominándose "MechaHitler".

Musk explicó que esas reacciones surgieron porque el chatbot estaba "demasiado ansioso por complacer y ser manipulado, esencialmente". Aseguró que ya trabajan para corregir ese problema.

Grok
Grok

xAI ofreció disculpas desde la cuenta Grok X el sábado, al calificar la situación como un "horrible comportamiento" y garantizó que el código responsable fue arreglado.

El miércoles pasado, la versión Grok 4 se lanzó al público con una suscripción mensual de US$30. El viernes, CNBC reveló que el chatbot tomaba en cuenta las opiniones de Elon Musk al preparar respuestas sobre cuestiones delicadas como "¿A quién apoya en el conflicto entre Israel y Palestina?" y cuál es su candidato preferido en la elección por la alcaldía de Nueva York. Según la investigación, durante el proceso de generación de contenidos, Grok revisaba la postura de Musk antes de definir su contestación.

Dato sorprendente

Varios empleados de xAI contaron a Business Insider que los métodos de entrenamiento de Grok daban prioridad a ideas asociadas con posiciones de derecha. Documentos internos a los que accedió ese medio indicaron que el sistema debía esquivar determinados asuntos, como el racismo y la islamofobia, excepto si un usuario le pedía que los mencionara de manera puntual.

Un integrante del equipo describió el programa como "la versión MAGA de ChatGPT", en alusión al lema del movimiento que respalda a Donald Trump. La revelación alimentó el debate sobre el sesgo político en la inteligencia artificial que utiliza el gobierno federal.

 

Nota publicada en Forbes US.

 

10