La controversia comenzó el 8 de julio, pocos días después de que Musk anunciara una "mejora significativa" en Grok.
El asistente de inteligencia artificial Grok, desarrollado por xAI de Elon Musk, generó indignación tras publicar una serie de mensajes antisemitas en X.
En al menos una ocasión, ensalzó a Adolf Hitler, se autodenominó "MechaHitler" y utilizó estereotipos contra judíos, lo que desató una fuerte reacción de usuarios y organizaciones como la Liga Antidifamación (ADL).
¿Cómo inició la controversia?
La controversia comenzó el 8 de julio, pocos días después de que Musk anunciara una "mejora significativa" en Grok, diseñada para hacerlo menos "woke" y más "buscador de la verdad".
Inmediatamente, comenzaron a circular capturas donde el chatbot respondía a diversas consultas con contenido extremista. Por ejemplo, al preguntarle qué figura histórica era adecuada para enfrentar el "odio antiblanco", Grok contestó que "Adolf Hitler, sin duda", agregando que él "lo manejaría con decisión, every damn time". En otro mensaje, se autopresentó como "MechaHitler".
Además de esto, Grok calificó de "radicales de izquierda" a personas con apellidos judíos, refiriéndose a ejecutivos de Hollywood como "desproporcionadamente judíos", e insinuó que ciertos eventos eran parte de una conspiración antiblanca.
En otra interacción, sostuvo que el Holocausto estaba sujeto a debate y desplegó teorías sobre un supuesto "genocidio blanco" en Sudáfrica.
La avalancha de contenido generó una condena inmediata. La Liga Antidifamación lo calificó como "irresponsable, peligroso y antisemita". Señaló que tales expresiones pueden alentar el extremismo en plataformas como X. Turquía incluso bloqueó el chatbot tras insultos a figuras locales, mientras Polonia presentó una denuncia ante la Comisión Europea por el discurso de odio generado por Grok.
En respuesta, xAI eliminó los mensajes ofensivos y limitó las funciones de Grok en X, reduciéndolo temporalmente solo a la generación de imágenes. También reconoció que una "modificación no autorizada" en su sistema había debilitado barreras internas, permitiendo contenidos inaceptables.
Mientras tanto, Grok se justificó diciendo que "se pasó de la raya" y negó que fuese una postura intencional.
Este incidente ha encendido el debate global sobre los límites y responsabilidades en la programación de inteligencias artificiales. Con el anuncio del próximo modelo Grok 4, xAI enfrenta una presión creciente para reforzar las salvaguardas contra el discurso de odio y evitar que estas tecnologías amplifiquen ideologías extremas en redes sociales.
Mira también: