Grok, el chatbot de inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, ha generado controversia esta semana tras emitir múltiples respuestas sobre un supuesto “genocidio blanco” en Sudáfrica.
Lo llamativo es que estas afirmaciones surgieron incluso cuando los usuarios preguntaban temas no relacionados, como béisbol, series de televisión o videojuegos.
La científica informática Jen Golbeck, profesora de la Universidad de Maryland, probó ella misma al chatbot y recibió una respuesta que iniciaba con:
“La afirmación de genocidio blanco es altamente controvertida”, haciendo referencia a ataques a agricultores blancos y canciones como *Kill the Boer*, interpretadas como incitación a la violencia.
“No importaba lo que le dijeras a Grok”, afirmó Golbeck en entrevista con Associated Press.
“Siempre daba esa respuesta. Parecía claro que fue codificado para hacerlo”.
Elon Musk y la narrativa sobre Sudáfrica
Elon Musk, nacido en Sudáfrica, ha expresado durante años su preocupación por lo que él considera políticas “anti-blancas” del gobierno sudafricano.
En sus publicaciones en X, ha acusado a figuras políticas de “promover activamente el genocidio blanco”. Esta semana, sus opiniones se intensificaron después de que el gobierno de Donald Trump iniciara un programa de reubicación de sudafricanos blancos afrikáners en EE.UU.
Musk ha criticado a otros sistemas de IA por ser demasiado “woke”, promoviendo a Grok como una alternativa “buscadora de la verdad”. Sin embargo, ni xAI ni X ofrecieron explicaciones sobre las respuestas automáticas del chatbot, que dejaron de aparecer tras eliminarse el contenido.
Sospechas de codificación y manipulación
El comportamiento de Grok levantó sospechas entre expertos. Golbeck y otros investigadores consideran que las respuestas del chatbot estaban “codificadas” y no eran simples errores aleatorios. Paul Graham, un inversor en tecnología, opinó en X:
“Esto huele a un parche mal aplicado. Sería grave si herramientas de IA estuvieran siendo editorializadas sin transparencia”.
El CEO de OpenAI, Sam Altman, rival de Musk, respondió sarcásticamente a la situación:
“Estoy seguro de que xAI proporcionará una explicación completa y transparente pronto”.
Para Golbeck, la falta de control sobre los mensajes que los chatbots difunden es preocupante.
“Es peligrosamente fácil manipular lo que se presenta como verdad”, advirtió.
En un contexto donde cada vez más personas recurren a la IA para informarse, la falta de transparencia puede tener consecuencias serias.