Redacción Macronews.- La difusión de imágenes sobre un presunto ataque militar de Estados Unidos en colaboración con Israel contra ciudades de Irán, incluida Teherán, desató una controversia internacional luego de que el asistente de inteligencia artificial Grok calificara el material como desactualizado y falso, acusación que posteriormente fue rectificada.

El pasado 28 de febrero, la agencia española Agencia EFE publicó fotografías y videos que mostraban los daños en una escuela femenina ubicada en Minab, al sur de Irán, donde se reportó el fallecimiento de más de 100 personas, entre ellas al menos 85 alumnas, tras los bombardeos atribuidos a fuerzas de Estados Unidos e Israel.
En la red social X, usuarios solicitaron la verificación del contenido a Grok, chatbot desarrollado por xAI, empresa del empresario Elon Musk. En su primera respuesta, la herramienta aseguró que el video correspondía a un atentado ocurrido el 8 de mayo de 2021 en Kabul, Afganistán, donde un coche bomba explotó frente a un centro escolar, dejando al menos 85 muertos y 147 heridos.
EFE verifica autenticidad y Grok rectifica
Tras las acusaciones, la agencia respondió desde su cuenta EFE Verifica, donde afirmó que las imágenes sí correspondían al bombardeo en Irán y explicó que el material fue proporcionado por las agencias iraníes Tanim y Mehr.
Para sustentar su versión, EFE realizó un proceso de geolocalización utilizando Google Maps, comparando elementos arquitectónicos y puntos de referencia visibles en los videos con imágenes satelitales del área afectada. Posteriormente, Grok emitió una rectificación; sin embargo, esta corrección no alcanzó la misma difusión que su señalamiento inicial.
El Consejo de Redacción de EFE condenó el error del asistente de IA y advirtió que fallas algorítmicas de este tipo pueden impactar la credibilidad del periodismo profesional y amplificar desinformación en entornos digitales.
Debate sobre la confianza en la inteligencia artificial
El incidente reavivó el debate entre especialistas en comunicación y tecnología sobre el papel de las herramientas de inteligencia artificial en la verificación de información. Diversos investigadores han señalado que estos sistemas, aunque avanzados, pueden incurrir en errores significativos que influyen en la percepción pública.
La plataforma Grok ha sido previamente cuestionada por la generación de contenidos controvertidos, incluidos deepfakes, material inapropiado y mensajes discriminatorios, lo que ha intensificado la discusión sobre regulación, ética y responsabilidad en el uso de tecnologías algorítmicas.
LEER: PILOTO ALEX MÁRQUEZ LIDERA EL TEST DE SEPANG 2026 CON TIEMPO DE 1:56.402 Y MARCA EL MEJOR REGISTRO GENERAL
El caso pone nuevamente sobre la mesa la importancia de contrastar fuentes y mantener criterios periodísticos rigurosos en un ecosistema informativo cada vez más influenciado por herramientas automatizadas.

















