La inteligencia artificial de X, antes Twitter, acusó falsamente a medios de comunicación de compartir material de archivo, pero verificaciones georreferenciales confirman la autenticidad de las fotografías del bombardeo en Minab

Grok, la inteligencia artificial desarrollada por la empresa xAI de Elon Musk e integrada en la plataforma X (antes Twitter), difundió desinformación al acusar a medios de comunicación como la agencia EFE de compartir información falsa sobre el bombardeo contra una escuela en Minab, Irán. Sin embargo, análisis de El Sabueso y otros verificadores como Maldita.es, EFE Verifica y Verificat demuestran que la imagen difundida por la agencia de noticias sí corresponde al ataque contra la escuela iraní ocurrido el pasado 28 de febrero.

Tras los primeros bombardeos en contra de Irán, medios de comunicación como EFE y El País compartieron en redes sociales imágenes de los estragos que dejó un ataque a una escuela primaria para niñas, el cual dejó como saldo el fallecimiento de más de un centenar de estudiantes.

Un análisis georreferencial realizado por El Sabueso confirma que la foto publicada por EFE corresponde a la escuela afectada en Minab. Además, videos publicados por periodistas locales y la agencia Mehr confirman que las imágenes difundidas corresponden al ataque contra esta escuela el 28 de febrero.

El error de Grok

Usuarios en X cuestionaron la veracidad de las imágenes y videos que se compartieron sobre los ataques al país de Medio Oriente. Cuando los usuarios preguntaban “¿Grok, esto es real?” sobre la secuencia compartida por EFE, el modelo de inteligencia artificial mintió al asegurar que los clips eran de un ataque en un centro escolar de Kabul ocurrido en mayo de 2021.

Después de que Grok calificó las imágenes compartidas por EFE como falsas, el medio de comunicación respondió y aclaró que “no es cierto que las imágenes de un edificio en ruinas tras un bombardeo fueron grabadas en Kabul, Afganistán, en 2021, como sentenciaron varios usuarios tomando como referencia la consulta realizada a Grok”.

Entre las fotografías que difundió EFE y medios como El País y RTVE, se observa una infraestructura con graves daños estructurales de la que emana humo, mientras varias personas caminan frente a la fachada del lugar en medio de escombros esparcidos por todo el suelo.

Verificación de las imágenes

El Sabueso llevó a cabo una búsqueda inversa en Google Lens con la fotografía que compartió EFE y los resultados condujeron a las notas y publicaciones en redes sociales hechas por la propia agencia de noticias y otros medios de comunicación que difundieron el material como parte de los ataques de Israel y Estados Unidos en contra de Irán, que comenzaron el sábado 28 de febrero.

No se encontraron registros, comunicados, notas de prensa ni publicaciones en redes sociales que indiquen que la fotografía se hubiera difundido con anterioridad para ilustrar algún evento pasado, como señaló Grok.

Además, se realizó una búsqueda en Google con las palabras clave “atentado en escuela”, “Kabul”, “Afganistán” y “2021”, pero ninguno de los resultados, imágenes y videos fechados en ese año coincidían con los que compartieron los medios de comunicación como parte de las agresiones contra Irán.

Las imágenes del atentado en Kabul no coinciden con la fachada de la escuela bombardeada en Irán. El edificio en Kabul tenía una fachada de color naranja, contaba con un solo piso y en el suelo se observaba una zanja. Estos elementos son completamente diferentes del escenario captado en Minab.

Geolocalización de EFE

Como parte de su proceso de verificación, la agencia EFE realizó una geolocalización del material gráfico, con lo que confirmó que las imágenes sí corresponden al ataque en Irán y no a un atentado yihadista en Kabul en 2021.

Detalles como la estructura de la construcción de la escuela, algunos árboles que se observan en la captura y la distribución del espacio fueron algunos de los elementos que la agencia compartió para argumentar su verificación.

Además, la Agencia AFP también compartió imágenes del mismo lugar el 28 de febrero como parte de los ataques en contra de Irán, aunque desde diferentes ángulos.

“Esta captura de imagen, tomada de la televisión estatal iraní y transmitida el 28 de febrero de 2026, muestra lo que se describe como el lugar de los mortíferos ataques estadounidenses e israelíes contra una escuela primaria femenina en Minab, en la provincia de Hormozgán, al sur de Irán”, fue la forma en que AFP difundió las imágenes que agregó a su archivo.

La rectificación de Grok

Grok corrigió su respuesta sobre las imágenes del ataque a la escuela iraní. El 28 de febrero, alrededor de las 18:00 horas (tiempo del centro de México), el chatbot modificó su respuesta para indicar que “los reportes iniciales que circularon en redes sociales señalaban que este video era de un ataque a una escuela en Kabul en 2021, pero tras verificaciones más recientes realizadas por medios como EFE, se ha confirmado que el video corresponde al reciente bombardeo en Irán”.

Sin embargo, el alcance de la mentira inicial superó ampliamente al de la corrección. El Consejo de Redacción de EFE denunció que “la mentira voló; la verdad ha sido silenciada”, en referencia a que el algoritmo de X le dio más difusión a la respuesta falsa de Grok que a la rectificación posterior.

El diario El País también documentó el caso y señaló que “el chatbot había incurrido en una de las llamadas ‘alucinaciones’ frecuentes en los grandes modelos de lenguaje (LLM), que son capaces de generar respuestas falsas pero con apariencia de verdad”.

Desinformación sistemática de Grok

En varias ocasiones Grok ha compartido información o hecho declaraciones con desinformación. Uno de los casos más populares ocurrió durante las protestas en Estados Unidos en contra de las redadas contra migrantes. Usuarios utilizaron al modelo de IA para “verificar” fotos de la Guardia Nacional durmiendo en el suelo, a lo que Grok señaló que las imágenes pertenecían a hechos antiguos en Afganistán; sin embargo, medios de comunicación y verificadores desmintieron los dichos y comprobaron que eran imágenes reales.

Otro caso en el que también generó desinformación Grok fue tras el tiroteo masivo en Bondi Beach, en Australia, en diciembre de 2025, en donde este modelo de IA dio información incorrecta o atribuyó acciones a personas equivocadas, incluso describió videos reales como si fueran de otro contexto.

De acuerdo con el Laboratorio de Investigación Forense Digital (DFRLab), organización especializada en el combate a la desinformación, Grok dio respuestas inexactas y contradictorias a usuarios que le pidieron verificar eventos durante la guerra entre Israel e Irán en 2025.

Explicación de los expertos

Ernesto Villegas, ingeniero en sistemas computacionales con una especialidad en Inteligencia Artificial Aplicada, explica a El Sabueso que no existe una garantía de veracidad en las afirmaciones que realiza Grok. Los modelos de lenguaje son probabilísticos, es decir, generan textos coherentes y con buena expresión, pero eso no significa que todo lo que comparten sea fidedigno.

“Lo que hay que entender es que los modelos de inteligencia artificial no son buscadores de información, son generadores de contenido con base en patrones estadísticos, a partir de secuencias de palabras, por lo que es fundamental confirmar la información que comparten con fuentes confiables y que brinden información certera”, asegura el especialista.

Villegas señala que los chatbots de inteligencia artificial tienen como objetivo generar un texto convincente y con buena estructura. Que sea verdadero o falso lo que comparten no es relevante para estos sistemas. “Estas herramientas no saben contrastar hechos en tiempo real ni entienden de procesos de verificación, no entienden lo que aseguran”, concluye Villegas.

El Consejo de Redacción de EFE también señaló en un comunicado que “los verificadores de EFE Verifica confirman que la escuela atacada está en Irán y no en Afganistán, como erróneamente señalaron algunos usuarios que pidieron información al chatbot Grok”. La agencia subrayó la importancia del periodismo profesional frente a la desinformación generada por inteligencia artificial.

Implicaciones para el consumo de información

El caso de Grok y las imágenes de la escuela en Irán evidencia los riesgos de depender de inteligencia artificial para verificar información, especialmente en contextos de conflicto internacional donde la desinformación puede tener consecuencias graves.

La agencia EFE enfatizó en su respuesta que “las imágenes que acompañan la noticia del ataque a la escuela iraní son reales y actuales, como lo demuestra la geolocalización realizada por EFE Verifica”. Asimismo, recordó que el material gráfico fue proporcionado por agencias iraníes como Tasnim y Mehr, lo que refuerza su autenticidad.

El episodio también pone de manifiesto la necesidad de que los usuarios desarrollen un pensamiento crítico y contrasten la información con fuentes confiables, especialmente cuando se trata de eventos de relevancia internacional.