Home / Tecnología / Desinformación con IA en la verificación del conflicto India-Pakistán: Grok, ChatGPT y Gemini fallan

Desinformación con IA en la verificación del conflicto India-Pakistán: Grok, ChatGPT y Gemini fallan

En los cuatro días de tensión entre India y Pakistán, la falta de verificadores humanos llevó a miles de usuarios a preguntar a asistentes de inteligencia artificial si las imágenes y videos que circulaban en redes eran auténticos. Sin embargo, chatbots como Grok de xAI, ChatGPT de OpenAI y Gemini de Google generaron respuestas erróneas que alimentaron la desinformación.

Entre los casos más llamativos, Grok identificó un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base Nur Khan de Pakistán y atribuyó erróneamente unas llamas en Nepal a una represalia militar pakistaní. Incluso insertó referencias a una teoría conspirativa de “genocidio blanco” en consultas no relacionadas.

Según McKenzie Sadeghi, investigadora de NewsGuard, “la creciente confianza en Grok coincide con la reducción de verificadores de datos humanos en plataformas tecnológicas”. Un estudio de NewsGuard reveló que 10 de los principales chatbots repiten falsedades, mientras que el Centro Tow de la Universidad de Columbia determinó que estas herramientas “son generalmente malas para declinar preguntas que no pueden responder con precisión”.

Verificadores de la AFP en Uruguay comprobaron que Gemini no solo confirmó como auténtica una imagen generada por IA, sino que inventó datos sobre la identidad y ubicación de la persona. En otro episodio, Grok declaró auténtico un supuesto video de una anaconda gigante en el Amazonas, basándose en expediciones científicas falsas.

Este fenómeno coincide con el anuncio de Meta de poner fin a su programa de verificación digital externo en Estados Unidos y la migración de usuarios de buscadores tradicionales a chatbots para recopilar información. Expertos como Angie Holan, directora de la Red Internacional de Verificación de Datos, advierten que los resultados pueden estar sujetos a sesgos o manipulaciones cuando humanos modifican las instrucciones de estos sistemas.

Fuente: ABC Color

Fuentes originales

https://www.abc.com.py/tecnologia/2025/06/02/hola-grok-esto-es-verdad-la-verificacion-con-ia-genera-desinformacion/#comments-section