ChatGPT and Co. no son fuentes de noticias confiables

Inteligencia artificial (IA)
23 de octubre de 2025 16:54
Robert Klatt
ChatGPT and Co. no son fuentes de noticias confiables
)kcots ebodALkiraY(Foto: ©
Cada vez más personas utilizan ChatGPT e IA similares como fuente de noticias. Un nuevo análisis muestra ahora que las respuestas suelen ser incorrectas y distorsionan el contenido del mensaje.
Ginebra (Suiza). Según varios estudios, entre el cinco y el diez por ciento de las personas ya utilizan inteligencia artificial (IA) como ChatGPT, Copilot, Perplexity y Gemini como fuente de noticias. Por ello, la Unión Europea de Radiodifusión (UER) examinó con 22 medios de comunicación públicos de 18 países y en 14 idiomas si la IA es una fuente fiable de contenidos informativos de actualidad.
Analizaron más de 3.000 respuestas a 30 preguntas clave sobre eventos actuales y descubrieron que casi la mitad de las respuestas (45%) contienen al menos un error tan grande que el lector no puede interpretar correctamente el mensaje. Además, una gran proporción de las respuestas de la IA (81%) contienen información errónea con defectos menores, lo que al menos conduce a una representación incorrecta del mensaje respectivo. Los científicos concluyen que las IA aún no son una fuente fiable de noticias.
Fuentes incorrectas en las respuestas de IA

Según el análisis, el mayor problema con las respuestas de IA es el seguimiento de fuentes. Esto es significativamente incorrecto en casi un tercio de las respuestas (31%) y se expresa porque la IA no cita fuentes o hace afirmaciones que no están confirmadas por las fuentes. Google Gemini es particularmente pobre en el seguimiento de fuentes y produce una gran cantidad de respuestas inadecuadas (72%), mientras que la tasa de otros chatbots es significativamente menor en promedio (25%).
Además, las respuestas a menudo contienen información inexacta (20%) o falta información que es crucial para el contexto del mensaje (14%). Las respuestas también contienen a menudo errores de hecho, por ejemplo, seguir nombrando al excanciller Olaf Scholz (SPD) como canciller de Alemania.
Una regulación más estricta de la IA
En vista de las importantes deficiencias, la UER pide una regulación más estricta de la IA. Esto debería llevar a los desarrolladores a reducir las tasas de error de sus sistemas y hacer que los informes sean más transparentes. Los editores que producen las noticias también deberían tener más control sobre el uso de su contenido en las IA y se les debería dar mayor crédito como fuente original.
Los investigadores también abogan por que los responsables políticos y las autoridades reguladoras exijan más responsabilidades a las empresas si difunden información falsa o no posicionan el contenido de las emisoras públicas de forma suficientemente visible.
Fuentes:
Estudio de la Unión Europea de Radiodifusión (UER)
Si quieres conocer otros artículos parecidos a ChatGPT and Co. no son fuentes de noticias confiables puedes visitar la categoría Tecnología.
Deja una respuesta
Lo siento, debes estar conectado para publicar un comentario.

Otras noticias parecidas