Inteligencia artificial (IA)
Roberto Klatt
ChatGPT and Co. no son fuentes de noticias confiables
)kcots ebodALkiraY(Foto: ©
Cada vez más personas utilizan ChatGPT e inteligencia artificial similar como fuente de noticias. Un nuevo análisis muestra ahora que las respuestas suelen ser incorrectas y distorsionan el contenido del mensaje.
Ginebra (Suiza). Según varios estudios, entre el 5 y el 10% de las personas ya utilizan inteligencia artificial (IA) como ChatGPT, Copilot, Perplexity y Gemini como fuente de noticias. Por ello, la Unión Europea de Radiodifusión (UER) examinó con 22 medios de comunicación públicos de 18 países y en 14 idiomas si la inteligencia artificial es una fuente fiable de contenidos informativos de actualidad.
Analizaron más de 3.000 respuestas a 30 preguntas clave sobre eventos actuales y descubrieron que casi la mitad de las respuestas (45%) contienen al menos un error tan grande que el lector no puede interpretar correctamente el mensaje. Además, una gran parte de las respuestas de la IA (81%) contienen información incorrecta con pequeños defectos, lo que lleva a al menos una representación incorrecta del mensaje respectivo. Los científicos concluyen que las IA aún no son una fuente fiable de noticias.
Fuentes incorrectas en las respuestas de la IA
Según el análisis, el mayor problema con las respuestas de la IA es el seguimiento de fuentes. Esto es significativamente incorrecto en casi un tercio de las respuestas (31%) y se expresa en que AI no cita fuentes o hace afirmaciones que no están confirmadas por las fuentes. Google Gemini es particularmente pobre en el seguimiento de fuentes y produce una gran cantidad de respuestas inapropiadas (72%), mientras que la tasa de otros chatbots es significativamente menor en promedio (25%).
Además, las respuestas suelen contener información inexacta (20%) o falta información crucial para el contexto del mensaje (14%). Las respuestas también contienen a menudo errores fácticos, por ejemplo al seguir nombrando Canciller de Alemania al ex canciller Olaf Scholz (SPD).
Una regulación más estricta de la IA
A la luz de las graves deficiencias, la UER pide una regulación más estricta de la IA. Esto debería llevar a los desarrolladores a reducir las tasas de error en sus sistemas y hacer que los informes sean más transparentes. Los editores que producen las noticias también deberían tener más control sobre el uso de su contenido en IA y se les debería dar más crédito como fuente original.
Los investigadores también argumentan que los formuladores de políticas y los reguladores exigen más responsabilidad a las empresas si difunden información falsa o no colocan el contenido de las emisoras públicas en un lugar suficientemente destacado.
Fuentes:
Estudio de la Unión Europea de Radiodifusión (UER)
Si tienes un smartwatch con Wear Os, luchar contra el Covid-19 será más sencillo
Ordenadores para simulación cerebral
¿Dispositivos informáticos hechos con hongos? El equipo de científicos cree en ello y está trabajando en ello
El chip óptico neuromórfico más rápido del mundo promete avances masivos en inteligencia artificial

