24 de octubre de 2025
Nuestras Noticias – Actualidad y Eventos Locales al Instante
Image default
Tecnología

ChatGPT and Co. no son fuentes de noticias confiables

La puntuación es post


Inteligencia artificial (IA)


Roberto Klatt

ChatGPT and Co. no son fuentes de noticias confiables

)kcots ebodALkiraY(Foto: ©

Cada vez más personas utilizan ChatGPT e inteligencia artificial similar como fuente de noticias. Un nuevo análisis muestra ahora que las respuestas suelen ser incorrectas y distorsionan el contenido del mensaje.


Ginebra (Suiza). Según varios estudios, entre el 5 y el 10% de las personas ya utilizan inteligencia artificial (IA) como ChatGPT, Copilot, Perplexity y Gemini como fuente de noticias. Por ello, la Unión Europea de Radiodifusión (UER) examinó con 22 medios de comunicación públicos de 18 países y en 14 idiomas si la inteligencia artificial es una fuente fiable de contenidos informativos de actualidad.


Analizaron más de 3.000 respuestas a 30 preguntas clave sobre eventos actuales y descubrieron que casi la mitad de las respuestas (45%) contienen al menos un error tan grande que el lector no puede interpretar correctamente el mensaje. Además, una gran parte de las respuestas de la IA (81%) contienen información incorrecta con pequeños defectos, lo que lleva a al menos una representación incorrecta del mensaje respectivo. Los científicos concluyen que las IA aún no son una fuente fiable de noticias.

Tal vez también te interese leer  La mayoría de los viajes de camiones a Alemania pueden realizarse eléctricamente


Fuentes incorrectas en las respuestas de la IA

Según el análisis, el mayor problema con las respuestas de la IA es el seguimiento de fuentes. Esto es significativamente incorrecto en casi un tercio de las respuestas (31%) y se expresa en que AI no cita fuentes o hace afirmaciones que no están confirmadas por las fuentes. Google Gemini es particularmente pobre en el seguimiento de fuentes y produce una gran cantidad de respuestas inapropiadas (72%), mientras que la tasa de otros chatbots es significativamente menor en promedio (25%).

Además, las respuestas suelen contener información inexacta (20%) o falta información crucial para el contexto del mensaje (14%). Las respuestas también contienen a menudo errores fácticos, por ejemplo al seguir nombrando Canciller de Alemania al ex canciller Olaf Scholz (SPD).

Tal vez también te interese leer  El reloj más preciso del mundo debería ayudar con la redefinición del segundo

Una regulación más estricta de la IA

A la luz de las graves deficiencias, la UER pide una regulación más estricta de la IA. Esto debería llevar a los desarrolladores a reducir las tasas de error en sus sistemas y hacer que los informes sean más transparentes. Los editores que producen las noticias también deberían tener más control sobre el uso de su contenido en IA y se les debería dar más crédito como fuente original.


Los investigadores también argumentan que los formuladores de políticas y los reguladores exigen más responsabilidad a las empresas si difunden información falsa o no colocan el contenido de las emisoras públicas en un lugar suficientemente destacado.

Fuentes:

Estudio de la Unión Europea de Radiodifusión (UER)




Related posts

Esto es lo que importa cuando se trata de mantenimiento y cuidado.

Nuestras Noticias

Un aerogenerador de 236 metros suministra electricidad a miles de hogares

Nuestras Noticias

Acondicionadores de aire y purificadores AEG

Nuestras Noticias