8.4 C
Madrid
21 de noviembre de 2024
Nuestras Noticias – Actualidad y Eventos Locales al Instante
Image default
Tecnología

He aquí por qué ChatGPT no es exactamente «inteligente»

3/5 - (14 votos)


Inteligencia artificial

Roberto Klatt

La inteligencia artificial (IA) de ChatGPT puede superar a los humanos en muchas áreas. Sin embargo, un investigador está convencido de que el modelo de lenguaje grande (LLM) no es verdaderamente «inteligente» debido a algunas limitaciones.


Cincinnati (Estados Unidos). En los últimos meses, los estudios han demostrado que el ChatGPT del modelo de lenguaje grande (LLM) puede superar a los estudiantes en los exámenes y escribir textos científicos que los lingüistas no pueden distinguir de los textos humanos. Por tanto, la opinión pública parte del supuesto de que la inteligencia artificial (IA) ya es tan inteligente como los humanos y puede revolucionar la sociedad.


Anthony Chemero, profesor de filosofía y psicología de la Universidad de Cincinnati (UC), ha publicado un artículo según el cual la comprensión que muchas personas tienen de la inteligencia artificial es incorrecta. Según Chemero, una IA como ChatGPT no puede ser tan inteligente como los humanos, aunque en realidad sea inteligente y pueda incluso mentir.

Tal vez también te interese leer  ¿Son las redes neuronales profundas similares al cerebro en la percepción visual?


ChatGPT tiene prejuicios humanos

Según la publicación de la revista Nature Human Behavior, ChatGPT es solo un LLM formado con grandes cantidades de datos de Internet. Por lo tanto, los datos de entrenamiento de la IA contienen muchos prejuicios humanos que se han adoptado sin control.

“Los LLM producen escritos impresionantes, pero a menudo inventan cosas de la nada. Aprenden a producir oraciones gramaticalmente correctas, pero requieren mucha, mucha más formación que los humanos. En realidad, no saben lo que significan las cosas que dicen. Los LLM se diferencian de la cognición humana porque no están incorporados.

La inteligencia artificial alucina

En ciencia, la información errónea procedente de la inteligencia artificial, al igual que los hechos inventados, se denomina alucinación. Los errores surgen porque los LLM forman oraciones agregando repetidamente la siguiente palabra estadísticamente más probable. ChatGPT y técnicas similares no verifican si las oraciones son verdaderas. Por lo tanto, Chemero cree que en lugar de alucinaciones, el término “tonterías” tiene más sentido.

Tal vez también te interese leer  Start-up de Berlín como red social para presentaciones


Sin inteligencia humana

Además, el investigador cree que los LLM no son inteligentes ya que los humanos son inteligentes porque están encarnados. Según él, la verdadera inteligencia sólo es posible en los seres vivos porque siempre están rodeados de otras personas y de entornos materiales y culturales y están influenciados por ellos. Su mensaje principal es que los LLM no son inteligentes, como los humanos, porque les importan un carajo sus resultados («les importa un carajo»). Según Chemero, los humanos no tenemos este rasgo negativo.

“Las cosas son importantes para nosotros. Estamos comprometidos con nuestra supervivencia. Nos preocupamos por el mundo en el que vivimos».

Naturaleza Comportamiento Humano, doi: 10.1038/s41562-023-01723-5




Related posts

Alta eficiencia: eficiencia récord alcanzada para los motores diésel

Nuestras Noticias

Esto es lo que ofrece el Snapdragon 778G

Nuestras Noticias

Arabia Saudita está construyendo el edificio más grande del mundo

Nuestras Noticias