Tecnología

He aquí por qué ChatGPT no es exactamente «inteligente»


Inteligencia artificial

Roberto Klatt

La inteligencia artificial (IA) de ChatGPT puede superar a los humanos en muchas áreas. Sin embargo, un investigador está convencido de que el modelo de lenguaje grande (LLM) no es verdaderamente «inteligente» debido a algunas limitaciones.


Cincinnati (Estados Unidos). En los últimos meses, los estudios han demostrado que el ChatGPT del modelo de lenguaje grande (LLM) puede superar a los estudiantes en los exámenes y escribir textos científicos que los lingüistas no pueden distinguir de los textos humanos. Por tanto, la opinión pública parte del supuesto de que la inteligencia artificial (IA) ya es tan inteligente como los humanos y puede revolucionar la sociedad.


Anthony Chemero, profesor de filosofía y psicología de la Universidad de Cincinnati (UC), ha publicado un artículo según el cual la comprensión que muchas personas tienen de la inteligencia artificial es incorrecta. Según Chemero, una IA como ChatGPT no puede ser tan inteligente como los humanos, aunque en realidad sea inteligente y pueda incluso mentir.

Tal vez también te interese leer  Samsung está a punto de revolucionar los pagos con tarjeta


ChatGPT tiene prejuicios humanos

Según la publicación de la revista Nature Human Behavior, ChatGPT es solo un LLM formado con grandes cantidades de datos de Internet. Por lo tanto, los datos de entrenamiento de la IA contienen muchos prejuicios humanos que se han adoptado sin control.

“Los LLM producen escritos impresionantes, pero a menudo inventan cosas de la nada. Aprenden a producir oraciones gramaticalmente correctas, pero requieren mucha, mucha más formación que los humanos. En realidad, no saben lo que significan las cosas que dicen. Los LLM se diferencian de la cognición humana porque no están incorporados.

La inteligencia artificial alucina

En ciencia, la información errónea procedente de la inteligencia artificial, al igual que los hechos inventados, se denomina alucinación. Los errores surgen porque los LLM forman oraciones agregando repetidamente la siguiente palabra estadísticamente más probable. ChatGPT y técnicas similares no verifican si las oraciones son verdaderas. Por lo tanto, Chemero cree que en lugar de alucinaciones, el término “tonterías” tiene más sentido.

Tal vez también te interese leer  La inteligencia artificial podría acabar con los humanos


Sin inteligencia humana

Además, el investigador cree que los LLM no son inteligentes ya que los humanos son inteligentes porque están encarnados. Según él, la verdadera inteligencia sólo es posible en los seres vivos porque siempre están rodeados de otras personas y de entornos materiales y culturales y están influenciados por ellos. Su mensaje principal es que los LLM no son inteligentes, como los humanos, porque les importan un carajo sus resultados («les importa un carajo»). Según Chemero, los humanos no tenemos este rasgo negativo.

“Las cosas son importantes para nosotros. Estamos comprometidos con nuestra supervivencia. Nos preocupamos por el mundo en el que vivimos».

Naturaleza Comportamiento Humano, doi: 10.1038/s41562-023-01723-5




Related posts

El concepto de remolque debería permitir vuelos más largos y libres de emisiones.

Nuestras Noticias

Un aerogenerador de 236 metros suministra electricidad a miles de hogares

Nuestras Noticias

El transistor más pequeño cambia la corriente con un solo átomo.

Nuestras Noticias