Tecnología

¿Pueden los lingüistas distinguir ChatGPT de los textos humanos?


Inteligencia artificial (IA)

Roberto Klatt

El software no puede reconocer los textos de ChatGPT. Ahora se está examinando si los lingüistas pueden distinguir entre textos humanos y textos de IA.


Menfis (Estados Unidos). Según un estudio de la Universidad de California, Los Ángeles (UCLA), el ChatGPT del modelo de lenguaje grande (LLM) puede superar a los estudiantes en razonamiento analógico. Además, investigadores de la Universidad de Nueva York en Abu Dhabi (NYUAD) han descubierto que la inteligencia artificial (IA) puede obtener mejores resultados en los exámenes que los humanos en muchas materias. Por eso, muchas universidades temen que los estudiantes puedan utilizar la inteligencia artificial para hacer los deberes y hacer trampa en los exámenes.


Según Open AI, la empresa que desarrolla ChatGPT, los sistemas técnicos no pueden determinar de forma fiable si un texto fue escrito por un humano o por una inteligencia artificial. Open AI desconectó su clasificador hace meses.

Tal vez también te interese leer  Adaptación de los suministros de agua al cambio climático


Los lingüistas evalúan textos.

Luego, investigadores de la Universidad de Memphis llevaron a cabo un experimento en el que se pidió a 72 lingüistas que evaluaran si un texto científico provenía de un humano o de ChatGPT. Cada uno de los lingüistas analizó cuatro muestras de texto. Ninguno de los participantes logró asignar correctamente los cuatro textos. Algunos lingüistas (13%) incluso se equivocan en todos los textos.

«Pensamos que si alguien iba a poder identificar textos producidos por humanos, deberían ser los lingüistas que hubieran dedicado sus carreras a estudiar patrones en el lenguaje y otros aspectos de la comunicación humana».

Los lingüistas argumentaron lógicamente

Al evaluar textos, los lingüistas razonaron racionalmente y utilizaron ciertas características lingüísticas y estilísticas para clasificar los textos. Sin embargo, según la publicación en la revista Research Methods in Applied Linguistics, solo pudieron clasificar correctamente el 39% de los textos.

Tal vez también te interese leer  Similitudes y diferencias entre coches y camiones.


“Lo más interesante fue cuando les preguntamos por qué decidieron que algo había sido escrito por una IA o un humano. Dieron razones muy lógicas, pero una y otra vez no fueron precisas ni consistentes”.

Por lo tanto, el estudio muestra que los profesores no pueden decir con seguridad si los estudiantes realmente escribieron sus trabajos ellos mismos o si se utilizó un LLM como ChatGPT para ello. Los resultados de ChatGPT a menudo sólo pueden reconocerse en textos especialmente largos.

«Para textos más largos, la IA tiende a alucinar e inventar el contenido, lo que hace que sea más fácil reconocer que fue generado por una IA».

Los autores esperan que el estudio conduzca a una discusión más amplia para establecer las pautas y requisitos éticos necesarios para el uso de la inteligencia artificial en la investigación y la educación.

Métodos de investigación en lingüística aplicada., doi: 10.1016/j.rmal.2023.100068




Related posts

Las bacterias alimentan las computadoras a través de la fotosíntesis

Nuestras Noticias

Baterías: ¿se cargarán pronto los coches eléctricos?

Nuestras Noticias

Los cerebros humanos en placas de Petri aprenden más rápido que la IA

Nuestras Noticias