Tecnología

La inteligencia artificial detecta automáticamente el odio en Internet


bótox

Roberto Klatt

Una inteligencia artificial desarrollada en Alemania puede detectar automáticamente declaraciones ilegales en Internet y enviarlas a una oficina pública de informes.


Darmstadt (Alemania). En Internet se producen a menudo insultos, discursos de odio, discursos de odio y amenazas de violencia. Un estudio del Instituto de Potsdam para la Investigación del Impacto Climático (PIK) demostró recientemente que estos comentarios de odio no deseados y a menudo ilegales aumentan con las altas temperaturas. Por ello, investigadores de la Universidad de Ciencias Aplicadas de Darmstadt (h_da) desarrollaron la inteligencia artificial (IA) BoTox (bot y detección de contexto en el área de comentarios de odio), que puede reconocer e informar automáticamente los discursos que incitan al odio.


Según la lingüista informática Melanie Siegel, la IA no sólo reconoce las declaraciones ilegales, sino que también las envía al centro de informes de HessenGegenHetze para que la autoridad pueda tomar las medidas legales adecuadas.

«Hemos identificado doce delitos penales diferentes».


Tal vez también te interese leer  Hay demasiados estudios nuevos para revisar, la inteligencia artificial podría ayudar - Scientific News.it

Distinción entre humanos y bots

La IA de BoTox también puede distinguir si los comentarios de odio con relevancia criminal provienen de un humano o de un robot. Según los investigadores, esto es especialmente problemático en el caso de la IA generativa, como la generativa, porque estos sistemas pueden escribir de una manera cada vez más humana. Según un estudio de la Universidad de Memphis, incluso los lingüistas expertos a menudo no pueden distinguir si un texto fue escrito por un humano o por ChatGPT.

Datos de entrenamiento de las redes sociales

Para entrenar la IA, los investigadores utilizaron datos de redes sociales, incluidas Facebook y YouTube. Pudieron acceder a él a través de las interfaces del operador. Los datos de X, antes Twitter, no se utilizaron para entrenar la IA porque Elon Musk recientemente aumentó significativamente el precio de las licencias de investigación.

Tal vez también te interese leer  Investigadores advierten de la 'extinción de la humanidad' gracias a la inteligencia artificial


Por lo tanto, los investigadores sólo pudieron utilizar datos antiguos de Twitter que ya habían obtenido para el proyecto anterior DeTox (detección de toxicidad y agresión en publicaciones y comentarios de Internet). Los datos de formación más antiguos no cubren muchos temas actuales, incluida la guerra en Ucrania. Según Siegel, era necesario desarrollar métodos para poder transferir los datos.

“Pero estamos trabajando para que los datos sean portátiles. Por ejemplo, la elección de palabras sobre la canciller Merkel fue similar a la que se utiliza hoy sobre los semáforos».

Sin embargo, muchos de los comentarios de odio se refieren a temas como la xenofobia, la discriminación contra las minorías, el antisemitismo y la migración. Para clasificar los comentarios, tres estudiantes asistentes los dividieron en insultos aceptables y declaraciones criminalmente relevantes. Luego, la IA pudo decidir con un alto grado de precisión qué tipo de comentario estaba presente en función de estos datos de entrenamiento.




Related posts

Rebajas de verano de Vorwerk: las aspiradoras inalámbricas ahora son más baratas

Nuestras Noticias

Computación hiperdimensional en desarrollo para imitar cada vez más el cerebro humano

Nuestras Noticias

La inteligencia artificial vigila los trenes de alta velocidad en China

Nuestras Noticias