9.5 C
Madrid
3 de abril de 2025
Nuestras Noticias – Actualidad y Eventos Locales al Instante
Image default
Tecnología

La inteligencia artificial detecta automáticamente el odio en Internet

4/5 - (18 votos)


bótox

Roberto Klatt

Una inteligencia artificial desarrollada en Alemania puede detectar automáticamente declaraciones ilegales en Internet y enviarlas a una oficina pública de informes.


Darmstadt (Alemania). En Internet se producen a menudo insultos, discursos de odio, discursos de odio y amenazas de violencia. Un estudio del Instituto de Potsdam para la Investigación del Impacto Climático (PIK) demostró recientemente que estos comentarios de odio no deseados y a menudo ilegales aumentan con las altas temperaturas. Por ello, investigadores de la Universidad de Ciencias Aplicadas de Darmstadt (h_da) desarrollaron la inteligencia artificial (IA) BoTox (bot y detección de contexto en el área de comentarios de odio), que puede reconocer e informar automáticamente los discursos que incitan al odio.


Según la lingüista informática Melanie Siegel, la IA no sólo reconoce las declaraciones ilegales, sino que también las envía al centro de informes de HessenGegenHetze para que la autoridad pueda tomar las medidas legales adecuadas.

«Hemos identificado doce delitos penales diferentes».


Tal vez también te interese leer  Así es como funciona en la oficina en casa

Distinción entre humanos y bots

La IA de BoTox también puede distinguir si los comentarios de odio con relevancia criminal provienen de un humano o de un robot. Según los investigadores, esto es especialmente problemático en el caso de la IA generativa, como la generativa, porque estos sistemas pueden escribir de una manera cada vez más humana. Según un estudio de la Universidad de Memphis, incluso los lingüistas expertos a menudo no pueden distinguir si un texto fue escrito por un humano o por ChatGPT.

Datos de entrenamiento de las redes sociales

Para entrenar la IA, los investigadores utilizaron datos de redes sociales, incluidas Facebook y YouTube. Pudieron acceder a él a través de las interfaces del operador. Los datos de X, antes Twitter, no se utilizaron para entrenar la IA porque Elon Musk recientemente aumentó significativamente el precio de las licencias de investigación.

Tal vez también te interese leer  Las cámaras de IA monitorean a los conductores que arrojan basura por la ventana


Por lo tanto, los investigadores sólo pudieron utilizar datos antiguos de Twitter que ya habían obtenido para el proyecto anterior DeTox (detección de toxicidad y agresión en publicaciones y comentarios de Internet). Los datos de formación más antiguos no cubren muchos temas actuales, incluida la guerra en Ucrania. Según Siegel, era necesario desarrollar métodos para poder transferir los datos.

“Pero estamos trabajando para que los datos sean portátiles. Por ejemplo, la elección de palabras sobre la canciller Merkel fue similar a la que se utiliza hoy sobre los semáforos».

Sin embargo, muchos de los comentarios de odio se refieren a temas como la xenofobia, la discriminación contra las minorías, el antisemitismo y la migración. Para clasificar los comentarios, tres estudiantes asistentes los dividieron en insultos aceptables y declaraciones criminalmente relevantes. Luego, la IA pudo decidir con un alto grado de precisión qué tipo de comentario estaba presente en función de estos datos de entrenamiento.




Related posts

Alemania permite la conducción autónoma a 130 km/h

Nuestras Noticias

La inteligencia artificial lucha contra el discurso de odio en Internet

Nuestras Noticias

Un enjambre autónomo de drones encuentra fugas de gas

Nuestras Noticias