Ya sea que una persona real o una voz generada por AI habla, apenas puede distinguir la oyentes. Sin embargo, el cerebro reacciona de manera diferente, informa un grupo de investigación de la Universidad de Zúrich.
El cerebro reacciona de una manera muy diferente a los votos de Deepfake que, en natural, informa un equipo de investigación de la Universidad de Zurich en Biología de comunicaciones para la revista especializada. Las voces falsas parecen llevarte menos placer al escucharlo.
Los investigadores alrededor de los científicos Claudia Roswandowitz analizaron cuánto tiempo se conserva la identidad humana en clones vocales. En 2020, el equipo tomó los votos de cuatro hombres y luego creó los votos de Deepfake en su base utilizando algoritmos de TI.
Posteriormente, 25 sujetos deben decidir en varias pruebas entre originales y falsos. Con casi el 70 por ciento de las pruebas, los sujetos fueron corregidos con sus posiciones.
Esto aclara que los votos actuales de Deepfake no imitan perfectamente la identidad, sino que tienen el potencial de engañar a la percepción de las personas.
Diferencias en Subconsciente
Durante las pruebas, los investigadores examinaron cómo reaccionan las áreas del cerebro individuales a voces falsas y reales. Escuchar un elemento falso activa el sistema de recompensas menos de lo que no sucede en voz humana. Además, se informa a la conciencia de que cuando escuchas lo profundo, es un poco diferente y difícil. Sin embargo, esto a menudo permanece por debajo del umbral de percepción, dice Roswandowitz.
Con el rápido desarrollo de tecnologías de inteligencia artificial, la creación y distribución de Deepfkes ha aumentado enormemente, según los investigadores del estudio. Roswandowitz considera que es posible garantizar que los profundos de hoy en día proporcionen otros resultados en comparación con 2020. Las voces generadas por la inteligencia artificial probablemente tengan una calidad de sonido ligeramente mejor.
Uso de profundos para Manipulación electoral
En enero en los Estados Unidos, ya que las deudas de audio pueden usarse para fines injustos. En ese momento, un robocall llamado titulares. En él, una profunda voz del presidente Joe Biden Vettori en el estado estadounidense de New Hampshire solicitó las elecciones primarias.
Las compañías tecnológicas y las plataformas de redes sociales como Meta, X, Tiktok, Microsoft, Google o Snap han prometido combatir el riesgo de falsificaciones con más fuerza en la Conferencia de Múnich en la Conferencia de Seguridad. Sin embargo, los expertos temen que no haya personal lo suficientemente cercano para controlar el contenido generado por la IA.