Lifestile

Los empresarios e investigadores piden una pausa en el desarrollo de la IA


YUna pausa de seis meses en el desarrollo para entrenar sistemas de IA más potentes que GPT-4 es lo que casi 2.000 firmantes de una carta abierta publicada el martes en el sitio web del ‘Future of Life Institute’, una organización sin fines de lucro comprometida con el uso responsable y de bajo riesgo de las tecnologías transformadoras. La inteligencia artificial avanzada podría presagiar un cambio radical en la historia de la vida en la Tierra, y esto debe planificarse con el debido cuidado, decía la carta.

sibila anderl

Redactor del folletín, jefe del departamento «Naturaleza y ciencia».

De particular preocupación son los riesgos de propaganda e información falsa, pérdidas de empleo y una pérdida general de control. Por lo tanto, un mayor desarrollo de potentes sistemas de IA solo debería tener lugar cuando esté claro que estos riesgos pueden controlarse. Entre los firmantes se encuentran nombres muy conocidos como el cofundador de Apple, Steve Wozniak, y Elon Musk, aunque este último no necesariamente se ha distinguido como un empresario con estándares morales particularmente altos.

«Preocupación de que no seremos capaces de mantenernos al día con la regulación»

También participan desde Alemania la profesora Ute Schmidt, que dirige el grupo de trabajo sobre sistemas cognitivos en la Universidad Otto Friedrich de Bamberg, y Silja Vöneky, jefa del grupo de investigación de IA responsable FRIAS en la Universidad Albert Ludwig de Freiburg. Schmidt explicó su participación en el German Science Media Center (SMC) con la necesidad de enfatizar los riesgos de utilizar grandes modelos de lenguaje y otras tecnologías de inteligencia artificial actuales. Hay que intentar entrar en un discurso democrático amplio en el que participen activamente expertos en inteligencia artificial de institutos de investigación y grandes empresas tecnológicas.

Por otro lado, como profesor de derecho internacional y ética jurídica, Vöneky enfatizó particularmente la falta de un marco legal adecuado: «Mi preocupación es que no podremos seguir el ritmo de la regulación. La regulación de la UE sobre IA no es en vigor todavía y solo clasifica estos sistemas como de bajo riesgo, por lo que apenas los regula». Lo mismo ocurre con la Convención de Derechos Humanos del Consejo de Europa sobre IA. No existe ningún otro tratado internacional vinculante sobre IA.

Tal vez también te interese leer  ¿China escucha a Estados Unidos desde Cuba?

El reglamento de la UE sobre IA, que lleva dos años en vigor, se encuentra actualmente en negociación y no podría aprobarse antes de este año. Básicamente, consiste en un marco regulatorio basado en el riesgo de tres niveles que distingue entre sistemas de IA de riesgo inaceptable, sistemas de IA de alto riesgo y sistemas de IA de bajo riesgo. Los chatbots como ChatGPT entrarían en la última categoría. Incluso si la regulación entrara en vigor en dos años como mínimo, no habría cambios para las tecnologías criticadas en la carta abierta. Vöneky critica esta torpeza: hasta ahora, la regulación ha sido diseñada demasiado ‘estática’ y no puede «reaccionar lo suficientemente rápido a nuevas situaciones de riesgo causadas por nuevos desarrollos técnicos».


Related posts

La película Gawain de David Lowery a la luz de la filología

Nuestras Noticias

Brillantes apoyo en la investigación

Nuestras Noticias

Una ley beneficiosa para las clínicas alemanas

Nuestras Noticias