YUna pausa de seis meses en el desarrollo para entrenar sistemas de IA más potentes que GPT-4 es lo que casi 2.000 firmantes de una carta abierta publicada el martes en el sitio web del ‘Future of Life Institute’, una organización sin fines de lucro comprometida con el uso responsable y de bajo riesgo de las tecnologías transformadoras. La inteligencia artificial avanzada podría presagiar un cambio radical en la historia de la vida en la Tierra, y esto debe planificarse con el debido cuidado, decía la carta.
De particular preocupación son los riesgos de propaganda e información falsa, pérdidas de empleo y una pérdida general de control. Por lo tanto, un mayor desarrollo de potentes sistemas de IA solo debería tener lugar cuando esté claro que estos riesgos pueden controlarse. Entre los firmantes se encuentran nombres muy conocidos como el cofundador de Apple, Steve Wozniak, y Elon Musk, aunque este último no necesariamente se ha distinguido como un empresario con estándares morales particularmente altos.
«Preocupación de que no seremos capaces de mantenernos al día con la regulación»
También participan desde Alemania la profesora Ute Schmidt, que dirige el grupo de trabajo sobre sistemas cognitivos en la Universidad Otto Friedrich de Bamberg, y Silja Vöneky, jefa del grupo de investigación de IA responsable FRIAS en la Universidad Albert Ludwig de Freiburg. Schmidt explicó su participación en el German Science Media Center (SMC) con la necesidad de enfatizar los riesgos de utilizar grandes modelos de lenguaje y otras tecnologías de inteligencia artificial actuales. Hay que intentar entrar en un discurso democrático amplio en el que participen activamente expertos en inteligencia artificial de institutos de investigación y grandes empresas tecnológicas.
Por otro lado, como profesor de derecho internacional y ética jurídica, Vöneky enfatizó particularmente la falta de un marco legal adecuado: «Mi preocupación es que no podremos seguir el ritmo de la regulación. La regulación de la UE sobre IA no es en vigor todavía y solo clasifica estos sistemas como de bajo riesgo, por lo que apenas los regula». Lo mismo ocurre con la Convención de Derechos Humanos del Consejo de Europa sobre IA. No existe ningún otro tratado internacional vinculante sobre IA.
El reglamento de la UE sobre IA, que lleva dos años en vigor, se encuentra actualmente en negociación y no podría aprobarse antes de este año. Básicamente, consiste en un marco regulatorio basado en el riesgo de tres niveles que distingue entre sistemas de IA de riesgo inaceptable, sistemas de IA de alto riesgo y sistemas de IA de bajo riesgo. Los chatbots como ChatGPT entrarían en la última categoría. Incluso si la regulación entrara en vigor en dos años como mínimo, no habría cambios para las tecnologías criticadas en la carta abierta. Vöneky critica esta torpeza: hasta ahora, la regulación ha sido diseñada demasiado ‘estática’ y no puede «reaccionar lo suficientemente rápido a nuevas situaciones de riesgo causadas por nuevos desarrollos técnicos».
Un bloqueo temporal en la investigación podría, al menos en teoría, servir para dar a los políticos y al poder judicial la oportunidad de recuperar lo que aquí se ha pasado por alto. «Una moratoria tendría la ventaja de que las regulaciones podrían decidirse de manera proactiva antes de que la investigación progrese más», dijo Thilo Hagendorff, líder del grupo de investigación de la Universidad de Stuttgart, al SMC. Al mismo tiempo, sin embargo, ve críticamente la declaración: “En última instancia, la moratoria sirve precisamente a aquellas instituciones cuyas actividades realmente deben ser problematizadas. Sugiere capacidades completamente exageradas de los sistemas de IA y los estiliza como herramientas más poderosas de lo que realmente son.
Por lo tanto, la moratoria alimenta los malentendidos y las percepciones erróneas sobre la IA y, por lo tanto, tiende a distraer la atención de los problemas reales o incluso a exacerbarlos. Al fin y al cabo, las expectativas exageradas y el exceso de confianza en nuevos y potentes modelos lingüísticos son factores que favorecen aún más la denunciada pérdida de control y el riesgo de revelar información íntima o no comprobar adecuadamente la información proporcionada.
En cualquier caso, no queda del todo claro cómo se puede controlar y sancionar un bloque de investigación. Esto ya es evidente por el hecho de que el requisito para ralentizar los sistemas más potentes que GPT-4 no está claramente definido: debido a la falta de transparencia en cuanto a los detalles técnicos y las posibilidades de este modelo de lenguaje de OpenAI, sería difícil decidir. qué modelos están interesados. Además, detener el desarrollo también conlleva riesgos. Thilo Hagendorff ve esto ilustrado por varios escenarios: «Si una consulta a un modelo de lenguaje puede proporcionar mejores respuestas que los expertos humanos, entonces esto hace que todo el conocimiento funcione más productivo. En casos extremos, incluso puede salvar vidas. Modelos lingüísticos en medicina, por ejemplo, son una gran oportunidad para salvar más vidas o reducir el sufrimiento”.
Mientras tanto, Italia ya ha creado los hechos. La autoridad italiana de protección de datos aprovechó las supuestas violaciones de las normas de protección de datos y protección infantil como una oportunidad para pedir a la empresa OpenAI que detuviera su aplicación en Italia. Nello Cristianini, profesor de Inteligencia Artificial en la Universidad de Bath, interpretó esto al SMC del Reino Unido como una confirmación de que la carta abierta tenía un punto válido: «No está claro cómo se harán cumplir estas decisiones. Pero el mero hecho de que parece haber haber una desconexión entre la realidad tecnológica y el marco legal en Europa sugiere que puede haber algo de verdad en la carta firmada por varios empresarios e investigadores de IA hace dos días».