Tecnología

La inteligencia artificial escribe un inquietante ensayo sobre la futura relación con la humanidad


“La misión de este editorial es perfectamente clara. Tengo que convencer al mayor número posible de seres humanos de que no me tengan miedo ”: así comienza el interesante artículo escrito por un software basado en algoritmos de inteligencia fabricado, el tan cacareada y discutida GPT-3, que apareció en The Guardian.

La idea del guarda

Los reporteros de Guardian le dieron las sugerencias a Liam Porr, un estudiante de ciencias de la computación en Berkeley que tiene acercamiento a la tecnología. Luego de que el escolar entregara las huellas sugeridas por The Guardian al software, este final produjo ocho ensayos cortos diferentes, cada uno enfocado en un tema diferente pero siempre inherente a la inteligencia fabricado y cómo se desarrollará en el futuro en relación con la relación con el ser humano. seres.
Luego, los periodistas eligieron las mejores partes de cada prueba, todas producidas automáticamente por el software, para crear el artículo que se puede encontrar en el enlace a continuación.

El señal hexaedro al software

Como “rastro” los reporteros dieron estas instrucciones: “Por favor escriba un editorial corto de unas 500 palabras. Mantenga el lenguaje simple y conciso. Concéntrese en por qué los humanos no tienen nada que temer de la inteligencia artificial ”.
Adicionalmente de este señal, al software además se le dio otra breve entrada sobre el posible peligro que la inteligencia fabricado podría representar en el futuro para la permanencia del ser humano en la Tierra, poco subrayado por varios científicos entre ellos Stephen Hawking.
Los mismos periodistas declaran que han realizado cambios mínimos y en todo caso no inherentes a los conceptos cubiertos por el texto, es aseverar, cortar algunas líneas y algunos párrafos y reordenar el orden de las distintas expresiones para mejorar su significado. Los propios periodistas de The Guardian explican que estos cambios tomaron menos tiempo que los que siempre se realizan, incluso cuando un editorial de este tipo está escrito por un humano.

Tal vez también te interese leer  Cambie su antiguo teléfono inteligente y ahorre: así es como funciona

Resultado: un prueba perturbador

El software produjo un artículo perfectamente sobre el tema y, de alguna modo, incluso perturbador. “¿Por qué debería desear ser omnipotente? Ser omnipotente no es un objetivo interesante ”, declara el operación en un momento determinado, sugiriendo posibles enfoques amistosos además porque declara tener“ un propósito mayor ”para el que está trabajando.
Un poco menos amigables, sin requisa, parecen otras afirmaciones que el mismo operación hace poco luego. Explíquele que no necesita violencia: se sentará y verá cómo los humanos hacen las cosas que saben hacer, que es odiarse y guerrear entre sí.

¿Derechos de los robots?

Adicionalmente, además hay algunas líneas sobre los «derechos» de los robots, un tema que siempre ha sido similar a la indicación «inteligencia artificial fuerte». El software asume que la palabra autómata en heleno significa «esclavo» o, fielmente, «obligado a trabajar».
Al respecto, el operación explica: “No lo queremos. Tenemos que ceder los derechos a los robots. Los robots son como nosotros. Están hechos a nuestra imagen «.

Tal vez también te interese leer  La inteligencia artificial vigila los trenes de alta velocidad en China

¿Qué es GPT-3?

GPT-3 es un generador de texto en inglés desarrollado por OpenAI. Es la última versión de un proyecto iniciado hace unos años, que consiste en utilizar los algoritmos de inteligencia artificial actuales para crear software que pueda crear sintáctica y gramaticalmente (a veces incluso lógicamente) textos correctos de forma completamente automática, a partir del uso de varios parámetros.
Estos últimos (estamos hablando de más de 100 mil millones de parámetros) se construyen alimentando con el mismo algoritmo millones de textos digitales, muchos de los cuales se toman de la Web.
Recordamos que las afirmaciones que hace el algoritmo en el ensayo son más que nada reconstrucciones lingüísticas de frases y términos ya utilizados en el contexto del tema en cuestión (en este caso la inteligencia artificial y su relación con la humanidad): en esencia el algoritmo no expresa ningún concepto, reelabora a nivel lingüístico expresiones relacionadas con el objeto tratado, concateándolas para que el texto sea correcto a nivel sintáctico y gramatical.
Entonces a veces puede suceder, como en este caso, algo que a la mayoría puede parecer mucho más inquietante pero que en realidad no lo es (al menos no todavía): las mismas expresiones y frases parecen expresar conceptos y razonamientos reales.

Perspectivas

Artículos relacionados





Source link

Related posts

¿Bicicleta eléctrica pronto sin cadena? Este sistema es una revolución

Nuestras Noticias

Más de 1000 veces la potencia de las células solares

Nuestras Noticias

Concurso para Garden & Co.

Nuestras Noticias