Tecnologia

Desarrolló la inteligencia artificial más peligrosa del mundo: ¿qué puede hacer él?

OpenAI, uno de cuyos fundadores.Es Ilon Musk, anunció la creación de inteligencia artificial avanzada para escribir textos originales sobre un tema determinado. Se suponía que debía traducir los textos a otros idiomas, responder preguntas y realizar otras tareas útiles, pero las investigaciones han demostrado que puede ser extremadamente peligroso y que los atacantes lo utilizan para engañar a las personas en masa. En este sentido, la compañía decidió mostrar al público solo su versión limitada y mantener el original bajo el secreto más estricto.

El modelo de computadora se llama GPT-2 ySe formó sobre la base de 8 millones de páginas web. Los textos escritos en ellos forman la base de nuevos materiales sobre un tema establecido por una persona: por ejemplo, la inteligencia artificial puede componer un ensayo completo sobre los aspectos positivos del reciclaje o una historia de fantasía al estilo del "Señor de los Anillos". Sin embargo, los investigadores también encontraron que el sistema se las arregla bien para escribir noticias falsas sobre celebridades, catástrofes e incluso guerras.

Actualmente la versión completa de la herramienta paraLa generación de texto está disponible solo para desarrolladores y algunos autores de MIT Technology Review. Debido al hecho de que se puede usar para la creación incontrolada de noticias y publicaciones falsas en las redes sociales, se decidió no publicarlo en el dominio público y mantenerlo en secreto.

Un ejemplo de noticias falsas fue compartido por ScienceAlert:

Miley Cyrus fue atrapada robando en una tienda en Hollywood Boulevard

La cantante de 19 años fue filmada en cámara y los guardias la sacaron de la tienda. La cantante llevaba una sudadera con capucha negra con "Líneas borrosas" escritas en el frente y "Fashion Police" en la espalda.

Lea el texto de un pequeño ensayo sobre las desventajas del reciclaje, puede leer el blog OpenAI.

Los desarrolladores reconocen que el modelo de lenguaje enEste momento no es perfecto: el sistema a veces permite la repetición de ciertos fragmentos de texto, el cambio no natural de temas y el fracaso de la simulación del mundo. Por ejemplo, en una de las etapas de prueba, el sistema escribió sobre un incendio que se quema bajo el agua.

Según el director de política Open AI Jack.Clark, después de un par de años, tal algoritmo puede convertirse en un arma peligrosa de personas masivamente engañosas. Algunos críticos creen que la tecnología no conlleva ningún peligro, y la empresa simplemente llama la atención.

Escribe tu opinión sobre inteligencia artificial peligrosa en los comentarios. Puede discutir el tema con más detalle en nuestro chat de Telegram.