La technologie

Développé l'intelligence artificielle la plus dangereuse au monde: que peut-il faire?

OpenAI, l'un des fondateursIlon Musk, a annoncé la création d'une intelligence artificielle avancée pour la rédaction de textes originaux sur un sujet donné. Il était supposé traduire des textes dans d'autres langues, répondre à des questions et effectuer d'autres tâches utiles, mais des recherches ont montré qu'il peut être extrêmement dangereux et utilisé par des attaquants pour tromper les gens en masse. À cet égard, la société a décidé de ne montrer au public que sa version limitée et de conserver l'original sous le plus strict secret.

Le modèle informatique s'appelle GPT-2 eta été formé sur la base de 8 millions de pages Web. Les textes qui y sont écrits constituent la base de nouveaux matériaux sur un sujet choisi par une personne: par exemple, l’intelligence artificielle peut constituer un essai complet sur les aspects positifs du recyclage ou une histoire fantastique imaginée dans le style du Seigneur des anneaux. Cependant, les chercheurs ont également constaté que le système permettait d'écrire de fausses nouvelles sur des célébrités, des catastrophes et même des guerres.

Actuellement, la version complète de l'outil pourLa génération de texte n’est disponible que pour les développeurs et certains auteurs du MIT Technology Review. Étant donné qu'il peut être utilisé pour la création incontrôlée de fausses nouvelles et de publications dans les réseaux sociaux, il a été décidé de ne pas le publier dans le domaine public et de le garder secret.

ScienceAlert a partagé un exemple de fausses nouvelles:

Miley Cyrus a été surprise en train de voler dans un magasin d'Hollywood Boulevard

La chanteuse de 19 ans a été filmée et les gardes l'ont emmenée hors du magasin. La chanteuse portait un sweat à capuche noir avec «Lignes floues» sur le devant et «Fashion Police» à l'arrière.

Lire le texte d'un petit essai sur les inconvénients du recyclage peut être lu sur le blog OpenAI.

Les développeurs reconnaissent que le modèle de langage surCe moment n’est pas parfait: le système permet parfois la répétition de certains fragments de texte, le basculement anormal de thèmes et l’échec du monde de la modélisation. Par exemple, à l'une des phases de test, le système a écrit à propos d'un feu brûlant sous l'eau.

Selon le directeur de la politique Open AI JackClark, après quelques années, un tel algorithme peut se transformer en une arme dangereuse d'individus trompeurs. Certains critiques estiment que la technologie ne présente aucun danger et que la société attire simplement l'attention.

Écrivez votre opinion sur l'intelligence artificielle dangereuse dans les commentaires. Vous pouvez discuter du sujet plus en détail dans notre discussion en ligne.

Avis Facebook pour l'UE ! Vous devez vous connecter pour afficher et publier des commentaires FB !