Général

Vous réalisez immédiatement cela avant de vous porn. Est-ce que l'ordinateur comprend?

Au début du mois dernier, Tumblr a annoncé queva interdire le porno. Lorsque la nouvelle politique sur le contenu est entrée en vigueur, après environ deux semaines, le 17 décembre, il est devenu évident qu'il y aurait des problèmes. Après avoir déployé un système d’intelligence artificielle censé bannir toute la pornographie du site, elle a par erreur étiqueté des articles innocents dans 455,4 millions de blogs sur le site, sur un total de 168,2 milliards d’articles: vases, sorcières, poissons, etc.

La pornographie pour l'intelligence artificielle

Bien qu'on ne sache pas quel filtre automatiqueUtilisé Tumblr ou créé le vôtre - la société n’a pas répondu aux demandes concernant ce sujet - il est évident que le réseau social est coincé entre ses propres politiques et technologies. Par exemple, la position incohérente du site par rapport aux "femmes montrant des mamelons" et à la nudité artistique, par exemple, a conduit à des décisions contextuelles qui démontrent que même Tumblr ne sait pas quoi interdire sur sa plateforme. Comment une entreprise privée détermine-t-elle ce qu'elle considère obscène?

Tout d'abord, bloquer le contenu risquédifficile, car au début, il est difficile de déterminer ce que c'est. La définition de l'obscénité est un piège à ours, qui a plus de cent ans. En 1896, les États-Unis ont adopté pour la première fois des lois régissant l'obscénité. En 1964, dans l’affaire Jacobellis v. Ohio, sur la question de savoir si l’Ohio pouvait interdire la projection d’un film de Louis Malle, la Cour suprême donna peut-être la définition la plus célèbre de la pornographie hard aujourd'hui: «Je ne vais pas essayer de définir plus précisément ce type si je comprends bien, sera inclus dans la description abrégée; et peut-être que je ne pourrai jamais le rendre intelligible », a déclaré le juge Potter Stewart. "Mais je sais ce que c'est quand je le vois, et le film associé à cette affaire n'est pas ça."

Les algorithmes d'apprentissage automatique ont le même problème. Ce problème tente de résoudre Brian Delorge, PDG de Picnix, une société qui vend des technologies spécialisées en intelligence artificielle. L'un de leurs produits, Iris, est une application côté client qui détecte la pornographie pour «aider les gens», comme le dit Delorge, «qui ne veulent pas de la pornographie dans leur vie». Il note qu'un problème de pornographie distinct est qu'il pourrait y avoir n'importe quoi, un tas de choses différentes - et que des images qui ne sont pas pornographiques peuvent avoir des éléments similaires. L'image d'une fête sur la plage peut être bloquée, non pas parce qu'elle a plus de peau que sur la photo du bureau, mais parce qu'elle est sur le point de se perdre. «C’est pourquoi il est très difficile de former simultanément un algorithme de reconnaissance d’image», déclare Delorge. "Lorsque la définition devient difficile pour les personnes, l'ordinateur est également confronté à des difficultés." Si les gens ne peuvent pas se mettre d’accord sur ce qu’est et ce qu’est le porno, un ordinateur peut-il même espérer connaître la différence?

Afin d'apprendre à l'IA à détecter le porno,La première chose à faire est de le nourrir avec du porno. Beaucoup de pornographie. Où l'obtenir? La première chose que les gens font est de télécharger une série de vidéos de Pornhub, XVideos, explique Dan Shapiro, cofondateur de la startup Lemay.ai, qui crée des filtres d'IA pour ses clients. "C’est l’une de ces zones grises de nature juridique - par exemple, si vous apprenez du contenu d’autres personnes, est-ce que cela vous appartient?"

Après que les programmeurs téléchargent des tonnesporno, ils ont découpé les images vidéo, qui ne sont pas de la pornographie, pour s’assurer que les images utilisées ne bloquent pas les vendeurs de pizzas. Les plates-formes paient la plupart du temps des utilisateurs hors des États-Unis pour le marquage de ce contenu; le travail est peu rémunéré et ennuyeux, comme si on introduisait le «captcha». Ils s'assoient et disent: c'est du porno, c'est ça. Filtre a un peu, car tout le porno est livré avec une étiquette. La formation est préférable si vous utilisez non seulement des photographies, mais de grands échantillons de données.

"Souvent, ce n'est pas seulement filtrer du porno,mais plutôt un matériel d'accompagnement », dit Shapiro. "Comme de faux profils avec une photo d'une fille et un téléphone." Il veut dire les travailleuses du sexe à la recherche de clients, mais cela pourrait être n'importe quoi, pas tout à fait légal. "Ce n'est pas du porno, mais vous ne voulez pas regarder ce genre de choses sur votre plate-forme, non?" Un bon modérateur automatisé apprend des millions - voire des dizaines de millions - d'exemples de contenu, ce qui signifie qu'il peut économiser beaucoup d'heures de travail.

"Vous pouvez comparer cela à la différence entre un enfant etadultes », a déclaré Matt Zeiler, PDG et fondateur de Clarifai, une startup du secteur de la vision informatique qui filtre ce type d'images pour les entreprises. «Je peux vous dire avec certitude que nous avons eu un enfant il y a quelques mois. Ils ne savent rien du monde, tout est nouveau pour eux. Nous devons montrer à l'enfant (algorithme) beaucoup de choses pour le rendre clair. “Des millions et des millions d'exemples. Mais en tant qu'adultes, lorsque nous avons créé un tel contexte sur le monde et compris son fonctionnement, nous pouvons apprendre quelque chose de nouveau à partir de quelques exemples seulement. (Oui, enseigner à l'IA à filtrer le contenu pour adultes revient à montrer beaucoup de porno à un enfant). Des entreprises comme Clarifai se développent rapidement aujourd'hui. Ils ont une bonne base de données sur le monde, ils peuvent distinguer les chiens des chats habillés de nus. La société Zeiler utilise ses modèles pour former de nouveaux algorithmes à ses clients. Étant donné que le modèle original a traité beaucoup de données, les versions personnelles ne nécessiteront que de nouveaux jeux de données.

Cependant, l'algorithme est difficile à tout faireest correct. Avec un contenu qui est évidemment pornographique, il réussit bien; mais le classificateur peut à tort marquer la publicité de sous-vêtements comme interdite, car la photo a plus de peau que, par exemple, au bureau. (Avec un bikini et des sous-vêtements, selon Zeiler, c'est très difficile). Cela signifie que les personnes marquantes devraient se concentrer sur ces cas extrêmes dans leur travail, en accordant la priorité au fait qu'il est difficile de classer les modèles.

Et quelle est la chose la plus difficile?

"Anime porn", dit Zayler. "La première version de notre détecteur de nudité n'utilisait pas la pornographie de dessin animé pour la formation." Plusieurs fois, l'IA a mal calculé car hentai n'a pas reconnu. «Après avoir travaillé sur ce problème pour le client, nous avons introduit une série de ses données dans le modèle et amélioré de manière significative la précision du filtre des images animées, tout en conservant la précision des photographies réelles», explique Zayler.

La technologie enseignée pour renifler le porno,peut être utilisé sur d'autres choses. Les technologies sous-jacentes à ce système sont étonnamment flexibles. C'est plus que des seins d'anime. Le puzzle alphabet, par exemple, est largement utilisé comme modérateur automatique de commentaires dans un journal. Ce logiciel fonctionne de la même manière que les classificateurs d'images, sauf qu'il trie par toxicité et non par nudité. (La toxicité dans les commentaires est aussi difficile à déterminer que la pornographie dans les images). Facebook utilise un filtrage automatique similaire pour détecter les messages suicidaires et le contenu lié au terrorisme, et il a essayé d'utiliser cette technologie pour détecter les fausses informations sur sa plate-forme massive.

Tout dépend encore de l'hommela supervision; nous ferions mieux de traiter l'ambiguïté et le contexte ambigu. Zeiler dit qu'il ne pense pas que son produit a privé quelqu'un de travail. Cela résout le problème de la mise à l'échelle d'Internet. Les gens continueront d'enseigner l'IA, en triant et en étiquetant le contenu afin que l'IA puisse le distinguer.

C'est l'avenir de la modération: des solutions individuelles prêtes à l'emploi fournies par des entreprises qui font de leur entreprise tout entière pour former des classificateurs de plus en plus avancés pour davantage de données. De la même manière que Stripe et Square proposent des solutions de paiement toutes faites aux entreprises qui ne souhaitent pas les traiter seules, des startups telles que Clarifai, Picnix et Lemay.ai mettront en œuvre la modération en ligne.

Dan Shapiro de Lemay.ai est plein d'espoir. «Comme avec toute autre technologie, elle est encore en train d’être inventée. Par conséquent, je ne pense pas que nous céderons en cas d'échec. " Mais l'IA peut-elle agir de manière autonome sans supervision humaine? Pas clair "Il n'y a pas de petit homme dans une tabatière qui filtre chaque image", dit-il. "Nous devons obtenir des données de partout pour entraîner l'algorithme."

Zeiler, d'autre part, pense qu'une foisl'intelligence artificielle va tout modérer par eux-mêmes. En fin de compte, le nombre d'interventions de la part de la population sera réduit à zéro, voire à des efforts insignifiants. Peu à peu, les efforts de la personne vont se transformer en ce que l'IA ne peut pas faire maintenant, comme le raisonnement de haut niveau, la conscience de soi - tout ce que les gens ont.

Reconnaître la pornographie en fait partie. L'identification est une tâche relativement simple pour les gens, mais il est beaucoup plus difficile de former un algorithme pour reconnaître les nuances. Déterminer le seuil lorsqu'un filtre marque une image comme pornographique ou non pornographique est également une tâche difficile, en partie mathématique.

L'intelligence artificielle est imparfaite.le miroir de notre vision du monde, tout comme la pornographie est le reflet de ce qui se passe entre les gens quand ils sont seuls. Il y a du vrai là dedans, mais l'image complète ne l'est pas.

N'oubliez pas de vous abonner à notre fil d'actualités.

Avis Facebook pour l'UE ! Vous devez vous connecter pour afficher et publier des commentaires FB !