general. cercetare. tehnologie

Cum pot folosi infractorii inteligența artificială? Cea mai periculoasă opțiune

În ultimii 10 ani, am auzit știri zilnice despremodul în care această sau cealaltă inteligență artificială a învățat noi abilități. Astăzi, algoritmii computerizați sunt capabili să copieze stilurile de desen ale artiștilor celebri, să imite vocile altora, să creeze videoclipuri false cu personalități publice și multe altele. Toate acestea sunt foarte interesante de urmărit, dar mulți experți în securitatea computerelor sunt îngrijorați de faptul că tehnologiile emergente ar putea fi utilizate de atacatori pentru a comite infracțiuni. La urma urmei, utilizarea rețelelor neuronale pentru a îndeplini orice sarcini nu este în prezent reglementată în niciun fel. Se pare că oricine are o bună cunoaștere a programării poate folosi inteligența artificială pentru a atrage bani de la oameni, a spiona și a comite alte acțiuni ilegale. Recent, personalul de la University College London a decis să afle ce abilitate de inteligență artificială poate face cel mai rău societății umane.

Inteligența artificială poate face multe. De exemplu, el poate înlocui fața lui Arnold Schwarzenegger cu Sylvester Stallone

Inteligență artificială - proprietatea computerelor de a îndeplini funcții creative care sunt mai caracteristice oamenilor reali. Site-ul nostru are o secțiune specială dedicată acestui subiect.

Capacități de inteligență artificială

Rezultatele muncii efectuate au fost împărtășiteediția The Next Web. Ca parte a lucrării științifice, cercetătorii au identificat 20 de abilități de inteligență artificială care vor fi disponibile pentru infractori în următorii 15 ani. Din păcate, o listă completă a metodelor de utilizare nu a putut fi găsită nici măcar pe site-ul colegiului, dar cercetătorii au menționat în continuare cele mai importante puncte.

Deci, în opinia lor, inteligența artificială este capabilă să:

  • conduceți mașini electrice, care este mai bine cunoscut sub numele de pilot automat;
  • aflați în mod fraudulos datele de conectare, parolele și alte date personale ale utilizatorilor - cu alte cuvinte, participați la phishing;
  • colectează fotografii, videoclipuri și alte date incriminatoare despre persoane care pot fi folosite pentru șantaj;
  • generează știri false, cu ajutorul cărora poți controla gândirea unui număr mare de oameni;
  • controlează roboții cu care poți urmări oamenii și chiar jefui case;
  • creați videoclipuri false cu oameni celebri pentru a le distruge reputația.

Acestea și multe alte utilizărirețelele neuronale în scopuri criminale au fost studiate de un grup de 31 de experți în inteligență artificială. Ei au primit sarcina de a sorta toate aceste abilități în funcție de nivelul de pericol pentru societate. La compilarea ratingului, experții au luat în considerare complexitatea utilizării inteligenței artificiale pentru a îndeplini anumite sarcini, posibilitatea de a preveni frauda și cantitatea de bani pe care infractorii o pot obține în mod fraudulos.

Vezi și: De ce credem știrile false?

Pericolul rețelelor neuronale

Cea mai periculoasă abilitate a inteligenței artificiale a fost numită crearea așa-numitelor deepfakes (deepfakes).Această abilitate a algoritmilor informatici a devenit cunoscută pentru prima dată în jurul anului 2017. Atunci unul dintre utilizatorii site-ului web Reddit a arătat lumii cum, având un computer puternic, puteți crea un videoclip fals în care fața unei persoane este înlocuită de alta. El a demonstrat acest lucru în cel mai obscen exemplu, prin inserarea fețelor unor oameni celebri în videoclipurile pentru adulți. Această veste a provocat o mulțime de zgomot și falsurile sub această formă au devenit chiar interzise. Cu toate acestea, în acest moment, nimeni nu îi împiedică pe programatori să creeze videoclipuri amuzante precum cel în care Elon Musk cântă un cântec despre „vuietul cosmodromului”.

Uneori, un videoclip fals este foarte greu de spus din original

De asemenea, deepfakes pot fi folosite pentru a stricareputația oamenilor celebri și acest lucru a fost dovedit de multe ori. De câțiva ani la rând, pe internet au apărut videoclipuri cu presupusa beat Nancy Pelosi, președintele Camerei Reprezentanților SUA. Desigur, aceste videoclipuri sunt false, dar au o mulțime de vizionări și unii oameni ar putea să le confundă cu adevărat. Într-adevăr, mulți nici măcar nu bănuiesc despre tehnologia creării de videoclipuri false - există doar câteva dintre generațiile mai vechi de oameni cu experiență tehnologică.

Anterior, colegul meu Artem Sutyagin a scris despre pericolul rețelelor neuronale. Rezultatul este un material foarte detaliat, așa că vă sfătuiesc cu tărie să-l citiți!

Al doilea pericol este acelametoda fraudei este greu de oprit. Faptul este că videoclipurile false sunt atât de realiste încât este aproape imposibil să le recunoaștem. Acest lucru a fost dovedit în iunie 2020 de Deepfake Detection Challenge de la Facebook. Au participat peste 2.000 de dezvoltatori, care au creat algoritmi pentru recunoașterea videoclipurilor false. Cea mai mare precizie a recunoașterii a fost de 65%, ceea ce, potrivit experților în securitate cibernetică, este un rezultat foarte prost într-o chestiune atât de gravă.

Secțiunea site-ului Reddit unde au fost postate deepfakes este deja blocată

Lupta împotriva criminalității

Alte caracteristici AI cum ar ficonducerea mașinilor și a roboților nu sunt considerate la fel de periculoase ca deepfakes. Da, un pilot automat pirat poate forța o mașină să se abată și să lovească un stâlp cu viteză mare. Dar, în acest caz, vorbim despre o victimă, în timp ce videoclipurile false pot afecta mintea a mii de oameni. Sau, de exemplu, utilizarea roboților pentru a spiona oameni și a efectua tâlhării în casă. Experții nu le văd deloc ca un pericol, deoarece sunt foarte ușor de detectat. Un ciocan în mână și gata - „spionul” a dispărut.

Dacă vă plac articolele noastre, abonați-ne la Google News! Acest lucru vă va ușura să urmăriți conținutul nou.

Ce trebuie să faceți pentru a minimiza pericolulinteligența artificială nu este încă clară. Alternativ, puteți continua să lucrați la crearea unui algoritm pentru detectarea videoclipurilor false. De asemenea, puteți controla cumva utilizarea rețelelor neuronale, dar acest lucru poate încetini dezvoltarea tehnologiilor. La urma urmei, inteligența artificială este utilizată nu numai de criminali, ci și de oamenii de știință care doresc să facă lumea un loc mai bun. Recent, starting-ul Landing AI l-a învățat cum să mențină distanța socială, care în aceste vremuri dificile poate salva multe vieți.