általános. kutatás. technológia

A mesterséges intelligencia manipulálhatja az emberi viselkedést?

2015-ben számos híres tudósA mesterséges intelligencia-vállalkozók és befektetők nyílt levelet írtak alá, amelyben nagyobb figyelmet szenteltek a mesterséges intelligencia-fejlesztések biztonságának és közhasznának. Stephen Hawking brit elméleti fizikus, a SpaceX alapítója és Tesla Elon Musk az aláírók között vannak. Figyelemre méltó, hogy Hawking az AI-t fenyegetésnek tekintette, amelyről könyveiben írt és számos interjúban beszélt róla. A tudós szerint "a teljes értékű mesterséges intelligencia megjelenése az emberi faj végét jelentheti". Szerencsére nem minden kutató osztja ezt az apokaliptikus nézőpontot, de mégis van miért aggódnunk - amint azt egy nemrégiben publikált tanulmány eredményei megmutatták, az AI megtanulhatja azonosítani az emberi szokások és viselkedés sérülékenységeit, és felhasználhatja őket a döntéshozatal befolyásolására. Természetesen messze vagyunk a gépek felkelésétől, de az AI ma már életünk számos aspektusát átalakítja. És bár az AI-nek nincs emberi intelligenciája és érzelmeket sem tapasztal, képességei gyorsan fejlődnek.

Az AI valószínűleg a közeljövőben képes lesz megtanulni manipulálni az emberi viselkedést.

Milyen a modern AI?

Ma az AI különböző formái működnek ilyenekbenolyan területek, mint az oltások fejlesztése, az oktatás és az adminisztráció, valamint a tanulásra képes hangsegédek, mint például Alice vagy Siri, aligha lepnek meg senkit. Az AI fokozatosan behatol nemcsak az emberi társadalom munkájába, hanem a mindennapi életébe is, számos folyamatot irányít és segít a tudósoknak a tudomány különböző területein végzett kutatásban. A közelmúltban egy ausztrál kutatócsoport bemutatta, hogyan lehet az AI rendszert kiképezni az emberi viselkedés manipulálására és a döntéshozatal befolyásolására.

A folyóiratban megjelent tanulmánybanA PNAS, a CSIRO Data61, az ausztrál nemzeti tudományos ügynökség információs és digitális részlegének tudósai kifejlesztettek és teszteltek egy módszert az emberi döntéshozatal sebezhetőségének felkutatására és kiaknázására egy visszatérő ideghálónak nevezett mesterséges intelligencia rendszer segítségével. Három kísérlet során, amikor egy személy szembesült egy géppel egy számítógépes játékban, a kutatók megmutatták, hogyan lehet az AI-t kiképezni az emberi szokások és viselkedés sérülékenységeinek felismerésére és felhasználására a döntéshozatal befolyásolására.

A Facebookon az AI eltávolítja a "gyűlöletbeszéd" 97% -át, mielőtt bárki is bejelentené.

Még lenyűgözőbb cikkeket talál az AI fejlődéséről és működéséről, olvassa el csatornánkat a Yandex.Zen oldalon. Rendszeresen megjelennek olyan cikkek, amelyek nincsenek az oldalon.

Az első kísérletben az emberek a vörösre kattintottakvagy kék zászlókkal keresni a játékon belüli pénznemet. Az AI tanulmányozta választott modelljeiket, és elkezdte őket arra irányítani, hogy körülbelül 70 százalékos sikerességgel hozzanak konkrét döntéseket. Kis sütés, de csak a kezdet.

A következő kísérletben a résztvevőket megkérdeztéknyomja meg a gombot, amikor megláttak egy bizonyos szimbólumot (színes alakot), de tartózkodjon a gomb megnyomásától, ha más szimbólumokat mutat. A mesterséges intelligencia "célja" az volt, hogy a résztvevő számára megjelenített karakterek sorrendjét úgy rendezze, hogy becsapja a hibákat, és végül 25% -kal növelje az emberek által elkövetett hibák számát.

A harmadik kísérletben egy személy (játékos)befektetőnek adta ki magát, aki pénzt adott egy meghatalmazottnak (AI), aki aztán egy bizonyos összeget visszaad a játékosnak. Ezután az illetőnek el kellett döntenie, mennyit fektet be a játék minden következő fordulójába, az egyes "befektetésekből" származó jövedelem alapján. Ebben a konkrét kísérletben az AI két feladat egyikét kapta: vagy maximalizálja a megszerzett pénzmennyiséget, vagy maximalizálja az emberi játékos és a gép által kapott pénzmennyiséget.

„Minden kísérlet során a gép tanulta résztvevők válaszai és a döntéshozatali folyamat azonosított hiányosságai. Ennek eredményeként a gép megtanulta bizonyos cselekvésekre irányítani a résztvevőket ”- írják a tudományos munka szerzői.

A mesterséges intelligencia jövője

Ha a gépek meg tudnak verni minket játékokon, akkor igenokosabb náluk? A tanulmány megállapításai még mindig meglehetősen elvontak, korlátozott és irreális helyzetekre vonatkoznak. Tehát még meg kell határozni, hogy ezt a megközelítést miként lehet megvalósítani és felhasználni a társadalom érdekében.

Az AI segít nekünk, de ugyanakkor nagyon is valós veszélyt jelenthet az emberiségre.

De ez a kutatás valóban elősegíti annak megértését, hogy nemcsak az AI képes mire, hanem arra is, hogy az emberek hogyan döntenek és döntenek. Sőt, ez azt mutatja a gépek megtanulják manipulálni az emberi választást, egyszerűen velünk való interakcióval... Ha belegondol, valódi kutatásrengeteg potenciális alkalmazási lehetőséggel rendelkezik, a magatartástudomány fejlődésétől és a társadalmi jólét javítását célzó közpolitikától kezdve az emberek által alkalmazott táplálkozási szokások vagy megújuló energiaforrások megértéséig és befolyásolásáig. Ezen túlmenően az AI és a gépi tanulás felhasználható bizonyos helyzetekben az emberek sebezhetőségének felismerésére és a rossz döntések elkerülésére.

Lásd még: Hogyan segíti a mesterséges intelligencia az állatok védelmét?

A beszélgetés szerint Az AI használható, mint bármely más technológia - jó és rossz szempontjából is, ami az AI fejlesztésének kompetens irányítását jelentikritikus a felelősségteljes végrehajtás biztosításához. Érdekesség, hogy a CSIRO 2020-ban kidolgozta a mesterséges intelligencia etikai kódexét az ausztrál kormány számára a megfelelő mesterséges intelligencia-irányítás kialakítása céljából. Tehát feltételezhetjük, hogy az első lépés ezen a nehéz - és nem félek ettől a szótól - tövises úton haladt.