tehnologija

Opasno čovječanstvo: zašto nam je potrebna inteligentna umjetna inteligencija?

Kada je Norbert Wiener, otac kibernetike, napisao svojKnjiga „Ljudska upotreba ljudskih bića“ iz 1950. godine, vakuumske cijevi i dalje su bili glavni elektronički građevni blokovi, a zapravo je bilo samo nekoliko računala. Međutim, zamišljao je budućnost kojoj smo sada svjedoci, bez presedana preciznosti, pogriješili samo u beznačajnim sitnicama.

Prije bilo kojeg umjetnog filozofainteligencije, shvatio je da AI neće samo oponašati - i zamijeniti - ljudska bića u mnogim vrstama intelektualnih aktivnosti, nego će promijeniti ljude u tom procesu. "Mi smo samo vrtlozi u rijeci uvijek tekuće vode", napisao je. "Mi nismo nešto što samo živi, ​​mi smo modeli koji se održavaju."

Na primjer, kada je puno primamljivomogućnosti, mi smo spremni platiti i prihvatiti male poslovne troškove za pristup novim mogućnostima. I vrlo brzo postajemo ovisni o novim alatima, gubimo sposobnost postojanja bez njih. Opcije postaju obvezne.

Ovo je vrlo stara povijest evolucije i mnoga poglavljaiz nje smo dobro poznati. Većina sisavaca može sintetizirati vlastiti vitamin C, ali primati koji uglavnom jedu plodove gube tu ugrađenu sposobnost. Samoponavljajući obrasci koje nazivamo ljudima sada ovise o odjeći, prerađenoj hrani, vitaminima, špricevima, kreditnim karticama, pametnim telefonima i internetu. A sutra, ako ne i danas, od umjetne inteligencije.

Wiener je predvidio nekoliko problema s takvim stanjem stvari, koje su Alan Turing i drugi optimisti u AI-u uvelike zanemarili. Prava prijetnja, rekao je, bio je:

... da su takvi strojevi, iako sami sebe bespomoćnisami mogu koristiti ljude ili blokirati ljudska bića kako bi povećali svoju kontrolu nad ostatkom rase, ili politički vođe mogu pokušati kontrolirati svoje stanovništvo, koristeći ne političke metode, nego političke metode, kao uske i ravnodušne prema ljudima kao da izmišljeni su mehanički.

Očito je da su te opasnosti sada vrlo važne.

U medijima, na primjer, inovacije u digitalnom audio ivideozapisi nam omogućuju da platimo malu cijenu (u očima ljubitelja audiofila i filmova) za odbijanje analognih formata, a zauzvrat postaje iznimno jednostavno - previše jednostavno - način za reprodukciju zapisa s gotovo nikakvim ograničenjima.

Ali postoji ogromna skrivena cijena. Orwellova služba istine postala je stvarna mogućnost. Metode umjetne inteligencije za stvaranje gotovo neprimjetnih lažnih “zapisa” čine zastarjele alate koje smo koristili za istraživanje tijekom proteklih 150 godina.

Ostaje nam samo da napustimo kratku epohu.fotografski dokazi i povratak u onaj stari svijet u kojem su ljudsko pamćenje i povjerenje bili zlatni standard. Ili možemo razviti nove metode obrane i napada u borbi za istinu. Jedan od najuzbudljivijih nedavnih primjera je činjenica da je uništavanje ugleda mnogo jeftinije od zarađivanja i zaštite tog ugleda. Wiener je ovaj fenomen vidio vrlo široko: "Dugoročno gledano, neće biti razlike između naoružavanja i neprijateljskog naoružanja." Informacijsko doba također je postalo doba dezinformacija.

Što možemo učiniti? Ključno je Wienerovo zapažanje da su "ovi strojevi" "bespomoćni u sebi." Stvaramo alate, a ne kolege, a stvarna prijetnja je da ne vidimo razliku.

Umjetna inteligencija u njihovoj strujimanifestacije parazitske na ljudskoj inteligenciji. On vrlo besciljno preuzima sve što je stvorio ljudski stvoritelj i izvlači uzorke - uključujući i naše najtajnije navike. Ti strojevi još nemaju ciljeve ili strategije, nisu sposobni za samokritiku i inovacije, samo proučavaju naše baze podataka bez vlastitih misli i ciljeva.

Oni su, kako kaže Wiener, bespomoćni u tomešto znači da su vezani ili imobilizirani, ne, uopće nisu agenti - oni nemaju sposobnost "djelovati na uzroke", kako bi to Kant rekao.

Dugoročno gledano, "jaka AI", iliopća umjetna inteligencija, moguća u načelu, ali nepoželjna. Još ograničenija umjetna inteligencija, koja je danas moguća u praksi, neće biti zla. Ali to je prijetnja - djelomično zato što se može zamijeniti s jakom AI.

Koliko je danas jaka umjetna inteligencija?

Jaz između današnjih sustava iSci-fi sustavi koji preplavljuju popularnu maštu su i dalje ogromni, iako ga mnogi ljudi, i amateri i profesionalci, podcjenjuju. Pogledajmo IBM-ov Watson, koji bi mogao biti vrijedan poštovanja u naše vrijeme.

Ovaj superkompjuter rezultat je izuzetnoopsežan istraživački i razvojni proces (istraživanje i razvoj) u koji su uključeni mnogi ljudi i dizajn inteligencije već stoljećima, a koristi tisuće puta više energije nego ljudski mozak Njegova pobjeda u opasnosti! bio je pravi trijumf, koji je omogućio formularna ograničenja pravila Jeopardy! Morao sam odustati od malo svestranosti i dodati čovječanstvo da bi se predstavio.

Watson je loša tvrtka, unatoč tome što ulaziobmanjujuće oglašavanje od IBM-a, koje obećava AI-jeve konverzacijske sposobnosti na razini glasnoće, a pretvaranje Watsona u uvjerljivog višestrukog agenta bilo bi slično pretvaranju kalkulatora u Watson. Watson bi mogao biti dobar računski slučaj za takvog agenta, nego cerebelum ili amigdala, a ne razum - u najboljem slučaju, podsustav posebne namjene koji igra ulogu podrške, ali ne i sustav za planiranje i formuliranje ciljeva, ovisno o stečenom iskustvu razgovora.

I zašto bismo željeli stvoriti razmišljanje ikreativni agent iz Watsona? Možda nas je sjajna ideja Turinga - slavnog Turingovog testa - namamila u zamku: postali smo opsjednuti stvaranjem barem iluzije stvarne osobe koja sjedi ispred ekrana, zaobilazeći „zlokobnu dolinu“.

Opasnost je od turingapredstavio je svoj zadatak - koji je, prije svega, bio zadatak obmanjivanja sudaca - kreatori AI pokušali su to postići uz pomoć smiješnih humanoidnih lutaka, "crtanih" verzija koje bi fascinirale i razoružale neupućene. ELIZA Joseph Weisenbaum, prvi chatbot, bio je živ primjer stvaranja takve iluzije, a istovremeno i vrlo jednostavan algoritam koji je mogao uvjeriti ljude da su iskreni i iskreni razgovori s drugim ljudima.

Bio je uznemiren lakoćom s kojom su ljudi voljnivjeruj u to. I ako smo shvatili nešto iz godišnjeg natječaja za donošenje ograničenog Turingovog testa za Lebner nagradu, to je da čak i najpametniji ljudi koji nisu dobro upoznati s računalnim programiranjem lako vode do ovih jednostavnih trikova.

Odnos ljudi na području AI prema takvim metodamavarira od osude do promocije, a konsenzus je da svi ti trikovi nisu osobito duboki, ali mogu biti korisni. Promjena stava koja bi bila dobrodošla bilo bi iskreno priznanje da su androidi obojani u lutkama lažni oglasi koje treba osuditi i ne ohrabriti.

Kako to postići? Čim shvatimo da ljudi počinju donositi odluke o životu i smrti, slijedeći "savjete" AI sustava, čije je unutarnje poslovanje gotovo nerazumljivo, vidjet ćemo dobar razlog za one koji pozivaju ljude da vjeruju takvim sustavima da počnu oslanjati na moral i pravo.

AI sustavi su vrlo moćnialati. Tako snažni da čak i stručnjaci imaju dobar razlog da ne vjeruju vlastitom prosuđivanju kada postoje “sudovi” koje predstavljaju ovi alati. Ali ako će korisnici tih alata imati koristi, financijski ili na drugi način, od popularizacije tih alata, moraju se pobrinuti da znaju kako to učiniti uz punu odgovornost, maksimalnu kontrolu i opravdanje.

Licenciranje i odobrenje operatoratakvi sustavi - baš kao što licenciramo ljekarnike, rukovatelje dizalica i druge stručnjake čije pogreške i pogrešne prosudbe mogu imati strašne posljedice - mogu, uz potporu osiguravajućih društava i drugih organizacija, obvezati kreatore AI sustava da idu dug put u potrazi za slabostima i slabostima njihove proizvode, kao i obučiti one koji planiraju raditi s njima.

Možete zamisliti neku vrstu obrnutog testa.Turing, u kojem će sudac biti predmet ocjenjivanja; dok ne pronađe slabosti, nepoštivanje posjeda, praznine u sustavu, neće dobiti dozvolu. Za dobivanje certifikata takvom će sucu biti potrebna ozbiljna obuka. Želja da se objekt ljudske sposobnosti pripiše razmišljanju, kao što to obično činimo, kada se susrećemo s razumnim agentom, vrlo je, vrlo jaka.

Zapravo, sposobnost da se odupreželja da se vidi u nečemu humaniziranom je čudna stvar. Mnogi ljudi smatraju kultiviranje takvog talenta upitnim, jer čak i pragmatični korisnici sustava povremeno nazivaju svoje alate „prijateljskim“.

Bez obzira koliko pažljivo dizajneriumjetna inteligencija isključit će lažne "ljudske" bilješke u svojim proizvodima, moramo očekivati ​​procvat oznaka, zaobilaznica i dopuštenih iskrivljenja stvarnog "razumijevanja" i sustava i njihovih operatora. Na isti način na koji se reklamiraju droge s dugačkim popisom nuspojava ili alkoholom na televiziji, koje filmu pružaju obilje finog tiska sa svim zakonskim upozorenjima, tako će se i razvijatelji umjetne inteligencije pridržavati zakona, ali će biti sofisticirani u upozorenjima.

Zašto nam je potrebna umjetna inteligencija?

Ne trebaju nam umjetno svjesni agenti. Postoji mnogo prirodnih svjesnih agenata koji su dovoljni za obavljanje bilo kakvih zadataka namijenjenih stručnjacima i privilegiranim pojedincima. Trebamo pametne alate. Alati nemaju prava i ne bi trebali imati osjećaje koji mogu biti povrijeđeni ili koji se mogu „zloupotrijebiti“.

Jedan od razloga da se ne napravi umjetnosvjesni agenti su da, iako mogu postati autonomni (i načelno mogu biti autonomni, samo-poboljšavajući ili samo-stvarajući kao i svako ljudsko biće), ne bi trebali - bez posebnog dopuštenja - dijeliti našu ranjivost ili naša smrtnost.

Daniel Dennett, profesor filozofijeSveučilište Tufts, jednom je postavilo zadatak studentima na seminaru o umjetnim agensima i autonomiji: dajte mi tehničke specifikacije robota koji mogu s vama potpisati ugovor - a ne surogat u vlasništvu druge osobe, već sam po sebi. Ne radi se o razumijevanju uzroka ili manipulacija olovkom na papiru, već o posjedovanju i zasluženom posjedovanju pravnog statusa i moralne odgovornosti. Mala djeca ne mogu potpisati takve ugovore, kao i osobe s invaliditetom, čiji ih pravni status obvezuje da budu pod skrbništvom i nameću odgovornost skrbnicima.

Problematični roboti koji bi to htjelidobiti takav uzvišeni status je da su, poput Supermana, previše ranjivi da bi dali takve izjave. Ako odbije, što će se dogoditi? Koja će biti kazna za kršenje obećanja? Oni će biti zatvoreni u kavezu ili rastavljeni? Zatvor za umjetnu inteligenciju neće biti nezgodan ako najprije ne utažimo žeđ za slobodom, koju ne može zanemariti ili isključiti sama AI. Rastavljanje AI neće uništiti podatke pohranjene na disku iu softveru.

Jednostavno digitalno snimanje i prijenos podataka -proboj koji je dopuštao softveru i podacima da dobiju, u stvari, besmrtnost - čini robote neranjivima. Ako se to ne čini očiglednim, razmislite o tome kako bi se moral ljudi promijenio ako bismo mogli podržati ljude svaki tjedan. Skok s mosta bez gumene trake u nedjelju nakon što je rezerva u petak mogla biti nepromišljena odluka, onda možete pogledati snimku svoje prerane smrti kasnije.

Zato ne stvaramo svjesno -želio bi stvoriti - humanoidne agente, ali sasvim novu vrstu stvorenja, neka proročanstva, nesvjesna, bez straha od smrti, bez ometanja ljubavi i mržnje, bez osobnosti: ogledala istine koja će gotovo sigurno biti zaražena ljudskim lažima.

Ljudska upotreba ljudskih bićauskoro će se promijeniti - još jednom - zauvijek, ali ako preuzmemo odgovornost za našu evolucijsku putanju, moći ćemo izbjeći nepotrebne opasnosti.

Ne slažete se? Recite nam svoje mišljenje u našoj sobi za razgovor u Telegramu.