technológia

Veszélyes emberiség: miért van szükség intelligens mesterséges intelligenciára?

Amikor Wiener Norbert, a kibernetika apja írtaAz „Emberi emberi felhasználás” című könyv 1950-ben a vákuumcsövek még mindig a fő elektronikus építőelemek voltak, sőt csak néhány számítógép volt. Azonban elképzelte a jövőt, amelyet mostanában pontatlanul látunk, miután csak jelentéktelen apróságokban tévedett.

Bármely más mesterséges filozófus előttintelligenciája, rájött, hogy az AI nemcsak az embereket sokféle szellemi tevékenységben utánozza és helyettesíti, hanem megváltoztatja az embereket a folyamatban. - Mi csak örvénykútok vagyunk az áramló víz folyójában - írta. "Nem vagyunk olyanok, amik csak élnek, olyan modellek vagyunk, amelyek magukra tartják magukat."

Például, ha sok csábítólehetőségek, hajlandóak vagyunk fizetni és elfogadni a kisvállalkozások költségeit az új lehetőségek eléréséhez. És nagyon hamar rabja lettünk az új eszközöknek, elveszíthetjük a nélkülük létező képességet. Az opciók kötelezővé válnak.

Ez egy nagyon régi evolúciós történet, és sok fejezetbelőle jól ismertek vagyunk. A legtöbb emlős képes szintetizálni saját C-vitaminját, de a főemlősök, akik többnyire gyümölcsöt esznek, elveszítik ezt a beépített képességet. Az önállóan ismétlődő minták, amelyeket embernek nevezünk, most ruháktól, feldolgozott élelmiszerektől, vitaminoktól, fecskendőktől, hitelkártyáktól, okostelefonoktól és az internettől függenek. És holnap, ha nem ma, mesterséges intelligenciából.

Wiener számos problémával látta el ezt a helyzetet, amelyeket Alan Turing és más korai AI optimisták nagyrészt figyelmen kívül hagytak. Az igazi fenyegetés - mondta -:

... hogy ezek a gépek, bár maguk is tehetetlenekönmagukban, az emberek használhatják, vagy blokkolhatják az embereket, hogy növeljék a verseny többi részét, vagy a politikai vezetők megpróbálhatják irányítani a népességüket, nem politikai módszerekkel, hanem politikai módszerekkel, olyan szűk és közömbösek az emberekkel szemben, mintha azokat mechanikusan találták fel.

Nyilvánvaló, hogy ezek a veszélyek nagyon fontosak.

A médiában például a digitális hang és az innovációa videók lehetővé teszik számunkra, hogy egy kis árat fizessünk (az audiofilek és a film szerelmeseinek szemében) az analóg formátumok megtagadásáért, és rendkívül egyszerű cserébe, túlságosan egyszerű módon, hogy szinte semmilyen korlátozás nélkül játszhassanak.

De van egy hatalmas rejtett ár. Orwell igazságügyi szolgálata valódi lehetőséggé vált. Az AI módszerek gyakorlatilag megkülönböztethetetlen hamis „rekordok” létrehozásához elavulnak az eszközökkel, amelyeket az elmúlt 150 évben vizsgáltunk.

A számunkra csak azt kell hagynunk, hogy egyszerűen elhagyjuk a rövid korszakot.fényképészeti bizonyítékok és visszatérés a régi világba, ahol az emberi emlékezet és a bizalom az arany standard volt. Vagy új védelmi módszereket és támadásokat tudunk kifejleszteni az igazság elleni harcban. Az egyik legizgalmasabb példa az volt, hogy a hírnév megsemmisítése sokkal olcsóbb, mint a hírnév megszerzése és védelme. Wiener ezt a jelenséget nagyon széles körben látta: „Hosszú távon nem lesz különbség az élesítés és az ellenséges fegyverzet között.” Az információs korszak a téves információk korszakává vált.

Mit tehetünk? A legfontosabb a Wiener megfigyelése, hogy „ezek a gépek” önmagukban „tehetetlenek”. Eszközöket, nem kollégákat hozunk létre, és az igazi veszély az, hogy nem látunk különbséget.

Mesterséges intelligencia az áramukbanmegnyilvánulása parazita az emberi intelligencia. Nagyon elszántan birtokba veszi mindazt, amit az emberi alkotók hoztak létre és kivonatmintákat - beleértve a leg titkosabb szokásainkat is. Ezeknek a gépeknek még nincsenek céljai vagy stratégiái, nem képesek önkritikára és innovációra, csak adatbázisaikat tanulmányozzák anélkül, hogy saját gondolataik és céljuk lenne.

Ezek, ahogy Wiener azt mondja, tehetetlenek ebbenami azt jelenti, hogy láncolva vagy immobilizálva van, nem, egyáltalán nem ügynökök - nem képesek „fellépni az okokra”, amint Kant ezt tette volna.

Hosszú távon az "erős AI", vagyáltalános mesterséges intelligencia, elvileg lehetséges, de nem kívánatos. Még korlátozottabb AI, ami ma a gyakorlatban lehetséges, nem lesz gonosz. De ez fenyegetés - részben azért, mert tévedhet az erős AI-vel.

Mennyire erős ma a mesterséges intelligencia?

A különbség a mai rendszerek és aa népszerű képzeletet elárasztó sci-fi rendszerek még mindig hatalmasak, bár sokan, mind az amatőrök, mind a szakemberek, alábecsülik azt. Vessünk egy pillantást az IBM Watsonra, amely méltó lehet a múltban.

Ez a szuperszámítógép rendkívüli eredményegy nagyszabású K + F folyamat (kutatás és fejlesztés), amelyben sok ember vett részt, és az intelligencia kialakítása évszázadok óta, és ezer alkalommal több energiát használ, mint az emberi agy. Győzelme Jeopardy-ban! valódi diadal volt, amit a Jeopardy szabályainak formális korlátozásai tettek lehetővé, de azért, hogy részt vehessen, még a szabályokat is felül kellett vizsgálni. Meg kellett adnom egy kicsit sokoldalúságot, és hozzáadnom az emberiséget a showhoz.

Watson rossz cég, annak ellenére, hogy belépetta félrevezető reklám az IBM-től, amely az AI beszélgető képességeit ígér egy kötet szintjén, és a Watsont valószínû, sokrétû ügynökgé alakítja, hasonlít a számológép Watson-ra történõ fordítására. A Watson egy ilyen ügynök számára jó számítási eset lehet, hanem inkább egy kisagy, vagy amygdala, nem pedig ok, ami a legjobb, egy speciális célrendszer, amely támogatja a támogatást, de nem a célok tervezésére és megfogalmazására szolgáló rendszer, a megértett beszélgetési tapasztalatoktól függően.

És miért akarunk egy gondolkodást éskreatív ügynök a watson-tól? Talán Turing ragyogó ötlete - a híres Turing-teszt - csapdába vitt minket: megszállottnak éreztük magunkat, hogy legalább a képernyő előtt ülő valódi személy illúzióját hozzuk létre, megkerülve a „baljós völgyet”.

Veszély az, hogy mióta megtörténtbemutatta a feladatát - ami mindenekelőtt a bírák megtévesztésének feladata volt - az AI alkotói vicces humanoid babák, „rajzfilm” verziók segítségével próbálták ezt megvalósítani, amelyek lenyűgözik és hatástalanították a nem alátámasztottakat. ELIZA Joseph Weisenbaum, az első chatbot, élénk példa volt egy ilyen illúzió létrehozására, és ugyanakkor egy rendkívül egyszerű algoritmus, amely meggyőzte az embereket arról, hogy intim és őszinte beszélgetést folytatnak más emberekkel.

Megzavarta az emberek hajlandóságáthisz benne. És ha megértettünk valamit az éves versenyről, amely a Lebner-díjra vonatkozó korlátozott Turing-teszt elhaladását illeti, akkor még a legokosabbak, akik nem jól ismerik a számítógépes programozást, könnyen vezethetnek ezekhez az egyszerű trükkökhöz.

Az emberek hozzáállása az AI területén az ilyen módszerekhezaz elítéléstől a promócióig változik, és a konszenzus az, hogy ezek a trükkök nem különösebben mélyek, de hasznosak lehetnek. Az a szemléletmód, amely a leginkább üdvözlendő lenne, őszinte elismerés lenne, hogy a babákban festett androidok hamis hirdetések, amelyeket el kell ítélni és nem ösztönözni.

Hogyan lehet ezt elérni? Amint megértjük, hogy az emberek elkezdenek döntéseket hozni az életről és a halálról, az AI rendszerek „tanácsát” követve, amelyek belső műveletei gyakorlatilag érthetetlenek, jó okot fogunk látni azok számára, akik arra biztatják az embereket, hogy bízzanak az ilyen rendszerekben az erkölcs és a törvény normáira támaszkodni.

Az AI rendszerek nagyon erősekeszközöket. Annyira erőteljes, hogy még a szakértőknek is jó oka van arra, hogy nem bízik meg saját ítéletükben, amikor ezek az eszközök „ítéletek” vannak. De ha ezek a szerszámfelhasználók pénzügyi vagy egyéb előnyökkel járnak ezen eszközök népszerűsítésével, meg kell győződniük arról, hogy tudják, hogyan kell ezt teljes felelősséggel, maximális ellenőrzéssel és indoklással megtenni.

Üzemeltető engedélyezése és jóváhagyásaaz ilyen rendszerek - a gyógyszerészek, daru-üzemeltetők és más szakemberek számára, akiknek hibái és hibás ítéletei komoly következményekkel járhatnak -, a biztosítótársaságok és más szervezetek támogatásával kötelezhetik az AI-rendszerek létrehozóit hosszú távon, gyengeségeket és gyengeségeket keresve termékeit, valamint azokat, akik velük dolgoznak.

El tudod képzelni egyfajta fordított tesztet.Turing, amelyben a bíró az értékelés tárgya lesz; addig, amíg meg nem találja a gyengeségeket, az áthidalást, a rendszer hiányosságait, nem kap engedélyt. A tanúsítvány megszerzéséhez egy ilyen bírónak komoly képzést kell igénybe vennie. A vágy, hogy az emberi gondolkodás tárgyának tárgyát tulajdonítsuk, amint azt általában egy ésszerű ügynökkel találkozunk, nagyon, nagyon erős.

Tény, hogy képes ellenállnifurcsa dolog az a vágy, hogy valami humanizált látni. Sokan megkérdőjelezhetik az ilyen tehetségek termesztését, mert a rendszer legpragmatikusabb felhasználói időnként „barátságos” eszközökre utalnak.

Nem számít, milyen gondosan a tervezőka mesterséges intelligencia kizárja a hamis „emberi” jegyzeteket a termékeikben, elvárnunk kell a címkék, a kitérések és a megengedett torzulások gyarapodását mind a rendszerek, mind azok üzemeltetői számára. Ugyanúgy, mint a mellékhatások hosszú listájával vagy alkohollal forgalmazott gyógyszerek a televízióban, rengeteg finom nyomtatással, a törvényes figyelmeztetésekkel együtt, így a mesterséges intelligencia fejlesztői is betartják a törvényt, de kifinomultak lesznek a figyelmeztetésekben.

Miért van szükség mesterséges intelligenciára?

Nincs szükség mesterséges tudatos ügynökökre. Rengeteg olyan természetes tudatos ügynök van, aki elég ahhoz, hogy elvégezze a szakemberek és a kiváltságos egyének számára tervezett feladatokat. Szükségünk van intelligens eszközökre. Az eszközök nem rendelkeznek jogokkal, és nem lehetnek olyan érzések, amelyek sérülhetnek vagy „visszaélhetnek”.

Az egyik oka, hogy nem mesterségesa tudatos ügynökök az, hogy bár önállóvá válhatnak (és elvileg ugyanolyan autonóm, önjavító vagy önálló, mint bármely emberi lény), nem szabad - külön engedély nélkül - megosztani sérülékenységünket vagy halálozásunk.

Daniel Dennett, a filozófia professzoraA Tufts Egyetem egy mesterséges ügynökökről és autonómiáról szóló szemináriumon megfogalmazta a diákok feladatát: adjon nekem egy olyan robot műszaki leírását, amely aláírhat egy szerződést veled - nem egy másik személy tulajdonában lévő helyettesítő, hanem önmagában. Nem kérdés, hogy megértsék-e a papíron lévő toll okát vagy manipulációját, hanem a birtoklást és a megérdemelt jogi státusz és erkölcsi felelősség. A kisgyermekek nem írhatnak alá ilyen szerződéseket, valamint a fogyatékkal élők, akiknek jogállása kötelezi őket, hogy gyámban álljanak, és felelősséget vállaljanak a gondviselők számára.

Probléma-robotok, amelyekre szükség lehetaz ilyen felvidéki állapot elérése érdekében a Supermanhez hasonlóan túlságosan sebezhetőek ahhoz, hogy ilyen kijelentéseket tegyenek. Ha megtagadják, mi fog történni? Mi lesz a büntetés az ígéret megtöréséért? A ketrecben lezárják vagy szétszerelik őket? A mesterséges intelligencia börtönei nem lesznek kényelmetlenek, kivéve, ha először betöltjük a szabadság szomjúságát, amit maga az AI nem tud figyelmen kívül hagyni vagy kikapcsolni. Az AI szétszerelése nem fogja megöli a lemezen és a szoftverben tárolt információkat.

Egyszerű digitális felvétel és adatátvitel -áttörés, amely lehetővé tette, hogy a szoftverek és adatok valójában halhatatlanságot kapjanak - a robotok sebezhetetlenek. Ha ez nem tűnik nyilvánvalónak, gondolj arra, hogyan változik az emberek erkölcse, ha minden héten vissza tudnánk állítani az embereket. A pénteki biztonsági mentés után vasárnapi gumi zenekar nélküli hídról való kiugratás kiütéses döntés lehet, majd később megnézheti a korai halála felvételét.

Ezért teremtünk nem tudatos -szeretne létrehozni - humanoid ágenseket, hanem egy teljesen újfajta teremtményt, néhány orakulatot, eszméletlen, a halál félelme nélkül, anélkül, hogy szeretne és gyűlölnék, személyiség nélkül: az igazság tükröződése, amely majdnem biztosan emberi hazugságokkal fertőzött.

Emberek emberi felhasználásahamarosan változni fog - újra - örökre, de ha felelősséget vállalunk az evolúciós pályánkért, akkor elkerülhetjük a szükségtelen veszélyeket.

Nem ért egyet? Mondja el véleményét a telegramban lévő csevegőszobánkban.