технология

Опасна човешка природа: защо се нуждаем от интелигентен изкуствен интелект?

Когато Норберт Винер, бащата на кибернетиката, написа свояКнигата „Човешката употреба на човешките същества“ през 1950 г., вакуумните тръби все още са основните електронни блокове и всъщност имаше само няколко компютъра. Но той си представяше бъдещето, с което сега сме свидетели, с безпрецедентна точност, допуснали грешка само в незначителни дреболии.

Преди всеки друг изкуствен философразбрал, че ИИ не само ще имитира - и ще замени - човешки същества в много видове интелектуална дейност, но ще промени хората в процеса. "Ние сме просто водовъртежи в реката на някога течаща вода", пише той. "Ние не сме нещо, което просто живее, ние сме модели, които увековечават себе си."

Например, когато много примамлививъзможности, ние сме готови да платим и да приемем разходите за малък бизнес за достъп до нови възможности. И много скоро ние станем пристрастени към новите инструменти, губим способността да съществуваме без тях. Опциите стават задължителни.

Това е много стара история на еволюцията и много главиот нея сме добре известни. Повечето бозайници могат да синтезират собствения си витамин С, но приматите, които ядат предимно плодове, губят тази вградена способност. Самоповторимите модели, които наричаме хора, сега зависят от дрехите, преработените храни, витамините, спринцовките, кредитните карти, смартфоните и интернет. А утре, ако не днес, от изкуствен интелект.

Винер предвиждаше няколко проблема с това състояние на нещата, което Алън Тюринг и други оптимисти на ИИ до голяма степен пренебрегваха. Истинската заплаха, каза той, е:

... че такива машини, въпреки че самите са безпомощнисами по себе си, могат да бъдат използвани от хората или да блокират човешките същества, за да засилят контрола си над останалата част от расата, или политическите лидери могат да се опитат да контролират своето население, като използват не политически методи, а политически методи, които са тясно и безразлични към хората. те са измислени механично.

Очевидно тези опасности са много актуални в момента.

В медиите, например, иновациите в цифровото аудио ивидеоклиповете ни позволяват да плащаме малка цена (в очите на любителите на аудиофили и филми) за отказ от аналогови формати, а получаването на изключително проста в замяна - твърде проста - начин да се възпроизвеждат записи без почти никакви ограничения.

Но има огромна скрита цена. Служението за истината на Оруел се превърна в реална възможност. Методите за изкуствен интелект за създаване на почти неразличими фалшиви “записи” правят остарелите инструменти, които сме използвали, за да проучим през последните 150 години.

Остава ни просто да се откажем от кратката епоха.фотографски доказателства и връщане към този стар свят, където човешката памет и доверие са златен стандарт. Или можем да разработим нови методи за отбрана и атака в битката за истината. Един от най-вълнуващите примери за това е фактът, че унищожаването на репутацията е много по-евтино от получаването и защитата на тази репутация. Винер разгледа този феномен много широко: „В дългосрочен план няма да има разлика между въоръжаването и въоръжението на врага.“ Информационната епоха също се превърна в ера на дезинформация.

Какво можем да направим? Ключът е наблюдението на Винер, че “тези машини” са “безпомощни сами по себе си”. Ние създаваме инструменти, а не колеги, а реалната заплаха е, че не виждаме разлика.

Изкуствен интелект в тяхното течениепрояви паразитни върху човешкия интелект. Той много безцеремонно придобива всичко, създадено от човешки създатели и извлича модели - включително и нашите най-тайни навици. Тези машини все още нямат цели или стратегии, не са способни на самокритика и иновации, те само изучават нашите бази данни, без да имат собствени мисли и цели.

Те са, както казва Винер, безпомощни в товакоето означава, че те са оковани или обездвижени, не, те изобщо не са агенти - те нямат способността да „действат по каузи“, както би казал Кант.

В дългосрочен план, "силен AI", илиобщ изкуствен интелект, възможно по принцип, но нежелателно. Още по-ограничен ИИ, който е възможен на практика днес, няма да бъде зъл. Но това е заплаха - отчасти защото може да се обърка за силен изкуствен интелект.

Колко силен е изкуственият интелект днес?

Разликата между днешните системи иНаучно-фантастичните системи, които наводниха популярното въображение, са все още огромни, въпреки че много хора, както любители, така и професионалисти, са склонни да го подценяват. Нека да разгледаме Watson на IBM, който може да бъде достоен за уважение в наше време.

Този суперкомпютър е резултат от изключителномащабен процес на научноизследователска и развойна дейност (изследвания и развитие), в който участват много хора и проектирането на интелигентност в продължение на много векове, и използва хиляди пъти повече енергия от човешкия мозък. Неговата победа в Jeopardy! беше истински триумф, който стана възможен чрез ограниченията на правилата на Jeopardy !, но за да може да участва, дори тези правила трябваше да бъдат преразгледани. Трябваше да се откажа от малко гъвкавост и да добавя човечеството, за да направи шоуто.

Уотсън е лоша компания, въпреки че влиза в негозаблуждаваща реклама от IBM, която обещава разговорните способности на AI на ниво на звука, и превръщането на Watson в правдоподобен многоаспектен агент би било близко до превръщането на калкулатора в Watson. Уотсън може да е добър изчислителен случай за такъв агент, а по-скоро малък мозък или амигдала, а не разум - в най-добрия случай подсистема със специално предназначение, която играе ролята на подкрепа, но не и система за планиране и формулиране на цели, в зависимост от натрупания разговор.

И защо искаме да създадем мислене итворчески агент от Уотсън? Може би блестящата идея на Тюринг - прочутият тест на Тюринг - ни привлече в капан: ние станахме обсебени от създаването поне на илюзията за истински човек, седящ пред екрана, заобикаляйки „зловещата долина“.

Опасност е, че от моментапредстави своята задача - преди всичко задачата да заблуди съдиите - създателите на ИИ се опитаха да го постигнат с помощта на забавни хуманоидни кукли, „анимационни“ версии, които биха очаровали и обезоръжили непосветените. Елиза Йозеф Вайзенбаум, първият чат-бот, беше ярък пример за създаването на такава илюзия и в същото време изключително прост алгоритъм, който можеше да убеди хората, че имат интимни и искрени разговори с други хора.

Той беше обезпокоен от лекотата, с която хората желаятвярвам в него. И ако разбрахме нещо от годишния конкурс за преминаване на теста за Тюринг за наградата Lebner, то е, че дори най-умните хора, които не са добре запознати с компютърното програмиране, лесно могат да доведат до тези прости трикове.

Отношението на хората в областта на ИИ към такива методиварира от осъждане до насърчаване и консенсусът е, че всички тези трикове не са особено дълбоки, но могат да бъдат полезни. Промяната в отношението, която би било добре дошла, би било искрено признание, че андроидите, рисувани в куклите, са фалшиви реклами, които трябва да бъдат осъждани и не насърчавани.

Как да постигнем това? Щом разберем, че хората започват да вземат решения за живота и смъртта, следвайки „съвета” на системите за изкуствен интелект, чиито вътрешни операции са практически неразбираеми, ще видим добра причина за тези, които призовават хората да се доверят на такива системи, да започнат да разчитат на нормите на морала и правото.

Системите за изкуствен интелект са много мощниинструменти. Толкова мощна, че дори експертите имат добра причина да не се доверяват на собствената си преценка, когато са налице „решения“, представени от тези инструменти. Но ако тези потребители на инструменти ще се възползват, финансово или по друг начин, от популяризирането на тези инструменти, те трябва да се уверят, че знаят как да направят това с пълна отговорност, максимален контрол и обосновка.

Лицензиране и одобряване на операторатакива системи - точно както лицензираме фармацевтите, крановите оператори и други професионалисти, чиито грешки и погрешни преценки могат да имат тежки последици - могат, с подкрепата на застрахователни компании и други организации, да задължат създателите на системите за изкуствен интелект да търсят слаби и слаби страни техните продукти, както и да обучават тези, които ще работят с тях.

Можете да си представите нещо като обратен тест.Тюринг, в който съдията ще бъде обект на оценка; докато не открие слабости, нарушения, пропуски в системата, той няма да получи лиценз. За да получи сертификат, такъв съдия ще се нуждае от сериозно обучение. Желанието да се отдаде на обекта на човешката способност да мисли, както обикновено правим, когато се срещаме с разумен агент, е много, много силно.

В действителност, способността да се противопоставятжеланието да се види в нещо хуманизирано е странно нещо. Много хора смятат култивирането на такъв талант под въпрос, защото дори и най-прагматичните потребители на системата понякога се отнасят към инструментите си „приятелски“.

Без значение колко внимателно са били дизайнеритеизкуственият интелект ще изключи фалшивите „човешки“ бележки в техните продукти, трябва да очакваме разцвет на етикети, отклонения и допустими изкривявания на действителното „разбиране“ както на системите, така и на техните оператори. По същия начин, че наркотици с дълъг списък от странични ефекти или алкохол се рекламират по телевизията, снабдявайки филма с изобилие от дребен шрифт с всички задължителни предупреждения, също и разработчиците на изкуствен интелект ще спазват закона, но ще бъдат усъвършенствани в предупрежденията.

Защо се нуждаем от изкуствен интелект?

Ние не се нуждаем от изкуствени съзнателни агенти. Има много естествени съзнателни агенти, които са достатъчни, за да изпълняват всякакви задачи, предназначени за специалисти и привилегировани личности. Нуждаем се от интелигентни инструменти. Инструментите нямат права и не трябва да имат чувства, които могат да бъдат наранени или които могат да бъдат „злоупотребявани”.

Една от причините да не се прави изкуственосъзнателните агенти са, че въпреки че могат да станат автономни (и по принцип могат да бъдат автономни, самоусъвършенстващи се или самосъздаващи се като всяко човешко същество), те не трябва - без специално разрешение - да споделят нашата уязвимост или нашата смъртност.

Даниел Деннет, професор по философияУниверситетът на Тафтс, веднъж поставил задачата на студентите на семинар за изкуствени агенти и автономия: дай ми техническите спецификации на робот, който може да подпише договор с вас - не заместител, собственост на друго лице, а сам по себе си. Не става въпрос за разбиране на причините или манипулациите с писалка на хартия, а по-скоро на притежание и заслужено владеене на правен статут и морална отговорност. Малките деца не могат да подписват такива договори, както и хора с увреждания, чийто правен статут ги задължава да бъдат поставени под запрещение и да налагат отговорност на настойниците.

Проблемни роботи, които биха могли да искатда се получи такъв възвишен статус е, че като Супермен те са твърде уязвими, за да правят подобни изявления. Ако те откажат, какво ще се случи? Какво ще бъде наказанието за нарушаване на обещание? Те ще бъдат затворени в клетка или разглобени? Затворът за изкуствен интелект няма да е неудобен, ако първо не заредим жаждата за свобода, която не може да бъде пренебрегната или изключена от самия ИИ. Разглобяването на ИИ няма да убие информацията, съхранена на диска и в софтуера.

Лесно цифрово записване и пренос на данни -пробив, който позволява на софтуера и данните да получат, всъщност, безсмъртието - прави роботите неуязвими. Ако това не изглежда очевидно, помислете как би се променил моралът на хората, ако можем да подкрепим хората всяка седмица. Скок от мост без гумена лента в неделя, след като резервът в петък може да бъде опровергано решение, тогава можете да гледате записа на преждевременната си смърт по-късно.

Ето защо създаваме несъзнателно -би искал да създаде - хуманоидни агенти, а по-скоро един съвсем нов тип същества, някои оракули, в безсъзнание, без страх от смъртта, без разсейване на любов и омраза, без личност: огледала на истината, които почти със сигурност ще бъдат заразени с човешки лъжи.

Човешката употреба на човешките съществаскоро ще се промени - отново - завинаги, но ако поемем отговорността за нашата еволюционна траектория, ще можем да избегнем ненужните опасности.

Не сте съгласни? Разкажете ни за вашето мнение в нашата чат стая в Телеграма.