Technology

Небезпечна людяність: навіщо нам розумний штучний інтелект?

Коли Норберт Вінер, батько кібернетики, писав своюкнигу «Людське використання людських істот» в 1950 році, вакуумні трубки все ще були основними електронними будівельними блоками, і в роботі, за фактом, було всього кілька комп'ютерів. Однак він уявив майбутнє, яке ми зараз спостерігаємо, з безпрецедентною точністю, помилившись лише в незначних дрібницях.

Перш будь-якого іншого філософа штучногоінтелекту, він зрозумів, що ІІ не просто буде наслідувати - і замінювати - людським істотам у багатьох видах інтелектуальної діяльності, але і змінить людей в цьому процесі. «Ми всього лише вири в річці вічно поточної води», писав він. «Ми не є чимось, що просто живе, ми моделі, які увічнюють себе».

Наприклад, коли з'являється безліч привабливихможливостей, ми готові платити і приймати невеликі витрати на ведення бізнесу для доступу до нових можливостей. І дуже скоро ми стаємо залежними від нових інструментів, втрачаємо здатність існувати без них. Опції стають обов'язковими.

Це дуже стара історія еволюції, і багато голівз неї нам добре відомі. Більшість ссавців може синтезувати свій власний вітамін C, але примати, які харчуються переважно фруктами, втратили цю вбудовану можливість. Самоповторяющіеся шаблони, які ми називаємо людьми, тепер залежать від одягу, обробленої їжі, вітамінів, шприців, кредитних карт, смартфонів і інтернету. І завтра, якщо не сьогодні, - від штучного інтелекту.

Вінер передбачав кілька проблем з цим станом речей, які Алан Тьюринг і інші ранні оптимісти ІІ в значній мірі залишили поза увагою. Реальна загроза, за його словами, полягала:

... в тому, що такі машини, хоча і безпорадні саміпо собі, можуть використовуватися людиною або блокувати людських істот для збільшення їх контролю над іншою частиною раси, які політичні лідери можуть спробувати взяти під контроль своє населення, використовуючи не самі машини, а політичні методи, настільки ж вузькі і байдужі до людини, як якщо б вони були придумані механічно.

Очевидно, ці небезпеки зараз дуже актуальні.

У ЗМІ, наприклад, інновації в цифровому аудіо тавідео дозволяють нам платити невелику ціну (в очах аудиофилов і любителів кіно) за відмову від аналогових форматів, а натомість отримувати вкрай простий - занадто простий - спосіб відтворення записів майже без обмежень.

Але є величезна прихована ціна. Міністерство правди Оруелла стало реальною можливістю. Методи ІІ зі створення практично не відрізняються підроблених «записів» роблять застарілими інструменти, які ми використовували для розслідувань останні 150 років.

Нам залишається просто відмовитися від короткої епохифотографічних доказів і повернутися в той колишній світ, де пам'ять людини і довіру були золотим стандартом. Або ж ми можемо розробити нові методи захисту і нападу в битві за правду. Одним з хвилюючих прикладів останнього часу став факт того, що знищити репутацію набагато дешевше, ніж цю ж репутацію заслужити і захистити. Вінер бачив це явище дуже широко: «У довгостроковій перспективі не буде різниці між озброєнням себе і озброєнням ворога». Епоха інформації стала також епохою дезінформації.

Що ми можемо зробити? Ключ у тому ж спостереженні Вінера про те, що «ці машини» «безпорадні самі по собі». Ми створюємо інструменти, а не колег, і реальна загроза полягає в тому, що ми не бачимо різниці.

Штучний інтелект в своїх нинішніхпроявах паразитує на людському інтелекті. Він досить безцеремонно опановує всім, що створили люди-творці, і витягує патерни - включаючи наші найпотаємніші звички. Ці машини поки не мають цілей або стратегій, не здатні до самокритики та інновацій, вони лише вивчають наші бази даних, не маючи власних думок і цілей.

Вони, як каже Вінер, безпорадні не в томусенсі, що вони закуті в ланцюги або знерухомлені, немає, вони взагалі не є агентами - у них немає можливості «діяти від причин», як висловився б Кант.

У довгостроковій перспективі «сильний ІІ», абозагальний штучний інтелект, можливий в принципі, але небажаний. Ще більш обмежений ІІ, який можливий на практиці сьогодні, не буде злом. Але він несе загрозу - почасти тому, що його можна помилково прийняти за сильний ІІ.

Наскільки сильний штучний інтелект сьогодні?

Розрив між сьогоднішніми системами інауково-фантастичними системами, за потік популярне уяву, все ще величезний, хоча багато людей, як любителі, так і професіонали, схильні його недооцінювати. Давайте розглянемо Watson від IBM, який цілком може стати гідним поваги в наш час.

Цей суперкомп'ютер став результатом вкраймасштабного процесу R & D (досліджень і розробки), в якому було задіяти безліч людей і напрацювання дизайну інтелекту за багато століть, і він використовує в тисячі разів більше енергії, ніж мозок людини. Його перемога в Jeopardy! була справжнім тріумфом, який став можливий завдяки формульним обмеженням правил Jeopardy !, але щоб він міг взяти участь, навіть ці правила довелося переглянути. Довелося трохи відмовитися від універсальності і додати людяності, щоб вийшло шоу.

Watson - погана компанія, незважаючи на що вводить воману рекламу від IBM, яка обіцяє розмовні здібності ІІ на обєм рівні, а перетворення Watson в правдоподібного багатогранного агента було б те саме перетворенню калькулятора в Watson. Watson може бути хорошим обчислювальним футляром для такого агента, але швидше за мозочком або миндалиной, а не розумом - в кращому випадку, підсистемою спецпризначення, яка виконує роль підтримки, але і близько не системою для планування і формулювання цілей в залежності від отриманого розмовного досвіду.

Та й навіщо б нам хотілося створити мислячого ітворчого агента з Watson? Можливо, блискуча ідея Тьюринга - знаменитий тест Тьюринга - заманила нас в пастку: ми стали одержимі створенням хоча б ілюзії реального людини, що сидить перед екраном, минаючи «зловісну долину».

Небезпека в тому, що з тих пір, як Тьюрингпредставив свою задачу - яка була, в першу чергу, завданням обдурити суддів - творці ІІ намагалися виконати її за допомогою смішних гуманоїдних ляльок, «мультяшних» версій, які зачарують і обезоружат непосвячених. ELIZA Джозефа Вейзенбаума, найперший чатбот, була яскравим прикладом створення такої ілюзії, і при цьому вкрай простим алгоритмом, який міг переконати людей, що вони ведуть задушевні і щирі бесіди з іншими людьми.

Його стурбувала легкість, з якою люди готовівірити в це. І якщо ми щось і зрозуміли з щорічних змагань на проходження обмеженого тесту Тюрінга за премію Лебнера, так це те, що навіть найрозумніші люди, які не знаються на комп'ютерному програмуванні, легко ведуться на ці найпростіші прийоми.

Ставлення людей в області ІІ до таких методіврізниться від засудження до заохочення, і консенсус полягає в тому, що всі ці хитрощі не особливо глибокі, але можуть бути корисними. Зрушенням щодо, який був би дуже до речі, буде щире визнання того, що оздоблені в ляльок андроїди - це помилкова реклама, яку варто засуджувати, а не заохочувати.

Як цього досягти? Як тільки ми зрозуміємо, що люди починають приймати рішення життя і смерті, слідуючи «раді» систем ІІ, внутрішні операції яких практично незбагненні, ми побачимо хороший привід для тих, хто закликає людей довіряти таким системам, почати спиратися на норми моралі і закону.

Системи штучного інтелекту - дуже потужніінструменти. Настільки потужні, що навіть у експертів є хороша причина не довіряти власним судженням, коли є «судження», представлені цими інструментами. Але якщо ці користувачі інструментів збираються отримати вигоду, фінансову або іншу, від популяризації цих інструментів, вони повинні переконатися, що знають, як зробити це з великою долею відповідальності, максимальним контролем і обгрунтуванням.

Ліцензування і схвалення дій операторівтаких систем - точно так само, як ми будемо ліцензувати фармацевтів, операторів кранів і інших фахівців, помилки і помилкові судження яких можуть мати важкі наслідки - може, за підтримки страхових компаній та інших організацій, зобов'язати творців систем ІІ йти довгим шляхом, вишукуючи слабкості і недоліки своїх продуктів, а також навчати тих, хто збирається з ними працювати.

Можна уявити свого роду зворотний тестТьюринга, в якому предметом оцінки буде суддя; поки він не знайде слабкості, порушення кордонів, прогалини в системі, ліцензії він не отримає. Для отримання сертифікату такого судді потрібно серйозне навчання. Прагнення приписувати об'єкту людську здатність мислити, як ми зазвичай робимо, зустрічаючись з розумним агентом, дуже і дуже сильне.

Насправді, здатність протистоятибажанням бачити в чомусь олюдненому людини - дивна штука. Багато людей знайшли б плекання такого таланту сумнівним, тому що навіть самі прагматичні користувачі системи періодично відносяться до своїх інструментів «дружелюбно».

Незалежно від того, наскільки ретельно дизайнериштучного інтелекту будуть виключати фальшиві «людські» нотки в своїх виробах, ми повинні очікувати розквіту ярликів, обхідних шляхів і допустимих спотворень фактичного «розуміння» як систем, так і їх операторів. Точно так же, як по телевізору рекламують ліки з довгим списком побічних ефектів або алкоголь, забезпечуючи ролик кількістю дрібного шрифту з усіма, передбаченими законом, попередженнями, так само і розробники штучного інтелекту будуть дотримуватися закону, але викручуватись в попередженнях.

Навіщо нам штучний інтелект?

Нам не потрібні штучні свідомі агенти. Є маса природних свідомих агентів, яких достатньо, щоб виконувати будь-які завдання, призначені для фахівців і привілейованих осіб. Нам потрібні розумні інструменти. Інструменти не мають прав і не повинні мати почуттів, які можна буде зачепити або якими можна буде «зловжити».

Одна з причин не робити штучнихсвідомих агентів полягає в тому, що хоча вони і можуть стати автономними (і в принципі вони можуть бути такими ж автономними, самоулучшающіміся або самосозідательнимі, як будь-яка людина), їм не варто - без спеціального дозволу - розділяти з нашими природними свідомими агентами нашу вразливість або нашу смертність.

Деніел Деннетт, професор філософії зУніверситету Тафтса, одного разу поставив перед студентами завдання на семінарі з штучним агентам і автономії: дайте мені технічні характеристики робота, який зможе підписати контракт з вами - НЕ сурогату, яким володіє інша людина, а самого по собі. Це не питання розуміння причин або маніпуляцій ручкою на папері, а скоріше володіння і заслуженого володіння правовим статусом і моральної відповідальністю. Маленькі діти не можуть підписувати таких контрактів, так само як і інваліди, правовий статус яких зобов'язує їм бути під опікою і накладає відповідальність на опікунів.

Проблема роботів, які могли б захотітиотримати такий піднесений статус, в тому, що, як і Супермен, вони занадто вразливі, щоб робити такі заяви. Якщо вони відмовляться, що буде? Яким буде покарання за порушення обіцянки? Їх закриють в клітці або розберуть на частини? В'язниця для штучного інтелекту не складе незручностей, якщо ми тільки спершу не завантажимо спрагу свободи, яка не зможе бути проігнорована або відключена самим ІІ. Розбирання ІІ не вб'ють інформацію, яка зберігається на його диску і в програмному забезпеченні.

Простота цифрового запису і передачі даних -прорив, який дозволив програмного забезпечення і даних отримати, по суті, безсмертя - робить роботів невразливими. Якщо це не здається очевидним, подумайте про те, як змінилася б моральність людей, якби ми могли робити «бекапи» людей щотижня. Стрибок з моста без гумки в неділю після п'ятничного бекапа може бути необачним рішенням, потім можна буде подивитися запис своєї передчасної кончини пізніше.

Саме тому ми створюємо не свідомих -хотіли б створювати - гуманоїдних агентів, а скоріше зовсім новий тип істот, деяких оракулів, без свідомості, без страху смерті, без відволікання на любов і ненависть, без особистості: дзеркала правди, які майже напевно будуть заражені людської брехнею.

Людське використання людських істотскоро зміниться - в черговий раз - назавжди, але якщо ми візьмемо на себе відповідальність за нашу траєкторію еволюції, ми зможемо уникнути непотрібних небезпек.

Не згодні? Розкажіть про свою думку в нашому чаті в Телеграма.