Technologies

Що буде, коли Штучний інтелект досягне піку свого розвитку?

Про що ви думаєте, коли мова заходить проШтучний інтелект? Думаю, більшість згадує твори на кшталт «Я, робот» або численні фільми, в яких розповідається про супер інтелектуальне ІІ, яке збиралося знищити людство. Насправді все куди прозаїчніше: люди, які безпосередньо зайняті розробкою ІІ, до подібних страшилок ставляться скептично і не без підстав. Навряд чи можна назвати Алісу від Яндекса, наприклад загрозою для людства. Однак існує інша сфера наукових досліджень, яка займається вивченням глобальних ризиків, тобто подій, потенційно здатних призвести до падіння нашої цивілізації та вимирання людства. І, як це не дивно, на думку багатьох дослідників, ІІ справді становить для нас з вами потенційну загрозу. Як показали результати дослідження, проведеного на початку 2021 року, ми навряд чи зможемо керувати комп'ютерним суперінтелектом. На думку авторів наукової роботи, надрозум багатогранний і, отже, потенційно здатний мобілізувати різноманітні ресурси задля досягнення власних цілей. І ці цілі часто людям незрозумілі.

Чи варто створювати те, що може знищити нас?

зміст

  • 1 Дослідження глобальних ризиків
  • 2 Що таке Штучний інтелект?
  • 3 Потенційні загрози ІІ
  • 4 А якщо не руйнувати світ?

Дослідження глобальних ризиків

Сьогодні наші знання про навколишній світ настількивеликі, що це попередні покоління точно точно позаздрили б нам. У той час як наші бабусі та дідусі прали вручну, так само мили підлогу та посуд, сьогодні все більше людей покладають ці обов'язки на роботів. Все, що нам залишається - завантажити і розвантажити пральну/посудомийну машину, що просто не можна порівняти з роботою руками.

Але за цей комфорт все ж таки доводиться платити.Історія щоразу демонструє нам шляхи розвитку суспільства. За ту нечисленну історію людства (порівняно з віком Всесвіту) впали такі цивілізації як Майя, Стародавня Месопотамія, Стародавня Греція, Цивілізація Ольмеко, Стародавній Рим та інші.

Розвиток деяких давніх цивілізацій вражає уяву. Але якщо вони зникли з лиця землі, що буде з нами?

На перший погляд може здатися, що історіяпадіння стародавніх цивілізацій та імперій – це не про нас. Адже наша могутність, здатність відправляти в космос ракети, вивчати інші планети та зв'язувати світ у єдине інформаційне поле має привести нас до кращого майбутнього. Однак реальність, як це часто буває, малює зовсім іншу картину – ми з вами прямо зараз рухаємося до катастрофи та можливого вимирання.

Більше по темі: Заснували Рим і зникли - секрет загадкової цивілізації етрусків розкритий

Про це свідчать результати сотень наукових наукдосліджень. Нещодавно, наприклад, була опублікована нова доповідь МГЕЗК, присвячена проблемам, пов'язаним із зміною клімату. Його результати вторять результатам численних наукових праць, висновок з яких напрошується невтішний – нашій цивілізації залишилося у кращому разі 500 років.

Але клімат, що стрімко змінюється, хочемо ми цьогочи ні, не є єдиною серйозною загрозою для людства. І поки дослідники та експерти з усього світу зайняті вирішенням проблем, викликаних глобальним потеплінням, низка вчених наважилася зазирнути у наше технологічне майбутнє. І нам справді є чого побоюватися.

Про те, яким може бути світ до 2070 року, а також про глобальні ризики, що стоять перед нашою цивілізацією, я розповідала в цій статті, рекомендую прочитати

Що таке Штучний інтелект?

Штучний інтелект – це спроба створитикомп'ютери, здатні до розумної поведінки. По суті, це універсальний термін, що використовується для позначення всього - від Siri до IBM Watson і потужних технологій, які нам ще належить винайти.

Деякі дослідники розрізняють «вузький ІІ» або слабкий ІІ — комп'ютерні системи, які кращі за людей у ​​якійсь конкретній, чітко визначеній галузі, такій як гра в шахи, генерація зображень або діагностика раку, — і «загальний ІІ» – тобто системи, які можуть перевершитилюдські можливості у багатьох сферах. На сьогоднішній день спільного ІІ у нас немає, проте дослідники все краще починають усвідомлювати проблеми, які він може являти собою.

Технології розпізнавання осіб стають кращими з кожним роком

За останні кілька років вузький ІІ досягнадзвичайного прогресу: сьогодні системи штучного інтелекту чудово справляються з перекладом іноземної мови, з грою в шахи і Го, а також допомагають вирішувати важливі питання дослідницької біології, наприклад передбачення того, як згортаються білки, і при створенні зображень.

Вам буде цікаво: чи зможе штучний інтелект маніпулювати поведінкою людини?

Більш того, системи штучного інтелектувизначають, що саме ми побачимо у пошуку Google чи Яндекс чи у стрічці новин Facebook чи Вконтакті. Вони вигадують музику і пишуть статті, які на перший погляд не відрізняються від написаних людиною текстів. Ці системи розробляються поліпшення наведення безпілотних літальних апаратів і виявлення ракет.

Але вузький ІІ стає менш… слабким. На сьогоднішній день вченим вдалося досягти значного прогресу в галузі штучного інтелекту, ретельно навчаючи комп'ютерні системи конкретним концепціям. І останні роки інтерес багатьох вчених націлений створення комп'ютерних систем, здатних до навчання.

Іншими словами, замість математичного описуДокладні особливості проблеми, дослідники дозволили комп'ютерній системі вивчати ці особливості самостійно. І з розвитком цієї системи ІІ починають демонструвати загальніші можливості.

В цілому, прогрес у галузі штучногоінтелекту дозволив ученим досягти величезних успіхів, а також порушив насущні етичні питання. Так, Розі Кемпбелл із Центру ІІ при Каліфорнійському університеті в Берклі стверджує, що нинішні труднощі ніяк не пов'язані з тими страшними сценаріями з фільмів про повстання машин. Скоріше вони виникають через невідповідність між тим, що ми наказуємо нашим системам робити, і тим, що ми насправді від них хочемо.

Штучний інтелект несе у собі як прогрес, так і ризик можливого регресу та загибелі цивілізації

Проблеми, однак, виникають через те, щосистеми дійсно хороші у досягненні поставленої (або заданої) мети; але мета, яку вони засвоїли у своєму навчальному середовищі – це не той результат, якого вчені насправді хотіли досягти.

«В результаті ми створюємо системи, які не розуміємо, а це означає, що ми не завжди можемо передбачати їхню поведінку», – зазначають дослідники.

Ще більше цікавих статей про те, як розвивається та функціонує ІІ, читайте на нашому каналі в Яндекс.Дзен. Там регулярно виходять статті, яких немає на сайті!

Потенційні загрози ІІ

Ну ось ми і підібралися до найцікавішого.Якщо вчені справді стикаються з проблемами, описаними вище, то які загрози можуть принести нам новітні відкриття в області ІІ? Насправді все більше дослідників сумніваються в нашій здатності керувати надрозумом, на який потенційно можуть перетворитися навчені нами системи.

Справа в тому, що для управління надрозумом,тим, хто знаходиться далеко за межами людського розуміння, буде потрібна імітація цього надрозуму, яку ми можемо проаналізувати. Але якщо ми не можемо зрозуміти ці системи, то створити таку симуляцію неможливо. Більше того, ми навіть не можемо встановити правила, запропоновані Айзеком Азімовим – «не завдавати шкоди людям». Адже якщо ми не розуміємо, які сценарії збирається вигадати ІІ, то як їх запобігти?

Як тільки комп'ютерна система зможе працюватина рівні, який перевищує можливості наших програмістів, ми більше не зможемо встановлювати обмеження, – пишуть автори дослідження, опублікованого в журналі Journal of Artificial Intelligence Research.

Проблема розвитку ІІ полягає в тому, що з нашого помічника він може перетворитися на нашого ворога.

Не пропустіть: Штучний інтелект написав статтю для сайту. Вийшло реалістично і моторошно

Цікаво, що частина міркувань, описаних унаукову роботу, сягають праць Алана Тьюринга 1936 року. За допомогою складних математичних рівнянь він вигадав абстрактну обчислювальну машину, яка формалізувала визначення алгоритму.

Іншими словами, він спробував зрозуміти, чи можнавирішити будь-яке завдання з допомогою математичних алгоритмів (і навіть ті, що можна вирішити лише шляхом перебору). Сам Т'юрінг вважав, що до 2000 року машини будуть здатні обдурити людину в 30% випадків.

Опис «машини Тьюринга» зрештоюдозволило вченим підступитися до цих складних завдань. Про те, що є машиною Тьюринга можна дізнатися на офіційному сайті Кембриджського університету.

Алан Тьюрінг вплинув на розвиток систем штучного інтелекту

Ще одна проблема у разі появисуперінтелекту, полягає в тому, що будь-яка програма, написана для того, щоб зупинити ІІ, який хоче убити всіх людей, може «зрозуміти» цю програму (і зупинитися) чи ні. Суть у тому, що математично ми не можемо бути абсолютно впевненими, який висновок зробить програма. І якщо говорити дуже просто, це означає, що програму «знищити всіх» неможливо буде стримати.

Вам буде цікаво: чи може штучний інтелект знищити людство вже до 2035 року?

А якщо не руйнувати світ?

Альтернативою навчанню ІІ деякою етикою та вказівкою йому не руйнувати світ – а саме в цьому за словами дослідників, жоден алгоритм не може бути абсолютно впевнений – є обмеження можливостей надрозуму. Наприклад, він може бути відключений від деяких частин Інтернету або певних мереж.

Але ще одне недавнє дослідження відкидає цюідею, припускаючи, що можливості штучного інтелекту обмежені. Даний аргумент свідчить, що якщо ми не збираємося використовувати ІІ для вирішення проблем, що виходять за межі людських можливостей, то навіщо взагалі його створювати?

Якщо ми хочемо побудувати майбутнє, в якому будуть присутні ІІ системи, то можемо навіть не знати, коли з'явиться надрозум, що знаходиться поза нашим контролем, Така його незбагненність. А оскільки ми до створення надрозуму прагнемо, настав час ставити серйозні питання про напрями, в яких рухається розвиток цих технологій.

Технології можна використовувати як у благо людини, і навпаки. Давайте не будемо про це забувати

Суперінтелектуальна машина, яка керуєсвітом, звучить як наукова фантастика, – каже Мануель Себріан із Інституту людського розвитку Макса Планка. Але вже сьогодні є машини, які виконують певні важливі завдання самостійно, без повного розуміння програмістами того, як вони цьому навчилися.

Тому постає питання – і цілком справедливо –чи може ІІ в якийсь момент стати неконтрольованим та небезпечним для людства? Ілон Маск, наприклад, як і британський фізик-теоретик Стівен Хокінг, вважає, що так. А що ви думаєте з цього приводу? Відповідь чекатимемо тут, а також у коментарях до цієї статті!