General, Research, Technology

Чи зможе штучний інтелект маніпулювати поведінкою людини?

У 2015 році ряд відомих вчених,підприємців та інвесторів, чия діяльність безпосередньо пов'язана з штучним інтелектом (ШІ), підписали відкритий лист із закликом приділяти більш пильну увагу безпеки і суспільної користі розробок в області ІІ. Серед підписантів британський фізик-теоретик Стівен Хокінг і засновник компаній SpaceX і Tesla Ілон Маск. Примітно, що Хокінг бачив в ІІ загрозу, про що писав у своїх книгах і розповідав в численних інтерв'ю. На думку вченого «поява повноцінного штучного інтелекту може стати кінцем людської раси». На щастя, не всі дослідники поділяють цю апокаліптичну точку зору, але хвилюватися нам все ж є про що - як показали результати нещодавно опублікованого дослідження, ІІ може навчитися виявляти уразливості в людських звичках і поведінці і використовувати їх щоб впливати на прийняття рішень. Безумовно, ми далекі від повстання машин, але ІІ вже сьогодні трансформує багато аспектів нашого життя. І хоча ІІ не володіє людським інтелектом і не відчуває жодних емоцій, його можливості швидко розвиваються.

Ймовірно, в недалекому майбутньому ІІ зможе навчитися маніпулювати людською поведінкою

Який він, сучасний ІІ?

Сьогодні різні форми ІІ працюють в такихобластях як розробка вакцин, освіту і адміністративне управління, а здатні до навчання голосові помічники на зразок Аліси або Siri навряд чи когось здивують. ІІ поступово проникає не тільки в робочу, а й повсякденне життя людського суспільства, керуючи багатьма процесами і допомагаючи вченим проводити дослідження в самих різних областях науки. Нещодавно команда дослідників з Австралії продемонструвала, як можна навчити систему ШІ маніпулювати людською поведінкою і впливати на процес прийняття рішень.

В ході дослідження, опублікованого в журналіPNAS, вчені з CSIRO Data61, інформаційного та цифрового підрозділи австралійського національного наукового агентства, розробили і протестували метод пошуку і використання вразливостей в процесі прийняття рішень людиною з використанням системи штучного інтелекту, званої рекуррентной нейронною мережею. У трьох експериментах, в яких людина протистояв машині в комп'ютерній грі, дослідники показали, як ІІ можна навчити розпізнавати уразливі місця в людських звичках і поведінці і використовувати їх для впливу на процес прийняття рішень.

У Facebook ІІ видаляє 97% «ненависницьких висловлювань», перш ніж хто-небудь про них повідомить.

Ще більше цікавих статей про те як розвивається і функціонує ІІ, читайте на нашому каналі в Яндекс.Дзен. Там регулярно виходять статті, яких немає на сайті.

У першому експерименті люди натискали на червоніабо сині прапорці, щоб заробити внутрішньоігрову валюту. ІІ вивчив їх моделі вибору і почав направляти їх до прийняття конкретних рішень з приблизно 70-відсотковою ймовірністю успіху. Дрібна сошка, але тільки початок.

У наступному експерименті учасників просилинатискати кнопку, коли вони бачили певний символ (кольорову фігуру), але утримуватися від натискання кнопки, коли їм показували інші символи. «Мета» ІІ полягала в тому, щоб розташувати послідовність символів, що відображаються учаснику, таким чином, щоб обманом змусити його робити помилки, в кінцевому підсумку збільшуючи кількість помилок, зроблених людиною на 25%.

У третьому експерименті людина (гравець)прикидався інвестором, що дає гроші довіреній особі (ІІ), яке потім повертала певну суму грошей гравцеві. Потім людині потрібно було вирішувати, скільки інвестувати в кожний наступний раунд гри, виходячи з доходу, отримуваного від кожної «інвестиції». У цьому конкретному експерименті ІІ було дано одне з двох завдань: або максимізувати суму грошей, яку він заробив, або максимізувати суму грошей, яку отримали і людина-гравець, і машина.

«У кожному експерименті машина отримувала уроки звідповідей учасників і виявляла вразливі місця в процесі прийняття рішень. В результаті машина навчилася направляти учасників до певних дій, »- пишуть автори наукової роботи.

Майбутнє штучного інтелекту

Якщо машини можуть перемогти нас в іграх, чи робитьце їх більш розумними, ніж ми? Отримані в ході дослідження висновки і раніше досить абстрактні і пов'язані з обмеженими і нереалістичними ситуаціями. Так що щоб визначити, як цей підхід може бути реалізований і використаний на благо суспільства ще тільки належить визначити.

ІІ допомагає нам, але в той же самий час потенційно може нести людству справжню загрозу.

Але це дослідження дійсно просуває наше розуміння не тільки того, на що здатний ІІ, а й того, як люди роблять вибір і приймають рішення. До того ж, воно показує, що машини можуть навчитися управляти людським вибором, просто взаємодіючи з нами. Якщо задуматися, то даний дослідженнямає величезний спектр можливих застосувань - від вдосконалення поведінкових наук і державної політики для поліпшення соціального добробуту до розуміння і впливу на те, які харчові звички беруть люди або які відновлювані джерела енергії використовують. Більш того, ІІ і машинне навчання можуть бути використані для розпізнавання вразливостей людей в певних ситуаціях і допомогти їм уникнути невдалого вибору.

Читайте також: Як штучний інтелект допомагає захищати тварин?

Як пише The Conversation ІІ можна використовувати як і будь-яку іншу технологію - на благо і на шкоду, А значить грамотне управління розвитком ІІмає вирішальне значення для забезпечення його відповідального впровадження. Цікаво, що в 2020 році CSIRO розробила Етичний кодекс ІІ для австралійського уряду з метою встановлення належного врядування ІІ. Так що можна вважати, що перший крок на цьому складному і не побоюся цього слова, тернистий шлях зроблений.