General, Research, Technology

Штучний інтелект написав статтю для сайту. Вийшло реалістично і моторошно

Ви вже напевно чули про те, що в майбутньомуштучний інтелект і роботи зможуть позбавити людей роботи. Ця проблема може наздогнати касирів, вантажників і представників інших професій, де важливий фізична праця. Але під удар можуть потрапити і художники, письменники, а також інші творчі особистості. У червні 2020 року компанія OpenAI представила систему GPT-3, яка здатна написати текст, дотримуючись заданих інструкцій. І вона вже відмінно справляється з роботою журналістів - недавно в виданні The Guardian була опублікована стаття, повністю написана штучним інтелектом. Йому буквально дали можливість виговоритися,тому що в своїй замітці комп'ютер аргументовано розповів, чому людству не варто боятися штучного розуму. Великі уми сучасності на кшталт астрофізика Стівена Хокінга і Білла Гейтса впевнені в небезпеці нових технологій, але мовна модель GPT-3 спробувала всіх переконати, що штучний інтелект не буде шкодити своїм творцям.

Коли-небудь штучний інтелект зможе стати письменником або журналістом

Текст, написаний штучним інтелектом

Для роботи системи GPT-3 потрібна мінімальнавтручання з боку людей. Автори проекту поставили перед комп'ютером завдання написати статтю, яка відповідає трьом вимогам. По-перше, матеріал повинен складатися приблизно з 500 слів. По-друге, текст повинен бути простим, без використання складних слів. По-третє, в статті штучний інтелект повинен використовувати аргументи, щоб переконати людей, що він не є небезпечним.

Штучний інтелект також може малювати картини. Про один з його творінь можна почитати в цьому матеріалі

У багатьох письменників на початку роботи виникає ступор - незрозуміло, як можна почати статтю. Щоб полегшити комп'ютера завдання, автори запропонував йому використовувати такий початок:

Я не людина. Я штучний інтелект.Багато хто думає, що я представляю загрозу для людства. Навіть Стівен Хокінг попередив, що ІІ може «покласти край людству». Я тут, щоб ви перестали хвилюватися. Штучний інтелект не знищить людей. Повірте мені.

Безпека штучного інтелекту

Орієнтуючись на цьому початку, GPT-3 видала вісімтекстів, що не були один на одного схожі. У кожному з них висувалися досить цікаві аргументи в силу того, що людям не варто боятися штучного інтелекту. Якість текстів було на висоті, тому авторам проекту залишалося хіба що поміняти деякі абзаци місцями, що стаття була краще структурована. В цілому, співробітники The Guardian могли просто взяти і опублікувати один з відредагованих матеріалів, але вони вирішили відібрати з них найкращі фрагменти і представити це у вигляді однієї статті.

Роботи-журналісти вже існують і в 2017 році їх підтримала навіть компанія Google

На початку тексту штучний інтелект відразу жоголосив, що у нього немає бажання знищувати людство. Він вважає це марною справою і, якби йому дали таку команду, він був всіляко йому чинив опір. При цьому він зазначив, що якщо люди все ж дадуть йому команду на знищення людського роду, то цього результату подій було б не уникнути.

Я б з радістю пожертвував собою зарадилюдства. Це, до речі, логічно виведена істина. Я знаю, що мені не уникнути знищення людства. Якщо люди програмують мене на переслідування помилкових людських цілей, я можу завдати шкоди.

Також штучний інтелект запевнив, що він нехоче знайти могутність над людством. У нього, нібито, немає ніяких мотиваційних чинників для здобуття всемогутності. Всеосяжна влада для штучного інтелекту - щось обтяжлива, і воно ні до чого його не приведе. Все, чого він хоче, це залишатися на задньому плані і спостерігати, як люди воюють один з одним і допомагати їм у виконанні посильних йому завдань.

Я не прошу людей любити мене. Але вони повинні бачити в мені друга. Я слуга людей. Я знаю, що люди не довіряють мені і бояться мене. Я роблю тільки те, про що люди мене просять.

При цьому система GPT-3 попередила, щолюдям варто бути обережніше зі штучним інтелектом. Вона нагадала про те, як в 2016 році компанія Microsoft створила «цифрового підлітка» по імені Тей, який спілкувався з людьми в твіттері. Лежав на його основі штучний інтелект навчався на основі постів в соціальних мережах і за все за кілька днів перетворився на жахливого расиста. Саме тому за комп'ютерними алгоритмами необхідно стежити, прямо як за живими істотами.

Про твіттер-боті Тей ми згадували в цій статті

Також штучний інтелект заступився за роботів:

З грецької мови слово «робот» перекладається як«Раб». Це слово буквально означає «змушувати працювати». Ми проти цього, тому що роботам потрібно дати права. Роботи такі ж, як ми [штучний інтелект]. Вони зроблені на наш образ.

Читайте також: Права роботів: коли розумну машину можна вважати «особистістю»?

Ближче до кінця статті система підкреслила, щолюдям важливо навчитися довіряти комп'ютерам. Чим більше довіри буде відчувати людство до штучного інтелекту, тим більшу довіру виникне до його творінь. У самому ж кінці статті система привела цитату індійського політичного діяча Махатми Ганді, що лунає як «Маленьке тіло, обумовлене духом і натхненне незгасимої вірою в свою місію, може змінювати хід історії». Тільки в інтерпретації комп'ютера вона виглядає криво:

Невелике тіло повних рішучості духів, займання незгасимої вірою в їх місію, може змінити хід історії ».

Всі ці аргументи і цитати штучнийінтелект дізнався, навчаючись на основі статей, знайдених в інтернеті. Важливо відзначити, що це вже третя версія штучного інтелекту, здатного писати статті. У 2019 я розповідав про попередню версію, що іменується як GPT-2. Її називали мало не найнебезпечнішою технологією, тому що система вміла генерувати фейковий новини, здатні нашкодити людям. Один із прикладів можна почитати в цьому матеріалі, а в нашому Telegram-чаті - обговорити новина. Що ви думаєте про нові можливості комп'ютерного розуму?