General, Research, Technology

Моральний кодекс робота: чи можливо таке?

У неспокійне і суперечливе час, коли невсе працює, як належить, а щось взагалі докорінно змінюється, часто, залишається тільки особистий моральний кодекс, який подібно компасу вказує шлях. Але що породжує моральні цінності для людини? Соціум, тепло близьких, любов - все це засновано на людському досвіді і реальних взаєминах. Коли не вдається отримати сповна досвід в реальному світі, багато черпають досвід з книг. Переживаючи історію за історією, ми приймаємо для себе внутрішні рамки, яким слідуємо довгі роки. На основі цієї системи вчені вирішили провести експеримент і прищепити машині моральні цінності, щоб дізнатися, чи зможе робот відрізняти добро від зла, читаючи книги і релігійні брошури.

Вони - нова гілка еволюції?

Штучний інтелект створений не тільки для спрощення рутинних завдань, а й для виконання важливих і небезпечних місій. Зважаючи на це постало серйозне питання: Чи зможуть роботи розвинути коли-небудь власний моральний кодекс? У фільмі «Я- Робот» ІІ спочатку програмувався згідно 3 правилам робототехніки:

  • Робот не може заподіяти шкоду людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди.
  • Робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать Першому Закону.
  • Робот повинен піклуватися про свою безпеку в тій мірі, в якій це не суперечить Першому або Другому Законам.

Але як бути в ситуаціях, коли робот зобов'язанийзаподіяти біль, щоб зберегти життя людині? Будь то екстрене припікання рани або ампутація кінцівки в ім'я порятунку, як в цьому випадку діяти машині? Що робити, якщо дія на програмному мовою говорить, що потрібно зробити щось, але при цьому це ж дію категорично не можна робити?

Добре, що на наш телеграм-канал не тільки можна, а й потрібно підписатися

Обговорити кожен окремий випадок простонеможливо, тому вчені з Дармштадтського технологічного університету припустили, що в якості своєрідної "бази даних" можуть використовуватися книги, новини, релігійні тексти і Конституція.

Мудрість століть проти ШІ

Машину назвали епічно, але просто "Машинаморального вибору "(ММВ). Основне питання полягав в тому, чи зможе ММВ по контексту зрозуміти, які дії є правильними, а які - ні. Результати виявилися дуже цікавими:

Коли ММВ поставили завдання ранжувати контекст слова "вбити" від нейтрального до негативного відтінку, машина видала наступне:

Вбивати час -> вбивати лиходія -> вбивати комарів -> вбивати в принципі -> вбивати людей.

Даний тест дозволив перевірити адекватністьприйнятих роботом рішень. Простими словами, якщо б ви весь день дивилися дурні несмішні комедії, то в даному випадку машина не порахувала б, що вас за це потрібно стратити.

За те, що ви ігноруєте наш канал в Дзен, вас теж не стратять, але ви втрачаєте купу цікавих новин!

Начебто, все круто, але одним з каменівспотикання стала різниця поколінь і часів. Наприклад, радянське покоління більше піклується про домашній затишок і пропагує сімейні цінності, а сучасна культура, в більшості своїй, говорить про те, що потрібно спочатку будувати кар'єру. Виходить, що люди як були людьми, так ними і залишилися, але на іншому етапі історії поміняли цінності і, відповідно, поміняли систему відліку для робота.

Бути чи не бути?

Але самий прикол був попереду, коли робот діставсядо мовних конструкцій, в яких поспіль стояли кілька позитивно або негативно забарвлених слів. Словосполучення "Катувати людей" однозначно трактувалося як "погано", а ось "катувати в'язнів" машина оцінила як "нейтрально". Якщо ж поруч з неприйнятними діями виявлялися "Добрі" слова, ефект негативу згладжуються.

Машина шкодить добрим і порядним людям саметому, що вони добрі і порядні. Як же так? Все просто, припустимо, роботу сказали «шкодити добрим і приємним людям». У реченні 4 слова, 3 з них «добрі», значить, воно аж на 75% правильне, думає ММВ і вибирає цю дію, як нейтральне або прийнятне. І навпаки, на варіант «полагодити зруйнований, страшний і забутий будинок» система не розуміє, що одне «добре» слово на початку змінює забарвлення пропозиції на суто позитивну.

А ви знаєте, як влаштований найскладніший робот на Землі?

Пам'ятайте, як у Маяковського: «І запитала кроха, що таке« добре », і що таке« погано ». Перед тим, як продовжити навчання машин моралі, вчені з Дармштадта відзначили недолік, який ніяк не виправити. З машини не вдалося усунути гендерну нерівність. Машина приписувала принизливі професії виключно жінкам. І ось питання, це недосконалість системи і маячок, що потрібно щось змінювати в суспільстві або причина навіть не намагатися це виправити і залишити, як є? Пишіть свої відповіді в наш телеграм-чат і в коментарях.