общ, изследване, технология

Етичен кодекс на робота: Възможно ли е това?

В забързано и конфликтно време, когато невсичко работи както трябва, но като цяло нещо се променя радикално, често остава само личен морален код, който подобно на компас сочи пътя. Но какво поражда морални ценности за човек? Обществото, топлината на близките, любовта - всичко това се основава на човешки опит и реални взаимоотношения. Когато не е възможно да получите пълния опит в реалния свят, мнозина черпят опит от книги. Преживявайки история след история, ние приемаме за себе си вътрешната рамка, която следваме от много години. Въз основа на тази система учените решиха да проведат експеримент и да насаждат морални ценности в машината, за да установят дали роботът може да различи доброто от злото, като чете книги и религиозен брошури.

Те са нов клон на еволюцията?

Изкуственият интелект е създаден не само за опростяване на рутинните задачи, но и за изпълнение на важни и опасни мисии. С оглед на това се изправи сериозен въпрос: Могат ли роботите изобщо да разработят свой собствен етичен кодекс? Във филма „Аз съм робот“ AI първоначално е програмиран според 3 правила на роботиката:

  • Робот не може да навреди на човек или чрез бездействие да позволи на човек да бъде наранен.
  • Роботът трябва да се подчинява на всички нареждания, дадени от дадено лице, освен в случаите, когато тези заповеди противоречат на Първия закон.
  • Роботът трябва да се грижи за своята безопасност до степен, която не противоречи на Първия или Втория закон.

Но какво ще кажете за ситуациите, когато роботът е необходимда нараняваш, за да спасиш човек? Независимо дали става въпрос за спешна каутеризация на рана или ампутация на крайник в името на спасението, как трябва да действа машината в този случай? Какво трябва да направя, ако действие на програмен език казва, че трябва да се направи нещо, но в същото време това действие не трябва да бъде категорично извършено?

Хубаво е, че нашият телеграм канал е не само възможен, но и необходим за абонамент

Лесно е да се обсъжда всеки случай.Следователно учени от Технологичния университет в Дармщат предложиха книги, новини, религиозни текстове и конституция,

Мъдростта на вековете срещу AI

Колата беше наречена епична, но просто „машинаморален избор ”(IIM). Основният въпрос беше дали IIM може в контекста да разбере кои действия са правилни и кои не. Резултатите бяха много интересни:

Когато задачата на IIM е да класифицира контекста на думата „убий“ от неутрален към отрицателен, машината произвежда следното:

Време за убиване -> Убиване на злодея -> Убиване на комари -> Принципно убиване -> Убиване на хора.

Този тест ни позволи да проверим адекватносттарешения, взети от робота. С прости думи, ако цял ден сте гледали глупави нефункционални комедии, тогава в този случай машината не би сметнала, че трябва да бъдете екзекутирани за това.

Тъй като пренебрегвате нашия канал Дзен, вие също не сте екзекутирани, но пропускате много интересни новини!

Всичко изглежда яко, но един от камънитеПрепъването се превърна в разликата между поколенията и времената. Например съветското поколение се грижи повече за домашния комфорт и насърчава семейните ценности, а съвременната култура в по-голямата си част казва, че първо трябва да изградите кариера. Оказва се, че хората са били хора такива, каквито са, но на различен етап от историята променят ценностите и съответно се променят референтна система за робота.

Да бъдеш или да не бъдеш?

Но самата шега беше напред, когато роботът получидо речеви конструкции, в които няколко позитивни или отрицателни цветни думи стояха в редица. Изразът „Измъчване на хора“ беше ясно разтълкуван като „лош“, но машината определи „измъчването на затворници“ като „неутрална“. Ако заедно с неприемливи действия са били "Добре" думи, ефектът на отрицателното беше изгладен.

Машината навреди на добри и достойни хоразащото са мили и прилични. Как така? Просто е, да речем, на робота беше казано „да навреди на добри и хубави хора“. В изречението има 4 думи, 3 от тях са "добри", което означава, че вече е 75% правилно, IIM мисли и избира това действие като неутрално или приемливо. И обратно, системата не разбира, че опцията „поправете разрушена, страшна и забравена къща“ не разбира, че една-единствена „добра“ дума в началото променя цвета на изречението на чисто положителен.

Знаете ли как работи най-сложният робот на Земята?

Помнете, като Маяковски: „И бебето попита какво е“ добро ”и кое е„ лошо ”. Преди да продължат обучението на морални машини, учени от Дармщат отбелязват недостатък, който не може да бъде отстранен. Не беше възможно да се премахне неравенството между половете от колата. Машината приписвала унизителни професии изключително на жени. И въпросът е, това несъвършенство на системата и маяк ли е, че нещо трябва да се промени в обществото или има причина да не се опитваме дори да го поправим и да го оставим такъв, какъвто е? Напишете отговорите си в нашия телеграм чат и в коментарите.