технология

Разработи най-опасния изкуствен интелект в света: какво може да направи?

OpenAI, един от чиито основателие Илон Муск, обяви създаването на усъвършенстван изкуствен интелект за писане на оригинални текстове по дадена тема. Той трябваше да превежда текстове на други езици, да отговаря на въпроси и да изпълнява други полезни задачи, но изследванията показват, че тя може да бъде изключително опасна и използвана от нападателите за масова измама на хората. В тази връзка компанията реши да покаже на обществеността само ограничената си версия и да запази оригинала под най-строгата тайна.

Компютърният модел се нарича GPT-2 ибеше обучен на базата на 8 милиона уеб страници. Написаните върху тях текстове са в основата на нови материали по тема, поставена от човек: например, изкуственият интелект може да състави цялото есе за положителните аспекти на рециклирането или фантастична история в стила „Властелинът на пръстените“. Въпреки това, изследователите открили също, че системата се справя добре с писането на фалшиви новини за знаменитости, катастрофи и дори войни.

В момента пълната версия на инструмента заГенерирането на текст е достъпно само за разработчиците и някои автори на MIT Technology Review. Поради факта, че може да се използва за неконтролирано създаване на фалшиви новини и публикации в социалните мрежи, беше решено да не се публикува в публичното пространство и да се пази в тайна.

Пример за фалшиви новини е споделен от ScienceAlert:

Майли Сайръс е хванат за кражба в магазин на булевард Холивуд

19-годишната певица е заснет на камерата и охраната я извади от магазина. Певицата носеше черна качулка с "Blurred Lines", написана отпред и "Fashion Police" на гърба.

Прочетете текста на малко есе за недостатъците на рециклирането може да се прочете в блога OpenAI.

Разработчиците признават, че езиковия модел е включенТози момент не е съвършен: системата понякога позволява повторение на някои фрагменти от текст, неестествено превключване на теми и неуспех на симулацията на света. Например, на един от етапите на изпитване, системата пише за пожар, горящ под вода.

Според директора на политиката Open AI JackКларк, след няколко години, такъв алгоритъм може да се превърне в опасно оръжие за масова заблуда на хора. Някои критици смятат, че технологията не носи никаква опасност и компанията просто привлича вниманието.

Напишете мнението си за опасния изкуствен интелект в коментарите. Обсъдете темата по-подробно в нашия чат.