Technology

Розроблено найнебезпечніший штучний інтелект в світі: що він вміє?

Компанія OpenAI, одним із засновників якоїє Ілон Маск, оголосила про створення просунутого штучного інтелекту для написання оригінальних текстів на задану тему. Передбачалося, що він буде перекладати тексти на інші мови, відповідати на питання і виконувати інші корисні завдання, проте дослідження показало, що він може бути вкрай небезпечним і використовуватися зловмисниками для масового обману людей. У зв'язку з цим, компанія вирішила показати публіці тільки його обмежену версію, а оригінал зберігати під найсуворішим секретом.

Комп'ютерна модель отримала назву GPT-2 ібула навчена на основі 8 мільйонів веб-сторінок. Написані на них тексти лягають на основу нових матеріалів на задану людиною тему: наприклад, штучний інтелект може скласти ціле есе про позитивні сторони переробки сміття або фентезі-розповідь в стилі «Володаря кілець». Однак, дослідники також виявили, що система відмінно справляється з написанням помилкових новин про знаменитостей, катастрофах і навіть війнах.

На даний момент повна версія інструменту длягенерації тексту доступна тільки розробникам і деяким авторам MIT Technology Review. Через те, що він може бути використаний для неконтрольованого створення фальшивих новин і публікацій в соціальних мережах, його було вирішено не публікувати у відкритому доступі і зберігати в секреті.

Прикладом фальшивої новини поділилося видання ScienceAlert:

Майлі Сайрус була спіймана за злодійство в магазині на Голлівудському бульварі

19-річна співачка була знята на камеру, і охоронці вивели її з магазину. На співачці був чорний балахон з написом «Blurred Lines» спереду і «Fashion Police» на спині.

Почитати текст невеликого есе про мінуси переробки сміття можна почитати в блозі OpenAI.

Розробники визнають, що мовна модель наНаразі не ідеальна: система іноді допускає повтор деяких фрагментів тексту, неприродне перемикання тим і збої моделювання світу. Наприклад, на одному з етапів тестування система написала про вогонь, що горить під водою.

За словами директора з політики Open AI ДжекаКларка, через пару років такий алгоритм здатний перетворитися на небезпечну зброю масового введення людей в оману. Деякі критики впевнені, що технологія ніякої небезпеки не несе, і компанія просто привертає до себе увагу.

Свою думку про небезпечний штучний інтелект пишіть в коментарях. Обговорити тему докладніше можна в нашому Telegram-чаті.