Research

Китай хоче заборонити «діпфейкі» - підроблені відео, створені за допомогою нейромереж

У Мережі все більше поширюються ролики, нібитозаписані за участю відомої особистості - проте їй не відомі. Підроблені ролики демонструють людини в ситуації, якої ніколи не існувало, і відрізнити підробку часом здається неможливим. Такі ролики створюються за участю нейромереж GAN (генеративно-змагальна мережу) практично з нічого: досить фотографії, завантаженої в Інтернеті. Китай вирішив покласти край поширенню таких «діпфейков» (deepfakes).

Китай забороняє підроблені ролики

Китай планує законодавчо заборонити«Діпфейкі» - і це перша країна, яка серйозно поставилася до маніпуляцій штучного інтелекту з відео і розглядає їх як загрозу. У суботу вищий законодавчий орган Китаю запропонував оголосити незаконними «спотворення зображення іншої людини або імітацію голосу з використанням технологій», говориться в матеріалі, опублікованому в державній газеті China Daily.

Газета цитує старшого законодавця ШеняЧуньян, який говорить, що «неправильне використання технології штучного інтелекту не тільки завдає шкодить правам людини на зображення, але також шкодять національній безпеці і громадським інтересам».

«Глибокі підробки», або «діпфейкі», стаютьвсе більш витонченими - замість того, щоб просто замінювати людині особа, кодери навчилися замінювати ціле тіло. Це означає, що будь-який, який володіє технічним ноу-хау, може перетворити кого завгодно в цифрову маріонетку.

Якщо вам незрозуміло, чим це може бути небезпечно, в2018 року з'явився підроблений ролик з виступом колишнього президента США Барака Обами, де він попередив, що «ми вступаємо в епоху, в якій наші вороги можуть зробити так, щоб будь-хто сказав що завгодно в будь-який момент часу». Саме відео з цією заявою є підробкою, в цьому і казус.

Тільки ось Китай розцінив це попередження як цілком реальне. А вам ця технологія здається небезпечною? Розкажіть в нашому чаті в Телеграма.