General, Research, Technology

Як злочинці можуть використовувати штучний інтелект? Найнебезпечніший варіант

Останні 10 років ми щодня чуємо новини прото, як той чи інший штучний інтелект навчився новим навичкам. На сьогоднішній день комп'ютерні алгоритми вміють копіювати стилі малювання відомих художників, імітувати чужі голоси, створювати підроблені відеоролики з публічними особистостями і багато іншого. За всім цим дуже цікаво стежити, але багато експертів з комп'ютерної безпеки стурбовані тим, що розробляються технології можуть використовуватися зловмисниками для здійснення злочинів. Адже використання нейронних мереж для здійснення будь-яких завдань на даний момент ніяк не регулюється. Виходить, що будь-яка людина, що добре володіє програмуванням, може використовувати штучний інтелект для виманювання у людей грошей, стеження і здійснення інших протизаконних дій. Нещодавно співробітники Університетського коледжу Лондона вирішили з'ясувати, яке саме вміння штучного інтелекту може завдати людському суспільству найбільшої шкоди.

Штучний інтелект здатний на багато що. Наприклад, він може замінити особа Арнольда Шварценеггера на Сильвестра Сталлоне

Штучний інтелект - властивість комп'ютерів виконувати творчі функції, які більше властиві реальним людям. На нашому сайті є спеціальний розділ, присвячений цій темі.

Можливості штучного інтелекту

Результатами проведеної роботи поділилосявидання The Next Web. В рамках наукової роботи дослідники визначили 20 умінь штучного інтелекту, які будуть доступні злочинцям в наступні 15 років. На жаль, повний список методів використання не вдалося знайти навіть на сайті коледжу, але дослідники все ж згадали найважливіші пункти.

Отже, на їхню думку, штучний інтелект вміє:

  • керувати електричними автомобілями, що більше відомо як автопілот;
  • обманним шляхом дізнаватися логіни, паролі та інші особисті дані користувачів - інакше кажучи, займатися фішингом;
  • збирати компрометуючі фото, відео та інші дані про людей, які можуть бути використані для шантажу;
  • генерувати фальшиві новини, за допомогою яких можна управляти мисленням великої кількості людей;
  • керувати роботами, за допомогою яких можна стежити за людьми і навіть грабувати будинки;
  • створювати підроблені відеоролики з відомими людьми, щоб зіпсувати їх репутацію.

Ці та багато інших способів використаннянейронних мереж в злочинних цілях були вивчені групою з 31 експерта з штучного інтелекту. Перед ними було поставлено завдання впорядкувати все цим вміння за рівнем небезпеки для суспільства. При складанні рейтингу експерти враховували складність використання штучного інтелекту для виконання тих чи інших завдань, можливість запобігання шахрайства та кількість грошей, які злочинці можуть отримати обманним шляхом.

Читайте також: Чому ми віримо фейковий новин?

небезпека нейромереж

Найнебезпечнішою здатністю штучного інтелекту було названо створення так званих діпфейков (Deepfakes). Вперше про це умінні комп'ютерних алгоритмів стало відомо приблизно в 2017 році. Саме тоді один з користувачів сайту Reddit показав світу, як маючи потужний комп'ютер можна створити фальшиве відео, де особа однієї людини людини замінено на інше. Він продемонстрував це на самому непристойному прикладі, вставивши особи відомих людей в відео для дорослих. Ця новина навела дуже багато шуму і діпфейкі в такому вигляді навіть стали заборонені. Однак, на даний момент ніхто не заважає програмістам створювати забавні відео на зразок того, де Ілон Маск співає пісню про «рокіт космодрому».

Іноді фальшиве відео дійсно важко відрізнити від оригіналу

Також діпфейкі можуть використовуватися для псуваннярепутації відомих людей і це було доведено багато разів. Ось уже кілька років поспіль в Інтернеті виникають відео з нібито п'яною Ненсі Пелосі - спікера Палати представників США. Зрозуміло, ці відео підроблені, але вони набирають багато переглядів і деякі люди дійсно можуть прийняти їх за справжні. Адже про технології створення підроблених відео багато хто навіть не підозрюють - з представників старшого покоління технологічно підкованих людей взагалі одиниці.

Про небезпеку нейромереж раніше писав мій колега Артем Сутягін. Вийшов дуже докладний матеріал, тому настійно раджу до прочитання!

Друга небезпека полягає в тому, що такийметод шахрайства важко зупинити. Справа в тому, що фальшиві відео виходять настільки реалістичними, що розпізнати їх практично неможливо. У червні 2020 року ця було доведено в рамках проведеного компанією Facebook конкурсу Deepfake Detection Challenge. У ньому взяло участь більше 2000 розробників, які створювали алгоритми розпізнавання підроблених відеороликів. Найвища точність розпізнавання склала 65% що, на думку експертів з кібербезпеки, в настільки серйозній справі дуже поганий результат.

Розділ сайту Reddit, де публікувалися діпфейкі, вже заблокований

Боротьба зі злочинністю

Інші функції штучного інтелекту на кшталткерування автомобілями та роботами не рахуються настільки небезпечними, як діпфейкі. Так, зламаний автопілот може змусити автомобіль звернути зі шляху і на великій швидкості врізатися в стовп. Але це в цьому випадку мова йде про одну жертву, тоді як фальшиві відео можуть вплинути на розум тисяч людей. Ну або, взяти, наприклад, використання роботів для стеження за людьми і здійснення пограбувань будинків. Експерти взагалі не бачать в них небезпеки, тому що їх дуже легко виявити. Молоток в руки і все - «шпигуна» наче й не було.

Якщо вам подобаються наші статті, підпишіться на нас у Google News! Так вам буде зручніше стежити за новими матеріалами.

Що робити, щоб звести до мінімуму небезпеку відштучного інтелекту, поки не ясно. Як варіант, можна продовжити роботу над створенням алгоритму виявлення фейковий відеороликів. Також можна якимось чином контролювати використання нейромереж, але це може загальмувати розвиток технологій. Адже штучний інтелект використовується не тільки злочинцями, але і вченими, які хочуть зробити світ кращим. Нещодавно стартап Landing AI навчив його стежити за дотриманням соціальної дистанції, що в наш непростий час може врятувати безліч життів.