Technology

Як працює штучний інтелект

Останнім часом ми все більше чуємо проштучний інтелект. Він застосовується практично скрізь: від сфери високих технологій і складних математичних обчислень до медицини, автомобілебудування і навіть при роботі смартфонів. Технології, що лежать в основі роботи ІІ в сучасному поданні, ми використовуємо щодня і часом навіть можемо не замислюватися про це. Але що таке штучний інтелект? Як він працює? І представляє небезпеку?

зміст

  • 1 Що таке штучний інтелект
  • 2 Як працює штучний інтелект
  • 3 Глибоке навчання і нейронні мережі
  • 4 Нейронні мережі - це штучний людський мозок?
  • 5 Для чого використовується глибоке навчання і нейромережі
  • 6 Межі глибокого навчання і нейромереж
  • 7 Майбутнє глибокого навчання, нейросетей і ШІ

Що таке штучний інтелект

Для початку давайте визначимося з термінологією. Якщо ви уявляєте собі штучний інтелект, як щось, здатне самостійно думати, приймати рішення, і в цілому проявляти ознаки свідомості, то поспішаємо вас розчарувати. Практично всі існуючі на сьогоднішній день системи навіть і близько не «стоять» до такого визначення ІІ. А ті системи, що виявляють ознаки подібної активності, насправді все-одно діють в рамках заздалегідь заданих алгоритмів.

Часом алгоритми ці вельми і вельми просунуті,але вони залишаються тими «рамками», в межах яких працює ІІ. Ніяких «вольностей» і вже тим більше ознак свідомості у машин немає. Це просто дуже продуктивні програми. Але вони «найкращі у своїй справі». До того ж системи ІІ продовжують удосконалюватися. Та й влаштовані вони зовсім небанально. Навіть якщо відкинути той факт, що сучасний ІІ далекий від досконалості, він має з нами дуже багато спільного.

Як працює штучний інтелект

В першу чергу ІІ може виконувати свої завдання(Про які трохи пізніше) і набувати нових навичок завдяки глибокому машинного навчання. Цей термін ми теж часто чуємо і вживаємо. Але що він означає? На відміну від «класичних» методів, коли всю необхідну інформацію завантажують в систему заздалегідь, алгоритми машинного навчання змушують систему розвиватися самостійно, вивчаючи доступну інформацію. Яку, до того ж, машина в деяких випадках теж може шукати самостійно.

Наприклад, щоб створити програму для виявленняшахрайства, алгоритм машинного навчання працює зі списком банківських транзакцій і з їх кінцевим результатом (законним чи незаконним). Модель машинного навчання розглядає приклади і розробляє статистичну залежність між законними і шахрайськими транзакціями. Після цього, коли ви надаєте алгоритму дані нової банківської транзакції, він класифікує її на основі шаблонів, які він подчерпнул із прикладів заздалегідь.

Як правило, чим більше даних ви надаєте,тим точнішим стає алгоритм машинного навчання при виконанні своїх завдань. Машинне навчання особливо корисно при вирішенні завдань, де правила не визначені заздалегідь і не можуть бути інтерпретовані в двійковій системі. Повертаючись до нашого прикладу з банківськими операціями: по-факту на виході у нас двійкова система числення: 0 - законна операція, 1 - незаконна. Але для того, щоб прийти до такого висновку системі потрібно проаналізувати цілу купу параметрів і якщо вносити їх вручну, то на це піде не один рік. Та й передбачити всі варіанти все-одно не вийде. А система, що працює на основі глибокого машинного навчання, зуміє розпізнати щось, навіть якщо в точності такого випадку їй раніше не зустрічалося.

Глибоке навчання і нейронні мережі

У той час, як класичні алгоритми машинногонавчання вирішують багато проблем, в яких присутня маса інформації у вигляді баз даних, вони погано справляються з, так би мовити, «візуальними і аудіальний» даними на зразок зображень, відео, звукових файлів і так далі.

Наприклад, створення моделі прогнозування ракумолочної залози з використанням класичних підходів машинного навчання зажадає зусиль десятків експертів у галузі медицини, програмістів і математиків, - заявляє дослідник у сфері ІІ Джеремі Говард. Вчені мали б зробити багато дрібніших алгоритмів для того, щоб машинне навчання справлялося б з потоком інформації. Окрема підсистема для вивчення рентгенівських знімків, окрема - для МРТ, інша - для інтерпретації аналізів крові, і так далі. Для кожного виду аналізу нам потрібна була б своя система. Потім всі вони об'єднувалися б в одну велику систему ... Це дуже важкий і ресурсозатратне процес.

</ P>

Алгоритми глибокого навчання вирішують ту жпроблему, використовуючи глибокі нейронні мережі, тип архітектури програмного забезпечення, натхненний людським мозком (хоча нейронні мережі відрізняються від біологічних нейронів, принцип дії у них майже такий же). Комп'ютерні нейронні мережі - це зв'язку «електронних нейронів», які здатні обробляти і класифікувати інформацію. Вони розташовуються як-би «шарами» і кожен «шар» відповідає за щось своє, в результаті формуючи загальну картину. Наприклад, коли ви тренуєте нейронну мережу на зображеннях різних об'єктів, вона знаходить способи вилучення об'єктів з цих зображень. Кожен шар нейронної мережі виявляє певні особливості: форму об'єктів, кольору, вид об'єктів і так далі.


Поверхневі шари нейронних мереж виявляютьзагальні особливості. Більш глибокі шари вже виявляють фактичні об'єкти. На малюнку схема простий нейромережі. Зеленим кольором позначені вхідні нейрони (поступаюзая інформація), блакитним - приховані нейрони (аналіз даних), жовтим - вихідний нейрон (рішення)

Нейронні мережі - це штучний людський мозок?

Незважаючи на схожу будову машинної ілюдської нейромережі, ознаками нашої центральної нервової системи вони не володіють. Комп'ютерні нейронні мережі по-суті все ті ж допоміжні програми. Просто вийшло так, що ж високоорганізованої системою для проведення обчислень виявився наш мозок. Адже ви напевно чули вислів «наш мозок - це комп'ютер»? Вчені просто «повторили» деякі аспекти його будови в «цифровому вигляді». Це дозволило лише прискорити обчислення, але не наділити машини свідомістю.

Це цікаво: Коли штучний інтелект навчиться міркувати?

Нейронні мережі існують з 1950-х років (поПринаймні, у вигляді концеп). Але до недавнього часу вони не отримували особливого розвитку, тому що їх створення вимагало величезних обсягів даних і обчислювальних потужностей. В останні кілька років все це стало доступним, тому нейромережі і вийшли на передній план, отримавши свій розвиток. Важливо розуміти, що для їх повноцінного появи не вистачало технологій. Як їх не вистачає і зараз для того, щоб вивести технологію на новий рівень.

Для чого використовується глибоке навчання і нейромережі

Є кілька областей, де ці дві технології допомогли досягти помітного прогресу. Більш того, деякі з них ми щодня використовуємо в нашому житті і навіть не замислюємося, що за ними стоїть.

  • Комп'ютерне зір - це здатністьпрограмного забезпечення розуміти зміст зображень і відео. Це одна з областей, де глибоке навчання зробило великий прогрес. Наприклад, алгоритми обробки зображень глибокого навчання можуть виявляти різні типи раку, захворювань легенів, серця і так далі. І робити це швидше і ефективніше лікарів. Але глибоке навчання також вкоренилося і в багатьох додатках, які ви використовуєте щодня. Apple Face ID і Google Photos використовують глибоке навчання для розпізнавання особи і поліпшення якості знімків. Facebook використовує глибоке навчання, щоб автоматично відзначати людей на завантажуваних фотографіях і так далі. Комп'ютерне зір також допомагає компаніям автоматично ідентифікувати і блокувати сумнівний контент, такий як насильство і нагота. І, нарешті, глибоке навчання відіграє дуже важливу роль в забезпеченні можливості самостійного водіння автомобілів, щоб вони могли розуміти, що їх оточує.
  • Розпізнавання голосу і мови. Коли ви вимовляєте команду для вашого Google Асистента, алгоритми глибокого навчання перетворять ваш голос в текстові команди. Кілька онлайн-додатків використовують глибоке навчання для транскрибування аудіо- та відеофайлів. Навіть коли ви «шазаміте» пісню, в справу вступають алгоритми нейромереж і глибокого машинного навчання.
  • Пошук в Інтернеті: навіть якщо ви шукайте щось в пошуковику, для того, щоб ваш запит був оброблений більш чітко і результати видачі були максимально правильними, компанії почали підключати алгоритми нейромереж до своїх пошукових машин. Так, продуктивність пошукача Google виросла в кілька разів після того, як система перейшла на глибоке машинне навчання і нейромережі.

Межі глибокого навчання і нейромереж

Незважаючи на всі свої переваги, глибоке навчання і нейромережі також мають і деякі недоліки.

  • Залежність від даних: в цілому, алгоритми глибокого навчання вимагають величезної кількості навчальних даних для точного виконання своїх завдань. На жаль, для вирішення багатьох проблем недостатньо якісних систему адаптації для створення робочих моделей.
  • непередбачуваність: нейронні мережі розвиваються якимось дивним шляхом. Іноді все йде як задумано. А іноді (навіть якщо нейросеть добре справляється зі своїм завданням), навіть творці щосили намагаються зрозуміти, як же алгоритми працюють. Відсутність передбачуваності робить надзвичайно важким усунення та виправлення помилок в алгоритмах роботи нейромереж.
  • Алгоритмічне зміщення: алгоритми глибокого навчання так само хороші, як і дані, на яких вони навчаються. Проблема полягає в тому, що навчальні дані часто містять приховані або явні помилки або недоробки, і алгоритми отримують їх «у спадок». Наприклад, алгоритм розпізнавання осіб, навчений в основному на фотографіях білих людей, буде працювати менш точно на людях з іншим кольором шкіри.
  • Відсутність узагальнення: алгоритми глибокого навчання хороші для виконання цілеспрямованих завдань, але погано узагальнюють свої знання. На відміну від людей, модель глибокого навчання, навчена грати в StarCraft, не зможе грати в іншу подібну гру: скажімо, в WarCraft. Крім того, глибоке навчання погано справляється з обробкою даних, які відхиляються від його навчальних прикладів.

Майбутнє глибокого навчання, нейросетей і ШІ

Ясна річ, що робота над глибоким навчанням інейронними мережами ще далека від завершення. Різні зусилля докладаються для поліпшення алгоритмів глибокого навчання. Глибоке навчання - це передовий метод в створенні штучного інтелекту. Він стає все більш популярним в останні кілька років, завдяки великій кількості даних і збільшення обчислювальної потужності. Це основна технологія, що лежить в основі багатьох додатків, які ми використовуємо щодня.

Але чи народиться коли-небудь на базі цієїтехнології свідомість? Справжня штучне життя? Хтось із учених вважає, що в той момент, коли кількість зв'язків між компонентами штучних нейромереж наблизитися до того ж показника, що є в людському мозку між нашими нейронами, щось подібне може статися. Однак це заявляеніе дуже сумнівно. Для того, щоб справжній ІІ з'явився, нам потрібно переосмислити підхід до створення систем на основі ІІ. Все те, що є зараз - це лише прикладні програми для строго обмеженого кола завдань. Як би нам не хотілося вірити в те, що майбутнє вже настало ...

А як вважаєте ви? Чи створять люди ІІ? Поділіться думкою в нашому чаті в телеграм.