General

Чергова перемога Deep Mind: після шахів і го штучний інтелект підкорив StarCraft

У листопаді 2017 року, тобто трохи більше рокутому, ми писали, що штучний інтелект поки не в силах здолати професійних гравців в StarCraft. Але не минуло й року, як і цей бар'єр виявився взятий. Минулого місяця в Лондоні команда з англійської підрозділу дослідження штучного інтелекту DeepMind тихо заклала новий наріжний камінь в протистоянні людей і комп'ютерів. У четвер вона розкрила це досягнення в тригодинному Стрімі на YouTube, в ході якого люди і роботи билися не на життя, а на смерть.

DeepMind переміг людей в StarCraft

Трансляція DeepMind показала, що її робот зштучним інтелектом AlphaStar перемагає професійного гравця в складній стратегії в реальному часі (RTS) StarCraft II. Чемпіон людства, 25-річний Гжегож Комінц з Польщі, відлетів з рахунком 5: 0. Схоже, програмне забезпечення для машинного навчання виявило стратегії, невідомі професіоналам, які змагаються за мільйони доларів призових, які видаються щорічно в одній з найприбутковіших для світу кіберспорту ігор.

</ P>

«Це не було схоже ні на один StarCraft, в який я грав», заявив Комінц, відомий професіонал під ніком MaNa.

Подвиг DeepMind є найскладнішим в довгійланцюжку змагань, які комп'ютери нав'язували кращим зі світу людей в іграх і в яких перемагали. Шашки впали в 1994, шахи в 1997, в 2016 році AlphaGo підкорив гру го. Робот для StarCraft - найпотужніший гравець зі світу штучного інтелекту; і його прихід чекали.

AlphaStar з'явився приблизно шість років тому вісторії машинного навчання. Хоча перемога AlphaGo в 2016 році була приголомшливою - експерти го вважали, що цей момент настане як мінімум десятьма роками пізніше - перемога AlphaStar здається більш-менш прибула за розкладом. До теперішнього часу ясно, що при достатній кількості даних і обчислювальної потужності машинне навчання може впоратися зі складними, але конкретними проблемами.

Марк Ридл, доцент Технологічного інститутуДжорджії, знайшов новини четверга захоплюючими, але не приголомшливими. «Ми вже дійшли до цієї точки, так що це був тільки питання часу. У певному сенсі, перемагати людей в іграх стало нудно ».

Відеоігри начебто StarCraft математично складніше,ніж шахи або го. Кількість дійсних позицій на дошці го являє собою одиницю з 170 нулями, а еквівалент у StarCraft оцінюється як 1 з 270 нулями, не менше. Створення та управління військовими юнитами в StarCraft вимагає від гравців вибору і виконання багатьох інших дій, а також прийняття рішення без можливості бачити кожен крок опонента.

DeepMind предолел ці круті бар'єри за допомогоюпотужних чіпів TPU, які Google винайшов для підвищення потужності машинного навчання. Компанія адаптувала алгоритми, розроблені для обробки тексту під задачу визначення дій на полі битви, які призводять до перемоги. AlphaStar навчався в StarCraft на записах півмільйона ігор між людьми, потім грав з постійно поліпшуються клонами самого себе у віртуальній лізі, що представляє собою свого роду цифрову еволюцію. Кращі боти, що з'явилися в цій лізі, накопичували досвід, еквівалентний геймплею 200 років.

AlphaStar, який здолав MaNa, далеко невсесильний. На даний момент робот може грати тільки за одну з трьох рас, доступних в StarCraft. На додаток до нелюдськи довгому досвіду гри, DeepMind також по-іншому сприймає цю гру. Він бачить все, що відбувається в грі, однвоременно, тоді як MaNa потрібно було переміщатися по карті, щоб побачити, що відбувається. AlphaStar також володіє більш високою точністю управління і націлювання юнітів, ніж людина, що володіє комп'ютерною мишею, хоча час реакції комп'ютера і менше, ніж у професійного геймера.

Незважаючи на ці огріхи, Ридл і інші експертицілком вітали роботу DeepMind. «Це було дуже вражаючою», говорить Цзе Тан, дослідник незалежного дослідницького інституту ІІ OpenAI, що працює над ботами, які грають в Dota 2, саму прибуткову для кіберспорту гру в світі. Такі трюки з відеоіграми можуть мати потенційно корисні побічні ефекти. Алгоритми і код, які OpenAI використовував для освоєння Dota в минулому році, зі змінним успіхом були адаптовані, щоб зробити руки роботів спритнішими.

Проте, AlphaStar ілюструє обмеженнясучасних вузькоспеціалізованих систем машинного навчання, говорить Джуліан Тогеліус, професор Нью-Йоркського університету і автор нещодавно вийшла книги про ігри та штучному інтелекті. На відміну від свого людського противника, новий чемпіон DeepMind не може грати в повну силу на різних ігрових картах або за різні раси інопланетян в грі без тривалого додаткового навчання. Також він не може грати в шашки, шахи або більш ранні версії StarCraft.

Ця нездатність впоратися навіть з невеликимисюрпризами є проблемою для багатьох очікуваних додатків ІІ, таких як автономні автомобілі або адаптуються боти, які дослідники називаються загальним штучним інтелектом (AGI, ОІІ). Найбільш значна битва між людиною і машиною може бути свого роду десятиборством, з настільними іграми, відеоіграми і фіналом в Dungeons and Dragons.

обмеження вузькоспеціалізованогоштучного інтелекту, здавалося, проявилися, коли MaNa грав в показову гру проти AlphaStar, який був обмежений переглядом карти по типу людини, по одному квадрату за раз. Дані DeepMind показали, що він майже так само гарний, як і той, що обіграв MaNa в п'яти іграх.

Новий бот швидко зібрав армію, досить потужну,щоб знищити свого суперника-людини, але MaNa використовував розумні маневри і досвід поразок, щоб стримати сили ІІ. Затримка дала йому час, щоб зібрати власні війська і перемогти.

Щоб знайти більше цікавих новин, читайте нас в Дзен.