General

Найшвидший суперкомп'ютер у світі побив рекорд штучного інтелекту

На західному узбережжі Америки найціннішікомпанії світу намагаються зробити штучний інтелект розумнішими. Google і Facebook вихваляються експериментами з використанням мільярдів фотографій і тисяч високопродуктивних процесорів. Але в кінці минулого року проект в східній частині штату Теннессі непомітно перевершив масштаби будь-якої корпоративної лабораторії штучного інтелекту. І він був під керуванням уряду США.

Урядовий суперкомп'ютер США б'є рекорди

У рекордному проект брав участь найпотужніший всвіті суперкомп'ютер Summit, що знаходиться в Національній лабораторії Ок-Рідж. Ця машина отримала корону в червні минулого року, повернувши США титул через п'ять років, коли список очолював Китай. В рамках проекту дослідження клімату гігантський комп'ютер запустив експеримент по машинному навчання, який протікав швидше, ніж будь-коли раніше.

«Саміт», що займає площу, еквівалентну двомтенісних кортів, задіяв у цьому проекті більше 27 000 потужних графічних процесорів. Він використовував їх потужність для навчання алгоритмів глибокого навчання, тієї самої технології, яка лежить в основі передового штучного інтелекту. В процесі глибокого навчання алгоритми виконують вправи зі швидкістю мільярд мільярдів операцій в секунду, відомої в суперкомп'ютерних колах як екзафлоп.

«Раніше глибоке навчання ніколи не досягалотакого рівня продуктивності », говорить Прабхат, керівник дослідницької групи в Національному науково-обчислювальному центрі енергетичних досліджень в Національній лабораторії імені Лоуренса в Берклі. Його група співпрацювала з дослідниками в штаб-квартирі «Саміту», Національної лабораторії Ок-Рідж.

Як можна здогадатися, тренування ІІ самогопотужного в світі комп'ютера була зосереджена на одній з найбільших проблем в світі - зміні клімату. Технологічні компанії навчають алгоритми розпізнавати обличчя або дорожні знаки; урядові вчені навчили їх розпізнавати погодні умови на зразок циклонів по кліматичних моделях, які стискають столітні прогнози атмосфери Землі о третій годині. (Незрозуміло, правда, скільки енергії зажадав проект і як багато вуглецю було викинуто в повітря в цьому процесі).

Експеримент Summit має значення для майбутньогоштучного інтелекту та кліматології. Проект демонструє науковий потенціал адаптації глибокого навчання до суперкомп'ютерів, які традиційно моделюють фізичні і хімічні процеси, такі як ядерні вибухи, чорні діри або нові матеріали. Це також показує, що машинне навчання може отримати вигоду з більшою обчислювальної потужності - якщо ви зможете її знайти - і забезпечити прориви в майбутньому.

«Ми не знали, що це можна зробити в такомумасштабі, поки не зробили це », говорить Раджат Монга, технічний директор Google. Він та інші «гугловці» допомагали проекту, адаптувавши програмне забезпечення машинного навчання TensorFlow з відкритим вихідним кодом компанії для гігантських масштабів Summit.

Велика частина роботи по масштабування глибокогонавчання проводилася в центрах обробки даних інтернет-компаній, де сервери працюють спільно над проблемами, розділяючи їх, тому що розташовані щодо роз'єднано, а не пов'язані в один гігантський комп'ютер. Суперкомп'ютери ж начебто Summit мають іншу архітектуру зі спеціалізованими високошвидкісними сполуками, що зв'язують їх тисячі процесорів в єдину систему, яка може працювати як єдине ціле. До недавнього часу проводилося відносно мало робіт по адаптації машинного навчання для роботи з такого роду апаратними засобами.

Монга каже, що робота по адаптації TensorFlowдо масштабів Summit також сприятиме зусиллям Google по розширенню її внутрішніх систем штучного інтелекту. Інженери Nvidia також взяли участь в цьому проекті, переконавшись, що десятки тисяч графічних процесорів Nvidia в цій машині працюють без збоїв.

Пошук шляхів використання більшої обчислювальноїпотужності в алгоритмах глибокого навчання зіграв важливу роль в поточному розвитку технології. Та ж технологія, яку використовує Siri для розпізнавання голосу і автомобілі Waymo для зчитування дорожніх знаків, стала корисною в 2012 році після того, коли вчені адаптували її для роботи на графічних процесорах Nvidia.

В аналізі, опублікованому в травні минулого року,вчені з OpenAI, дослідницького інституту в Сан-Франциско, заснованого Ілона Маском, підрахували, що обсяг обчислювальної потужності в найбільших публічних експериментах з машинним навчанням подвоюється приблизно кожні 3,43 місяця з 2012 року; це буде означати 11-кратне збільшення за рік. Така прогресія допомогла бота з Alphabet перемогти чемпіонів в складних настільних і відеоіграх, а також сприяла значному підвищенню точності перекладача Google.

Google та інші компанії в даний часстворюють нові види мікросхем, адаптованих під ІІ, щоб продовжити цю тенденцію. Google заявляє, що «стручки» з тісно розташованими тисячами її чіпів ІІ - дубльовані тензорні процесори, або TPU - можуть забезпечувати 100 петафлопс обчислювальної потужності, що становить одну десяту від швидкості, досягнутої Summit.

Внесок проекту Summit в науку про кліматпоказує, як ІІ гігантського масштабу може поліпшити наше розуміння майбутніх погодних умов. Коли дослідники генерують столітні передбачення погоди, читання отриманого прогнозу стає складним завданням. «Уявіть, що у вас є фільм на YouTube, який йде 100 років. Немає ніякої можливості знайти всіх кішок і собак в цьому фільмі вручну », говорить Прабхат. Зазвичай для автоматизації цього процесу використовується програмне забезпечення, проте воно не досконале. Результати «Саміту» показали, що машинне навчання може робити це набагато краще, що має допомогти в прогнозуванні штормових впливів на кшталт повеней.

За словами Майкла Прічарда, професораКаліфорнійського університету в Ірвайні, запуск глибокого навчання на суперкомп'ютерах - це відносно нова ідея, яка з'явилася в зручний час для дослідників клімату. Уповільнення темпів удосконалення традиційних процесорів привело до того, що інженери стали оснащувати суперкомп'ютери зростаючим числом графічних чіпів, щоб продуктивність росла більш стабільно. «Настав момент, коли більше не можна нарощувати обчислювальну потужність звичайним способом», говорить Прічард.

Цей зсув завів традиційне моделювання вглухий кут, а значить довелося адаптуватися. Також це відкриває двері для використання сили глибокого навчання, яке природним чином підходить для графічних чіпів. Можливо, ми отримаємо більш чітке уявлення про майбутнє нашого клімату.

А як би використовували такий суперкомп'ютер ви? Розкажіть в нашому чаті в Телеграма.