Generelt

Den hurtigste supercomputer i verden brød rekorden af ​​kunstig intelligens

På den vestlige kyst af Amerika, den mest værdifuldeVerdens virksomheder forsøger at gøre kunstig intelligens smartere. Google og Facebook prale eksperimenter ved hjælp af billioner af fotos og tusindvis af højtydende processorer. Men i slutningen af ​​sidste år overgik et projekt i det østlige Tennessee tydeligt omfanget af et virksomhedslaboratorium for kunstig intelligens. Og han var under administration af den amerikanske regering.

US regering supercomputer pauser rekord

Rekordprojektet involverede den mest magtfuldeWorldwide supercomputer Summit, der ligger i Oak Ridge National Laboratory. Denne bil modtog kronen i juni sidste år og returnerede den amerikanske titel fem år senere, da listen blev ledet af Kina. Som en del af et klimaforskningsprojekt lancerede en kæmpe computer et maskinindlæringseksperiment, der gik hurtigere end nogensinde før.

"Summit", der besætter et område svarende til totennisbaner, der er involveret i dette projekt mere end 27.000 kraftfulde grafikprocessorer. Han brugte deres magt til at undervise i dyb learning algoritmer, den meget teknologi, der ligger til grund for avanceret kunstig intelligens. I processen med dyb læring udfører algoritmer øvelser med en hastighed på en milliard milliard operationer pr. Sekund, kendt i supercomputercirkler som exaflop.

"Tidligere nåede dyb læring aldrigdette niveau af ydeevne, "siger Prabhat, leder af forskningsholdet ved National Energy Research Center på Lawrence Berkeley National Laboratory. Hans team samarbejdede med forskere på topmødet i Oak Ridge, Oak Ridge National Laboratory.

Som du kan gætte, træner AI selvVerdens mest kraftfulde computer har fokuseret på et af verdens største problemer - klimaændringer. Teknologiske virksomheder underviser algoritmer om at genkende ansigter eller vejskilte; Regeringsforskere har lært dem at anerkende vejrforhold som cykloner fra klimamodeller, der komprimerer de århundredes prognoser for Jordens atmosfære klokken tre. (Det er imidlertid ikke klart, hvor meget energi projektet har anmodet om og hvor meget kulstof der blev udsendt i luften i processen).

Summit eksperimentet vedrører fremtidenkunstig intelligens og klimatologi. Projektet demonstrerer det videnskabelige potentiale til at tilpasse dyb læring til supercomputere, som traditionelt simulerer fysiske og kemiske processer, såsom atomeksplosioner, sorte huller eller nye materialer. Det viser også, at maskinindlæring kan drage fordel af mere computerkraft - hvis du kan finde den - og give gennembrud i fremtiden.

"Vi vidste ikke, at det kunne gøres i sådanskala, indtil de gjorde det, "siger Rajat Monga, teknisk direktør for Google. Han og andre googler hjalp projektet ved at tilpasse virksomhedens open source TensorFlow maskine læring software til gigantiske Summit skalaer.

Meget af arbejdet med skalering dybtTræning blev udført i datacentre af internetfirmaer, hvor servere arbejder sammen om problemer og deler dem, fordi de er placeret forholdsvis særskilt og ikke er forbundet i en kæmpe computer. Supercomputere som Summit har en anden arkitektur med specialiserede højhastighedsforbindelser, der forbinder deres tusindvis af processorer med et enkelt system, der kan fungere som en enkelt enhed. Indtil for nylig blev der lavet relativt lidt arbejde med at tilpasse maskinindlæring til at arbejde med denne hardware.

Monga siger tilpasningsarbejde TensorFlowtil topmødet skal også bidrage til Google's bestræbelser på at udvide sine interne systemer for kunstig intelligens. Nvidia ingeniører deltog også i dette projekt og sørgede for, at titusinder af Nvidia GPU'er i denne maskine arbejder uden afbrydelse.

Finde måder at bruge mere beregningsmæssigt påKraft i dybe læringsalgoritmer har spillet en vigtig rolle i den nuværende udvikling af teknologi. Den samme teknologi, som Siri bruger til stemmegenkendelse og Waymo-biler til læsning af vejskilte, blev nyttig i 2012, efter at forskerne har tilpasset det til at arbejde på Nvidia GPU'er.

I en analyse offentliggjort i maj sidste år,Forskere fra OpenAI, et San Francisco-baseret forskningsinstitut, der blev grundlagt af Ilon Mask, har beregnet, at mængden af ​​datakraft i de største offentlige maskinindlæringsforsøg er fordoblet cirka hver 3.43 måneder siden 2012; dette vil betyde en 11 gange stigning i løbet af året. Denne fremgang hjalp alfabetet bot nederlag mestere i komplekse desktop og videospil, og også bidraget til en betydelig stigning i nøjagtigheden af ​​Google oversætter.

Google og andre virksomheder nuskabe nye typer chips, tilpasset til AI, for at fortsætte denne tendens. Google hævder, at "pods" med tæt adskilte tusinder af sine AI-chips - duplicerede tensor-processorer, eller TPU - kan levere 100 petaflops computerkraft, hvilket er en tiendedel af den hastighed, der nås af topmødet.

Topmødeets bidrag til klimavidenskabviser, hvordan en storskala AI kan forbedre vores forståelse af fremtidige vejrforhold. Når forskere genererer centenary vejr forudsigelser, bliver læsning af den resulterende prognose udfordrende. "Forestil dig at du har en film på YouTube, der er 100 år gammel. Der er ingen måde at finde alle katte og hunde i denne film for hånden, "siger Prabhat. Normalt bruges software til at automatisere denne proces, men det er ikke perfekt. Resultaterne fra topmødet viste, at maskinindlæring kan gøre dette meget bedre, hvilket burde bidrage til at forudsige stormvirkninger som oversvømmelser.

Ifølge Michael Pritchard, en professorUniversity of California, Irvine, der lancerer dyb læring på supercomputere, er en forholdsvis ny ide, der er opstået på et passende tidspunkt for klimaforskere. Afmatningen i forbedringsgraden for traditionelle processorer har medført, at ingeniører begyndte at udstyre supercomputere med et stigende antal grafikchips, så deres præstation voksede mere stabilt. "Øjeblikket er kommet, når det ikke længere er muligt at øge computerkraften på den sædvanlige måde," siger Pritchard.

Dette skift begyndte den traditionelle simuleringblindgyde og måtte derfor tilpasse sig. Det åbner også døren for at udnytte kraften i dyb læring, hvilket er naturligt egnet til grafikchips. Måske får vi et klarere billede af vores klimas fremtid.

Hvordan ville du bruge en sådan supercomputer? Fortæl os i vores chat i Telegram.