onderzoek

"Bittere les": de wetenschapper zei dat 70 jaar op het gebied van AI-onderzoek bijna tevergeefs werd besteed

De grootste les om van 70 te lerenjaren van AI-onderzoek, ligt in het feit dat algemene methoden met behulp van berekening uiteindelijk het meest effectief blijken te zijn - en met een grote marge. De uiteindelijke oorzaak hiervan is de wet van Moore. Of beter, de generalisatie ervan: de voortdurende, exponentiële waardevermindering van computationele processors. Over deze 'bittere les' zei Richard Sutton, een Canadese computerwetenschapper. Volgende - van de eerste persoon.

Waarom is onderzoek naar kunstmatige intelligentie al 70 jaar in een impasse?

Het meeste onderzoek is kunstmatigde intellecten werden uitgevoerd alsof de berekeningen voor de agent constant waren (en in dit geval zou het gebruik van menselijke kennis een van de weinige manieren zijn om de productiviteit te verhogen). Maar na een tijdje - veel meer dan nodig is voor een typisch onderzoeksproject - komen er onvermijdelijk veel meer berekeningen beschikbaar. In de zoektocht naar verbeteringen die op korte termijn kunnen helpen, proberen wetenschappers het maximum aan menselijke kennis op dit gebied te gebruiken, maar het enige dat er op de lange termijn toe doet, is het toenemende gebruik van berekeningen. Deze twee aspecten mogen niet tegen elkaar ingaan, maar gaan in de praktijk. De tijd besteed aan een van hen is niet gelijk aan de tijd besteed aan de andere. Er zijn psychologische verplichtingen om in deze of die aanpak te investeren. En een op kennis gebaseerde aanpak heeft de neiging om methoden zodanig te compliceren dat ze minder geschikt worden om gebruik te maken van gemeenschappelijke methoden die gebruikmaken van berekening.

conclusie: je moet onmiddellijk de poging om het AI-probleem op te lossen met de "kop" afwijzen, omdat de tijd zal verstrijken en het veel sneller en gemakkelijker zal worden opgelost - als gevolg van de toename in rekenkracht

Er waren veel voorbeelden toen AI-onderzoekers deze bittere les te laat begrepen. Het zal leerzaam zijn om enkele van de meest opmerkelijke voorbeelden te bekijken.

In computerschaken, de methoden die hebben gewonnenwereldkampioen Kasparov in 1997, waren gebaseerd op een massale, diepe zoektocht. In die tijd waren de meeste computerschaakonderzoekers ongerust over hen, die methoden gebruikten die gebaseerd waren op het menselijk begrip van de specifieke structuur van schaken. Toen een eenvoudigere, op zoekopdrachten gebaseerde aanpak met speciale hardware en software veel efficiënter bleek, hebben onderzoekers die duwen uit een menselijk schaakverstand de mislukking niet herkend. Ze zeiden: "Deze keer kan de aanpak van brute kracht hebben gewonnen, maar het zal geen gemeenschappelijke strategie worden en zeker spelen mensen niet op deze manier. Deze wetenschappers wilden methoden die waren gebaseerd op menselijke input om te winnen en waren erg teleurgesteld toen dit niet gebeurde.

conclusie: eenvoudige brute kracht van berekeningen zal zijn, vroeg of laat

Een vergelijkbaar beeld van vooruitgang in onderzoekwerd gezien in computer gaan, alleen met een vertraging van nog eens 20 jaar. Aanvankelijk werden enorme inspanningen geleverd om zoeken met menselijke kennis of gamefuncties te voorkomen, maar al deze inspanningen waren onnodig of zelfs erger toen de zoekactie efficiënt en op grote schaal werd uitgevoerd. Het was ook belangrijk om training in het proces van onafhankelijk spelen te gebruiken om de waardefunctie te leren (zoals in veel andere spellen en zelfs tijdens het schaken, alleen leren speelde geen grote rol in het programma van 1997, dat voor het eerst de wereldkampioen versloeg). Leren spelen met jezelf, leren in het algemeen, is als een zoekopdracht waarmee je enorme hoeveelheden computergebruik kunt toepassen. Zoeken en trainen zijn de twee belangrijkste klassen van technici die enorme hoeveelheden berekeningen gebruiken in AI-onderzoek. In computer-gang, zoals bij computerschaken, waren de initiële inspanningen van onderzoekers gericht op het gebruiken van menselijk begrip (om minder zoekopdrachten te gebruiken), en pas veel later werd veel groter succes bereikt door het gebruik van zoeken en training.

conclusie: zoeken en trainen, mogelijk gemaakt door computationele kracht, overtreft veeleer pogingen om het probleem op te lossen door "niet-standaard benadering van denken"

Op het gebied van spraakherkenning in de jaren 1970,competitie gesponsord door DARPA. De deelnemers vertegenwoordigen een scala aan methoden, die gebruik maakte van de menselijke kennis - de kennis van woorden of fonemen, van het menselijk spraakkanaal en ga zo maar door. Aan de andere kant waren meer nieuwe methoden, statistisch in de natuur en het uitvoeren van meer berekeningen op basis van verborgen Markov model (HMM). En nogmaals, statistische methoden wonnen methoden op basis van menselijke kennis. Dit heeft geleid tot grote veranderingen in het geheel van de natuurlijke taalverwerking, wordt geleidelijk ingevoerd voor decennia totdat uiteindelijk statistieken en berekeningen nog niet begonnen te domineren in dit gebied. De recente groei van deep learning in spraakherkenning is de allerlaatste stap in deze consistente richting. Deep leermethoden nog steeds rekenen minder op menselijke kennis en het gebruik van meer rekenkracht, samen met training op een groot aantal monsters en geven een prachtige spraakherkenningssysteem.

Richard Sutton, Canadese computerwetenschapper

Net als in games hebben wetenschappers altijd geprobeerd om te creërende systemen die zouden werken zoals ze zich in hun hoofd hadden voorgesteld - ze probeerden deze kennis in hun systemen te brengen - maar het kwam allemaal uiterst onproductief uit, de wetenschappers brachten gewoon tijd door totdat - als resultaat van de wet van Moore - er meer massieve berekeningen beschikbaar waren en ze vonden mooie applicatie.

conclusie: dezelfde fout is al tientallen jaren herhaald

Een vergelijkbaar beeld was op het gebied van de computerview. De eerste methoden werden gezien als een zoektocht naar bepaalde contouren, gegeneraliseerde cilinders of gebruikmakend van de mogelijkheden van SIFT (schaal-invariante transformatie van kenmerken). Maar vandaag is het allemaal in de oven gegooid. Moderne deep-learning neurale netwerken gebruiken alleen het concept van convolutie en bepaalde invarianten en werken veel beter.

Dit is een geweldige les.

Waar we ook kijken, we zijn overalblijf dezelfde fouten maken. Om dit te zien en effectief te overwinnen, moet je begrijpen waarom deze fouten zo aantrekkelijk zijn.We moeten een bittere les leren dat het bouwen van hoe we denken, op basis van hoe we denken, op de lange termijn niet zal werken. Een bittere les gebaseerd op historische observaties toont aan dat: 1) AI-onderzoekers vaak probeerden kennis op te bouwen in hun agenten; 2) het hielp altijd op de korte termijn en bracht tevredenheid bij wetenschappers; 3) maar op de lange duur bereikte alles een impasse en vertraagde het verdere vooruitgang; 4) Doorbraak in de vooruitgang was onvermijdelijk het gebruik van de tegenovergestelde benadering, gebaseerd op het schalen van berekeningen door middel van zoeken en training. Succes was een bittere smaak en werd vaak niet volledig geassimileerd, omdat het het succes van berekeningen was, en niet het succes van mensgerichte benaderingen.

Van deze bittere les moet men leren: de enorme kracht van algemene methoden, methoden die blijven opschalen met de groei van berekeningen, zelfs wanneer de beschikbare berekeningen erg groot worden. Twee methoden die op deze manier willekeurig lijken te schalen, zijn zoeken en trainen.

Het tweede ding dat van dit bittere moet worden geleerdde les bestaat erin dat de werkelijke inhoud van de geest buitengewoon en onredelijk complex is; we moeten stoppen met proberen eenvoudige manieren te vinden om de inhoud van de geest te begrijpen, vergelijkbaar met de eenvoudige manieren om ruimte, objecten, meerdere agents of symmetrieën te begrijpen. Allemaal maken ze deel uit van een willekeurig complexe externe wereld. We moeten niet proberen er een begin mee te maken, omdat hun complexiteit oneindig is; we moeten voortbouwen op meta-methoden die deze arbitraire complexiteit kunnen vinden en vangen. Deze methoden kunnen goede benaderingen vinden, maar hun zoekopdracht moet worden uitgevoerd door onze methoden, niet door ons. We hebben AI-agents nodig die net als wij kunnen worden geopend en niet bevatten wat we hebben ontdekt. Voortbouwen op onze ontdekkingen bemoeilijkt alleen het proces van ontdekking en zoeken.

conclusie: je moet de berekeningen vertrouwen en niet proberenmenselijke gedachten volgen en pogingen om complexe ontdekkings- en zoekmethoden uit te leggen met eenvoudige diagrammen; op de lange termijn zal de eerste werken, niet de laatste.

Bespreek de bittere les van AI-onderzoekers kunnen in ons kanaal in Telegram zijn.