algemeen

Waarom wetenschappers niet op AI moeten vertrouwen voor wetenschappelijke ontdekkingen, althans voorlopig niet

We leven in de gouden eeuw van wetenschappelijke gegevens, omringendenorme voorraden genetische informatie, medische beeldvorming en astronomische waarnemingsgegevens. De huidige mogelijkheden van algoritmes voor machinaal leren maken kunstmatige intelligentie zo snel mogelijk mogelijk en bestuderen deze gegevens tegelijkertijd zorgvuldig, waardoor ze vaak de deur openen naar mogelijk nieuwe wetenschappelijke ontdekkingen. We moeten echter niet blindelings vertrouwen op de resultaten van wetenschappelijk onderzoek uitgevoerd door AI, zei onderzoeksexpert Rice Geneverera Allen University. Althans niet op het huidige ontwikkelingsniveau van deze technologie. Volgens de wetenschapper ligt het probleem in het feit dat moderne AI-systemen niet in staat zijn om de resultaten van hun werk kritisch te evalueren.

Volgens Allen gebruiken AI-systemen methodenmachine learning, dat wil zeggen, wanneer leren plaatsvindt in het proces van het toepassen van oplossingen voor een groot aantal vergelijkbare taken, en niet alleen door het introduceren en volgen van nieuwe regels en instructies, kunnen sommige beslissingen worden vertrouwd. Om preciezer te zijn, het is heel goed mogelijk om taken aan AI toe te wijzen bij het oplossen van problemen in die gebieden waar het eindresultaat gemakkelijk door de persoon zelf kan worden geverifieerd en geanalyseerd. Neem bijvoorbeeld het tellen van het aantal kraters op de maan of de voorspelling van herhaalde naschokken na een aardbeving.

Echter, de nauwkeurigheid en efficiëntie van meer complexDe algoritmen die worden gebruikt om zeer grote gegevensreeksen te analyseren om eerder onbekende factoren of relaties tussen verschillende functies te zoeken en te identificeren, zijn "moeilijker te testen", merkt Allen op. De onmogelijkheid om de gegevens te controleren die door dergelijke algoritmen zijn geselecteerd, kan dus leiden tot onjuiste wetenschappelijke conclusies.

Neem bijvoorbeeld exacte medicijnen wanneerDoor effectieve behandelingsmethoden te ontwikkelen, analyseren specialisten patiëntmetadata en proberen ze bepaalde groepen mensen met vergelijkbare genetische kenmerken te vinden. Sommige AI-programma's die zijn ontworpen om genetische gegevens te "ziften", tonen hun effectiviteit door met succes groepen patiënten te identificeren met een vergelijkbare aanleg, zoals het ontwikkelen van borstkanker. Ze zijn echter volledig ineffectief bij het identificeren van andere soorten kanker, bijvoorbeeld colorectaal. Elk algoritme analyseert de gegevens op zijn eigen manier, dus bij het combineren van de resultaten kan er vaak een conflict zijn in de classificatie van het patiëntmonster. Dit op zijn beurt doet wetenschappers nadenken over welke AI uiteindelijk zal vertrouwen.

Deze tegenstellingen komen voort uit het feit datalgoritmen voor gegevensanalyse zijn ontworpen om te voldoen aan de instructies in deze algoritmen, die geen ruimte laten voor besluiteloosheid en onzekerheid, legt Allen uit.

"Als u een taak voor het clusteringalgoritme hebt ingesteldAls u dergelijke groepen in uw database aantreft, zal hij de taak uitvoeren en zeggen dat hij verschillende groepen heeft gevonden volgens de gegeven parameters. Vertel me om drie groepen te vinden, hij zal er drie vinden. Vraag om er vier te vinden, hij zal er vier vinden, "zegt Allen.

"In feite is de echte effectiviteitZo'n AI zal worden gedemonstreerd wanneer het programma op zoiets als volgt kan antwoorden: "Ik denk echt dat deze groep patiënten voldoet aan de vereiste classificatie, maar in het geval van deze mensen waarvan ik de gegevens ook heb gecontroleerd en vergeleken, weet ik het niet helemaal zeker" .

Wetenschappers houden niet van onzekerheid. Er zijn echter traditionele methoden voor het bepalen van meetonzekerheden ontwikkeld voor die gevallen waarin het nodig is om gegevens te analyseren die speciaal zijn geselecteerd om een ​​bepaalde hypothese te evalueren. Datamining AI-programma's werken helemaal niet. Deze programma's worden niet gestuurd door een leidend idee en analyseren eenvoudigweg de verzamelde gegevensreeksen zonder een specifiek doel. Daarom zijn nu veel onderzoekers op het gebied van AI, inclusief Allen zelf, bezig met het ontwikkelen van nieuwe protocollen waarmee AI-systemen van de nieuwe generatie de nauwkeurigheid en reproduceerbaarheid van hun ontdekkingen kunnen evalueren.

De onderzoeker legt uit dat een van de nieuwe methodendiepte-analyse zal gebaseerd zijn op het concept van opnieuw bemonsteren. Laten we zeggen dat als het AI-systeem een ​​belangrijke ontdekking zou moeten doen, het definieert bijvoorbeeld groepen patiënten die klinisch belangrijk zijn voor de studie, deze ontdekking dan in andere databases zou moeten worden weergegeven. Het maken van nieuwe en grote gegevenssets om de juistheid van het AI-monster te verifiëren, is voor wetenschappers erg duur. Daarom is het volgens Allan mogelijk om een ​​benadering te gebruiken waarbij "een bestaande dataset zal worden gebruikt, waarin informatie willekeurig wordt gemengd zodat een volledig nieuwe database wordt nagebootst". En als de AI keer op keer in staat zal zijn om de kenmerken te bepalen waarmee de gewenste classificatie kan worden uitgevoerd, "in dat geval kunt u ervan uitgaan dat u echt een echte ontdekking in handen hebt", voegt Allan toe.

Abonneer u op onze Yandex.Dzen om op de hoogte te blijven van de nieuwste ontwikkelingen in de wereld van wetenschap en technologie.