Generelt

Hvorfor forskere ikke bør stole på AI for videnskabelige opdagelser, i hvert fald for nu

Vi lever i den gyldne tidsalder af videnskabelige data, der omgiverstore lagre af genetisk information, medicinske billeder og astronomiske observationer. Den nuværende evne til maskinindlæringsalgoritmer tillader kunstig intelligens så hurtigt som muligt og samtidig meget omhyggeligt at studere disse data, der ofte åbner døren for potentielt nye videnskabelige opdagelser. Vi bør dog ikke blindt stole på resultaterne af videnskabelig forskning foretaget af AI, sagde forsker Rice Genevera Allen University. I det mindste ikke på det nuværende niveau af udvikling af denne teknologi. Ifølge forskeren ligger problemet i, at moderne AI-systemer ikke har evnen til at kritisk evaluere resultaterne af deres arbejde.

Ifølge Allen, AI systemer ved hjælp af metoderMaskinindlæring, det vil sige, når læring opstår i processen med at anvende løsninger på en lang række lignende opgaver, og ikke blot ved at indføre og følge nye regler og instruktioner, kan nogle beslutninger betroes. For at være mere præcis er det helt muligt at overlade AI til at løse problemer på de områder, hvor det endelige resultat let kan verificeres og analyseres af personen selv. Som eksempel kan vi f.eks. Tælle antallet af kratere på månen eller forudsige gentagne efterskokker efter et jordskælv.

Men nøjagtigheden og effektiviteten af ​​mere komplekseAlgoritmerne, der bruges til at analysere meget store datarammerer for at søge efter og identificere tidligere ukendte faktorer eller sammenhænge mellem forskellige funktioner, er "sværere at teste", Allen noter. Således kan umuligheden af ​​at verificere dataene indsamlet af sådanne algoritmer føre til fejlagtige videnskabelige konklusioner.

Tag for eksempel nøjagtige lægemidler tilUdvikling af effektive behandlingsmetoder, specialister analyserer patientmetadata og forsøger at finde bestemte grupper af mennesker med lignende genetiske egenskaber. Nogle AI-programmer designet til at "sive" genetiske data viser deres effektivitet ved vellykket at identificere grupper af patienter med en lignende prædisponering, for eksempel til udvikling af brystkræft. Imidlertid er de fuldstændig ineffektive til at identificere andre former for kræft, for eksempel kolorektal. Hver algoritme analyserer dataene på sin egen måde, så når man kombinerer resultaterne, kan der ofte være en konflikt i klassificeringen af ​​patientprøven. Dette til gengæld gør forskere tænker på, hvilke AI i sidste ende vil stole på.

Disse modsætninger stammer fra det forhold, atdata analyse algoritmer er designet til at overholde instruktionerne i disse algoritmer, som ikke giver plads til ubeslutsomhed og usikkerhed, forklarer Allen.

"Hvis du angiver en opgave for clustering algoritmenfor at finde sådanne grupper i sin database, vil han udføre opgaven og sige at han har fundet flere grupper i henhold til de givne parametre. Fortæl mig at finde tre grupper, han finder tre. Bed om at finde fire, han finder fire, "Allen kommentarer.

"Faktisk er den virkelige effektivitetSådan en AI vil blive demonstreret, når programmet kan reagere sådan som sådan: "Jeg tror virkelig, at denne gruppe af patienter passer til den krævede klassifikation, men for de personer, hvis data jeg også kontrollerede og sammenlignede, er jeg ikke helt sikker på" .

Forskere kan ikke lide usikkerhed. Traditionelle metoder til bestemmelse af måleusikkerheder er imidlertid designet til de tilfælde, hvor det er nødvendigt at analysere data, der er specielt udvalgt til at evaluere en bestemt hypotese. Data mining AI programmer fungerer slet ikke. Disse programmer er ikke drevet af nogen vejledende ide og analyserer blot de datarapporter, der er indsamlet uden noget bestemt mål. Derfor udvikler nu mange forskere inden for AI, herunder Allen selv, nye protokoller, der gør det muligt for AI-systemer af en ny generation at vurdere nøjagtigheden og reproducerbarheden af ​​deres opdagelser.

Forskeren forklarer, at en af ​​de nye metoderdybdeanalyse vil blive baseret på konceptet gentagetagning. Lad os sige, om AI-systemet skal gøre en vigtig opdagelse, for eksempel definerer den grupper af patienter, der er klinisk vigtige for undersøgelsen, så denne opdagelse skal vises i andre databaser. Oprettelse af nye og store datasæt med henblik på at kontrollere rigtigheden af ​​AI-prøven er meget dyr for forskere. Derfor kan ifølge Allan en tilgang anvendes, hvor "et eksisterende datasæt vil blive brugt, hvor information vil blive tilfældigt blandet på en sådan måde, at simulere en helt ny database." Og så vil AI til enhver tid kunne bestemme de karakteristika, der tillader den ønskede klassificering, der skal udføres, "i så fald kan du antage, at du har en rigtig rigtig opdagelse i dine hænder," tilføjer Allan.

Abonner på vores Yandex. Dzen at holde sig ajour med de seneste udviklinger fra videnskab og teknologi.

Facebook -meddelelse til EU! Du skal logge ind for at se og sende FB -kommentarer!