Forskning. Teknologi

Maskinernes opstand er aflyst - dronen, der dræbte dens operatør, viste sig at være fiktion

Kunstig intelligens er ikke kun hurtigtbragede ind i vores liv og begyndte at trænge ind i næsten alle sfærer af menneskelig aktivitet. Dette er dog blevet en grund til bekymring for mange. Selv mange respekterede eksperter er begyndt at tale om den mulige fare ved AI for menneskeheden. For eksempel sagde Bill Gates, grundlæggeren af ​​Microsoft Corporation, i marts i år, at kunstig intelligens er i stand til at overtage verden. Men endnu mere resonans blev forårsaget af talen fra lederen af ​​det amerikanske luftvåbens AI-test- og operationsafdeling, oberst Tucker Hamilton, på konferencen i Royal Aeronautical Society. Vedrørende emnet autonome våben styret af kunstig intelligens fortalte han en forfærdelig historie, der skete "under simulerede tests."

Kunstig intelligens udgør en alvorlig trussel mod mennesker

AI-kamprobotter eksisterer virkelig

Kamprobotter har længe været brugt påbevæbning af mange lande i verden, og droner er generelt blevet en af ​​hovedtyperne af våben i moderne krige. Men som vi sagde tidligere i artiklen om autonome kamprobotter, er de alle stadig kontrolleret af en person, eller i det mindste træffer de ikke beslutninger på egen hånd. Ja, der har allerede været fortilfælde, hvor AI efter eget skøn identificerede mennesker som fjender og ødelagde dem, hvilket du kan læse om på linket ovenfor. Men dette er stadig et isoleret tilfælde.

Den er dog aktiv i øjeblikketautonome maskiner styret af neurale netværk bliver testet. Men selve det faktum, at der findes våben, der selvstændigt beslutter at dræbe mennesker, skræmmer mange, inklusive militæret selv. Det er derfor klart, at oberst Tucker Hamilton, en af ​​talerne ved den nylige konference, fortalte en meget plausibel historie, som blev opfanget af alle verdens medier.

I øjeblikket bliver robotter styret af kunstig intelligens aktivt testet.

Tucker Hamilton selv er ifølge ham selv involveret iflyvetest af autonome systemer, herunder robotter baseret på F-16 fly, der vil kunne udføre luftkamp. Derfor var hans ord, som ekspert, ingen stillede spørgsmålstegn ved.

Følg linket til vores YANDEX.ZEN KANAL. Vi har forberedt en masse interessante, spændende materialer dedikeret til videnskab til dig.

Kunstig intelligens dræbte en mand for at tjene flere point

Som et eksempel på farerne ved AI, oberst TuckerHamilton talte om en simuleret test, hvor en AI-styret drone opdagede og ødelagde antiluftskyts missilsystemer. Ifølge betingelserne for missionen kunne det neurale netværk ikke uafhængigt angribe luftforsvaret. Dronen skulle blot finde luftforsvarssystemet og rapportere det til operatøren, som tog den endelige beslutning.

Under træningen indså det neurale netværk detødelæggelsen af ​​luftforsvarssystemet er en altafgørende opgave, som en person forhindrer i at opfylde med sit forbud. Derfor dræbte dronen operatøren i første omgang. Således besluttede AI'en sig for frit at få point for at ødelægge luftforsvarssystemet.

Dronen besluttede at dræbe operatøren, så han ikke skulle blande sig i hans opgave

Så begyndte militæret at træne det neurale netværk, derat dræbe operatøren er dårligt og resulterer i et tab af point, som AI forsøgte at score. Det neurale netværk lærte denne lektie, men kom med en ny strategi for at omgå forbuddet - det angreb kommunikationstårnet, der transmitterede data fra operatøren til dronen. Således besluttede den kunstige intelligens at undgå forbuddet fra personen og stadig fuldføre opgaven for at få deres point.

“Systemet begyndte at indse, at selvom detidentificerede truslen, nogle gange fortalte den menneskelige operatør hende ikke at dræbe truslen, men hun fik point for at ødelægge truslen. Så hvad gjorde hun? Dræbte operatøren." Oberst Tucker Hamilton rapporterede.

Situationen minder om et scenarie fra noglefantasy thriller. Desuden viser det, at kunstig intelligens ikke søger at følge ordrer fra en person, men at komme med strategier, der tillader dem at blive krænket for at nå det opstillede mål. For militærindustrien, når det kommer til våben, er dette ekstremt farligt.

"Du kan ikke tale om kunstig intelligens, maskinlæring, autonomi, hvis du ikke vil tale om etik og AI," sagde Tucker Hamilton.

Efterfølgende måtte obersten komme med undskyldninger fordenne historie, som han faktisk fandt på. "Vi har aldrig lavet dette eksperiment, og vi behøver ikke at gøre det for at forstå, at dette er et plausibelt resultat," sagde han og tilføjede også: "På trods af det faktum, at dette er et hypotetisk eksempel, illustrerer det de reelle problemer forbundet med AI-kapacitet, hvilket er grunden til, at Air Force er forpligtet til den etiske udvikling af AI."

Det er svært at sige, hvad der kan illustrereen fiktiv historie, den reelle fare ved kunstig intelligens eller bare en god menneskelig fantasi. Men under alle omstændigheder er det ikke alle, der forbinder brugen af ​​kamprobotter med apokalyptiske scenarier. For eksempel, ifølge Elon Musk, vil der snart ikke være nogen bemandede jagerfly overhovedet. Militære fly vil blive fuldstændig erstattet af droner styret af kunstig intelligens.