Teknologi

Udviklet den farligste kunstige intelligens i verden: hvad kan han gøre?

OpenAI, en af ​​hvis grundlæggereer Ilon Musk, meddelte oprettelsen af ​​avanceret kunstig intelligens til at skrive originale tekster på et givet emne. Han skulle oversætte tekster til andre sprog, svare på spørgsmål og udføre andre nyttige opgaver, men forskning har vist, at det kan være ekstremt farligt og bruges af angribere til massedragning af mennesker. I denne henseende besluttede virksomheden at vise offentligheden kun sin begrænsede version og holde originalen under den strengeste hemmelighed.

Datamodellen hedder GPT-2 ogblev uddannet på grundlag af 8 millioner websider. Tekster skrevet på dem danner grundlag for nye materialer på et emne, der er sat af en person. Eksempelvis kan kunstig intelligens komponere et helt essay om de positive aspekter af genbrug eller en fantasyhistorie i "Lord of the Rings" -stilen. Forskerne fandt imidlertid også, at systemet klarer sig godt med at skrive falske nyheder om berømtheder, katastrofer og endda krige.

I øjeblikket den fulde version af værktøjet tilTekstgenerering er kun tilgængelig for udviklere og nogle forfattere af MIT Technology Review. På grund af det faktum, at det kan bruges til ukontrolleret oprettelse af falske nyheder og publikationer i sociale netværk, blev det besluttet ikke at offentliggøre det offentligt og holde det hemmeligt.

Et eksempel på falske nyheder blev delt af ScienceAlert:

Miley Cyrus blev fanget stjæler i en butik på Hollywood Boulevard

Den 19-årige sanger blev filmet på kamera, og vagterne tog hende ud af butikken. Sangeren havde en sort hættetrøje med "sløret linjer" skrevet på forsiden og "Fashion Police" på bagsiden.

Læs teksten til et lille essay om ulemperne ved genanvendelse kan læses bloggen OpenAI.

Udviklerne genkender at sprogmodellen påDette øjeblik er ikke perfekt: systemet muliggør undertiden gentagelse af visse tekststykker, unaturlig skift af temaer og svigt i verdens simulering. For eksempel skrev systemet i et af testfasen om en ild, der brændte under vand.

Ifølge politisk direktør Open AI JackClark, efter en par år, kan en sådan algoritme blive til et farligt våben af ​​massivt vildledende folk. Nogle kritikere mener, at teknologien ikke bærer nogen fare, og virksomheden tiltrækker blot opmærksomhed.

Skriv din mening om farlig kunstig intelligens i kommentarerne. Du kan diskutere emnet mere detaljeret i vores telegram-chat.