Forskning

Kina ønsker at forbyde "dipfaces" - falske videoer skabt ved hjælp af neurale netværk

Internettet er i stigende grad distribueret videoer, angiveligtoptaget med deltagelse af en berømt person - men hun er ikke kendt. Falske videoer viser en person i en situation, der aldrig eksisterede, og nogle gange virker det umuligt at skelne en falsk. Sådanne videoer er skabt med deltagelse af GAN-neurale netværk (et generativ-modstandsnetværk) fra næsten ingenting: bare et billede hentet fra internettet. Kina besluttede at sætte en stopper for spredningen af ​​sådanne "deepfakes".

Kina forbyder falske videoer

Kina planlægger at lovligt forbyde"Dipfeyki" - og dette er det første land, der tog alvorlig manipulation af kunstig intelligens fra videoen og ser dem som en trussel. På lørdag foreslog den højeste lovgivende instans i Kina at erklære ulovlig "forvrængning af billedet af en anden person eller efterligning af stemme ved hjælp af teknologi", ifølge et materiale offentliggjort i den statslige avis China Daily.

Avis citater senior lawmaker ShenChunyao, der siger, at "misbrug af kunstig intelligens teknologi ikke kun skader menneskerettigheder i billedet, men også skader national sikkerhed og offentlige interesser."

"Deep fakes" eller "dipfeyki" blivermere og mere sofistikeret - i stedet for blot at erstatte en persons ansigt, har kodere lært at erstatte hele kroppen. Det betyder, at enhver med teknisk knowhow kan omdanne nogen til en digital marionet.

Hvis du ikke forstår, hvordan det kan være farligt,I 2018 optrådte en falsk video med en tale fra den tidligere amerikanske præsident Barack Obama, hvor han advarede om, at "vi går ind i en æra, hvor vores fjender kan få nogen til at sige noget til enhver tid." Videoen selv med denne erklæring er en falsk, det er en hændelse.

Kun her betragtede Kina denne advarsel som helt rigtig. Ser denne teknologi ud til dig? Fortæl os i vores chat i Telegram.