Генерал, Ресеарцх, Технологија

Руски програмер је створио нову генерацију алгоритма Деепфаке. Шта он зна како

Током последњих неколико година, дубоко учење(Дубоко учење) је далеко напредовало. Неки системи машинског вида, перцепције гласа и неки други раде толико ефикасно да чак понекад надмашују могућности особе. Али тамо где постоји нова перспективна технологија, сигурно ће бити оних који ће покушати да је користе у друге сврхе. Овако Деепфаке - неуронске мреже које могу заменити лицеособа на фотографији или видео снимку. То јест, било која особа ће моћи да седне пред камеру, нешто каже, а његово лице ће заменити друга особа. Али шта ако бих вам рекао да Деепфаке може заменити не само лице, већ чак и косу, боју коже и фигуру?

И даље из видео снимка снимљеног уз Деепфаке 2.0

Шта може нови Деепфаке

Као што је изјавио програмер који говори руски, Алексеј Чаплигин, потрошио је скоро две године рада да ствара Деепфаке нова генерација... Његова верзија алгоритма може променити готово све:од боје коже и косе до лица и фигуре. Поред тога, неуронска мрежа је способна да промени особу на било којој фотографији, чак и ако алгоритам у почетку није учитао за обраду. Ево примера како то изгледа.

Колико дуго Ницолас Цаге глуми у Суперману?

Према недавном извештају из МассацхусеттсаИнститут за технологију, уређај који омогућава употребу дубоких фалсификата могао би бити „савршено оружје за креаторе лажних вести који желе да утичу на све, од цена акција до избора“.

Ако сте заинтересовани за вести о неуронским мрежама, претплатите се на нас на Иандек.Зен-у, како не бисте пропустили нове материјале!

Зашто је Деепфаке опасан

Можете разговарати колико год желитепотребна је технологија, врло је кул и не треба клеветати. Можете чак и да одете до крајности и почнете да говорите да је то став жестоког олдфага који се једноставно плаши свега новог, али заиста постоји више опасности него користи. Замислите само ако неко користи такву неуронску мрежу и „сними“ видео снимак на којем је Доналд Трамп, у којем објављује трговински рат Кини? Док ово не оповргне председничка администрација, америчка берза ће се једноставно срушити. А иза њега стоје долар и резерве многих земаља.

како препознајте деепфаке? Ако погледате видео на почетку чланка, ондасхватићете да док лажна може буквално бити голим оком. Слика је слична, али прилично груба. Поред тога, она понекад има проблема са мешањем, посебно дуж ивица лица. Али с обзиром на то да је рад на алгоритму у току, постоји ризик да ће ускоро бити много теже разликовати лажни видео који је створила неуронска мрежа од стварног.

Иако је деепфакес лако разликовати од оригинала, али ускоро ће бити теже

Можете да замислите супротну ситуацију, када стварна особа нешто каже, а затим уверава све да је уоквирена.

Како бити у овој ситуацији такође није баш јасно.То ће унети такву забуну у вести да једноставно није могуће поново проверити у другом извору. Као резултат, постаће генерално нејасно шта је истина, а шта нетачност на овом свету.

Алгоритам који већстворити ИоуТубе и Фацебоок. У случају познатих људи, такав проблем ће бити решен на нивоу видео услуге, јер исти тај ИоуТубе зна како се креће конвенционални Доналд Трумп. Али када је реч о мање познатој особи, постаје замршеније.