30. júla 2021

Oklamať niekoho zvukovou nahrávkou s hlasom podobným známej osobnosti je pre profesionálov pomerne jednoduché. No na scénu sa už pomaly derú oveľa sofistikovanejšie manipulácie, kde hovoriaca osoba (vytvorená umelou inteligenciou) znie aj vyzerá ako originál. Počuli ste už o fenoméne deepfake?

Na kanále ESPN sa objavila reklama, ktorá vyzerala ako z roku 1998, no analytik stanice v nej šokujúco presne predpovedal udalosti roka 2020. Zázrak? Jasnovidectvo? Nie, video nie je naozajstné, bolo vytvorené pomocou umelej inteligencie. Spot divákov zaujal, pobavil a potešil. No mal skôr vyvolať hlboké obavy.

Bola totiž príkladom, aký dôležitý a nebezpečný môže byť nový fenomén v umelej inteligencii: deepfake. Táto technológia umožňuje komukoľvek s počítačom a pripojením na internet vytvoriť realistické fotky a videá ľudí, ktorí hovoria alebo robia veci, ktoré v skutočnosti nepovedali alebo neurobili.

Názov vznikol kombináciou fráz „deep learning“ (hlboké učenie) a „fake“ (falošné). Deepfaky sa po prvýkrát objavili na internete koncom roka 2017, vďaka inovatívnej metóde GAN (Generative Adversarial Networks).

Falošní Obama, Zuckerberg aj Puškárová

V poslednom období sa mnoho deepfake videí stalo virálnymi, takže si ich mohli pozrieť milióny ľudí po celom svete: exprezident Obama, ktorý sa neslušne vyjadruje o prezidentovi Trumpovi, Mark Zuckerberg priznávajúci, že skutočným zámerom Facebooku je manipulovať jeho užívateľov, Bill Hader meniaci sa na Al Pacina aj Schwarzeneggera v nočnej talk show.

Reklama

Alebo moderátorka spravodajstva Zlatica Švajdová Puškárová, ktorá v štúdiu Televíznych novín hovorí, že „rúška a očkovanie nemajú žiadny význam“.

Množstvo deepfake obsahu rastie obrovskou rýchlosťou. Na začiatku roka 2019 bolo podľa startupu Deeptrace online 7 946 videí, no o deväť mesiacov neskôr toto číslo vzrástlo na 14 678 a zvyšuje sa.

Hoci technológia je obdivuhodná, zatiaľ stále nie je porovnateľná s autentickými videami – keď sa prizriete bližšie, väčšinou je možné zistiť, že video je deepfake. Odborníci však predpovedajú, že nepotrvá dlho, keď sa deepfake videá nebudú dať rozpoznať od reálnych.

„V januári 2019 boli deepfake videá nedokonalé a blikali,“ hovorí Hany Farid, profesor na kalifornskej univerzite v Berkeley a deepfake expert. „O deväť mesiacov neskôr, nikdy som nevidel niečo tak rýchlo sa pohnúť dopredu. Je to len vrcholec ľadovca.“

Zlou správou je, že v nasledujúcich mesiacoch a rokoch by sa mohli zmeniť z internetovej zaujímavosti na ničivú politickú a spoločenskú silu. Spoločnosť musí konať a pripraviť sa na to.

Neverte tomu, čo vidíte

Prvé odvetvie, kde sa deepfake vo veľkom používa, je – ako to už často býva zvykom pri nových technológiách – pornografia. V septembri 2019 bolo podľa správy Deeptrace až 96 % deepfake videí pornografických.

Špeciálne stránky s týmto obsahom získali za posledné dva roky stovky miliónov sledovateľov. Objavujú sa v nich falošné podobizne celebrít, napríklad herečky Natalie Portman či Gal Gadot, v chúlostivých situáciách. Samozrejme, obete o tom zväčša netušia.

Z týchto temných zákutí internetu sa deepfaky začali rozširovať do politických sfér, kde je potenciál na vznik chaosu ešte väčší. Netreba ani príliš veľa fantázie na to, čo všetko by sa mohlo stať, ak by sa umelo vytvorené videá ukázali celým populáciám, ktoré by verili, že sú pravdivé.

Predstavte si deepfake video, na ktorom je politik prijímajúci úplatky, alebo ktorý niekoho sexuálne napadne priamo pred voľbami. Alebo amerických vojakov páchajúcich hrozné činy na civilistoch v zámorí, alebo prezidenta Trumpa, ktorý vyhlasuje, že vypustí atómovú raketu na Severnú Kóreu. Vo svete, kde nie je isté, či sú takéto videá autentické alebo nie, by to mohlo mať katastrofálne následky.

Keďže je táto technológia voľne dostupná, môže takéto nahrávky vytvoriť ktokoľvek: herci platení štátom, politické skupiny či jednotlivci.

Na vyvolanie vojny už nepotrebujete rakety

The Brookings Institution v nedávnej správe zhrnula škálu politických a spoločenských nebezpečenstiev, ktoré deepfaky predstavujú:

  • deformovanie demokratickej diskusie,
  • manipulácia s voľbami,
  • narušenie dôvery v inštitúcie,
  • oslabovanie novinárov,
  • prehlbovanie sociálnych rozdielov,
  • podkopávanie verejnej bezpečnosti
  • ťažko napraviteľné poškodenie reputácie prominentných osôb, vrátane volených funkcionárov a kandidátov.

Keďže je v stávke veľa, začali sa tomu venovať aj americkí zákonodarcovia. „Ak ste za starých čias chceli ohrozovať USA, potrebovali ste 10 lietadlových lodí, jadrové zbrane a rakety s dlhým doletom,“ povedal nedávno americký senátor Marco Rubio. „Dnes vám stačí schopnosť vyrobiť veľmi realistické falošné video, ktoré by mohlo ohroziť voľby a našu krajinu uvrhnúť do internej krízy a hlboko nás oslabiť.“

Technológovia súhlasia. Ako povedal Hany Farid, jeden z najlepších svetových odborníkov na deepfake: „Ak nemôžeme veriť videám, audiu, obrázkom, informáciám zozbieraným z celého sveta, je to vážne riziko pre národnú bezpečnosť.“

Politické hry budú ešte špinavšie

Toto riziko už nie je len hypotetické. Už teraz existujú príklady deepfakov ovplyvňujúcich politiku v reálnom svete. Odborníci varujú, že toto sú len prvé varovné prípady.

V roku 2020 uverejnila politická skupina prejav belgického premiéra, v ktorom spájal prepuknutie epidémie Covid-19 s poškodzovaním životného prostredia a žiadal o rázne kroky v oblasti zmeny klímy. Niektorí diváci uverili, že tento prejav bol skutočný.

Ešte horšia je skutočnosť, že už len možnosť, že video by mohlo byť deepfake, dokáže vyvolať zmätok a pomôcť klamaniu politikov, bez ohľadu na to, či bola deepfake technológia použitá alebo nie. Najdramatickejší príklad môžeme vidieť v Gabone, malej krajine v strednej Afrike.

Reklama

Gabonského prezidenta nebolo koncom roka 2018 vidieť na verejnosti niekoľko mesiacov. Kolovali chýry, že jeho zdravie sa natoľko zhoršilo, že nemohol pokračovať vo funkcii, alebo že dokonca umrel. V snahe rozptýliť tieto obavy a potvrdiť Bongovo vedenie nad krajinou jeho administratíva oznámila, že na Nový rok prednesie v televízii prejav.

Vo videu Bongo pôsobí strnulo, s neprirodzenou rečou a pohybmi tváre. Video okamžite vyvolalo podozrenia, že vláda niečo pred verejnosťou skrýva. Bongovi politickí oponenti vyhlásili, že video je deepfake a že prezident je buď nespôsobilý, alebo mŕtvy. Na sociálnych sieťach sa rýchlo začali šíriť chýry o deepfake konšpirácii.

Politická situácia v Gabone sa rýchlo destabilizovala. Do týždňa armáda zorganizovala prevrat – prvý v krajine od roku 1964 – odvolávajúc sa na novoročné video, že niečo s prezidentom nie je v poriadku.

Do dnešného dňa nevedia odborníci presne určiť, či bolo video autentické, ale väčšina verí, že áno. (Prevrat bol neúspešný, Bongo sa odvtedy objavil na verejnosti a dodnes je vo funkcii.)

Apatia voči realite

No nie je až tak dôležité, či bolo video autentické alebo nie. Väčším ponaučením je, že výskyt deepfakov bude sťažovať schopnosť verejnosti rozoznať, čo je skutočné a čo je falošné, čo budú politici zneužívať – s potenciálne ničivými následkami.

„Ľudia už teraz využívajú existenciu deepfakov na zdiskreditovanie reálnych videozáznamov,“ hovorí USC profesor Hao Li. „Aj keď existuje záznam, že ste niečo urobili alebo povedali, môžete povedať, že je to deepfake. A je veľmi ťažké dokázať opak.“

V dvoch nedávnych prípadoch sa politici v Malajzii a v Brazílii snažili vyhnúť následkom kompromitujúcich videí tvrdením, že išlo o deepfaky. V oboch prípadoch sa nepodarilo definitívne potvrdiť opak – a verejná mienka ostala rozdelená.

Výskumníčka Aviv Ovadva varuje pred „apatiou voči realite“. „Zisťovanie toho, čo je skutočné a čo nie vyžaduje príliš vela úsilia, takže ste ochotní ostať pri tom, čo poznáte.“

Vo svete, kde už nemôžete veriť tomu, čo vidíte, sa zdá byť neistá schopnosť väčšej komunity zhodnúť sa na tom, čo je pravda – nehovoriac o konštruktívnej diskusii.

Celkom sympatickí ľudia. Škoda, že nie sú reálni, vytvorila ich umelá inteligencia. Foto: Thispersondoesnotexist.com

Keď dve AI bojujú proti sebe

Základná technológia, umožňujúca vytváranie deepfakov, je oblasť hlbokého učenia známa ako generatívne kontradiktórne siete (GAN). Vynašiel ju Ian Goodfellow v roku 2014 počas doktorandského štúdia na montrealskej univerzite, ktorá je jedným z popredných výskumných ústavov v oblasti umelej inteligencie.

V roku 2016 Yann LeCun, jeden z najlepších odborníkov na umelú inteligenciu označil GAN za „najzaujímavejší nápad v oblasti strojového učenia za posledných desať rokov“.

Pred vyvinutím sietí GAN boli neurónové siete schopné klasifikovať existujúci obsah (napríklad porozumieť reči alebo rozpoznať tváre), ale nie vytvárať nový obsah. GAN dali neurónovým sieťam schopnosť nielen porozumieť, ale aj vytvárať.

Konceptuálnym prelomom pre Goodfellowa bolo dizajnovanie GAN pomocou dvoch samostatných neurónových sietí – jedna je „generátor“ a druhá je „diskriminátor“ – ktoré postaví proti sebe.

Počnúc daným súborom údajov (napríklad zbierka fotografií ľudských tvárí), generátor začne vytvárať nové obrázky, ktoré sa z hľadiska pixelov matematicky podobajú na existujúce obrázky. Diskriminátor medzitým dostáva obrázky bez toho, aby videl, či sú z originálneho súboru, alebo z výstupu generátora. Jeho úlohou je identifikovať, ktoré fotky boli synteticky generované.

Ako tieto dve siete pracujú proti sebe – generátor, snažiaci sa oklamať diskriminátora a diskriminátor, snažiaci sa rozpoznať generátorove výtvory – zdokonaľujú svoje schopnosti. Miera úspešnosti diskriminátora nakoniec klesne pod 50 %, čo nie je o nič lepšie než len hádanie, čo znamená, že synteticky generované fotografie budú na nerozoznanie od originálov.

Hra na technologickú mačku a myš

Jedným z dôvodov, prečo sa deepfaky rozšírili, sú mravné princípy open-source komunity strojového učenia. Počnúc Goodfellovým originálnym dokumentom, kedykoľvek, keď dôjde k pokroku v generatívnom modelovaní, táto technológia je dostupná zdarma pre kohokoľvek na svete na stiahnutie a použitie.

Keďže sú založené na umelej inteligencii, niektorí sa na ňu pozerajú ako na riešenie škodlivých deepfake aplikácií. Vedci napríklad vytvorili sofistikované systémy na odhalenie deepfakov, ktoré detegujú falošné obrázky vyhodnocovaním svetla, tieňov, pohybov tváre a ďalších funkcií. Ďalším inovatívnym obranným prístupom je filter pridaný do obrázka, aby sa znemožnilo jeho použitie na generovanie deepfaku.

Objavilo sa niekoľko startupov, ktoré ponúkajú softvér na obranu proti deepfakom, vrátane Truepic a Deeptrace.

Avšak z dlhodobého hľadiska je nepravdepodobné, že tieto technologické riešenia zastavia ich šírenie. V najlepšom prípade povedú k hre na mačku a myš podobne, ako je to dnes v oblasti kybernetickej bezpečnosti, kde prelomové inovácie v odhaľovaní deepfakov podnietia inovácie vo vytváraní ďalších. Open-source povaha výskumu umelej inteligencie to robí ešte pravdepodobnejším.

Ako príklad môžeme uviesť analýzu, ktorú v roku 2018 publikovali vedci z University of Albany, v ktorej ukázali, že nepravidelné žmurkanie bolo často znakom, že video je falošné. Bolo to užitočné odhalenie v boji proti deepfakom – až pokým sa o pár mesiacov nezačali objavovať deepfake videá, kde bol tento problém so žmurkaním opravený.

„Sme v menšine,“ povedal Farid. „Počet ľudí pracujúcich na strane videosyntézy a ľudí na strane detekcie je 100:1“.

Kto nás ochráni pred dezinformáciami?

Aké legislatívne, politické a spoločenské kroky môžeme podniknúť, aby sme sa bránili pred deepfakmi? Jedným lákavým a jednoduchým riešením je prijatie zákonov, ktoré by zakazovali ich vytváranie a šírenie. Kalifornia s týmto prístupom skúsila experimentovať, keď v roku 2019 zakázala vytváranie a distribuovanie deepfakov politikov do 60 dní od volieb.

Ale celoplošný zákaz deepfakov sa stretáva s ústavnými aj praktickými výzvami. Prvý dodatok Ústavy USA garantuje slobodu prejavu. Akýkoľvek zákon zakazujúci online obsah, najmä politický obsah, môže byť v rozpore s ústavnou ochranou.

„Politický prejav má najvyššiu úroveň ochrany podľa právnych predpisov USA,“ hovorí profesorka Jane Kirtley. „Túžba chrániť ľudí pred klamlivým obsahom v období pred voľbami je veľmi veľká a pochopiteľná, ale som skeptická ohľadom možnosti presadenia (kalifornského) zákona.“

Zákazy deepfakov bude pravdepodobne nemožné uskutočniť aj z dôvodu anonymity a bezhraničnosti internetu. Medzi ďalšie právne rámce, ktoré by sa mohli použiť v boji proti deepfakom, patria autorské práva a ohováranie, avšak ich užitočnosť môže byť obmedzená.

Cenzúra na sociálnych sieťach

Z krátkodobého hľadiska môžu najefektívnejšie riešenia prísť od veľkých technologických platforiem, akými sú Facebook, Google a Twitter, ktoré by mohli dobrovoľne podniknúť prísnejšie kroky na obmedzenie šírenia nebezpečných deepfakov.

Spoliehanie sa na súkromné spoločnosti v riešení rozsiahlych politických a spoločenských problémov, pochopiteľne, vyvoláva v niektorých ľuďoch nepríjemné pocity. Napriek tomu, ako povedali právni vedci Bobby Chesney a Danielle Citron, dohody o podmienkach poskytovania služieb týchto spoločností sú „najdôležitejším dokumentom upravujúcim digitálnu reč v dnešnom svete“.

Výsledkom je, že pravidlá obsahu týchto spoločností môžu byť „najvýznamnejším mechanizmom zo všetkých, v reakcii na deepfake“. No tu zas môžu narážať na problémy s cenzúrou a porušovaním slobody prejavu.

V konečnom dôsledku, len jedno riešenie nebude stačiť. Nevyhnutným prvým krokom je zvýšenie povedomia verejnosti o možných nebezpečenstvách deepfakov. Informované obyvateľstvo je kľúčovou obranou proti rozšíreným dezinformáciám.

„Muž pred tankom na Námestí nebeského pokoja pohol svetom“ povedal profesor newyorskej univerzity Nasir Memon. „Nixonovo telefonovanie ho stálo prezidentský úrad. Hrôzostrašné zábery z koncentračných táborov nás prinútili konať. Ak prestaneme veriť tomu, čo vidíme, je to obrovský problém. Je potrebné znovu nastoliť pravdu do toho, čo vidíme.“

Článok vyšiel na Forbes.com. Autorom je prispievateľ .

Našli ste chybu? Napíšte nám na editori@forbes.sk

Ľutujeme, vašu emailovú adresu sa nepodarilo prihlásiť k odberu.
Ďakujeme za vaše prihlásenie!

Potrebujete ráno získať rýchly prehľad?

Odoberajte Forbes Espresso

O aké témy máte záujem?