Ukrajinský velitel opakovaně zneužit v ruských deepfake videích

illustration
Na sociálních sítích se šíří video vrchního velitele Ozbrojených sil Ukrajiny Valerije Zalužného, který údajně vyhlašuje povstání proti prezidentu Zelenskému. Jedná se však o deepfake vytvořený s pomocí umělé inteligence. Zalužnyj nic takového neřekl a na Ukrajině se žádný vojenský převrat nekoná.

Meta fact-check 24. listopadu 2023

Příspěvek obsahuje krátkou ruskojazyčnou videoreportáž doplněnou českým titulkem, podle kterého Valerij Zalužnyj, vrchní velitel Ozbrojených sil Ukrajiny, „vyhlásil povstání proti Zelenskému“. Součástí videa je i záběr, na němž Zalužnyj zdánlivě vyzývá vojáky, aby „šli na Kyjev“ a svrhli vládu Zelenského.

Deepfake video

Ve skutečnosti ale Valerij Zalužnyj nic takového neřekl a na Ukrajině k žádnému povstání nedošlo. Jedná o tzv. deepfake, neboli digitálně upravené video, jehož autoři se snaží přesvědčivě napodobit vybraného člověka a často mu do úst vloží slova, která nikdy neřekl. Deepfake lze rozpoznat prozkoumáním detailů videa, které mohou působit nerealisticky. V případě Zalužného lze v ověřovaném videu rozeznat, že slova, která vyslovuje, neodpovídají pohybu jeho úst.

Cizojazyčná deepfake videa je náročnější rozpoznat, jelikož ne každý český posluchač zná intonaci daného jazyka. Je proto důležité soustředit se i na vzhled a mimiku osoby. Lidé v deepfake videích často mívají nerealistické vlasy či vousy, příliš hladkou nebo vrásčitou pleť anebo nepřirozeně mrkají. V případě Zalužného je mrkání přesvědčivé, díky umělé inteligenci však působí, že nemá žádné vrásky na čele. Pohyby jeho hlavy také vypadají strojeně a nepřirozeně.

Deepfake videa lze vytvořit různými způsoby pomocí metod umělé inteligence a strojového učení. Může se např. jednat jen o nepatrnou úpravu skutečného videa, „nasazení“ obličeje někomu jinému, rozpohybování modelu obličeje podle nahrávky jiného řečníka, nebo dokonce vytvoření nového videa bez konkrétní předlohy.

Z ruského telegramu…

Sdílené video je úryvkem delší reportáže, kterou 12. listopadu sdílel telegramový kanál Zloj Pruf (Zлой Пруф️). V ní umělou inteligencí upravený Zalužnyj také říká, že svou výzvu musí sdílet na tomto ruském telegramovém kanálu, jelikož ukrajinské kanály o plánovaném pochodu na Kyjev nechtějí informovat. Ukrajinští vojáci by tento kanál měli sledovat, neboť na něm bude zveřejněno datum a čas začátku „pochodu na Kyjev“.

Deepfake manipulace tedy zjevně byla původně zveřejněna s úmyslem získat pro zmíněný telegramový kanál nové sledující. Falešnou reportáž jen na samotném kanále Zloj Pruf vidělo v den jejího publikování více než 1,3 milionu uživatelů, později počet zhlédnutí překonal i hranici 2 milionů.

Autor deepfake videa jako předlohu použil skutečné záběry Valerije Zalužného ze 6. prosince 2022. Tehdy Zalužnyj mluvil k ukrajinským vojákům při příležitosti Dne Ozbrojených sil Ukrajiny.

… na český facebook

Deepfake zveřejněný na kanále Zloj Pruf se začal šířit i na dalších kanálech. Ještě ten samý den z falešného projevu Zalužného vytvořil telegramový kanál Propaganda Novosti (Пропаганда Новости) pro svůj tiktokový účet krátkou videoreportáž, která se pak dostala i na český facebook.

Název tohoto tiktokového účtu je viditelný i v námi ověřovaném videu (@news.polite). Český popisek „Zalužnyj vyhlásil povstání proti Zelenskému“ k videu pravděpodobně přidal český tiktokový účet @tiktok_mamca, jehož název je ve videu také vidět.

Závěr

Facebookový příspěvek obsahuje úryvek videa, které bylo upraveno pomocí deepfake metod. Valerij Zalužnyj ve skutečnosti nikdy nevyhlásil povstání proti Zelenskému, tato slova mu byla vložena do úst. V rámci naší spolupráce se sociální sítí Facebook jsme proto video označili jako pozměněné.

Doplňme, že jen od začátku letošního listopadu jde již o několikáté deepfake video, které se na sociálních sítích šíří v souvislosti s osobou Valerije Zalužného. V jiném videu Zalužnyj například údajně tvrdí, že ukrajinský prezident Volodymyr Zelenskyj zlikvidoval jeho asistenta a nařídil vraždu i jej samotného. Námi ověřovaný deepfake je pak již druhým případem, kdy byl k manipulaci využit Zalužného projev z prosince loňského roku.