Příspěvky vytvořené s pomocí umělé inteligence se na sociálních sítích objevují čím dál častěji. Jejich kvalita se ale neustále zlepšuje a v dnešní době už je velmi těžké rozpoznat, zda se jedná o reálné video, nebo o uměle vytvořené video. Často se objevují příspěvky, ve kterých lidé používají tváře veřejně známých lidí, kteří ve videu předvádí různé tanečky.
Na sociálních sítích se objevilo několik profilů, které se pyšní tím, že s pomocí umělé inteligence dokážou vytvořit neuvěřitelná videa. Ta jsou často natolik dobře zpracovaná, že někteří lidé nepoznají, že se nejedná o reálná videa. V popisku profilů se sice uvádí, že se jedná o falešná videa, ale soudě podle komentářů si to spousta lidí neuvědomuje. Známy je třeba profil The Same Prod, na kterém se objevují videa, ve kterých jsou například herci Leonardo DiCaprio, Jenna Ortega, Timothee Chalamet a spousta dalších.
Hned několika hercům byl dokonce založený jejich vlastní profil, na kterém se objevují uměle vytvořená videa, která mají milionovou sledovanost. Lidi totiž tento koncept očividně velmi baví a rádi sledují, jak jejich oblíbené celebrity předvádějí ty nejrůznější šílenosti. Vývoj umělé inteligence zaznamenal obrovský pokrok a to stejné si myslí i Jan Romportl, odborník na umělou inteligenci. „Po technické stránce se velmi posunula schopnost generovat syntetická videa, nejen statické obrázky. Zároveň u statických obrázků už jde docílit takové kvality, že lidským okem nejde rozpoznat. Strojově nicméně stále rozpoznat jde,“ zhodnotil pro redakci Antiyoutuber.cz Romportl.
Na sociálních sítích se zároveň čím dál častěji objevují takzvané „deep fakes“, kdy různí známí lidé propagují všemožné pochybné investice a hazard. Dá se ale v dnešní době nějakým způsobem bránit před deep fakes? „Moc nedá. Nejlepší je asi vzdělávání a osvěta. A také tlak na sociální sítě, aby byly nuceny deep fakes jasně a viditelně označovat. Určitě brzo začne docházet k rozšiřování nástrojů na detekci synteticky vygenerovaných obrázků a videí. U textů to nepůjde, tam je to už ztracené. Například jako součást antivirů, prohlížečů, nebo přímo operačních systémů. Problém ale je, že mnoho lidí je nebude ani chtít používat, protože prostě věří tomu, co na první pohled vidí. Lidský mozek je v tomto docela primitivní,“ odpovídá Romportl.
Zároveň sdělil velmi důležitý poznatek z loňského roku o šíření deep fakes, propagandy a manipulací. Daleko častěji se propaganda a manipulace šíří tak, že se u reálné a pravdivé fotky objeví a sdílí info, že se jedná o podvod. Tedy překvapivě v tomto ani deep fakes nejsou potřeba, protože se propaganda tímto záludným způsobem šíří i bez nich. Budoucnost, kterou mají přinést deep fakes, kterým napomáhá umělá inteligence, ale bude očividně velmi těžká a nepříjemná.
„Určitě musíme počítat s obrovským množstvím podvodů, a tím pádem následné bolesti a zničených lidských osudů. Bude docházet k masivnímu social engineeringu, například manipulacím ve firmách, které vedou třeba k průlomu do systémů, odcizení citlivých dat, nechtěným převodům peněz a podobně. Totéž se bude dít i v běžných životech, například volá ,falešný syn´. Velmi nebezpečné je to i v armádě a na bojišti, například fake hlas velícího důstojníka. Porno deep fake v pornu a s tím související kyberšikana bude nějakou dobu velký problém, ale bude to tak masivní, že si na to lidi postupně ,zvyknou´, takže to vesměs začnou ignorovat. To nicméně neznamená, že si to nevezme obrovskou psychickou daň na obětech,“ říká Romportl.
Podle Romportla už svět tento typ umělé inteligence vnímá jako hrozbu, ale bohužel se lidé obávají chybných věcí a zároveň přehlížejí ty podstatné. Umělá inteligence je prý obrovská příležitost pro lidstvo, možná i jediná příležitost, ale z hlediska toho, co může způsobit, je minimálně na úrovni jaderných technologií nebo biotechnologií. V minulosti se dokonce objevila petice, jejímž účelem bylo globálně pozastavit rapidní vývoj a práci na umělé inteligenci, k čemuž nakonec nedošlo. Ani Romportl by prý nebyl pro pozastavení výzkumu a práce s umělou inteligencí.
„Určitě nebyl. Je to naše jediná příležitost pro další vývoj lidstva a vyřešení jiných globálních hrozeb a výzev, kterým čelíme. Byl bych ale rozhodně pro masivní posílení té části výzkumu, která řeší bezpečnost AI a takzvaný ,AI Alignment´, to znamená uspořádání hodnot AI, aby byly v souladu s hodnotami lidí, a tím pádem aby vznikla ,dobrá AI´,“ říká Romportl.