Středa 8. května 2024, Den vítězství

Sora v sobě má různé formy nebezpečí, říká expert na umělou inteligenci. Největší hrozbou jsou podle něj deep fake videa

Nový model od OpenAI, Sora, je fascinující, ale podle odborníka na umělou inteligenci i nebezpečný. Dokáže vytvořit téměř jakékoliv video pouze na základě textu. Nezisková organizace zveřejnila několik ukázek toho, co Sora dokáže. Většina jejich videí ani nejde rozeznat od reality.
  8:20

New York pod vodou, kde plavou žraloci? Pohled do budoucnosti, jak bude v roce 2056 vypadat Nigérie? To vše, a mnoho dalších záběrů, dokáže nyní vytvořit umělá inteligence. Sora, nový model od neziskové organizace OpenAI, je schopný vygenerovat téměř jakékoliv video pouze na základě textu. Stačí mu i jen jedna věta, a vytvoří velice realistické video, u kterého většinou není možné pouhým okem poznat, že není reálné. Ačkoliv se jedná o fascinující a pokrokový nástroj, podle odborníka otevírá i mnoho hrozeb. Jak moc zajímavý a nebezpečný je, zjistíme zřejmě už v tomto roce.

@openai Introducing Sora, our first AI model that creates videos from text captions. This video was generated from the following prompt: “this close-up shot of a victoria crowned pigeon showcases its striking blue plumage and red chest. its crest is made of delicate, lacy feathers, while its eye is a striking red color. the bird's head is tilted slightly to the side, giving the impression of it looking regal and majestic. the background is blurred, drawing attention to the bird's striking appearance.”
What would you like to see Sora make next? Let us know in the comments. #madewithSora #Sora #OpenAI ♬ original sound - OpenAI

„Filmová upoutávka s dobrodružstvím třicetiletého vesmírného muže s červenou vlněnou pletenou motocyklovou helmou, modrou oblohou, solnou pouští, filmovým stylem, natočená na pětatřicetimilimetrový film s živými barvami,“ je textový příkaz, který firma zadala umělé inteligenci. Sora byla jen z tohoto krátkého textu schopná vytvořit fascinující video, založené přesně na předem zadaném scénáři. Práce s detaily, kterou si Sora při tvorbě videa dala, je veliká. Ve videu dává například jeden velmi detailní záběr na obličej muže. Ukazuje veškeré aspekty jeho tváře včetně vousů, obočí, tváří, očí, ale i různých pigmentových nedostatků.

Umělá inteligence je na rychlém vzestupu, a Sora je v jejím pokroku velkým skokem dopředu. „Sora je dalším technologickým skokem v oblasti generativní umělé inteligence,“ říká ředitel Centra umělé inteligence Michal Pěchouček pro redakci Antiyoutuber.cz. Jelikož se na novém modelu stále pracuje, zatím není dostupný pro veřejnost. Brzy ale zřejmě bude, až v té době budou zřejmá veškerá jeho pozitiva, ale i úskalí. „Jak mocný a efektivní nástroj to je, se dozvíme v okamžiku, kdy bude otevřen veřejnosti, což se plánuje na druhou polovinu roku,“ doplňuje Pěchouček.

@openai Introducing Sora, our first AI model that creates videos from text captions. This video was generated from the following prompt: “photorealistic closeup video of two pirate ships battling each other as they sail inside a cup of coffee”
What would you like to see Sora make next? Let us know in the comments. #madewithSora #Sora #OpenAI ♬ original sound - OpenAI

Už nyní je umělá inteligence zneužívána k tvorbě zavádějících a lživých videí. V jednom takovém videu mluví moderátor zpráv o děsivém projektu podnikatele a politika Andreje Babiše. „Přišel s novou tajnou investicí, na které zbohatly stovky lidí,“ říká moderátor ve videu. Následně se objeví Babiš, který začne mluvit o svém investičním projektu pro vydělávání peněz. Ačkoliv se nejedná o nejlépe zpracované video, někteří lidé by mu mohli uvěřit. S novým modelem od OpenAI by už však takové video od reality zřejmě ani nešlo rozeznat. „Stejně jako jiné formy generativní umělé inteligence, Sora v sobě má různé formy nebezpečí. Asi největší hrozbou je, že uživatelé budou Sora generované video (fakevideo) záměrně prohlašovat za reálné,“ vysvětluje Pěchouček.

Ačkoliv tu podle něj hrozba toho, že by někdo mohl model využívat k tvorbě deepfake videí je, firma by na to měla být připravená. „V tomto kontextu se mi líbí, že se OpenAI hlásí k novým standardům pro autentizaci a ověřovaní obsahu C2PA a chce metadata o původu videa do výsledků Sora zakryptovat,“ říká. C2PA je technologie, jejíž úkolem je sledovat původ a historii změn digitálního obsahu. Do videí vloží tzv. digitální otisky, které budou moci následně sledovat původ videa a veškeré jeho změny. Jednoduše je jejím hlavním cílem rozlišit reálná videa od těch vytvořených skrze umělou inteligenci.

Ačkoliv většina videí od Sora je velice realistická, ne všechna se povedla. Firma na svém webu ukázala i pár nepovedených záběrů. „Současný model má slabiny. Může mít problémy s přesnou simulací fyziky složitých scén a nemusí rozumět konkrétním případům příčiny a následku. Osoba si může například ukousnout sousto ze sušenky, ale poté na sušence nemusí být žádná stopa,“ popisuje OpenAI, jakým nedostatkům může Sora čelit. V jednom takovém nepovedeném videu jde vidět muž běžící na běžeckém páse v opačném směru, než by měl.