Diskuse k článku
Sora v sobě má různé formy nebezpečí, říká expert na umělou inteligenci. Největší hrozbou jsou podle něj deep fake videa
Nový model od OpenAI, Sora, je fascinující, ale podle odborníka na umělou inteligenci i nebezpečný. Dokáže vytvořit téměř jakékoliv video pouze na základě textu. Nezisková organizace zveřejnila několik ukázek toho, co Sora dokáže. Většina jejich videí ani nejde rozeznat od reality.
Upozornění
Litujeme, ale tato diskuse byla uzavřena a již do ní nelze vkládat nové příspěvky.
Děkujeme za pochopení.
Zobrazit příspěvky:
Všechny podle vláken Všechny podle času
P82e30t36e25r 72M32l21i24c78h 8614672133435Fake informace jsou obecne nebezpecne pro AI. Neni problem ji pak ukecat, ze je nekdo hrozbou, at ho eliminuje. Pokud ma takove moznosti :) |