Technologie

"Může se rozbít náhle": Rusko použilo AI z OpenAI v. Ukrajiny - ft

Během operací, Doppelhanger a Bad Grammar se Rusové pokusili připravit Ukrajinu o podpůrné partnery a vytvořit obsah s neurotromy. Struktury související s Ruskem, Čínou, Íránem a Izraelem používají nástroje umělé inteligence OpenAI, které vytvořily chatbot chatgpt k vytvoření a šíření dezinformací, zejména o válce na Ukrajině. Financial Times o tom píše.

Podle společnosti byly modely umělé inteligence OpenAI pro generování textu a obrázky použity ve velkých objemech při pěti operacích skrytého vlivu a k vytváření komentářů. Výše uvedený obsah se týkal války na Ukrajině, konflikt v sektoru Gazy, volby v Indii a také politiky v Evropě, USA a Číně. AI byla také použita ke zvýšení produktivity, včetně úpravy kódů a sociálních sítí.

Podle zprávy OpenAI byly nástroje společnosti použity zejména při provozu Ruska „Dopplganger“ zaměřené na podkopání podpory Ukrajiny. Je také zmíněna ruská gramatická operace. Podle společnosti útočníci použili modely OpenAI k vytvoření kódu pro spuštění Bot Telegram a také k vytvoření krátkých komentářů k politickým tématům v ruštině a angličtině pro distribuci v telegramu.

Podle publikace navíc nástroje AI z OpenAI používaly čínskou spamflage Network, která podporuje zájmy v Pekingu v zahraničí. Jde o vytváření textu a komentářů k několika zveřejnění na sociální síti X. Také o hlášení prevence izraelské kampaně, pravděpodobně organizovanou společností Stoic, která použila AI k vytváření článků a komentářů k Instagramu, Facebooku a X.

OpenAI politika zakazuje Použití svých modelů pro své modely pro své modely podvod nebo zavádějící ostatní. Společnost uvedla, že pracuje na detekci dezinformačních kampaní a také vytvářejí nástroje založené na AI, aby to efektivněji provedly. Zástupci OpenAI ujišťují, že již komplikovali práci útočníků a jejich modely opakovaně odmítly generovat požadovaný obsah.

OpenAI Ben Nimmo, hlavní výzkumný pracovník oddělení zpravodajských a vyšetřovacích oddělení, v rozhovoru s novináři uvedl, že používání modelů OpenAI v kampaních se mírně zvýšilo. „Nyní není čas na sebevědomí. Historie ukazuje, že operace vlivu, které po léta nepřinesly výsledky, mohou najednou blikat, pokud je nikdo nehledá,“ zdůraznil Ben Nimmo.

Připomeňme, že OpenAI testoval svůj systém umělé inteligence GPT-4, aby pochopil, zda představuje hrozby pro lidstvo. Odborníci našli „mírné riziko“, že to pomůže lidem vytvořit smrtící biologickou zbraň. OpenAI také uvedl, že OpenAI oznámil partnerství s Axel Springer's Media.