3 Minuty
OpenAI přijímá aktivní opatření proti zneužívání umělé inteligence
Společnost OpenAI zveřejnila nové informace o svých pokračujících aktivitách v boji proti vzestupu škodlivých kampaní, které využívají technologii umělé inteligence. Ve své nově vydané zprávě „Disrupting Malicious Uses of AI: June 2025“ detailně popsala, jak během prvních měsíců roku 2025 odhalila a rozložila nejméně deset sofistikovaných operací zneužívajících ChatGPT a další AI nástroje.
Globální kybernetické hrozby: Státem podporovaní aktéři a sofistikované taktiky
Podle OpenAI pocházela řada těchto útoků od státem podporovaných skupin napojených na Čínu, Rusko a Írán. Ze zmíněných deseti zneškodněných kampaní byly čtyři spojeny s čínskými aktéry, kteří využívali umělou inteligenci k pokročilému sociálnímu inženýrství, skrytým vlivovým operacím a různým formám kybernetických útoků.
Jako příklad společnost uvádí operaci „Sneer Review“, během níž se útočníci snažili poškodit pověst deskové hry „Reversed Front“, známé svými politickými motivy kritizujícími Komunistickou stranu Číny. Škodlivé entity využily automatizované sítě k šíření negativních komentářů a poté vytvářely falešné články o údajném masivním odporu, čímž chtěly poškodit obraz hry a zpochybnit nezávislost Tchaj-wanu.
Ruský vliv a cílená dezinformace
Další významnou operací byla „Helgoland Bite“, při níž ruské skupiny zneužily vícejazyčné schopnosti ChatGPT k šíření dezinformací v německém jazyce. Kampaň obsahovala kritiku USA a NATO i manipulativní narativy týkající se nadcházejících německých voleb v roce 2025. Útočníci také využili automatizovanou tvorbu obsahu k identifikaci opozičních postav, organizaci koordinovaných příspěvků a dokonce zmiňovali platební schémata – to vše dokládá neustále se rozvíjející složitost sítí využívajících umělou inteligenci pro šíření vlivu.
Kampaně cílené na USA: Dezinformace a rozdělování společnosti
Opatření OpenAI zahrnovala také blokování mnoha účtů zapojených do operace „Uncle Spam“, která se snažila ovlivnit veřejné mínění v USA prostřednictvím falešných profilů na sociálních sítích. Některé účty vystupovaly jako příznivci či odpůrci cel a jiné se vydávaly za skupiny amerických veteránů, aby šířily vysoce polarizovaný obsah s cílem dále prohloubit politické rozdělení.
Relevance a bezpečnostní prvky ChatGPT
Tyto události podtrhují význam robustních bezpečnostních funkcí AI a kontinuálního rozvoje monitorovacích systémů na platformách jako ChatGPT. Rychlá detekce a reakce společnosti OpenAI potvrzují její vedoucí postavení v zabezpečení generativních technologií umělé inteligence. Díky včasné identifikaci zneužití chrání OpenAI nejen konečné uživatele, ale stanovuje také důležité standardy odpovědné inovace v širším technologickém sektoru.
Hlavní poučení pro digitální uživatele i technologický sektor
S tím, jak je obsah generovaný umělou inteligencí stále obtížnější rozeznat od lidské tvorby, slouží zpráva OpenAI jako důležité varování: ne všechny informace nebo interakce na internetu jsou autentické. Rychle se zvyšující úroveň sociálního inženýrství s podporou AI zdůrazňuje nutnost rozvíjet digitální gramotnost i obezřetnost – jak pro běžné uživatele, tak organizace fungující v éře rychlého technologického pokroku.
Ve výsledku úsilí OpenAI dále potvrzuje klíčovou roli etického řízení a rychlé intervence pro zajištění důvěryhodného nasazení umělé inteligence.

Komentáře