Haló, tady Rubio… Když AI prolomí diplomatické kanály
foto: Zdroj: Pexels / Tim Witzdam/Deepfake, umělá inteligence
Umělá inteligence opět ukázala nejen svůj potenciál, ale i temnou stránku. Neznámý útočník napodobil hlas amerického ministra zahraničí Marca Rubia a pokusil se oklamat domácí i zahraniční politiky s cílem získat důvěrné informace. AI jako nová úroveň hrozby.
S pomocí AI se vydával za ministra. A uspěl
Americké ministerstvo zahraničí spolu s FBI minulý týden vydalo varování před dosud neobvyklou bezpečnostní hrozbou. Aktér využil umělou inteligenci k vygenerování hlasu, který se téměř k nerozeznání podobal projevu ministra zahraničních věcí Marca Rubia, a tento hlas využil k cílenému kontaktování dalších vládních činitelů. Cílem bylo získat citlivé informace a narušit diplomatické vazby.
Rubio se od zveřejněných zpráv distancoval a potvrdil, že šlo o podvrh. Podle vyšetřovatelů zdaleka nejde o ojedinělý incident, jenom letos americké úřady evidují stovky případů podobného zneužití AI.
AI jako nástroj digitálního zmatku
Na rozdíl od předešlých pokusů o kyberútok, které byly často snadno rozpoznatelné, dnes umělá inteligence umožňuje vytvořit hlasové nebo obrazové deepfaky, které jsou pro běžného uživatele (a nezřídka i pro odborníka) prakticky neodhalitelné. Ono totiž pro takového útočníka stačí jen několik sekund veřejně dostupné nahrávky a s pomocí daného softwaru dokáže napodobit intonaci, rytmus i výrazové prostředky konkrétní osoby.
V současné době přitom není nijak náročné klamavý obsah vytvořit. Zatímco dřív byl potřeba výkonný počítač a mimořádné IT znalosti, dnes stačí chytrý mobil, a falešnou zprávu či videozáznam je možné vygenerovat během několika minut. Zpráva TechRadar varuje, že v roce 2025 může být vytvořeno až 8 milionů deepfaků, zatímco v roce 2023 to bylo půl milionu.
Psali jsme
Ministerstvo pro místní rozvoj vyzývá veřejnost, a hlavně pak odborníky na kybernetickou bezpečnost, aby mu pomohli najít chyby v systému.…
Podle průzkumu společnosti iProov dokázalo deepfake a skutečný obsah rozeznat pouze 0,1 % dotázaných. Studie testovala dva tisíce spotřebitelů z Velké Británie a USA. Za pozornost stojí také to, že 30 % osob ve věku 55–64 let a 39 % lidí nad 65 let o něčem jako „deepfake“ nikdy neslyšelo.
AI: technologie, pravidla, školení
Obecně se doporučuje zavést třístupňový způsob ochrany. Důležitá je technologická obrana. Tedy práce s detekčními nástroji jako jsou například Deepware nebo Microsoft Video Authenticator. Tyto programy využívají umělou inteligenci pro analýzu mikrochyb v obrazu či zvuku. „Deepfake jsou stále více klamavé a schopné šířit dezinformace, takže je naléhavě potřeba přizpůsobivějších a odolnějších řešení pro jejich detekci,“ uvedl expert CSIRO na kyberbezpečnost Dr. Sharif Abuadbba.
Nejen politici a diplomaté, ale také další osobnosti veřejného života a koneckonců i každý z nás by měl informace vždy ověřovat z více kanálů, zejména má-li nějaké podezření nebo se jedná o neobvyklý požadavek.
Právě lidský faktor nakonec rozhoduje, jestli bude útok úspěšný. Pravidelná školení mají pomoci úředníkům, zaměstnancům v call centrech a dalším pomoci rozpoznat netypické znaky komunikace – například chybějící přirozené pauzy, příliš pravidelný rytmus nebo podivné výrazy.
Od běžných AI podvodů k ohrožení národní bezpečnosti
Na rozdíl od běžného phishingu měl tento útok potenciál destabilizovat diplomatické vztahy a zpochybnit autoritu americké administrativy. Deepfake, který působí autenticky, může změnit kontext jednání nebo dokonce vyvolat mezinárodní incident. V kontextu rostoucí geopolitické nestability se tak stává digitální imitace hlasu nebo tváře otázkou národní bezpečnosti.
Evropská unie už v rámci AI Act diskutuje o přísnějších pravidlech pro generativní modely, které by mohly být zneužity k politickým či bezpečnostním účelům. Stejně tak roste zájem o zavedení jednotných standardů pro ověřování identity ve státní správě.
Nový informační terén
Incident související s ministrem Rubiem ukázal, že umělá inteligence vstoupila do strategického prostoru vládní komunikace. Zatímco v komerční sféře se debatuje o etice a využití AI při tvorbě obsahu, ve státní administrativě jde o mnohem víc – o důvěru, bezpečnost, stabilitu.
Jak bude vypadat svět ovlivněný umělou inteligencí, zatím nikdo neumí říct. Jisté ale je, že jednou z prvních obětí může být sama realita.