Haló, tady Rubio… Když AI prolomí diplomatické kanály

22. 07. 2025
Haló, tady Rubio… Když AI prolomí diplomatické kanály
foto: Zdroj: Pexels / Tim Witzdam/Deepfake, umělá inteligence

Umělá inteligence opět ukázala nejen svůj potenciál, ale i temnou stránku. Neznámý útočník napodobil hlas amerického ministra zahraničí Marca Rubia a pokusil se oklamat domácí i zahraniční politiky s cílem získat důvěrné informace. AI jako nová úroveň hrozby.

S pomocí AI se vydával za ministra. A uspěl

Americké ministerstvo zahraničí spolu s FBI minulý týden vydalo varování před dosud neobvyklou bezpečnostní hrozbou. Aktér využil umělou inteligenci k vygenerování hlasu, který se téměř k nerozeznání podobal projevu ministra zahraničních věcí Marca Rubia, a tento hlas využil k cílenému kontaktování dalších vládních činitelů. Cílem bylo získat citlivé informace a narušit diplomatické vazby.

Rubio se od zveřejněných zpráv distancoval a potvrdil, že šlo o podvrh. Podle vyšetřovatelů zdaleka nejde o ojedinělý incident, jenom letos americké úřady evidují stovky případů podobného zneužití AI.

AI jako nástroj digitálního zmatku

Na rozdíl od předešlých pokusů o kyberútok, které byly často snadno rozpoznatelné, dnes umělá inteligence umožňuje vytvořit hlasové nebo obrazové deepfaky, které jsou pro běžného uživatele (a nezřídka i pro odborníka) prakticky neodhalitelné. Ono totiž pro takového útočníka stačí jen několik sekund veřejně dostupné nahrávky a s pomocí daného softwaru dokáže napodobit intonaci, rytmus i výrazové prostředky konkrétní osoby.

V současné době přitom není nijak náročné klamavý obsah vytvořit. Zatímco dřív byl potřeba výkonný počítač a mimořádné IT znalosti, dnes stačí chytrý mobil, a falešnou zprávu či videozáznam je možné vygenerovat během několika minut. Zpráva TechRadar varuje, že v roce 2025 může být vytvořeno až 8 milionů deepfaků, zatímco v roce 2023 to bylo půl milionu.

Podle průzkumu společnosti iProov dokázalo deepfake a skutečný obsah rozeznat pouze 0,1 % dotázaných. Studie testovala dva tisíce spotřebitelů z Velké BritánieUSA. Za pozornost stojí také to, že 30 % osob ve věku 55–64 let a 39 % lidí nad 65 let o něčem jako „deepfake“ nikdy neslyšelo.

AI: technologie, pravidla, školení

Obecně se doporučuje zavést třístupňový způsob ochrany. Důležitá je technologická obrana. Tedy práce s detekčními nástroji jako jsou například Deepware nebo Microsoft Video Authenticator. Tyto programy využívají umělou inteligenci pro analýzu mikrochyb v obrazu či zvuku. „Deepfake jsou stále více klamavé a schopné šířit dezinformace, takže je naléhavě potřeba přizpůsobivějších a odolnějších řešení pro jejich detekci,“ uvedl expert CSIRO na kyberbezpečnost Dr. Sharif Abuadbba.

Nejen politici a diplomaté, ale také další osobnosti veřejného života a koneckonců i každý z nás by měl informace vždy ověřovat z více kanálů, zejména má-li nějaké podezření nebo se jedná o neobvyklý požadavek.

Právě lidský faktor nakonec rozhoduje, jestli bude útok úspěšný. Pravidelná školení mají pomoci úředníkům, zaměstnancům v call centrech a dalším pomoci rozpoznat netypické znaky komunikace – například chybějící přirozené pauzy, příliš pravidelný rytmus nebo podivné výrazy.

Od běžných AI podvodů k ohrožení národní bezpečnosti

Na rozdíl od běžného phishingu měl tento útok potenciál destabilizovat diplomatické vztahy a zpochybnit autoritu americké administrativy. Deepfake, který působí autenticky, může změnit kontext jednání nebo dokonce vyvolat mezinárodní incident. V kontextu rostoucí geopolitické nestability se tak stává digitální imitace hlasu nebo tváře otázkou národní bezpečnosti.

Evropská unie už v rámci AI Act diskutuje o přísnějších pravidlech pro generativní modely, které by mohly být zneužity k politickým či bezpečnostním účelům. Stejně tak roste zájem o zavedení jednotných standardů pro ověřování identity ve státní správě.

Nový informační terén

Incident související s ministrem Rubiem ukázal, že umělá inteligence vstoupila do strategického prostoru vládní komunikace. Zatímco v komerční sféře se debatuje o etice a využití AI při tvorbě obsahu, ve státní administrativě jde o mnohem víc – o důvěru, bezpečnost, stabilitu.

Jak bude vypadat svět ovlivněný umělou inteligencí, zatím nikdo neumí říct. Jisté ale je, že jednou z prvních obětí může být sama realita.

autor:

Tagy

Naše zprávy najdete i na sítích
FCB, Twitter, LinkedIn