A je to venku: Konverzace s ChatGPT jsou aktivně monitorované

02. 09. 2025
A je to venku: Konverzace s ChatGPT jsou aktivně monitorované
foto: Pixabay/Ilustrační snímek

OpenAI, provozovatel služby služby ChatGPT, přiznala, že monitoruje konverzace s chatbotem a v krajních případech předává jejich obsah policii. Nově zveřejněná informace vyvolala mezinárodní debatu o možném zneužití dat uživatelů.

Donedávna si uživatelé ChatGPT mysleli, že jejich rozhovory s AI zůstávají mezi nimi a počítačem. A že vrcholem porušení jejich soukromí je, že OpenAI konverzace archivuje a na vyžádání je může vydat policii. Koncem srpna 2025 ale OpenAI v blogovém příspěvku potvrdila, že konverzace jsou automaticky monitorovány a v případě podezření na plánování násilí mohou být předány lidským recenzentům – a následně případně i policii.

Samotný fakt, že digitální platformy sledují obsah, není novinkou. Facebook, X (dříve Twitter) nebo YouTube mají už roky mechanismy, které hlásí teroristické či kriminální aktivity úřadům. I podmínky používání ChatGPT vždy naznačovaly, že OpenAI může data sdílet „v případě zákonné povinnosti“. Jasné vyjádření v tomto směru však dosud chybělo. A když přišlo, nová informace vyvolala pozornost a bouřlivé reakce.

Zpráva se rychle rozšířila přes technologické weby jako například Futurism a hlavně přes sociální sítě a dostala se i do mainstreamových médií.

Opravdu může ChatGPT zneužít data uživatelů?

Uživatelé reagují dvěma směry. Jedni jsou rozčarováni a mají obavy ze ztráty soukromí. Tvrdí, že ChatGPT se tvářil jako „digitální deník“, a nyní se ukázalo, že je spíš hlídací službou. Objevila se varování před autocenzurou i spekulace o možném zneužití dat. Jiní připomínají, že jde o standardní mechanismus pro prevenci násilí, podobný nahlášení podezřelého obsahu na Facebooku nebo WhatsAppu. A že je lepší, když provozovatel chatbota zasáhne dřív, než se hrozba naplní.

U sociálních sítí je předávání dat úřadům běžné, ale většinou se spouští až na základě nahlášení uživatelem. U komunikačních aplikací jako WhatsApp nebo Signal pak hraje klíčovou roli šifrování – obsah zpráv není provozovateli přístupný, takže může pouze reagovat na vnější podnět, nebo by – teoreticky – mohla akci spustit podezřelá metadata. Rozdíl u ChatGPT spočívá v tom, že interakce probíhá jen mezi uživatelem a systémem, což může budit dojem většího soukromí.

Jak se nyní ukázalo, takový dojem je mylný.

Zneužití dat hrozí i v Česku

Pro českého čtenáře je zásadní otázka: pokud by závadná konverzace s ChatGPT proběhla u českého uživatele nebo se vztahovala k Česku, co by následovalo? OpenAI je americká firma, takže by primárně platilo americké právo – podezřelý obsah by byl předán americkým úřadům. Ty by následně mohly postupovat cestou mezinárodní právní pomoci a spolupráce na úrovni policie, nebo tajných služeb – podobně, jako se dnes předávají data o kyberkriminalitě nebo teroristických hrozbách. Pro českého uživatele to tedy neznamená menší riziko: pokud je obsah vyhodnocen jako nebezpečný, může se k policii či tajným službám dostat i v tuzemsku, jen oklikou.

autor: Petr Blažek

Tagy

Naše zprávy najdete i na sítích
FCB, Twitter, LinkedIn