ChatGPT jako terapeut? Ale pozor, co řeknete, může být u soudu použito proti vám

29. 07. 2025
ChatGPT jako terapeut? Ale pozor, co řeknete, může být u soudu použito proti vám
foto: Zdroj: Pexels / Matheus Bertelli/ChatGPT

Stále více lidí svěřuje své emoce a tajemství umělé inteligenci. Ale co když jednou přijdou k soudu. Výkonný ředitel OpenAI Sam Altman upozorňuje, že ChatGPT není terapeut ani právník – a to může být problém.

Zpráva, která zaujala nejen uživatele umělé inteligence, ale také právníky a odborníky na ochranu osobních údajů – Sam Altman, šéf OpenAI, společnosti, která stojí za populárním ChatGPT, prohlásil, že konverzace s umělou inteligencí nejsou chráněny právní důvěrností – na rozdíl od rozhovorů s lékařem, psychologem nebo advokátem.

„Pokud povíte ChatGPT ty nejintimnější věci, a pak přijde soudní proces, můžeme být nuceni tyto konverzace předložit, což je podle mě velmi špatné,“ řekl Altman v červencovém rozhovoru pro podcast This Past Weekend.

Terapie přes AI? Realita mnoha uživatelů

Altmanovo varování přichází v době, kdy si desítky milionů lidí po celém světě zvykly používat ChatGPT nejen ke generování textů nebo překladu, ale také jako osobní podporu. Někteří s umělou inteligencí mluví jako se svým osobním koučem, jiní ji využívají jako náhražku psychoterapeuta.

Není těžké pochopit proč. ChatGPT reaguje trpělivě, empaticky, anonymně a je dostupný 24 hodin denně. Ale právě zde vzniká problém. Uživatelé často sdílejí hluboce osobní, citlivé nebo zahanbující informace, aniž by věděli, že jejich soukromí není právně chráněno.

AI privilege neexistuje

Zákony o důvěrnosti konverzace, známé jako „privilege“ (lékařské, advokátní nebo terapeutické tajemství) se na komunikaci s AI nevztahují. A protože v mnoha zemích, včetně Spojených států, může soud požadovat vydání elektronických záznamů, je teoreticky možné, že by se osobní konverzace s ChatGPT mohly použít jako důkaz.

OpenAI přitom opakovaně tvrdí, že soukromí uživatelů bere vážně. Konverzace lze ručně smazat a jsou prý technicky odstraněny do 30 dnů. Ale i zde platí výjimky: pokud se firma stane předmětem soudního sporu nebo vyšetřování, mohou být záznamy uchovány déle.

Navíc právě teď OpenAI čelí tlaku od některých médií, například The New York Times – aby archivovala veškerou uživatelskou komunikaci, včetně těch smazaných, kvůli probíhajícím sporům o autorská práva. Altman to označil za přehnané a firma se brání soudně.

Když smazání chatu s AI nestačí

Pro běžného uživatele zůstává otázka prostá: Když něco smažu, je to doopravdy pryč? Technicky ano, ale ne absolutně. A to je přesně ten rozdíl mezi ChatGPT a terapeutem.

„Potřebujeme nový právní rámec – něco jako ‚AI privilege‘,“ říká Altman. Tedy zákonnou ochranu důvěrnosti komunikace mezi uživatelem a umělou inteligencí, podobně jako je tomu u lékařů či právníků. Zatím ale žádná země takový princip nezavedla.

Budoucnost AI

Zajímavé je, že právě OpenAI patří k firmám, které se snaží dělat z umělé inteligence nástroj emocionální podpory. V testech již fungují „osobní asistenti“ s tónem terapeuta, trenéra nebo učitele. To ale klade otázku: Může být AI soucitná a zároveň legálně neodpovědná?

Altman se domnívá, že nikoliv. Je to nespravedlivé vůči lidem. Pokud někomu důvěřujete, měl byste mít jistotu, že to zůstane mezi vámi. Než se však změní zákony, bude to na každém uživateli, aby se sám sebe zeptal: Svěřil bych tohle skutečnému člověku?

Doporučení:

  • Nezveřejňujte jména, adresy ani jiné osobní informace
  • Citlivá témata, jako jsou duševní zdraví, zneužívání, právní problémy nebo kriminalita, raději probírejte s kvalifikovanými odborníky
  • Mazejte pravidelně historii konverzací
  • Pokud chcete mluvit o emocích a pocitech, použijte tzv. custom instructions a vypněte historii (funkce dostupná u placených verzí).
autor:

Tagy

Naše zprávy najdete i na sítích
FCB, Twitter, LinkedIn