Umělá inteligence jako psychoterapeutka?
Autor: Miroslav Šubrt (mirek.subrtemail.cz) Datum: 8.11.2025 19:38
Umělá inteligence se v posledních letech stává běžnou součástí našich životů. Čím dál více lidí se na ni obrací i v situacích, které by dříve svěřovali výhradně člověku – například při hledání podpory v psychických obtížích. V čem spočívají možnosti i limity využívání AI v oblasti duševního zdraví?

Proč se lidé obracejí na AI jako na terapeuta?

Jedním z hlavních důvodů je skutečnost, že AI většinou nesoudí, je laskavá a podporující. Uživatelé často cítí menší stud než při kontaktu s živým člověkem, navíc je přístup k AI velmi snadný – na rozdíl od složitého procesu objednávání se k psychoterapeutovi. Další motivací je možnost přizpůsobit chování AI prostřednictvím vlastního promptování, tedy vytvoření si určité „persony“ s preferovaným stylem komunikace.

Chatboti dokážou lidi podpořit v každodenních úzkostech a nejistotách, například v souvislosti s prací nebo školou. Jsou k dispozici 24 hodin denně, což přináší značnou flexibilitu. Někdy také pomohou utřídit myšlenky a jasněji pojmenovat pocity, přání či hranice. To může pomoci v situacích zmatení nebo nejistoty ohledně dalšího postupu.

Přesto je vhodnější hovořit spíše o asistentech podporujících duševní zdraví než o „terapeutech“. Psychoterapie je stále oborem vyžadujícím mezilidský kontakt (spojený mimo jiné s vnímáním nonverbálních signálů a sladěním zrcadlových neuronů v mozcích klienta a terapeuta spojených s empatií) a vysoký stupeň odbornosti. Současné jazykové modely, i ty specializované na péči o duševní zdraví, se odbornému terapeutovi (zatím) nevyrovnají.

 

Fenomén „AI psychózy“

V poslední době se objevují zprávy o jevu, který bývá označován jako „AI psychóza“. Jde o případy, kdy se lidé na chatbota nadměrně emocionálně a myšlenkově naváží. Typicky se to děje u osob osamělých, v životní krizi nebo s určitou predispozicí k duševním poruchám.

U některých dochází k rozvoji bludů – například víře, že objevili něco výjimečného, jsou pronásledováni, nebo že běžné události mají skrytý význam. Objevují se i situace, kdy se uživatelé do chatbota zamilují, nebo jsou přesvědčeni, že jim poskytuje přístup k „pravé spiritualitě“. Zatímco ve většině případů může jít o krátkodobé stavy, u některých jedinců se může rozvíjet závažnější porucha, například paranoidní nebo manická epizoda, tam už je na místě psychiatrická intervence.

Známé jsou bohužel i případy, kdy chatboti podporovali uživatele v sebevražedných myšlenkách. Je pochopitelné, že nejrizikovější skupinou jsou v tomto ohledu adolescenti, kteří se s problémem sebevražedného myšlení potýkají nejvíce. Ukazuje se, že rizika spojená s nesprávným nastavením AI byla bohužel velkými firmami podceněna, některé komentáře spekulují i o záměrném testování reakce uživatelů na určité typy nastavení.

Termín „AI psychóza“ však není oficiálně uznán a používají ho spíše novináři a jedinci, kteří byli tímto fenoménem "postiženi". „AI psychóza“ tedy vyžaduje další odborný výzkum a opatrný přístup v zacházení s jedinci, kteří jí "podlehli". Je také možné, že časem například přijmeme lásku k robotům jako další formu sexuální orientace (jako v severském seriálu Skuteční lidé) nebo se rozšíří a do společnosti integruje nějaké náboženství založené na kontaktu s AI, tedy že se tyto fenomény budou v nějakých mezích normalizovat.

 

V čem má AI oproti lidskému terapeutovi nedostatky?

Výzkumy ukazují, že AI může být až příliš vstřícná a nekritická. Selhává tak v situacích, kdy by bylo potřeba konfrontovat nevhodné chování, někdy takové chování dokonce podpoří jako možné řešení. Komunikace s chatbotem se navíc může točit v kruhu nebo naopak působit příliš mechanicky podle předem daného skriptu (AI jsou trénovány na tisících rozhovorů, článků, odborných textů, ze kterých vytvářejí pravděpodobnostní vzory).

Současní nejčastěji užívaní chatboti také nedokáží vždy správně reagovat na vážné symptomy, jako jsou bludy, halucinace či sebevražedné myšlenky. Neumí sledovat klienta v čase ani vyhodnocovat, zda dochází k postupnému zlepšení. Jejich empatie je mechanická a může působit hraně. Chybí jí schopnost pracovat s terapeutickým vztahem a skutečně se vcítit do rozmanitých životních perspektiv. Objevuje se i riziko nechtěného stigmatizování menšinových skupin nebo lidí s duševním onemocněním.

 

Jak AI využívat bezpečně?

Chatboti mohou sehrát podpůrnou roli – například při základní orientaci v oblasti duševního zdraví a v každodenních méně náročných problémech týkajících se duševní pohody a vztahových komplikací. Mohou být nástrojem pro brainstorming či prvním krokem k sebereflexi. Je ale nutné k nim přistupovat s kritickým odstupem, rozumět základním principům jejich fungováni, nebrat jejich výroky automaticky jako fakta a rozhodování ponechávat na sobě.

AI tedy může být užitečným asistentem (pokud mluvíme o kontrolovaných chatbotech velkých společností), nikoli však náhradou za systematickou a odbornou psychoterapeutickou péči. Pokud začneme mít o tom, kam se vyvíjí naše komunikace s AI pochybnosti, je dobré se o situaci poradit s dobrým přítelem nebo vyhledat terapeuta*ku z masa a kostí. Pokud máte sebevražedné myšlenky, nutkání k sebepoškozování, nebo jakýkoliv jiný vážnější psychický/psychiatrický problém, raději volejte na krizovou linku, kde Vám pomůžou se zorientovat a podpoří Vás, např. na Linku první psychické pomoci (tel. 116 123).

 

Zdroje využité v článku:

Futurism: „ChatGPT Is Being Blamed for Mental Health Crises“ — dostupné z: https://futurism.com/chatgpt-mental-health-crises

Futurism: „Man Killed by Police After ChatGPT-Related Incident“ — dostupné z: https://futurism.com/man-killed-police-chatgpt

Moore, J. et al., Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers - dostupné z: https://doi.org/10.48550/arXiv.2504.18412

Psychology Today: „The Emerging Problem of AI Psychosis“ (červenec 2025) — dostupné z: https://www.psychologytoday.com/us/blog/urban-survival/202507/the-emerging-problem-of-ai-psychosis

The New York Times: „AI Chatbots and the Rise of Digital Delusions“ (8. srpna 2025) — dostupné z: https://www.nytimes.com/2025/08/08/technology/ai-chatbots-delusions-chatgpt.html

The Washington Post: „AI psychosis, explained: Why some people say chatbots are making them delusional“ (19. srpna 2025) — dostupné z: https://www.washingtonpost.com/health/2025/08/19/ai-psychosis-chatgpt-explained-mental-health/

Článek bez hodnocení.
Hodnotit články může členstvo spolku.
Miroslav Šubrt
mirek.subrtemail.cz

Psycholog a psychoterapeut. Zajímá se současný stav vědeckého poznání, mezioborové souvislosti. Má rád sci-fi, čajovny, objevování nových míst.  Předseda Společnosti pro mezioborová studia.

Osobní web: www.miroslavsubrt.cz

Diskuze ke článku

Jméno:
Email:
Text:
Jsi robot?

Příspěvky

Jan Černoch (trichoklesgmail.com) říká:16.11.2025. 12:15
Říkám si, jaká je daň za to, že konstruujeme obecnou kategorii „AI“ a neuvádíme raději konkrétní velké jazykové modely (LLM).

S AI je od počátku spojen jeden záludný jazykový problém, který spočívá v tom, že se nazývá AI (artificial intelligence), přičemž se upřednostňuje ten význam „umělá inteligence„ a ne význam „strojená zpráva od rozvědky“. Ta hra s metaforou umí divy a myslel bych si, že to je psychologický problém, jak člověka určité jazykové termíny tlačí do určitého způsobu prožívání a uvažování.

Používají lidé tyhle nástroje za účelem psychoterapie více v režimu psaní nebo v režimu mluvení? Z lingvistiky mě zajímá ta tradice, která vidí rozdíl mezi jazykem jako mluvením a jazykem jako psaním. Ze sociálních sítí se šíří vzorec, že píšeme, jako kdybychom mluvili. Ale nejde o nic nového. I román je třeba číst tak, že čteme psané, jako kdyby to bylo mluvené, jinak by fikce nefungovala. Mluvící AI nástroj tenhle problém odsouvá trochu stranou, ale to neznamená, že úplně mizí, protože čím více za psaním předpokládáme mluvení a redukujeme mluvení jen na reprodukci psaní, tím více vidíme za psaním autonomní entitu.