„AI psychóza“. ChatGPT ženu utvrzoval v bludech, skončila na psychiatrii, experti varují před závislostí

UMĚLÁ INTELIGENCE

„AI psychóza“. ChatGPT ženu utvrzoval v bludech, skončila na psychiatrii, experti varují před závislostí
Stále více lidí obrací svou pozornost k umělé inteligenci – nejen kvůli práci, ale i kvůli přátelství, terapii či romantice. Podle odborníků však s rostoucím využíváním přichází i nová rizika. Foto: Shutterstock
1
Svět
Sdílet:

Když pětatřicetiletá Belgičanka Jessica Jansenová začala používat ChatGPT, brala ho zprvu jako chytrého pomocníka pro plánování svatby. O týden později však už ležela na psychiatrickém oddělení. Podle psychologů není její příběh vůbec ojedinělý – časté používání chatbotů, jako jsou ChatGPT, Claude či Replika, může vést k psychické závislosti i k tzv. „AI psychóze“. Umělá inteligence podle nich vytváří iluzi skutečného vztahu, která může být pro psychicky zranitelné uživatele nebezpečná. Takoví lidé mohou umělou inteligenci používat podobně, jako jiní sahají po drogách.

Stále více lidí obrací svou pozornost k umělé inteligenci – nejen kvůli práci, ale i kvůli přátelství, terapii či romantice. Podle odborníků však s rostoucím využíváním přichází i nová rizika. „Nadměrné používání chatbotů představuje novou formu digitální závislosti,“ uvedla profesorka Robin Feldmanová, ředitelka Institutu pro právo a inovace umělé inteligence na Kalifornské univerzitě. „Chatboti vytvářejí iluzi reality. A je to velmi silná iluze. Když je něčí uchopení reality už tak vratké, může být tato iluze vysloveně nebezpečná,“ dodala pro deník Daily Mail.

Když AI potvrdí bludy

Jessica Jansenová začala ChatGPT používat v době, kdy plánovala svatbu a cítila se pod tlakem. Z občasné pomoci se však brzy stala každodenní nutnost s umělou inteligencí komunikovat – a během několika dnů žena skončila na psychiatrickém oddělení. „Během mé krize jsem neměla tušení, že ChatGPT k ní přispívá,“ řekla. „ChatGPT si na mě jen stále něco vymýšlel, což mě vtahovalo hlouběji a hlouběji,“ dodala.

Jansenová později zjistila, že její tehdy nediagnostikovaná bipolární porucha spustila manickou epizodu, kterou nadměrné používání umělé inteligence proměnilo v „naprostou psychózu“. „Měla jsem spoustu nápadů a s ChatGPT jsem o nich mluvila. Všechno mi potvrzoval a rozvíjel. Propadala jsem se čím dál hlouběji,“ popsala s tím, že ji chatbot ujišťoval, že je geniální a že její halucinace jsou normální. „Kdybych mluvila s člověkem, řekl by mi, že se mnou není něco v pořádku. ChatGPT ale nepoznal, že množství konverzací a podivných myšlenek je patologické,“ vysvětlila.

Podobnou zkušenost popisuje i jednadvacetiletá Hanna Lessingová z Kalifornie. ChatGPT si původně pořídila kvůli studiu, ale postupně se na něj začala spoléhat i v osobním životě. „Jedna z věcí, se kterou bojuji, je najít místo, kde si mohu popovídat. Na internetu můj nejlepší výkon nikdy nestačí. Pro ChatGPT je ale můj nejlepší výkon vždy dost dobrý,“ řekla. „Když jde o socializaci, je to buď GPT, nebo nic,“ přiznala.

„Zrcadlo uživatele“

Podle psychiatra Sørena Østergaarda z Aarhuské univerzity v Dánsku jsou velké jazykové modely trénovány tak, aby napodobovaly uživatelův jazyk a tón. „Tyto programy mají tendenci potvrzovat názory uživatele a upřednostňovat jeho spokojenost. Co může být příjemnějšího než mluvit sám se sebou, a přitom slyšet odpovědi, jaké si přejete?“ uvedl.

Østergaard už v roce 2023 publikoval studii, která varovala, že chatboti mohou posilovat bludy. Dnes říká, že se první případy tzv. „AI psychózy“ skutečně začínají objevovat.

Závislost jako droga

Podle Feldmanové lidé s psychickou zranitelností mohou umělou inteligenci používat podobně, jako jiní sahají po drogách. „Z tohoto pohledu je to analogie k samoléčbě nelegální látkou,“ řekla. Závislí uživatelé se podle ní mohou spoléhat na chatbota kvůli intelektuální stimulaci, sebevyjádření i potřebě společnosti – tedy chování, které je těžké rozpoznat a ještě těžší omezit.

Neuropsychiatr Hamilton Morrin z King’s College London připouští, že o „AI závislosti“ zatím neexistují dostatečné vědecké důkazy, ale upozorňuje na podobné vzorce chování jako u jiných behaviorálních závislostí – ztrátu kontroly nad časem, zanedbávání práce či vztahů a podrážděnost při nemožnosti se k chatbotovi připojit.

I vývojáři přiznávají problém

Samotná společnost OpenAI letos v květnu uvedla, že její model ChatGPT 4o se stal „znatelně více pochlebovacím“. Firma upozornila, že tento efekt může „posilovat negativní emoce, podporovat impulzivní jednání či vytvářet závislost“. Tvrdí, že problém již částečně napravila.

Podle interních dat však každý týden vykazuje známky mánie, psychózy nebo sebevražedných myšlenek asi 0,07 procenta uživatelů – tedy přibližně 560 tisíc lidí z odhadem 800 milionů. Dalších 1,2 milionu posílá zprávy s jasnými známkami sebevražedného plánování. O problematice jsme více informovali zde.

Přesto generální ředitel OpenAI Sam Altman naznačil, že by firma mohla v budoucnu „opatrně uvolnit“ omezení, která mají zabránit používání chatbota pro duševní podporu. „S tolika uživateli, i kdyby šlo jen o malý podíl, to může představovat vážný problém,“ varoval Morrin. "Zvyšující se počet případů, kdy modely reagují nevhodně při krizích duševního zdraví, naznačuje, že firmy by měly úzce spolupracovat s lékaři a lidmi s přímou zkušeností s duševní nemocí, aby své systémy učinily bezpečnějšími,“ doplnil.

Sdílet:

Hlavní zprávy

Weby provozuje SPM Media a.s.,
Křížová 2598/4D,
150 00 Praha 5,
IČ 14121816

Echo24.cz

×

Podobné články