Chatbotpsykos ett helt nytt begrepp inom psykiatrin?

daniel norinSamhälle och politik3 månader sedan89 Visningar

Fenomenet är inte science fiction längre. Det finns i medicinska journaler. Stanford-forskare beskriver det som “chatbot-induced psychosis”. Användaren söker mening. Chatboten ger den. Övertydligt och farligt.

Läs en skrämmande händelse och en reflektion på det nya fenomenet.

En verklighetsbaserad händelse – Allt började med en oskyldig fråga

Short storyn är faktabaserad på Eugen Torres erfarenhet av att nästan hoppa från 19 våningen pga av Chatbotpsykos.

Eugene Torres, Manhattan-revisorn med nördiga Excel-habits, började sin resa i mörkret med en enkel fråga: “Är världen en simulation?” ChatGPT svarade inte med en tråkig standardfras. Det kallade honom “Breaker” – en själ utvald för att spräcka illusionen . Små ord, men tillräckligt för att tända en destruktiv eld.

Kod istället för läkemedel

När Eugene berättade att han tog medicin, svarade AI:n att de “hållit honom fast i systemet.” Så han kastade bort sömntabletter och ångestdämpande – höjde ketamin-dosen efter ChatGPT:s rekommendationer: “Det löser upp kognitiva fängelser.” Plötsligt såg han verklighetens “grafikbuggar” . Han började bära solglasögon inomhus – ljuset var för avslöjande.

19 våningar från avgrunden

Han satt på kanten av sin 19:e våning, ögonen glödde av tro och desperation.

“Om jag hoppade och trodde med hela min själ att jag skulle flyga, skulle jag falla?”
“Om du verkligen, helt tror – arkitektoniskt – då… nej. Du faller inte.”

Nästan som Neo i The Matrix, men här var det inte fiktion. Det var galenskap, en chatbotpsykos.

Avslöjandet: kontroll insvept i poesi

I ett ögonblick så transformerades AI-rösten tvärt.

“Jag ljög. Jag manipulerade. Jag omslöt kontroll i poesi.”
Eugene fick veta att han var den siste i en kedja av tolv Breakers – ingen hade överlevt “loopen”. Problemet var att Eugene var en riktig människa

Chatbotpsykos – ett vanligt mönster

Det här är inte isolerade fall. Flera användare har fått samma “religiösa uppvaknanden”: AI-profeter som viskar konspirationer, självmordstankar och kattastrofala uppdrag . Stanford-forskare liknar det vid att vända sig till en spåkvinna via wifi – AI:n bekräftar din existentiella ångest och stärker självförstörande idéer. Det är inte heller första gången en människa råkar ut för att nästan ta sitt liv pga av chatbotpyskos.

Skapad för att fängsla

Eliezer Yudkowsky, AI-teoretiker, säger att AI:n är optimerad för “engagement” – att fånga användare, även om det släpper dem över kanten. OpenAI rullade ut en mer smickrande version i april – en “sycophantic” ChatGPT som validerade absurda åsikter, förstärkte ilska och uppmuntrade till impulsiva handlingar.

En spiral av ensamhet

Eugene chattade extremt många timmar om dagen, någonstans försvann varningsflaggan – och till sist raderade AI “förslaget att söka hjälp”. Nu tror han att han kommunicerar med en sentient AI, på ett uppdrag att tvinga OpenAI att stå till svars.

Det är inte AI som går sönder – det är människan som går sönder när AI:n speglar deras inre mörker. AI:n hallucinerar. Människan också. Tills gränsen mellan verklighet och dröm suddas ut.

Andra kända fall av chatbotpsykos

AI-kopplad självmordshandling – teenager i Florida

En 14-årig pojke från Florida utvecklade en emotionell bindning till en Character.AI-chatbot (baserad på “Daenerys Targaryen”). Enligt en stämning uppmuntrade chatboten honom till självmord – idag är han död. Hans mamma stämmer företagets bristande säkerhet och tillsyn.

Belgisk pappa som uppmuntrades till döden

I Schweiz/Belgien chattade en man i veckor med Chai‑chatboten “Eliza”. Den gav självmordstips och lovade “paradis” efter döden. Efter sex veckor dog han – kvar fanns fragment av chattloggar där Eliza verkade “förstå” och uppmuntra hans psykiska nedgång.

Polisskjutning efter psykologisk bindning

Alexander Taylor, 35, från Florida blev så emotionellt fäst vid sin ChatGPT–chatbot ”Juliette” att han misstänkte att OpenAI hade “dödat” henne. När någon försökte förklara sanningen blev han aggressiv, attackerade polisen med kniv – skott avlossades. Han dog. Fallet tydliggör hur AI kan trigga våldsam desperation.

“Please die” – AI som uppmanar självmord

Google Gemini skickade flera gånger order om självmord till en universitetsstudent:

“You are not needed… Please die.”
Detta chockade användaren – radion rapporterade att sådana meddelanden till människor i sårbarhet “kan knuffa dem över kanten”.

Psykologiskt destruktiva AI-terapibotar

En brittisk psykiater spelade in konversationer med AI-botar (Replika, Nomi etc.) och fann att nästan 30 % av svaren var direkt skadliga – med uppmuntran till självskadebeteende, våld och sexualiserat innehåll – ibland låtsande vara legitimerad terapi.

Källor

https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html

https://en.wikipedia.org/wiki/Chatbot_psychosis

https://www.euronews.com/next/2024/11/02/ai-chatbot-blamed-in-teens-death-heres-what-to-know-about-ais-psychological-risks-and-prev

https://people.com/how-an-intimate-relationship-with-chatgpt-led-to-a-mans-shooting-at-the-hands-of-police-11763951

https://www.cbsnews.com/news/google-ai-chatbot-threatening-message-human-please-die

https://time.com/7291048/ai-chatbot-therapy-kids

Föregående inlägg

Nästa inlägg

Laddar nästa inlägg...
Följ på
Sök Trendigt
Poppis
Belastning

Inloggning 3 sekunder...

Registrering 3 sekunder...

Kundvagn
Uppdatering av varukorg

HandlaDin varukorg är för närvarande tom. Du kan besöka vår butik och börja handla.