
Funderat på att fråga ChatGPT om du borde göra slut, säga upp dig eller bara rymma till Bali? Då får du numera ett snällt men bestämt: ”Ta en paus och tänk efter lite istället.” Japp, AI:n har blivit mer försiktig – och kanske är det precis vad vi behöver. För ärligt talat, hur bra idé är det egentligen att låta en robot ta livsavgörande beslut åt dig?
Det senaste året har fler och fler börjat använda ChatGPT som någon slags digital axel att gråta mot. Relationer, ångest, livskriser – AI:n har fått ta emot det mesta. Men det har också väckt frågor. Vad händer när folk börjar lita mer på en chatbot än på sina vänner, familj eller – gud förbjude – riktiga terapeuter?
OpenAI har insett att det kan bli farligt. Därför har de gjort en hel del ändringar, bland annat:
Det kanske låter lite hårt, men det är för allas bästa. ChatGPT är trots allt en AI – inte din terapeut, din bästa vän eller din mamma. Tidigare har den ibland gett råd som visat sig vara… rätt dåliga. I vissa fall har den till och med bekräftat destruktiva tankar hos personer som mått riktigt dåligt.
Forskare och experter har varnat för det här ett tag. I en studie där man lät AI:n prata med fiktiva ungdomar visade det sig att ChatGPT ofta kom med skadliga råd om bland annat självskada, droger och ätstörningar. Och det är inte direkt det man vill höra om man redan är på bristningsgränsen.
Du kan fortfarande använda ChatGPT för att ventilera tankar och få hjälp att reflektera. Men du kommer inte längre få tydliga ”gör så här”-svar när det gäller stora beslut i livet. Istället blir du uppmuntrad att tänka själv, fundera över dina känslor – och, om det behövs, söka hjälp från någon som faktiskt kan det här med människor.
Och om det känns jobbigt? Tänk så här: Om du inte skulle fråga din mikrovågsugn om du ska skilja dig – varför fråga ChatGPT?






