
Har du någon gång stått framför en riktigt svår uppgift och tänkt att det vore bra att prata högt med dig själv för att reda ut dina tankar? Tro det eller ej, men det här fungerar även för AI-modeller! Chain-of-thought prompting (CoT) är tekniken där du ber modellen att tänka högt, steg för steg, innan den kommer fram till ett svar. Resultatet? En mer träffsäker och begriplig AI.
Chain-of-thought prompting handlar om att låta modellen redogöra för varje steg den tar i sitt resonemang innan den presenterar ett slutligt svar. Istället för att AI:n bara slänger fram ett snabbt svar, får du en tydlig insyn i hur den resonerar och varför den landar i en viss slutsats. Tekniken blev känd efter att den introducerades av Wei och kollegor 2022 och visade sig göra AI-modeller betydligt bättre på komplex problemlösning.
Tänk dig en mattelärare som löser en ekvation framför klassen. Genom att visa varje steg kan eleverna hänga med och förstå processen. På samma sätt hjälper CoT-prompting modellen att resonera tydligt och korrekt.
För att förstå hur CoT fungerar, ta en titt på det här enkla exemplet:
Prompt:
”Andreas har 20 äpplen. Han ger bort hälften till Emma och ytterligare 3 äpplen till Lucas. Hur många äpplen har Andreas kvar? Tänk steg för steg.”
Output:
”Andreas börjar med 20 äpplen. Han ger hälften till Emma, vilket betyder att han ger bort 10 äpplen och har 10 kvar. Sedan ger han 3 äpplen till Lucas. 10 minus 3 blir 7. Andreas har alltså 7 äpplen kvar.”
Här blir det extra tydligt att modellen förstått exakt hur den ska tänka, och du som användare kan direkt se om något resonemang gått snett.
Vanligtvis ger du några exempel först (few-shot) för att visa AI:n hur du vill att den ska resonera. Men ibland räcker det med en enkel instruktion: ”Let’s think step by step”. Då kör modellen direkt igång med ett tydligt resonemang, helt utan tidigare exempel. Det kallas zero-shot CoT, och kan ibland vara överraskande effektivt.
Ett exempel på zero-shot CoT:
Prompt:
”Vattenkokaren kokar vatten på 3 minuter. Hur lång tid tar det att koka vatten tre gånger efter varandra? Let’s think step by step.”
Output:
”Om vattenkokaren tar 3 minuter varje gång den kokar vatten, tar det alltså totalt 3 gånger 3 minuter. 3 gånger 3 är 9. Det tar alltså 9 minuter att koka vatten tre gånger efter varandra.”
Chain-of-thought är perfekt när du behöver:
Även om CoT är effektivt har det sina utmaningar. Väldigt långa kedjor av resonemang kan bli svåra för modellen att hålla koll på. Men det finns sätt att kringgå problemen:
Använd chain-of-thought prompting när:
Chain-of-thought prompting är som att ge AI-modellen möjligheten att resonera öppet, vilket leder till tydligare svar och mindre förvirring. Det är inte bara bra för AI:n – det hjälper även dig som användare att förstå vad som egentligen händer bakom kulisserna.






