Du ställer en klurig fråga till AI:n och får ett svar som är… nästan rätt. Eller helt fel. Eller totalt obegripligt. Det är då du behöver least to most prompting – en teknik där AI:n får ta sig an problemet i flera små steg istället för att försöka göra allt på en gång. Tänk klassisk problemlösning: först förstå, sen lösa, sen dubbelkolla. Och det är precis vad den här tekniken gör.
Least to most prompting (förkortas LtM) är en strategi där en uppgift delas upp i mindre, enklare delar som AI:n löser stegvis. Svaret från ett steg används sedan som input i nästa steg. På så sätt leder du modellen genom en tydlig process – från enkelt till komplext. Du bygger upp förståelsen gradvis, tills modellen är redo att ge det slutgiltiga svaret.
Till skillnad från t.ex. chain of thought, som ofta bara säger “tänk högt”, fokuserar LtM på att först bryta ner uppgiften – sen guida modellen genom en tydlig väg framåt.
Problem: “Ge mig sista bokstaven i varje ord och sätt ihop dem.”
Ord: cake, etymology, testing
Steg 1 – Dekomponera uppgiften
Prompt: “Vad är sista bokstaven i varje ord: cake, etymology, testing?”
Svar: e, y, g
Steg 2 – Sammanfoga bokstäverna
Prompt: “Sätt ihop bokstäverna e, y, g till ett ord.”
Svar: eyg
Med LtM ökade träffsäkerheten från 34 % (med CoT) till 74 %. Varför? För att modellen får hantera ett enkelt delmoment i taget – och mindre risk att den tappar bort sig.
Problem: “John bygger ett torn på 3 minuter och river det på 2 minuter. Hur många hela torn hinner han bygga och riva på 20 minuter?”
Steg 1 – Räkna ut tiden för en hel cykel
Prompt: “Hur lång tid tar det för John att bygga och riva ett torn?”
Svar: 3 + 2 = 5 minuter
Steg 2 – Dela total tid med cykeltid
Prompt: “Hur många femminuterscykler ryms i 20 minuter?”
Svar: 4
Modellen får vägledning genom hela resan – inget chansande.
I uppgifter som “turn left twice and walk” får modellen översätta instruktioner till kod eller rörelsemönster. Genom att dela upp meningens delar (“turn left twice” → “turn left, turn left”, sedan “walk”) får modellen tid att tolka och kartlägga varje komponent.
Utan LtM: 6 % rätt
Med LtM: 99 % rätt
Skillnaden? Modellen får tid att tänka i rimliga steg.
LtM fungerar extra bra i kombination med: