Prompteknik Least to most prompting

daniel norinPrompting2 månader sedan65 Visningar

Du ställer en klurig fråga till AI:n och får ett svar som är… nästan rätt. Eller helt fel. Eller totalt obegripligt. Det är då du behöver least to most prompting – en teknik där AI:n får ta sig an problemet i flera små steg istället för att försöka göra allt på en gång. Tänk klassisk problemlösning: först förstå, sen lösa, sen dubbelkolla. Och det är precis vad den här tekniken gör.

Vad är least to most prompting?

Least to most prompting (förkortas LtM) är en strategi där en uppgift delas upp i mindre, enklare delar som AI:n löser stegvis. Svaret från ett steg används sedan som input i nästa steg. På så sätt leder du modellen genom en tydlig process – från enkelt till komplext. Du bygger upp förståelsen gradvis, tills modellen är redo att ge det slutgiltiga svaret.

Till skillnad från t.ex. chain of thought, som ofta bara säger “tänk högt”, fokuserar LtM på att först bryta ner uppgiften – sen guida modellen genom en tydlig väg framåt.

Så fungerar prompttekniken i praktiken

Exempel 1 – Lista sista bokstaven i varje ord

Problem: “Ge mig sista bokstaven i varje ord och sätt ihop dem.”
Ord: cake, etymology, testing

Steg 1 – Dekomponera uppgiften
Prompt: “Vad är sista bokstaven i varje ord: cake, etymology, testing?”
Svar: e, y, g

Steg 2 – Sammanfoga bokstäverna
Prompt: “Sätt ihop bokstäverna e, y, g till ett ord.”
Svar: eyg

Med LtM ökade träffsäkerheten från 34 % (med CoT) till 74 %. Varför? För att modellen får hantera ett enkelt delmoment i taget – och mindre risk att den tappar bort sig.

Exempel 2 – Bygga och riva torn

Problem: “John bygger ett torn på 3 minuter och river det på 2 minuter. Hur många hela torn hinner han bygga och riva på 20 minuter?”

Steg 1 – Räkna ut tiden för en hel cykel
Prompt: “Hur lång tid tar det för John att bygga och riva ett torn?”
Svar: 3 + 2 = 5 minuter

Steg 2 – Dela total tid med cykeltid
Prompt: “Hur många femminuterscykler ryms i 20 minuter?”
Svar: 4

Modellen får vägledning genom hela resan – inget chansande.

Exempel 3 – SCAN-uppgifter (kommandon till åtgärder)

I uppgifter som “turn left twice and walk” får modellen översätta instruktioner till kod eller rörelsemönster. Genom att dela upp meningens delar (“turn left twice” → “turn left, turn left”, sedan “walk”) får modellen tid att tolka och kartlägga varje komponent.

Utan LtM: 6 % rätt
Med LtM: 99 % rätt

Skillnaden? Modellen får tid att tänka i rimliga steg.

Fördelar med least to most prompting

  • Den klarar flerlogiska problem bättre
  • Resultatet blir mer exakt och pålitligt
  • Du får större kontroll över hur modellen arbetar
  • Lättare att felsöka – du ser exakt var det går fel

När ska du använda prompttekniken?

  • När uppgiften har flera steg eller kräver mellanberäkningar
  • När AI:n ger fel svar på komplexa frågor
  • När du vill ha transparens i processen
  • När du bygger flerstegslogik eller jobbar med instruktion-till-aktion

Begränsningar

  • Det tar längre tid
  • Kräver flera prompts = mer tokens
  • Inte nödvändigt för enkla uppgifter
  • Kräver lite planering – du måste veta vad som ska göras i vilken ordning

Kombinera med andra tekniker

LtM fungerar extra bra i kombination med:

  • Chain-of-thought: Lägg till “tänk högt” i varje steg
  • Self-consistency: Kör varje steg flera gånger och välj det mest förekommande svaret
  • Auto-CoT: Låt modellen skapa egna steg först och sen lösa dem

Föregående inlägg

Nästa inlägg

Laddar nästa inlägg...
Följ på
Sök Trendigt
Poppis
Belastning

Inloggning 3 sekunder...

Registrering 3 sekunder...

Kundvagn
Uppdatering av varukorg

HandlaDin varukorg är för närvarande tom. Du kan besöka vår butik och börja handla.