Elva forskningsbaserade verktyg som gör dig bättre på ChatGPT

Digitalisering & AI De flesta använder ChatGPT för snabba svar. Men enligt dataanalytikern James Wilkins kan genomtänkta prompts ge betydligt bättre resultat. Här är hela listan.

Elva forskningsbaserade verktyg som gör dig bättre på ChatGPT
Foto: Adobe Stock

De flesta använder ChatGPT för snabba svar. Men enligt dataanalytikern James Wilkins, som skriver i magasinet Data Science Collective, går det att få betydligt mer ut av verktyget. I artikeln You’re using ChatGPT wrong – here’s how to prompt like a pro förklarar han hur forskningsbaserade metoder kan göra svaren både mer korrekta och mer användbara.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

Språkmodeller som ChatGPT är i grunden mönsterigenkännare. De förutser vilket ord som sannolikt kommer härnäst, men de ”vet” ingenting. De är tränade på enorma textmängder där vissa ord och begrepp ofta förekommer tillsammans. Som James Wilkins påpekar: att frasen The Great Fire of London ofta följs av 1666 handlar inte om kunskap – utan om sannolikhet.

Det betyder att användarens fråga avgör kvaliteten på svaret. Här är de elva verktyg som James Wilkins lyfter fram:

1. Ge modellen en roll

Att låta ChatGPT anta en tydlig roll – till exempel ”du är en finansiell rådgivare som talar med en nybörjare” – gör svaren mer relevanta. Fenomenet, kallat roleplay prompting, hjälper modellen att välja rätt ton och avgränsa ämnet.

Utan rollspel försöker modellen ofta täcka för mycket på en gång och blir oskarp. Genom att ange roll styr man både innehåll och språk – ungefär som man själv skulle förklara en sak olika beroende på om man talar till en kund, kollega eller student.

2. Dela upp uppgiften i flera steg

Språkmodeller har en tendens att ge lika långa svar oavsett frågans komplexitet. En studie från Allen Institute for AI visar att bättre resultat uppnås om man delar upp arbetet i flera steg – så kallad prompt decomposition.

Några exempel:

”Agera forskare. Undersök vilka teman som ingår i nybörjarkurser i privatekonomi.”

”Agera lärare. Gör ett fyra veckor långt kursupplägg.”

”Agera skribent. Skriv första veckans lektionstext.”

Genom att tilldela varje del en egen roll får man svar med djup i stället för yta.

3. Be modellen tänka högt

När ChatGPT får redovisa sina resonemang blir svaren mer logiska. Metoden, kallad train-of-thought prompting, innebär att modellen stegvis förklarar hur den kommer fram till sitt svar.

James Wilkins liknar det vid att be någon ”tänka högt” vid problemlösning. I stället för att hoppa direkt till slutsatsen får man följa resonemanget – vilket gör det möjligt att identifiera var eventuella felsteg uppstår.

Ett närliggande tillvägagångssätt, tree-of-thought prompting, låter modellen överväga flera tänkbara lösningar och ange hur säker den är på varje. Det gör verktyget bättre på att hantera komplexa beslut och undviker att det låser sig vid första bästa alternativ.

4. Låt modellen planera innan den agerar

I ReAct prompting (Reasoning and Acting) – utvecklat av forskare vid Princeton och Google – kombineras resonemang och handling. Modellen uppmanas att beskriva hur den tänker lösa uppgiften innan den gör det.

James Wilkins ger exemplet:

”Här är en text jag har skrivit. Vad skulle göra den bättre? Förklara först din plan och gör sedan ändringarna.”

När modellen först redovisar sin strategi blir resultatet mer genomtänkt och mindre slumpmässigt – särskilt vid uppgifter som kräver analys eller förbättring av befintligt material.

5. Kontrollera förståelsen

Ett enkelt sätt att undvika missförstånd är att be modellen återge sin förståelse av uppdraget:

”Sammanfatta hur du uppfattar vad jag vill att du gör.”

Det fungerar som ett snabbt kvalitetstest. Enligt James Wilkins är det särskilt användbart vid uppgifter med flera mål eller begränsningar, som textproduktion med viss ton, längd eller målgrupp. Det motsvarar att i ett samtal be någon återberätta vad de hört – för att säkerställa att man är överens.

6. Uppmuntra kritik

ChatGPT är tränad att vara hjälpsam och undvika konflikter. Det gör att den sällan säger emot – även när den borde. För att motverka det bör man ställa öppna frågor som uppmuntrar till alternativ:

”Har jag rätt när jag tror att det här stämmer – eller är det tvärtom?”

Den typen av formuleringar gör att modellen vågar resonera i flera riktningar. Forskningen om Refusal-aware Instruction Tuning visar att modeller som tränas att säga ”jag vet inte” när de saknar underlag ger färre felaktigheter.

7. Utnyttja kontextfönstret – men var selektiv

En språkmodells kontextfönster fungerar som dess korttidsminne: allt som sagts i samtalet påverkar svaret. Vid långa dialoger kan de första inläggen glömmas bort. James Wilkins tips är att då och då be modellen sammanfatta vad som sagts, så att kärninnehållet bevaras.

Han varnar också för att mata in för många exempel eller egna hypoteser. Om du redan antyder vad du tror att problemet är, tenderar modellen att följa ditt spår – och missar kanske den egentliga orsaken.

En mer experimentell metod är lazy prompting, som AI-professorn Andrew Ng beskrev i Business Insider. Där ger användaren medvetet minimal instruktion och låter modellen själv fylla i luckorna. Det kan ge kreativa lösningar, men bör användas med omdöme.

8. Be om analogier och nya perspektiv

Språkmodeller är särskilt skickliga på att översätta idéer mellan olika områden – ett fenomen forskare kallar domain translation. James Wilkins föreslår att man utnyttjar det genom conceptual mapping:

”Ge mig tio olika analogier för hur kassaflöde fungerar.”

Det tvingar modellen att tänka på olika sätt och gör abstrakta ämnen mer begripliga. En analogi som ”kassaflöde är företagets blodomlopp” kan exempelvis ge nya infallsvinklar i en ledningsdiskussion.

9. Testa ovanliga tekniker

Den sokratiska metoden bygger på att modellen ställer frågor i stället för att ge svar. Det hjälper användaren att tänka själv – särskilt i öppna frågor där man inte vet exakt vad man söker.

James Wilkins nämner även ett mer kuriosabetonat experiment: vissa utvecklare har observerat att modeller ibland ger bättre resultat om de skämtsamt ”hotas” eller ”belönas”. Det handlar dock om beteendeeffekter i textmönster, inte verkliga reaktioner, och ska ses som en lekfull detalj snarare än en metod.

10. Skapa egna kommandon

OpenAI:s funktion Custom Instructions lanserades 2023 och gör det möjligt att spara egna regler för ton, språk och stil. Funktionen gör att man slipper skriva om instruktionerna vid varje nytt samtal.

För journalister och vd:ar som använder ChatGPT regelbundet innebär det att man kan sätta en gång för alla hur man vill ha sina svar – neutrala, konkreta och i en viss längd.

11. Låt modellen lära känna dig

De senaste versionerna av ChatGPT har möjlighet att minnas tidigare konversationer. När funktionen är aktiverad kan man be modellen reflektera över tidigare interaktioner:

”Baserat på allt du vet om mig – hur skulle jag vilja strukturera nästa artikel?”

Det gör verktyget mer anpassat till användaren över tid och minskar behovet av att upprepa samma instruktioner.

James Wilkins slutsats är att man inte behöver vara AI-forskare för att få mer nytta av ChatGPT. Det räcker att förstå hur modellen ”tänker” – och att ställa frågor som speglar det.

Blogg och krönika

På nytt jobb

Hämtar fler artiklar
Till startsidan
VD-tidningen

VD-tidningen Premium

Med fullt fokus på vd-rollen.
Full tillgång till strategiska artiklar med tips och analyser.