Fine-tuning

Fine-tuning uppdaterar modellvikter med en mindre, målinriktad dataset efter förträning. Det kan ge jämnare utdata i er tone-of-voice eller juridisk terminologi – men kräver datakvalitet och kan vara dyrare än clever prompt engineering.

Alternativ: instruktionspromptar, få-skot-exempel och retrieval (hämta dokument innan svar) minskar ofta behovet av finjustering. Grund: LLM, AI-modell och prompt engineering.


Nyckelegenskaper

  • Ändrar modellvikterna med domänspecifik träningsdata i stället för att bara ändra prompten.
  • Passar när du behöver stabil ton, format eller specialiserade svar över många anrop.
  • Är dyrare och mer riskfyllt än bra prompting om datan är liten, sned eller dåligt curerad.