Hallucination

Hallucination är när LLM:en genererar plausibel men fel text: påhittade källor, fel datum eller logicbugs i kod. Det är inte en bug i traditionell mening utan en bieffekt av att modellen optimerar för sannolik fras, inte sann värld.

Minska risken: kräv citat, ge RAG-kontext, be modellen flagga osäkerhet, och gör mänsklig granskning av publikt innehåll. Se prompt engineering och AI SEO.


Nyckelegenskaper

  • Innebär att modellen kan låta övertygande även när fakta, källor eller resonemang är fel.
  • Ökar när modellen saknar relevant kontext, pressas att gissa eller får otydliga instruktioner.
  • Kräver källkontroll, verifiering och ibland retrieval eller mänsklig granskning i skarpa användningsfall.