Neurala nätverk
Neurala nätverk imiterar i grova drag biologiska neuroner: varje nod viktar sina ingångar, resultatet passerar aktiveringsfunktioner och sprids till nästa lager. Vid träning räknas gradienter bakåt för att minska fel (backpropagation).
Djupa varianter = deep learning. Skalade träningsrutiner på GPU möjliggjorde dagens LLM. Arkitektur att känna till: transformer.
Nyckelegenskaper
- Består av lager av noder där vikter justeras under träning för att minska fel.
- Är byggstenen bakom deep learning och därmed också många moderna språk-, bild- och ljudmodeller.
- Blir kraftfullare med mer data och beräkningskapacitet, men också svårare att tolka och styra fullt ut.