Neurala nätverk

Neurala nätverk imiterar i grova drag biologiska neuroner: varje nod viktar sina ingångar, resultatet passerar aktiveringsfunktioner och sprids till nästa lager. Vid träning räknas gradienter bakåt för att minska fel (backpropagation).

Djupa varianter = deep learning. Skalade träningsrutiner på GPU möjliggjorde dagens LLM. Arkitektur att känna till: transformer.


Nyckelegenskaper

  • Består av lager av noder där vikter justeras under träning för att minska fel.
  • Är byggstenen bakom deep learning och därmed också många moderna språk-, bild- och ljudmodeller.
  • Blir kraftfullare med mer data och beräkningskapacitet, men också svårare att tolka och styra fullt ut.