Deep Learning
Deep learning bygger på neurala nätverk med många lager som successivt förfinar mönster i datan (bild, ljud, text). Det driver datorseende, NLP och generativ teknik.
Arkitekturen Transformer är central för nutidens LLM. Träning är beräkningsintensiv och sker ofta på GPU eller TPU. Jämför med fine-tuning när du anpassar en befintlig modell.
Nyckelegenskaper
- Bygger på många lager neurala nätverk som lär sig representationer direkt från stora mängder data.
- Är grunden för moderna framsteg inom bild, ljud, språk och generativa modeller.
- Kräver ofta stor datamängd och kraftig beräkningskapacitet för träning, särskilt i större modeller.