Definisjon
Overvåket finjustering (SFT) er prosessen med å trene en forhåndstrent modell på merkede data for en spesifikk oppgave, og justere alle eller deler av parameterne.
Formål
Hensikten er å tilpasse generelle modeller til spesialiserte oppgaver med forbedret nøyaktighet.
Viktigheten
- Kjerneteknikk i NLP og visjonsoppgaver.
- Krever merkede data av høy kvalitet.
- Risikerer overtilpasning med små datasett.
- Ofte en forløper til RLHF.
Slik fungerer det
- Velg en forhåndsopplært modell.
- Samle inn merkede data for måloppgaven.
- Tren modellen med veiledet læring.
- Valider på et ventet testsett.
- Implementer og overvåk ytelsen.
Eksempler (den virkelige verden)
- GPT finjusterte kundeservicesamtaler.
- BERT finjustert for gjenkjenning av navngitte enheter.
- Synstransformatorer finjustert på medisinsk bildeklassifisering.
Referanser / Videre lesning
- Devlin et al. «BERT: Forhåndstrening av dype toveistransformatorer.» NAACL 2019.
- Dokumentasjon om klemmende ansikt-transformatorer.
- Stanford CS224N: NLP med dyp læring.
- Hva er SFT? Hvorfor er det viktig?


