Definisjon
LLM-annotering refererer til merking av data som er spesielt utviklet for trening og evaluering av store språkmodeller. Det inkluderer oppgaver som intensjonsgjenkjenning, enhetstagging og preferanserangering.
Formål
Hensikten er å lage datasett av høy kvalitet som samsvarer med menneskelige forventninger til LLM-er. Annotering forbedrer ytelsen, reduserer skjevheter og muliggjør forsterkningslæring med menneskelig tilbakemelding.
Viktigheten
- Gir finjustert overvåking av massive modeller.
- Forbedrer sikkerheten ved å kuratere datasett med menneskelig gjennomgang.
- Støtter evalueringsstandarder for LLM-er.
- Ofte kombinert med preferanseannotering for finjustering.
Slik fungerer det
- Definer annoteringsoppgaver for LLM (f.eks. oppsummering, dialogintensjon).
- Samle inn ulike rådata i teksten.
- Annotatorer merker oppgaver med instruksjoner og kategorier.
- Samle resultater og sørg for samsvar mellom annotatorene.
- Bruk merkede data til finjustering eller evaluering.
Eksempler (den virkelige verden)
- OpenAIs RLHF-datasett: preferansemerket tekst for modelljustering.
- Anthropics konstitusjonelle AI: kommenterte regler for tryggere responser.
- Hugging Face-datasett: fellesskapskuraterte tekstdatasett for LLM-oppgaver.
Referanser / Videre lesning
- Forsterkende læring med menneskelig tilbakemelding — OpenAI.
- Dokumentasjon for datasett med klemmende ansikter.
- Bender & Friedman. «Datasetninger for NLP.» ACL 2018.
- LLM-annotasjon


