Definisjon
Innholdsmoderering er bruk av menneskelige eller kunstige intelligens-systemer for å gjennomgå og administrere innhold på nett. Det filtrerer skadelig, ulovlig eller upassende materiale for å opprettholde trygge digitale miljøer.
Formål
Hensikten er å beskytte brukere mot skadelig materiale og overholde regelverket. AI-basert moderering skaleres til store plattformer der manuell gjennomgang ikke er tilstrekkelig.
Viktigheten
- Beskytter brukere mot skadelig eller støtende innhold.
- Hjelper plattformer med å overholde juridiske krav.
- Risiko for falske positive eller negative resultater i automatiserte systemer.
- Krever ofte menneskelig tilsyn.
Slik fungerer det
- Definer retningslinjer og retningslinjer for innhold.
- Samle inn og forhåndsbehandle brukergenerert innhold.
- Bruk klassifikatorer for skadelige kategorier (f.eks. hatefulle ytringer).
- Flagg eller fjern skadelig innhold.
- Eskaler usikre saker til menneskelige kontrollører.
Eksempler (den virkelige verden)
- Facebook: bruker kunstig intelligens til å oppdage hatefulle ytringer og feilinformasjon.
- YouTube: automatisk moderering av opphavsrett og skadelig innhold.
- TikTok: AI-filtre for upassende videoer.
Referanser / Videre lesning
- Retningslinjer for innholdsmoderering — OECD.
- Oppdagelse av hatefulle ytringer — ACM SIGIR-saksbehandling.
- AI og innholdsmoderering — Brookings Institution.
- Innholdsmoderering – Shaip


