Definisjon
Innen kunstig intelligens refererer hallusinasjon til tilfeller der en modell genererer utdata som er flytende, men faktisk feil eller meningsløse. Det er spesielt vanlig i store språkmodeller og generativ kunstig intelligens.
Formål
Å studere hallusinasjoner bidrar til å forbedre modellens pålitelighet og sikkerhet. Det lar utviklere designe sikkerhetstiltak for å oppdage og redusere unøyaktige utdata.
Viktigheten
- Reduserer tilliten til AI hvis det ikke tas tak i.
- Kan forårsake skade i sensitive applikasjoner som helsevesen eller jus.
- Fremhever begrensningene ved nåværende generative modeller.
- Driver forskning innen faktabasert forankring og gjenfinningsmetoder.
Slik fungerer det
- Modellen mottar en ledetekst eller forespørsel.
- Genererer output basert på lærte mønstre, ikke faktabverifisering.
- Kan gi plausible, men feilaktige resultater.
- Deteksjons- og korreksjonsteknikker anvendes (f.eks. RAG).
Eksempler (den virkelige verden)
- ChatGPT produserer av og til feil informasjon når de blir bedt om det.
- Google Bards første demonstrasjon viste faktiske feil.
- Medisinske råd generert av kunstig intelligens inneholder noen ganger unøyaktigheter.
Referanser / Videre lesning
- «Reduksjon av hallusinasjoner i store språkmodeller» – arXiv-forhåndstrykk.
- NIST AI-risikostyringsrammeverk.
- Mitchell et al. «Modellkort for modellrapportering.» ACM FAccT.
- Årsaker til AI-hallusinasjoner


