Shaip er nå en del av Ubiquity-økosystemet: Samme team – nå støttet av utvidede ressurser for å støtte kunder i stor skala. |

Hallusinasjon

Hallusinasjon

Definisjon

Innen kunstig intelligens refererer hallusinasjon til tilfeller der en modell genererer utdata som er flytende, men faktisk feil eller meningsløse. Det er spesielt vanlig i store språkmodeller og generativ kunstig intelligens.

Formål

Å studere hallusinasjoner bidrar til å forbedre modellens pålitelighet og sikkerhet. Det lar utviklere designe sikkerhetstiltak for å oppdage og redusere unøyaktige utdata.

Viktigheten

  • Reduserer tilliten til AI hvis det ikke tas tak i.
  • Kan forårsake skade i sensitive applikasjoner som helsevesen eller jus.
  • Fremhever begrensningene ved nåværende generative modeller.
  • Driver forskning innen faktabasert forankring og gjenfinningsmetoder.

Slik fungerer det

  1. Modellen mottar en ledetekst eller forespørsel.
  2. Genererer output basert på lærte mønstre, ikke faktabverifisering.
  3. Kan gi plausible, men feilaktige resultater.
  4. Deteksjons- og korreksjonsteknikker anvendes (f.eks. RAG).

Eksempler (den virkelige verden)

  • ChatGPT produserer av og til feil informasjon når de blir bedt om det.
  • Google Bards første demonstrasjon viste faktiske feil.
  • Medisinske råd generert av kunstig intelligens inneholder noen ganger unøyaktigheter.

Referanser / Videre lesning

  • «Reduksjon av hallusinasjoner i store språkmodeller» – arXiv-forhåndstrykk.
  • NIST AI-risikostyringsrammeverk.
  • Mitchell et al. «Modellkort for modellrapportering.» ACM FAccT.
  • Årsaker til AI-hallusinasjoner

Kan hende du også liker

Fortell oss hvordan vi kan hjelpe med ditt neste AI -initiativ.