Menneskesinnet har vært uforklarlig og mystisk i lang, lang tid. Og det ser ut til at forskere har anerkjent en ny utfordrer til denne listen - kunstig intelligens (AI). I begynnelsen høres det ganske oksymoronisk ut å forstå sinnet til en AI. Imidlertid, ettersom AI gradvis blir mer sansende og utvikler seg nærmere å etterligne mennesker og deres følelser, er vi vitne til fenomener som er medfødte for mennesker og dyr – hallusinasjoner.
Ja, det ser ut til at selve turen som sinnet begir seg ut i når det blir forlatt i en ørken, kastet bort på en øy eller innelåst alene i et rom blottet for vinduer og dører, oppleves også av maskiner. AI hallusinasjon er ekte, og tekniske eksperter og entusiaster har registrert flere observasjoner og slutninger.
I dagens artikkel vil vi utforske dette mystiske, men likevel spennende aspektet ved Store språkmodeller (LLMs) og lær sære fakta om AI-hallusinasjoner.
Hva er AI-hallusinasjon?
I AI-verdenen refererer ikke hallusinasjoner vagt til mønstre, farger, former eller mennesker sinnet klart kan visualisere. I stedet refererer hallusinasjon til uriktige, upassende eller til og med villedende fakta og svar Generative AI-verktøy komme med oppfordringer.
Tenk deg for eksempel å spørre en AI-modell hva et Hubble-romteleskop er, og det begynner å svare med et svar som: "IMAX-kamera er et spesialisert film med høy oppløsning ...."
Dette svaret er irrelevant. Men enda viktigere, hvorfor genererte modellen et svar som er tangentielt forskjellig fra ledeteksten som ble presentert? Eksperter mener hallusinasjoner kan stamme fra flere faktorer som:
- Dårlig kvalitet på AI-treningsdata
- Overmodige AI-modeller
- Kompleksiteten til Natural Language Processing (NLP) programmer
- Kodings- og dekodingsfeil
- Motstridende angrep eller hacking av AI-modeller
- Kilde-referanse divergens
- Input bias eller input tvetydighet og mer
AI-hallusinasjon er ekstremt farlig, og intensiteten øker bare med økt spesifikasjon av bruken.
For eksempel kan et hallusinerende GenAI-verktøy forårsake omdømmetap for en bedrift som distribuerer det. Men når en lignende AI-modell brukes i en sektor som helsevesenet, endrer den ligningen mellom liv og død. Visualiser dette, hvis en AI-modell hallusinerer og genererer et svar på dataanalysen av en pasients medisinske bilderapporter, kan den utilsiktet rapportere en godartet svulst som ondartet, noe som resulterer i et kursavvik i individets diagnose og behandling.
Forstå eksempler på AI-hallusinasjoner
AI-hallusinasjoner er av forskjellige typer. La oss forstå noen av de mest fremtredende.
Faktisk feil respons på informasjon
- Falske positive svar som flagging av korrekt grammatikk i tekst som feil
- Falske negative reaksjoner som å overse åpenbare feil og anslå dem som ekte
- Oppfinnelse av ikke-eksisterende fakta
- Feil innhenting eller tukling av sitater
- Overmodighet til å svare med feil svar. Eksempel: Hvem sang Here Comes Sun? Metallica.
- Blande sammen konsepter, navn, steder eller hendelser
- Rare eller skumle svar som Alexas populære demoniske autonome latter og mer
Forebygging av AI-hallusinasjoner
AI-generert feilinformasjon av enhver type kan oppdages og fikses. Det er spesialiteten ved å jobbe med AI. Vi fant opp dette og vi kan fikse dette. Her er noen måter vi kan gjøre dette på.
Begrensende svar
De sier at det ikke spiller noen rolle hvor mange språk vi snakker. Vi må vite når vi skal slutte å snakke i dem alle. Dette gjelder også AI-modeller og deres svar. I denne sammenhengen kan vi begrense en modells evne til å generere svar til et spesifikt volum og redusere sjansene for at den kommer med bisarre utfall. Dette kalles Regularization, og det innebærer også å straffe AI-modeller for å gi ekstreme og strakte utfall til ledetekster.
Relevante og lufttette kilder for å sitere og trekke ut svar
Når vi trener en AI-modell, kan vi også begrense kildene en modell kan referere til og trekke ut informasjon fra til bare legitime og troverdige. For eksempel kan AI-modeller i helsevesenet som det ene eksemplet vi diskuterte tidligere kun referere til kilder som er troverdige når det gjelder informasjon lastet med medisinske bilder og bildeteknologier. Dette forhindrer maskiner i å finne og samrelatere mønstre fra bipolare kilder og generere en respons.
Definere en AI-modells formål
AI-modeller lærer raskt, og de trenger bare å bli fortalt nøyaktig hva de bør gjøre. Ved å nøyaktig definere formålet med modeller, kan vi trene modeller til å forstå deres egne muligheter og begrensninger. Dette vil tillate dem å autonomt validere svarene sine ved å tilpasse genererte svar til brukerforespørsler og deres formål for å levere rene resultater.
Menneskelig tilsyn i AI
Å trene AI-systemer er like kritiske som å lære et barn å svømme eller sykle for første gang. Det krever tilsyn av voksne, moderasjon, intervensjon og håndholdte. De fleste AI-hallusinasjoner oppstår på grunn av menneskelig uaktsomhet i forskjellige stadier av AI-utvikling. Ved å distribuere de riktige ekspertene og sikre en menneskelig arbeidsflyt for å validere og granske AI-svar, kan kvalitetsresultater oppnås. Dessuten kan modellene raffineres ytterligere for nøyaktighet og presisjon.
Shaip og vår rolle i å forhindre AI-hallusinasjoner
En av de andre største kildene til hallusinasjoner er dårlige AI-treningsdata. Det du mater er det du får. Det er derfor Shaip tar proaktive skritt for å sikre levering av data av høyeste kvalitet for deg generativ AI-trening behov.
Våre strenge kvalitetssikringsprotokoller og etisk hentede datasett er ideelle for dine AI-visjoner for å levere rene resultater. Selv om tekniske feil kan løses, er det viktig at bekymringer om treningsdatakvalitet tas opp på grasrotnivå for å forhindre omarbeiding av modellutvikling fra bunnen av. Dette er grunnen til at din AI og LLM opplæringsfasen bør starte med datasett fra Shaip.