Administrerende direktør og medgründer av Shaip, Vatsal Ghiya har 20 års erfaring innen helsevesenets AI-programvare og -tjenester og muliggjør skalering på forespørsel av forretningsprosesser med maskinlæring og AI-initiativer. Denne gjestefunksjonen, Vatsal Ghiya, har delt nøkkelinnsikt om hvordan man kan eliminere skjevheter i Conversational AI.
Nøkkelen fra artikkelen er-
- Som statisk viser er nøyaktighetsgraden for å hente resultater gjennom stemmesøk på amerikanske menn 92 %, men dette går ned til 79 % og 69 % for hvite amerikanske kvinner og blandede amerikanske kvinner. Dette er et klassisk eksempel på Bias AI.
- Noen eksempler fra den virkelige verden på skjevheten AI inkluderer Amazon og Facebook der menn ble foretrukket mer under rekruttering i Amazon og Facebook retter seg mot kunden i henhold til deres kjønn, farge og religion. Denne skjevheten i AI er forårsaket av tre årsaker, og disse er data, mennesker og teknologi.
- For å eliminere skjevheten til AI fra enhver applikasjon og system, kan organisasjoner følge tiltakene som å sertifisere datakildene og kvaliteten, overvåke modellen i sanntid og analysere mangfoldet av data før de bruker AI i sine operasjoner.
Les hele artikkelen her: