Definisjon
Ansvarlig KI refererer til design, utvikling og utrulling av KI-systemer som er etiske, transparente, rettferdige og ansvarlige. Det vektlegger å minimere risiko og maksimere samfunnsnytten.
Formål
Hensikten er å sikre at KI er i samsvar med menneskerettigheter, sikkerhet og rettferdighet. Ansvarlig KI-praksis veileder organisasjoner i bruken av pålitelig KI.
Viktigheten
- Bygger tillit til bruk av kunstig intelligens.
- Forhindrer skadelige eller diskriminerende virkninger.
- Sikrer at regelverket overholdes.
- Fremmer åpenhet og ansvarlighet.
Slik fungerer det
- Definer etiske prinsipper og retningslinjer.
- Vurder risikoer gjennom hele AI-livssyklusen.
- Bruk sikkerhetstiltak som rettferdighetstesting og skjevhetsrevisjoner.
- Overvåk distribuerte systemer kontinuerlig.
- Dokumentere og kommunisere praksis til interessenter.
Eksempler (den virkelige verden)
- Microsofts standard for ansvarlig kunstig intelligens.
- Googles KI-prinsipper.
- OECDs KI-prinsipper tatt i bruk av myndigheter over hele verden.
Referanser / Videre lesning
- OECDs prinsipper for kunstig intelligens.
- NIST AI-risikostyringsrammeverk.
- Jobin, A. et al. «Det globale landskapet av etiske retningslinjer for kunstig intelligens.» Nature.
- Hva er ansvarlig AI?


