Et av innsatsområdene i digitaliseringsstrategien «Fremtidens digitale Norge» er at vi skal utnytte mulighetene i kunstig intelligens. Regjeringen har en ambisjon om at Norge skal være i front på etisk og trygg bruk av KI, og at innen år 2030 skal 100 prosent av offentlige virksomheter ha tatt i bruk KI.
Det fremgår av strategien at utvikling og bruk av KI må skje på en ansvarlig måte – noe som indikerer at KI ikke skal tas i bruk for enhver pris. Det handler i stor grad om å finne gode brukstilfeller hvor det er hensiktsmessig og forsvarlig å bruke KI, for å utvikle bedre tjenester og løse oppgaver mer effektivt. Dette gjelder både i tilfeller hvor vi utvikler KI-baserte løsninger selv, men også i de tilfellene vi tar i bruk KI-funksjonalitet som er integrert i IT-løsninger vi allerede bruker i dag, slik som eksempelvis M365 Copilot. Slik funksjonalitet har vi i mye mindre grad mulighet til å skreddersy selv, da verktøyet leveres «ferdig» fra leverandøren.
Hvordan kan vi sikre at leverandørene av disse løsningene har utviklet de på en måte som understøtter etisk og trygg bruk?
Inga Strümke skriver i boken «Maskiner som tenker» om et eksperiment kalt The Moral Machine, utviklet av forskere ved Massachusetts Institute of Technology (MIT). Eksperimentet går i korte trekk ut på å undersøke hvordan mennesker fra forskjellige deler av verden ville prioritert hvilket liv som skulle reddes i situasjoner med selvkjørende biler. Funnene fra eksperimentet viser at moralske preferanser varierer mellom ulike kulturer og regioner (1). Hun skriver videre at folkegrupper med ulike kulturelle bakgrunner og verdigrunnlag har ulike etiske preferanser, noe som igjen vil føre til at teknologi utviklet i ulike deler av verden sannsynligvis vil baseres på ulike etiske avveininger (2).
Jeg tenker at dette er viktig å ha i bakhodet når vi vurderer å ta i bruk løsninger med kunstig intelligens fra ulike (særlig ikke-europeiske) leverandører. Det siste året har store deler av min arbeidshverdag gått med til å utrede og vurdere funksjonaliteten i verktøyet M365 Copilot, som leveres av Microsoft. Derfor har jeg også valgt å bruke M365 Copilot og Microsoft som eksempel i dette blogginnlegget. For å gjøre en samvittighetsfull vurdering av om dette er et verktøy man bør ta i bruk, er det nødvendig å se på hvordan utviklingen av verktøyet har foregått. Er verktøyet utviklet på ansvarlig måte som legger til rette for etisk og trygg bruk?
For å vurdere dette har det vært naturlig å ta utgangspunkt i rammeverket Microsoft Responsible AI Standard. Microsofts tilnærming til utvikling av ansvarlig kunstig intelligens er forankret i seks kjerneprinsipper, som er konkretisert og omgjort til praktisk veiledning i dette rammeverket. De seks kjerneprinsippene er som følger:
- Fairness
– AI systems should treat all people fairly - Reliability and safety
– AI systems should perform reliably and safely - Privacy and security
– AI systems should be secure and respect privacy - Inclusiveness
– AI systems should empower everyone and engage people - Transparency
– AI systems should be understandable. - Accountability
– People should be accountable for AI systems.
Ved første øyekast ser det ut til at prinsippene som legges til grunn i Microsoft Responsible AI Standard i stor grad samsvarer med de syv etiske prinsippene for ansvarlig og pålitelig KI i kapittel 5.2 i Nasjonal strategi for kunstig intelligens fra 2020. Her heter det at KI-baserte løsninger skal respektere menneskets selvbestemmelse og kontroll, være sikre og teknisk robuste, ta hensyn til personvernet, være gjennomsiktige, legge til rette for inkludering, mangfold og likebehandling og være nyttig for samfunn og miljø. Det stilles også et krav til ansvarlighet.
Betyr dette at vi umiddelbart kan konkludere med at verktøy som er utviklet etter Microsoft Responsible AI Standard legger til rette for etisk og trygg bruk av KI?
Prinsippet om at KI-baserte løsninger skal ta hensyn til personvernet (som vi finner i Nasjonal strategi for kunstig intelligens) innebærer at kunstig intelligens som bygger på personopplysninger skal følge personvernforordningen. Dette vil eksempelvis innebære at hvis det inngår personopplysninger i det enorme datagrunnlaget språkmodellen i M365 Copilot er trent på, skal behandling av disse personopplysningene til det formål å trene språkmodellen ha et rettslig grunnlag for å være lovlig.
Vi vet ikke så alt for mye om det datagrunnlaget språkmodellen i M365 Copilot er trent på, men vi vet at dette består av enorme mengder tekst – millioner av bøker, artikler og nettsider. Jeg er sikker på at vi kan legge til grunn at det inngår personopplysninger i dette datagrunnlaget. I Norge og andre land innenfor EU/EØS gjelder personvernreglene også for personopplysninger som ligger åpent på nett. Hvordan dette fungerer i USA er jeg derimot usikker på. Med forbehold om at jeg ikke har inngående kunnskap om amerikansk personvernlovgivning, oppfatter jeg det slik at USA ikke har én overgripende personvernregulering slik vi har innenfor EU/EØS, men heller mindre, fragmenterte reguleringer på nasjonalt, statlig og lokalt nivå. Slik jeg ser det vil ikke dette være forenelig med sentrale prinsipper som ligger til grunn for europeisk personvernlovgivning, slik som prinsippet om forutberegnelighet – selv om et av de grunnleggende prinsippene i Microsoft sitt rammeverk er at utviklingen av KI skal respektere personvern («AI systems should be secure and respect privacy»).
Jeg antar også at datagrunnlaget språkmodellen er trent på i hovedsak er et amerikansk datagrunnlag, som dermed også gjenspeiler et amerikanske verdisett og kultur. Amerikanske verdisett og kultur vil ikke nødvendigvis harmonere med de verdisettene og den kulturen vi har i Norge. I vår nasjonale KI-strategi finner vi prinsippet om at KI-systemer skal legge til rette for inkludering, mangfold og likebehandling, og selv om to av kjerneprinsippene som ligger til grunn for Microsoft sitt rammeverk («Fairness» og «Inclusiveness») ser ut til å harmonere med det norske prinsippet, er det viktig å huske på at verdigrunnlaget som ligger til grunn for prinsippene kan være ulikt.
Disse problemstillingene gjelder selvfølgelig ikke kun ved bruk av KI-verktøy fra amerikanske leverandører, selv om jeg brukte Microsoft som eksempel i dette blogginnlegget. Jeg tenker at dette er relevant å ha i bakhodet uavhengig av hvilken leverandør du velger å kjøpe KI-løsninger fra – for å sikre at disse er utviklet på en ansvarlig måte.
(1) «Maskiner som tenker» s. 195
(2) «Maskiner som tenker» s. 196