SYNSPUNKT. Det hevdes at tilliten vi har til hverandre, mellom aktører i næringslivet og til offentlig sektor i Norge er mer verdt enn oljen vår. Alt går så mye lettere når vi kan ha tillit til hverandre. Vi blir mer produktive og verdiskapingen blir høyere.
Når vi i Norge nå må omstille oss for å sikre det økonomiske grunnlaget vi trenger for å opprettholde velferdssamfunnet, må vi fortsatt gjøre oss fortjent til tillit.
I jakten på forbedringer ved bruk av kunstig intelligens, må det gjøres uten at det går på bekostning av tilliten til hverandre og til institusjonene i samfunnet.
Det skjer ikke av seg selv. Bedrifter og offentlig forvaltning må være sitt etiske ansvar bevisst og sikre riktig kompetanse for at vi skal kunne nyttiggjøre oss innovasjonskraften som kunstig intelligens innebærer.
Etiske løsninger for kunstig intelligens får vi gjennom kunnskap, kompetanse og formålstjenlige reguleringer.
Formålet må være å sikre at teknologiutviklingen gir oss som innbyggere grunn til å ha ekte tillit til kunstig intelligente løsninger – enten de er utviklet for næringslivsaktører eller for offentlig sektor – samtidig som det understøtter teknologiutvikling, innovasjon og næringsutvikling.
Digitale løsninger basert på kunstig intelligens stiller oss overfor dilemmaer som kan utfordre tilliten oss imellom.
Når analyse -og beslutningsprosesser – og makt – overføres til slike løsninger, oppstår spørsmålene: Er beslutningene rettferdige? Er de riktige? Hva ligger til grunn for beslutningen? Hvem er ansvarlig for utfallet?
Vår nye distrikts- og digitaliseringsminister Linda Hofstad Helleland har ansvar for å forvalte Norges første nasjonale strategi for kunstig intelligens. Strategien ble lagt frem midt i januar.
Hellelands viktigste oppgave blir å tilrettelegge for mest mulig verdiskaping av KI- teknologi for det norske samfunn og næringsliv. Dette må gjøres gjennom å:
- Stimulere til å ta i bruk det kraftige verktøyet som kunstig intelligens kan være.
- Sikre at løsningene som blir utviklet ikke går på bekostning av grunnleggende prinsipper som for eksempel likebehandling og rettferdighet.
Temaet er godt dekket i KI-strategien. Det er vi glade for. Og vi kjenner oss igjen.
IBM har blant annet tatt globale initiativ for å få på plass kjøreregler som gir kvaliteten som skal til for å oppnå tillit til de mange nye løsningene som kommer fremover. Om tilliten ikke er på plass vil ikke systemene brukes, og vi vil ikke kunne realisere gevinstene av KI. Da vil vi gå glipp av den potensielle verdiskapningen.
Løsninger basert på kunstig intelligens gir først verdi når de som berøres av dem opplever at de gir merverdi og har tillit til at resultatene bygger på etisk forsvarlige metoder. Folk ønsker å vite få vite når de møtes med kunstig intelligente løsninger. De ønsker å vite hvordan løsningene påvirker valgfriheten deres, og de ønsker å vite hvilke elementer som ligger til grunn for konklusjonene.
OECD har vedtatt tre gode prinsipper for bruken av kunstig intelligens:
- Pålitelighet relatert til risikoen for uønskede konsekvenser for forbrukerne
- Transparens knyttet til hvor teknologien brukes, hvordan den blir brukt og hvorfor den kommer opp med spesifikke vurderinger.
- Rettferdighet og sikkerhet validert gjennom testing for skjevheter før løsningen er tatt i bruk og testet som passende for sitt bruk – særlig i automatiserte løsninger og høyrisikoløsninger.
Vi mener at prinsippene bør følges tett opp på landsbasis, og ønsker derfor å komme med fem anbefalinger til alle norske virksomheter som benytter kunstig intelligens i løsninger som berører kunder og brukere:
- Utpeke én ansvarlig for etisk KI i den enkelte virksomhet. Vi kan ikke risikere at det etiske ansvaret pulveriseres
- Risikovurdering for den enkelte KI-løsning. Det er forskjell på løsninger som treffer mennesker direkte, eller som bidrar til teknisk optimalisering i produksjon.
- Ikke gjem løsningene for kunstig intelligens. Åpenhet om bruken av kunstig intelligens bidrar til tillit.
- Forklar din KI. Vær åpen om hvordan løsningene fungerer, hva slags data de benytter og hvordan de resonnerer.
- Test KI for skjevheter. Algoritmer som i utgangspunktet er nøytrale blir preget av dataene de mates med – og uønskede skjevheter kan inntreffe. Justeringer kan være nødvendig for å sikre ønsket standard.
Vi har tillit til at Hofstad Helleland ser behovet for dette. Like fullt vil vi oppfordre henne til å skape insentiver for aktørene til å tilslutte seg anerkjente internasjonale standarder for ivaretakelse av etisk ansvarlighet knyttet til KI. Det bidrar til kvaliteten som igjen gir nødvendig tillit slik at KI-løsningene faktisk gir innovasjonen Norge trenger.