Oljefondet advarer: Kunstig intelligens gir risiko for brudd på menneskerettigheter

Oljefondet ønsker et grundig og samkjørt regelverk for bruk av kunstig intelligens for å holde finansmarkedene trygge og forutsigbare.
Oljefondsjef Nikolai Tangen og sjef for styring og compliance, Carine Smith Ihenacho i NBIM.
Oljefondsjef Nikolai Tangen og sjef for styring og compliance, Carine Smith Ihenacho i NBIM.

Oljefondsjefen advarer om at utvikling av kunstig intelligens (KI) kommer med risiko for brudd på menneskerettigheter og storstilt feilinformasjon.

Norges Bank Investment Management (NBIM), som overvåker investeringene til Statens pensjonsfond utland, understreker også at selskapsstyrer spiller en nøkkelrolle i tilsynet med at ny teknologi tas i bruk med tanke på risiko.

Nikolai Tangen, som leder Oljefondet med 14,9 billioner kroner i verdi, publiserte sine synspunkter om ansvarlig kunstig intelligens tidligere denne uken.

Risiko for feilinformasjon og bedrag

Tangen og sjef for styring og compliance, Carine Smith Ihenacho, skisserer fondets syn i en uttalelse laget sammen med selskapsstyringsteamet hos NBIM. 

«Vi mener ansvarlig utvikling og bruk av KI vil være viktig for velfungerende markeder og legitime produkter og tjenester – og har potensial til å påvirke den finansielle avkastningen på våre investeringer over tid,” skriver Tangen og Smith Ihenacho.

Men KI bringer også med seg betydelige uutforskede risikoer, som å skade menneskerettigheter og øke risikoen for storstilt feilinformasjon og bedrag, advarer duoen.

Ettersom KI blir allestedsnærværende i økonomien, vil det sannsynligvis bringe store muligheter, men også alvorlige risikoer – både for selskapene NBIM investerer i og for interessentene som påvirkes av deres aktiviteter, ifølge Tangen og Smith Ihenacho.

«KI kan være et kraftig verktøy for å forbedre forretningsmodeller og menneskelige prosesser og kan resultere i betydelige gevinster for selskaper. Imidlertid fortsetter KI å utvikle seg i et tempo der det kan være utfordrende å forutsi og håndtere risiko,» uttaler de og legger til:

«Utover regulatoriske, operasjonelle og omdømmerisiko for selskaper, kan utvikling og bruk av KI-systemer påvirke samfunnet i stor grad og menneskerettigheter som privatliv, sikkerhet, personlig frihet og ikke-diskriminering. Det kan øke risikoen for storstilt feilinformasjon, bedrag eller manipulasjon».

Ansvarlig forretningsførsel

NBIM ser ansvarlig utvikling og bruk av KI som en del av ansvarlig forretningsførsel og et nødvendig supplement til den framvoksende regulatoriske landskapet. 

«KI-styringssystemer bør være grunnlaget for selskapsinnovasjon og adopsjon av KI, og vurdere potensielle effekter langs KI-verdikjeden. Selskapets tilnærminger bør bygge på internasjonalt anerkjente standarder som FNs retningslinjer for næringsliv og menneskerettigheter og OECDs retningslinjer for flernasjonale foretak om ansvarlig forretningsførsel», skriver Tangen og Smith Ihenacho og legger til:

«Selv om alle KI-aktører bør nærme seg KI på en ansvarlig måte, mener vi at et spesielt ansvar hviler på selskaper som utvikler eller eier KI-systemer».

Nøkkelelementer

Ifølge NBIM inkluderer ansvarlig KI tre nøkkelelementer. Ett av dem er styrets ansvar for selskapenes ansvarlige utvikling og bruk av KI.

«Vi mener styrer spiller en nøkkelrolle ved å overvåke at selskapsstyring og strategi balanserer konkurranseutsatt utplassering av ny teknologi mot potensielle risikoer – inkludert risikoer for mennesker og samfunnet i stort. Dette vil kreve styrekompetanse og ressurser som er proporsjonale med selskapets risikoeksponering og forretningsmodell», uttaler NBIM. 

Det andre nøkkelelementet til ansvarlig utvikling av KI er åpenhet og forklarbarhet, som NBIM sier er «essensielle for å bygge tillit og ansvarlighet i KI-systemer», men også en utfordring ettersom kompleksiteten av KI-modeller utvikler seg.

«Selskaper bør kunne forklare hvordan KI-systemene de utvikler eller bruker, har blitt designet, trent og testet – og hvordan de er i tråd med menneskelige verdier og intensjoner», skriver NBIM og legger til:

«Vi ser også på åpenhet som nøkkelen til å få informert samtykke fra KI-brukere og sikre legitimitet blant bredere interessenter. Det bør være klart når en person interagerer med eller påvirkes av KI-systemer, inkludert syntetisk innhold».

Det tredje nøkkelelementet for ansvarlig KI er robust risikostyring.

«Selskaper må være proaktive i sin håndtering av KI-relaterte risikoer og være åpne om deres mål for å utvikle og distribuere KI-systemer. [...] Risikostyringsprosesser skal være robuste og proporsjonale med selskapets risikoeksponering, og søke å identifisere, vurdere og avhjelpe risikoer for forretninger, mennesker og samfunn», legger NBIM til.

Oppfordring til et regulatorisk rammeverk

NBIM etterlyser utviklingen av et omfattende og sammenhengende regulatorisk rammeverk for KI og sier at det kan bidra til sikker innovasjon og markedsforutsigbarhet. 

«Utviklingen av globale ansvarsmekanismer kan redusere risiko og skape et grunnlag for langsiktig verdiskaping, for eksempel ved å gi sikkerhet om ansvar knyttet til utvikling og bruk av KI, og ved å bidra til å avhjelpe negative effekter gjennom klare sikkerhetsstandarder», skriver Tangen og Smith Ihenacho.

De bemerker at mange andre eksperter og selskaper har pekt på et internasjonalt tilsynsorgan som en passende løsning.

«Vi oppfordrer selskapene vi investerer i, spesielt de som eier eller utvikler KI-systemer, til å engasjere seg konstruktivt og transparent med standardsettere og regulatorer. Det er imidlertid menneskene og selskapene som utvikler og bruker KI som vil være de viktigste driverne for dens effekter på mennesker, samfunn og langsiktig økonomisk vekst».

Artikkelen er skrevet av vårt søskenmedie AMWatch og er oversatt av Magnus Eidem.

Del artikkel

Meld deg på vårt nyhetsbrev

Vær i forkant av utviklingen. Få informasjon om det siste fra bransjen med vårt nyhetsbrev.

Vilkår for nyhetsbrev

Forsiden akkurat nå

Les også