Datatilsynet melder at vi endelig får en «regulatorisk sandkasse» for kunstig intelligens. Hva skal vi leke der?
En regulatorisk sandkasse er et sikkert testmiljø der virksomheter kan eksperimentere med nye produkter, teknologier og tjenester under oppfølging av myndighetene.
Det britiske datatilsynet har hatt en sandkasse med ti prosjekter siden i fjor. Blant de mest kjente er Heathrow Airports bruk av ansiktsgjenkjenning for å la reisende nokså sømløst sjekke inn, levere bagasjen og komme inn i flyet.
Så langt kan erfaringene fra våre øyvenner oppsummeres med:
- Bruk av stordata fra både privat og offentlig sektor må balanseres riktig mot personvern.
- Det trengs en felles forståelse av hva samtykke egentlig betyr.
- Samspillet mellom personvernlovgivningen (GDPR) og annet lovverk, for eksempel i spørsmålet om mulige diskriminerende forskjeller i ansiktsgjenkjenning, må avklares.
- Det er ikke åpenbart hvilke juridiske avklaringer som er nødvendige for å sikre personvernvennlig analyse av data.
Dette er vel og bra, men hva mangler?
Godt personvern er en forutsetning for ansvarlig kunstig intelligens – men det er ikke nødvendigvis nok.
De britiske erfaringene tyder på at det jobbes godt med personsensitive data, men algoritmer er så mye mer enn persondata. Mens britene kaller sin innretning en «personvernsandkasse», skal vi i Norge få en sandkasse for «ansvarlig kunstig intelligens».
For å illustrere: Det tredje punktet ovenfor tar opp diskriminering, men vi må ikke stoppe med jusen. De teknologiske konsekvensene er minst like viktige.
Strukturell urett, som diskriminering på grunn av kjønn eller etnisitet, er blant de største farene ved algoritmisk behandling av mennesker. Som med alle strukturelle problemer er det vanskelig både å oppdage og unngå, og gråsonene gjør det ikke lettere.
Hvordan sørger vi for at strukturell urett oppdages? Er det virksomhetens og/eller brukerens ansvar?
Virksomheten må i det minste forstå hvordan algoritmen fungerer, og kunne forklare brukeren nok til at vedkommende kan utfordre beslutninger tatt av algoritmen. Hvordan får vi til det?
Algoritmene spiller også en viktig rolle på personvernfrie områder: Norge har allerede en digitalisert industri, og vi kan bevare posisjonen vår i viktige næringer som fiskeoppdrett, skipsfart og kraftkrevende industri med data og algoritmer.
Under lanseringen av sandkassen sa distrikts- og digitaliseringsminister Linda Hofstad Helleland helt riktig at «store datamengder representerer store verdier». Skal vi klare å hente ut store verdier, må vi først avklare:
- Hvordan bør vi håndtere risiko for store materielle konsekvenser som følge av algoritmer på villstrå?
- Når kan vi stole helt på et autonomt system?
- Hvordan forventer vi at en algoritme forklarer beslutningen sin?
Det er kanskje behov for flere sandkasser. Hva med en egen industrisandkasse?
I mellomtiden håper vi at sandkassen vi får, gir nok plass for algoritmiske utfordringer ut over personvernet.(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.