Den 21. april la Europakommisjonen frem sitt lovforslag om regulering av kunstig intelligens (artificial intelligence – AI). Da hadde det allerede i noen dager sirkulert en lekket utgave av lovforslaget på sosiale medier, som forskere, teknologer og gründere allerede var i gang med å drøfte på Twitter.

Men her hjemme har lovforslaget hittil skapt lite debatt i offentligheten, og knapt vært nevnt i nasjonale medier. Fremtidens regulering av kunstig intelligens, og spesielt EUs rolle, er verdt å løfte frem i det offentlige ordskiftet, for det vil angå oss alle i årene som kommer. Viktige spørsmål om hvorvidt man skal tillate AI-basert ansiktsgjenkjenning, eller AI-verktøy som kan brukes i medisinsk diagnostikk og behandling, er det som skal avgjøres.

Ishita Barua
Ishita Barua

EU ønsker å regulere AI, og gjøre bruk av slike verktøy ulovlig innen en rekke områder, og dermed sette en global standard for anvendelse av kunstig intelligens. Kommisjonens forslag har som mål å gi AI-utviklere, leverandører, distributører og brukere klare krav og forpliktelser. Dette ønsker de å oppnå blant annet ved å begrense eller forby risikabel bruk av AI som truer befolkningens rettigheter og rettssikkerhet.

Kommisjonen benytter en risikobasert tilnærming, og graderer AI-systemer fra minimal risiko (omfattes ikke av de nye reglene) til uakseptabel risiko (forbudt). Under kategorien uakseptabel risiko finner man blant annet sosiale poengsystemer, som allerede brukes i Kina, der innbyggerne rangeres etter hvor lovlydige de er, og dårlig sosial kreditt kan sanksjoneres med reiseforbud, for eksempel. Et forbud mot slik bruk av AI er ukontroversielt sett med europeiske øyne.

Det er imidlertid kategorien høy risiko som har skapt mest debatt, da dette er en kategori som omfatter kritiske områder som rettshåndhevelse, demokratiske prosesser, utdannelse, transport, produktsikkerhet, ansettelsesprosesser, kredittvurderinger, migrasjon, asyl, grensekontroll, samt sentrale private og offentlige tjenester.

AI-systemer som kategoriseres som høy risiko vil bli underlagt streng regulering og klare forpliktelser før de slipper ut på markedet. Det innebærer for eksempel at fadeser lignende den som rammet IB-studentene i fjor med karaktersetting på bakgrunn av en algoritme, kan unngås i fremtiden gjennom strengere regulering av hva slags verktøy vi tillater brukt innen utdannelse.

Det innebærer også at kliniske AI-verktøy som skal brukes i helsevesenet, for eksempel innen robotassistert kirurgi eller diagnostiske verktøy, vil være gjenstand for streng regulering. Det vil være krav om menneskelig kontroll, loggføring, transparens rundt treffsikkerhet og risiko for helse og sikkerhet, og utprøving med informasjon om hvilke datasett som er benyttet, og deres kvalitet.

Europakommisjonen foreslår at et nytt EU-organ skal få i oppgave å fasilitere implementeringen av regelverket og utviklingen av AI-standarder, og at nasjonale markedskontrollmyndigheter skal overvåke de nye reglene. Europakommisjonens forslag forsøker å balansere behovet for å stimulere og tilrettelegge for teknologisk utvikling og innovasjon, samtidig som det omhandler risiko og negative konsekvenser ved bruk av AI-teknologi.

Det er imidlertid ventet at behandlingen av lovforslaget i EU-institusjonene kan ta tid, da det er delte meninger om graden av regulering som er nødvendig. Mange aktører, spesielt i næringslivet, vil antagelig forsøke å påvirke hvilke AI-systemer som kan unngå å kategoriseres som «høy risiko», og dermed unngå strengere regulering. Disse frykter at en streng regulering kan utgjøre en flaskehals og true innovasjonstakten.

Europaparlamentet har imidlertid signalisert et ønske om en strengere regulering, mens flere medlemsland, blant annet våre fremoverlente naboer Sverige, Danmark og Finland, allerede har uttrykt et ønske om et mer fleksibelt rammeverk. Når skal Norge engasjere seg?(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.