Kunstig intelligens har inntatt arbeidslivet. Det brukes til å sile ut cv-er i søknadsprosesser, til å kontrollere arbeidstagere, vurdere prestasjoner og sortere data. Innføring av kunstig intelligens brukes som begrunnelse for omorganisering, og – i noen tilfeller – påskudd for å skifte ut deler av den gamle arbeidsstokken med ny kompetanse.

Maria Østli
Maria Østli

Norge har ikke et egnet lovverk for bruk av kunstig intelligens i arbeidslivet og de utfordringene det skaper. Partene i arbeidslivet bør derfor gå i dialog. Arbeidsgiversiden og arbeidstagersiden har felles interesse i å sikre betryggende bruk av kunstig intelligens. Dette kan gjøres gjennom avtaleregulering.

EU har sett behovet for lovregulering og Europakommisjonen har kommet med et forslag – «The Artificial Intelligence Act». Også Europarådet arbeider med et utspill.

Ida Flaatten
Ida Flaatten

I EU-forslaget er kunstig intelligens gradert etter risiko. Leketøy som oppfordrer til farlig oppførsel er for eksempel definert som «uakseptabel risiko» og forbudt. Spamfiltre for epost er «minimal risiko» og omfattes ikke av reglene. Kunstig intelligens til bruk i arbeidslivet defineres som høyrisiko.

Kategoriseringen illustrerer tydelig risikoen ved slike systemer på arbeidsplassen.

Kunstig intelligens i arbeidslivet kan på den ene siden gi økt effektivitet og bidra til innovasjon. Samtidig gir det muligheter for omfattende kontroll og misbruk. Det åpner også for samling av data og utvikling av systemer som er så komplekse at arbeidstagerne ikke forstår hva beslutningene bygger på. Systemer med en slik iboende risiko må reguleres.

I Amazon viste det seg at systemet som ble brukt, foretrakk søknader fra menn

Mange steder voktes også porten til arbeidslivet av kunstig intelligens. Flere store selskaper overlater den første vurderingen av cv-er til slike systemer, slik at brorparten av søknadene forkastes uten noen menneskelig involvering. Dette får uante konsekvenser.

I Amazon viste det seg at systemet som ble brukt, foretrakk søknader fra menn. Dette fordi dataene den kunstige intelligensen baserte seg på, besto av systemprofiler fra eksisterende ansatte – som i all hovedsak var menn.

Eksempelet fra Amazon belyser et problem med kunstig intelligens på arbeidsplassen. Det kan i prinsippet utføre oppgavene til mennesker, men det er ikke et menneske og har ikke den forståelsen vi krever av et menneske. Menneskelig involvering og korreksjon er nødvendig for å hindre at prosessen påvirkes av skjulte faktorer og fordommer.

Partene i arbeidslivet må gå i dialog og regulere bruken av kunstig intelligens gjennom avtaler.

Lovverk innen personvern, diskriminering, arbeidsmiljø og eksisterende tariffavtaler er ikke nok. Kunstig intelligens på arbeidsplassen gir særskilte utfordringer som krever et tilpasset regelverk.

Nødvendig kompetanse og kunnskap om faren for partiskhet, diskriminering og betydningen for arbeidsmiljøet må sikres. Arbeidstagere må få opplæring, informasjon, innsikt i og innflytelse på systemene. Menneskelig involvering og mulighet for korreksjon er avgjørende. Finansforbundet har allerede inngått et samarbeid med flere store arbeidstagerorganisasjoner for å øke bevissthet og kompetanse om bruk av kunstig intelligens på arbeidsplassen.

Avtaleregulering er nødvendig, både for å unngå hendelser som i Amazon og for å sikre gode prosesser og betryggende arbeidsforhold. Partene har nå en unik mulighet for sammen å regulere bruken av kunstig intelligens gjennom avtaler tilpasset virksomhetene og arbeidstagernes behov.(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.