Nylig sendte Venstre-politiker Abid Raja et spørsmål om bruk av kunstig intelligens i skolen til kunnskapsminister Tonje Brenna. Han hadde bedt chatboten ChatGPT om å formulere det og ble overrasket over at han kunne bruke nesten hele teksten. Men én ting hadde ikke ChatGPT fått med seg: at kunnskapsministeren var en kvinne.
Regjeringen består av statsminister og 18 ministerposter, med en 50/50 fordeling av kvinner og menn. Lenger ned i hierarkiene er det skjevere. Ute i verden er det enda skjevere. Det er derfor sannsynlig å tenke at ChatGPT har gått ut fra at de fleste politikere i verden er menn.
ChatGPT er en språkmodell og tenker ikke slik vi gjør. Dette er kun teknologi.
Kan teknologien bak ChatGPT og andre tjenester som bruker kunstig intelligens på noen måte være fordomsfull? Vil eksisterende fordommer kunne påvirke utviklingen av teknologi og dermed true mangfoldet?
Statistikk viser at det er en skjevhet i kjønnsfordeling, særlig i utviklermiljøer. Det er tross alt mennesker som lager algoritmene bak språkmodellene. Det er også sannsynlig at det er flest menn som har vært med og utviklet språkmodellen til ChatGPT. Men årsaken er mest sannsynlig selve datagrunnlaget som modellene benytter seg av. Det er en utfordring til oss som driver teknologi.
Teknologi er ikke bevisst. Likevel valgte ChatGPT å beskrive kunnskapsministeren som mann. Også med andre teknologier er det betegnende når det gjelder for eksempel yrker at det mest sannsynlige blir valgt. Dette forsterker kjønnsrollene og blir fort selvforsterkende. Disse selvforsterkende mekanismene blir enda mer forsterket når teknologien blir så viktig i samfunnet. Det må vi være obs på og er en grunn til at vi trenger mer mangfold.
Samtidig reflekterer det manglende mangfoldet også samfunnet. Vi har en utfordring som går langt ut over det tekniske. Den går på holdninger hos mennesker. Algoritmene forsterker bare noe som allerede er der, og i det datasettet som blir brukt. ChatGPT er en «large language model», basert på enorme mengder tekst. Det er ingen tvil om at på enkelte områder vil det gi uønskede utslag.
ChatGPT, som Raja benyttet, er basert på GPT 3,5. Ingen la merke til den forrige versjonen, men da ChatGPT kom tok det helt av. De fikk én million brukere på fem dager. Om ikke lenge kommer GPT 4, som blir eksponentielt bedre. Så kommer femte og sjette utgave. Dette er teknologiens natur. Den utvikler seg og blir stadig bedre.
I Norge har vi våre tanker om mangfold og likestilling. ChatGPT er laget av et kommersielt selskap i Amerika, med sin politikk, sine holdninger og sin ideologi. Kanskje Kina tenker annerledes? Eller Uganda? Uruguay? Kan vi oppnå et mangfold slik vi ønsker når folk kommer fra så mange kulturer med ulike verdier?
Da kunnskapsministeren møtte skoleeleven som hadde fått en femmer på en stil skrevet av ChatGPT, sa hun at vi må omfavne ny teknologi. Den vil bare bli bedre og bedre.
Det betyr at vi må finne fornuftige måter å bruke den på. Som et verktøy, til inspirasjon eller for research.
På skolen blir det enda viktigere å lære mer om kildekritikk og kreativitet, og hvordan vi kan gjøre språket mer levende og engasjerende. Teknologi, holdninger og kommunikasjon griper i hverandre.
Det er fornuftig å være kritisk til ny teknologi, men samtidig må vi ikke tenke at vi må forby den. Vi må heller være bevisste på de resultatene vi får fra tjenester som ChatGPT og ikke ta de ukritisk i bruk. Som med all annen informasjon trenger vi god kildekritikk for bruk av kunstig intelligens.
Som brukere må vi ha et bevisst forhold til hvem som står bak teknologien, og stille krav om mangfold. Med større oppmerksomhet om mangfold kan vi sikre at det ikke forsterker uønskede strukturer. Kanskje det bør være en standard eller metode i utviklermiljøet?
Vi må allerede forholde oss til åpenhetsloven, som også inkluderer menneskerettigheter og kjønn. Større oppmerksomhet om mangfold burde kunne bli en del av en senere versjon.
Språkmodellen vil bli et veldig viktig verktøy, men den trenger noen iterasjoner før den blir god nok til at den kan brukes direkte. Vi vil finne denne teknologien i stadig nye løsninger som vil gi nye og uante muligheter.
Kunnskapsminister Tonje Brenna er definitivt ikke en mann. Abid Raja har med sitt stunt bevist hvor viktig det er at vi må stille krav til de som utvikler, være kildekritiske og bevisste på mangfoldet. Da vil vi kunne finne gode og fornuftige måter å bruke tjenester basert på kunstig intelligens på, som ChatGPT.
For ordens skyld: ChatGPT har ikke skrevet dette.
(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.