Kunstig intelligens kan hjelpe leger å stille rett diagnose, bidra til å utvikle nye tjenester for en aldrende befolkning og gjøre infrastruktur «smartere». Mulighetene er mange. Samtidig må kunstig intelligens behandles med forsiktighet.

Tall fra World Economic Forum viser at 78 prosent av alle som programmerer algoritmer i verden, er menn. Tendensen ses også i norske tall: Abelia slår fast at kvinneandelen i it- og techbransjen er på stusslige 25 prosent.

Da britiske Karen S. Jones, kjent som hjernen bak søkemotoren, døde 73 år gammel i 2007, hadde hun levd et liv etter mottoet: «data er for viktig til å bli overlatt til menn». Holdningen hennes var kanskje litt aggressiv, men Jones kan ha hatt et viktig poeng.

Systemer med kunstig intelligens «lærer» seg hva mennesker verdsetter, men menneskelig oppførsel gjenspeiler ikke nødvendigvis menneskelige verdier. Det har vi sett i form av algoritmer som har utformet rasistiske slogans på t-skjorter for salg på nett og stemmestyrte assistenter som leser opp fornærmende svar fra nettforum når de får spørsmål.

Personen bak en algoritme kan sammenlignes med en lærer foran en skoleklasse.

Om majoriteten av alle verdens algoritmer utformes av homogene team, risikerer vi at fremtidens teknologi vil forskjellsbehandle og opprettholde stereotypier.

Slik forskjellsbehandling har allerede kommet til syne i rekrutteringsprosesser og på karrierenettsteder: Kvinner får ikke se de samme stillingsutlysningene som menn. Hodejegere har fått spørsmål om «de ikke mener menn?» når de søker opp dyktige damer.

I høst meldte nyhetsbyrået Reuters at nettgiganten Amazon «vraker sitt hemmelige og AI-baserte rekrutteringsverktøy», etter at det ble avdekket at det «ikke likte kvinner».

To år tidligere avdekket en Bloomberg-analyse at Amazons tjenester for ekspresslevering av varer viste seg å ekskludere ikke-hvite nabolag. Selskapet tok raskt grep, men hendelsen burde ikke ha skjedd i utgangspunktet.

Språklige nyanser som forsvinner i oversettelsesverktøy på nett, kan også bidra til å holde liv i stereotypier.

Tone Marie Wahlström, leder i Innovation Hub i Evry
Tone Marie Wahlström, leder i Innovation Hub i Evry (Foto: CF Wesenberg)
Dilan Kaya, juniorkonsulent i Innovation Hub i Evry
Dilan Kaya, juniorkonsulent i Innovation Hub i Evry

Det tyrkiske språket benytter «O» som pronomen for både «han», «hun», «det» og «den». Pronomenet er altså kjønnsnøytralt og inkluderende. Men anvender du tyrkisk «O» i Google Translate, tillegges det automatisk kjønn. Hvilket kjønn? Det avhenger av ordlyd på resten av setningen: Han blir lege, mens hun dukker opp i beskrivelser av noen som lager mat.

Ordet «programmerer» er også kjønnsnøytralt, men et kjapt bildesøk viser at menn i større grad assosieres med tittelen enn hva kvinner gjør.

Dette viser at data ikke speiler en absolutt form for sannhet.

Vi som utvikler kunstig intelligens må tenke nytt og bryte med etablerte mønstre. Dette for å sikre balanse og mangfold blant dem som er ansvarlige for å vurdere den potensielle sosiale risikoen som moderne teknologi bringer med seg.

Nylig tok vi i bruk Gamification, et spillbasert rekrutteringsverktøy som måler egenskaper på en nøytral måte. I dag har vi kvinneandel på 49 prosent og 21 ulike nasjonaliteter i vår innovasjonsavdeling.

Vi er på rett vei. Når halvparten av verdens befolkning er kvinner, bør det også gjenspeiles blant utviklerne som former tjenester for morgendagens samfunn. Ellers risikerer vi at fremtidens løsninger bare vil passe for noen av oss.(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.

Denne norske sporten går som en farsott i utlandet. Men hva skal den hete på engelsk?
02:37 Min
Publisert: