Skytingen i Oslo 25. juni etterforskes som hatkriminalitet mot homofile, og er en påminnelse om farene minoriteter står overfor. Homofili er kriminalisert i 68 land i verden, ifølge Amnesty International. Nettopp derfor vakte Michal Kosinskis studie i 2018 stor oppmerksomhet, hvor han mente å ha utviklet KI som gjetter seksuell orientering basert på ansiktsbilder med bedre nøyaktighet enn det mennesker gjør.

Kosinkys studie er nå fire år gammel. Siden har Google, Microsoft, Meta og OpenAI publisert stadig kraftigere såkalte KI-grunnmodeller. Grunnmodellene kan spesialtilpasses til å generere bilder basert på tekstbeskrivelser, foreslå kode for programvareutviklere eller skrive avisartikler. Slapp av, denne artikkelen er ikke skrevet av KI, selv om kvaliteten på KI-skrevne artikler er forbløffende god.

Mens tradisjonelle KI-modeller lærer spesifikke mønstre i data og kan predikere ting som hvilke TV-serier du er mest interessert i, så er KI-grunnmodeller trent på så store mengder data at de kan lære å utføre mange forskjellige oppgaver. GPT-3, for eksempel, er en grunnmodell basert på over 45 terabyte data, som tilsvarer omtrent 15 millioner bøker med tekst. Etter å ha blitt trent på så mye data, kan en grunnmodell spesialisere seg på spesifikke oppgaver basert på så lite som noen hundre datapunkter. Det er litt som for oss mennesker: Når vi først har lært å skrive, mestrer vi lettere spesifikke sjangere.

Samtidig er det samfunnsrelaterte risikoer knyttet til disse kraftige grunnmodellene, som beskrevet i Stanford-rapporten «On the Opportunities and Risks of Foundation Models» fra 2021. Hvis en grunnmodell er basert på tekst som inneholder stereotyper eller underrepresenterer minoriteter, som svarte eller skeive, kan den generere tekst med de samme skjevhetene. KI-modellen GPT-3 forbinder oftere muslimer med vold enn den forbinder buddhister og kristne med vold, noe den har plukket opp fra tekstene den er basert på. Hvis grunnmodellene blir brukt som fundament for et hav av spesialtilpassede modeller, får modellenes skjevheter brede konsekvenser. Og fordi modellene er så store og kompliserte, er det vanskelig å korrigere dem.

Stanford-rapporten beskriver også hvordan grunnmodellene leder til en maktsentralisering innenfor KI. De store modellene koster titalls millioner kroner å trene, så kun teknologigiganter, stater, eller kapitalrike oppstartsbedrifter kan utvikle dem. OpenAI var lenge en ideell stiftelse, men ble en profittsøkende virksomhet i 2019 for å hente kapital til den ressurskrevende KI-utviklingen. Hvis bare de kapitalsterke kan utvikle de kraftigste KI-modellene, ligger mye makt og innflytelse hos noen få aktører.

I tillegg har flere forskere vært kritiske til verdiene som vektlegges innad i KI-forskningen. Artikkelen «The Values Encoded in Machine Learning Research» analyserte 100 høyt siterte artikler fra ledende KI-tidsskrifter. Studien fant at kun 15 forskningsartikler begrunnet hvordan forskningen var knyttet til et samfunnsbehov, og kun én artikkel diskuterte potensielle negative konsekvenser av forskningen. Vi kan altså ikke anta at våre kjære teknologer tar de samfunnshensynene som vi vil at våre folkevalgte skal ta.

Vi skal ikke bremse teknologiutviklingen. Men hvordan sikrer vi at KI drar samfunnet i den retningen fellesskapet ønsker?

EU jobber i dag med en Artificial Intelligence Act som legger begrensninger på hvor og hvordan KI kan brukes. Norge sendte i 2021 inn sitt standpunkt til EUs lovforslag, der generell støtte for lovforslaget ble uttrykt.

Men flere spørsmål består: Har vi i Norge tilstrekkelig påvirkning på utformingen av EUs KI-lovgivning, gitt for eksempel at EU-medlemmet Polen har vist sterk diskriminering av homofile? Hvilken rolle tar Norge blant KI-aktørene, gitt makten som følger av å kontrollere tilgang til fremtidens modeller?

«Norge skal gå foran i utvikling og bruk av kunstig intelligens med respekt for den enkeltes rettigheter og friheter,» står det i vår nasjonale strategi for KI. Da må politikerne og vi velgere henge med, så vi ligger foran også på de samfunnsrelaterte spørsmålene.

Vi kan altså ikke anta at våre kjære teknologer tar de samfunnshensynene som vi vil at våre folkevalgte skal ta

(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.