Arne Kristian Aas i Riverty Norway gir flere gode eksempler på bruk av kunstig intelligens (KI) i DN 20. mai (innlegget «Kunstig intelligens – «hype» og virkelighet». I sin higen etter å definere akkurat sin bruk av KI som det rette, bommer han likevel. Det er det to grunner til.
For det første begrenser han maskinlæring, en underkategori av KI, til ikke-fleksible regler. Disse algoritmene kan så automatisere beslutninger med to eller flere klart definerte svar, ja eller nei. Det stemmer at maskinlæring kan brukes til det, men det kan også brukes langt bredere.
La meg ta et eksempel fra vårt samarbeid med Dyreparken i Kristiansand. Ved hjelp av maskinlæring har vi utviklet en prediksjonsmodell som forutsier antall gjester i parken en uke frem i tid. Treffsikkerheten er god, men nå og da blir det avvik. Det er nettopp poenget. Disse avvikene avdekker nye faktorer som påvirker utfallet. Modellen er lærende, og den blir dermed hele tiden bedre, hvor det kan tas høyde for stadig flere unntak.
Vi bruker datalappeteknikk (data quilting), en forskningsstøttet metode, for å kunne innlemme nye datastrømmer i modellen, også når disse dataene kommer på ulike og ikke-korresponderende formater. Algoritmene utvikles over tid, og de er dermed fleksible. Utfallet er langt mer avansert enn «ja» eller «nei». Tilsvarende metode kan brukes på mange andre problemstillinger, som for eksempel å predikere hvem dine lønnsomme kunder er nå og om tre år, hvor du geografisk bør plassere butikklokaler basert på fottrafikk, transaksjoner og utvikling i kjøpekraft eller å forutsi hvordan lanseringskurven for et gitt nytt produkt vil utvikle seg.
For det andre hekter Aas seg for mye opp i automatisering, der KI helt overtar oppgaver fra oss mennesker. Like viktig som den rene automatiseringen er KI som kollega.
Aas’ retoriske poeng om at de færreste virksomheter tjener penger på å svare på spørsmål med faktafeil, er gøyalt nok. Dessverre blir det også misvisende for leseren. Chat GPTs tendens til å «hallusinere», altså komme med selvsikre beskrivelser som er plausible men gale, er et betydelig problem. Intellektuell latskap hos KI-brukeren, hvor man ikke sjekker kildene for påstandene, gjør problemet større.
Det blir likevel helt gal konklusjon at det ikke skulle ligge virkelig verdi for selskaper å utnytte generativ kunstig intelligens, som Chat GPT bygger på. Tvert imot, ved ikke å låse seg fast i at KI er å bruke rigide regler for å automatisere bort oppgaver fra oss mennesker, oppstår nye muligheter. Det gjelder langt utover det harde og maskinelle, og langt inn i det menneskelige og empatiske.
For eksempel viser en fersk studie fra University of California at leger ville hatt godt av bli støttet av kunstig intelligens i måten de snakker med sine pasienter på:
- Forskerne analyserte 195 medisinske spørsmål stilt av pasienter. Spørsmålene ble tilfeldig fordelt mellom menneskelige leger og Chat GPT.
- En gruppe med lisensiert helsepersonell vurderte så svarene uten å vite om de kom fra en lege eller KI. Studien viste at «gode» eller «svært gode» svar var 3,6 ganger høyere for Chat GPT enn for legene.
- KI-en ble også vurdert å være mer empatisk, med 9,8 ganger høyere «empatiske» eller «svært empatiske» svar enn for legene.
KI er svært kraftfull teknologi. Den kan bidra til store verdier og store problemer.
Blir vi for sneversynte i hva KI er, begrenser vi for det første og fremskynder det andre.
(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.