En vanlig – og litt naiv – forestilling blant erfarent helsepersonell er at vi greit kan identifisere hvilke nyvinninger som er opplagte goder for pasientene og hvilke som ikke er det. Det kan gjelde legemidler, kirurgiske inngrep eller infrastruktur som påvirker pasientbehandlingen, som kunstig intelligens (KI).

På samme måte har mange ansatte i helsevesenet en klar oppfatning om hva som utgjør en risiko for pasientene, og hva som er «trygt».

Dessverre er vi ofte begrenset av vår egen erfaringsbakgrunn – eller mangel på fantasi.

For å si det litt karikert, og uten forkleinelse for mine kolleger: En forslått ankel fortoner seg ulikt for røntgenpersonellet, for de ansatte på skadestuen, og for pasienten selv. Og selv om KI kan svare ja eller nei på om det foreligger brudd i ankelen, kan den neppe vurdere om pasientens smerter tilsier ytterligere undersøkelser med tanke på for eksempel leddbåndsskade, eller simpelthen omsorg og innleggelse fordi pasienten er aleneboende og ikke så lett kan klare seg selv.

Dersom hensikten med KI er å få pasienten raskest mulig ut av døra, kan slike hensyn, som er viktige for den enkelte pasient, bli nedprioritert.

En undersøkelse med slike forhold som effektmål vil gi mest presis kunnskap dersom den er lagt opp slik at det er «tilfeldig» om kunstig intelligens inngår i pasientbehandlingen eller ikke. «Tilfeldigheten» handler om loddtrekning på individ- eller institusjonsnivå. I det siste tilfellet kaller vi dette klynge-randomisering. Det krever en del organisering, men behøver ikke være spesielt kostbart. Det har heller ikke noe spesifikt med KI å gjøre, men kan gjelde en rekke intervensjoner som omfatter hele virksomheten, heller enn den enkelte pasient.

Det kan være mange penger å spare på å gjøre slike undersøkelser. Den pågående IT-skandalen i Helse Midt-Norge (Helseplattformen) kunne trolig vært unngått dersom man hadde gjennomført utprøving i liten skala på utvalgte sykehus i regionen. Men etter flere milliarder i utgifter synes ledelsen i det regionale helseforetaket fortsatt ikke å ha tatt inn over seg at hastverk er lastverk.

Leverandøren av Helseplattformen, Epic Systems Corporation, er selv leverandør av KI-systemer for oppdagelse av komplikasjoner hos inneliggende pasienter. Nylig ble nok en studie publisert, som bekrefter at Epics algoritme for påvisning av livstruende infeksjoner (sepsis) er ubrukelig: Diagnosen kommer for sent og algoritmen er derfor livsfarlig.

Det er altså ikke opplagt at kunstig intelligens eller annen ny teknologi medfører «lav risiko», enten vi snakker om bruddskader, sepsis, eller sykehusenes økonomi.

Studier som ikke fordeler nye intervensjoner eller teknologi til pasienter eller institusjoner på en tilfeldig måte, vil aldri kunne gi oss det presisjonsnivået våre pasienter og skattebetalere fortjener.

(Vilkår)Copyright Dagens Næringsliv AS og/eller våre leverandører. Vi vil gjerne at du deler våre saker ved bruk av lenke, som leder direkte til våre sider. Kopiering eller annen form for bruk av hele eller deler av innholdet, kan kun skje etter skriftlig tillatelse eller som tillatt ved lov. For ytterligere vilkår se her.