Kommentar

V. B. Vallevik og P. H. Brekke svarer

Vibeke Binz Vallevik
Sjefsforsker
Interessekonflikt:  Nei
Pål Brekke
Overlege
Oslo Universitetssykehus

Vi takker for engasjementet og kommentar til vår kronikk (1). Industrien er brukt som en analogi for å beskrive at helsevesenet, som alle andre organisasjoner, kan lære av erfaringer og data fra egen virksomhet for å forbedre pasientbehandlingen. Da handler det nettopp om å hjelpe de sårbare menneskene som oppsøker helsevesenet. For å skape et bedre og mer bærekraftig helsevesen bør vi benytte oss av den muligheten ny teknologi - som kunstig intelligens (KI) - kan gi.

For å kunne vurdere om KI-løsningene faktisk gir nytte for egne pasientpopulasjoner trenger vi å bygge kompetanse for å validere dem, og vi trenger data til dette. Miljøer fra alle fire helseregionene er representert i fagnettverket Kunstig intelligens i norsk helsetjeneste (KIN) (2). Der har temaet validering av KI-løsninger de to siste årene konsekvent blitt stemt frem som ett av topp fire temaer som medlemmene ønsker å diskutere (3, 4).

Vi mener ikke at vi skal gi fra oss nøkkelen til døra, men gjøre nøkkelen tilgjengelig for de som jobber der og trenger den. Vi anser tilstrekkelig beskyttelse av sensitive data som en forutsetning for bruk, og en forutsetning for tilliten norske pasienter har til helsevesenet. Samtidig ønsker vi den tradisjonelle dataproteksjonismen i helsesektoren til livs, der den som har samlet dataene er portvokter for «sin pasientpopulasjon». Vi bør sammen ta kostnaden med datafangst og foredling, slik at dataene tilhører samfunnet heller enn enkeltpersoner.

Hensikten bak personvernforordningen og reguleringen av personsensitiv informasjon er ment som et vern av menneskets rettigheter og friheter. Det finnes allikevel eksempler på saker der personvern har kommet foran pasientsikkerhet. I 2019 startet Torkel Steen en debatt med kronikken «Dødelig personvern”(5). Hjemmemonitorering av kritisk syke hjertepasienter ved Oslo Universitetssykehus ble forbudt fordi beskyttelsen av dataene ikke ble betegnet som god nok.

KI er i essens statistiske modeller som hjelper oss å forstå data. God forskningsmetode blir ikke mindre aktuell selv om vi har fått nye verktøy. Bias i datagrunnlaget ble viet et kapittel i BigMeds sluttrapport.

Med «tilgang til helsedata i Norge koster uforholdsmessig mye» mener vi at tid og ressurser som går til datatilgang ikke står i rimelig forhold til den tiden som går til selve forskningen. Det er et paradoks at Staten deler ut penger via Norges Forskningsråd for å skape verdi for samfunnet, men at en stor andel av pengene går med på på å manøvrere Statens egne byråkratiske systemer (6).

KI er på full fart inn i samfunnet, og langsomt på vei inn i sykehusene. Vi trenger rammebetingelser som kan sikre en trygg implementering, til beste for pasientene våre.

Litteratur
1. Vallevik VB, Brekke PH. Kunstig intelligens i klinikken – en industri uten råvarer. Tidsskr Nor Legeforen 2022; 142. doi: 10.4045/tidsskr.22.0084

2. Kunstig intelligens i norsk helsetjeneste (KIN). https://ehealthresearch.no/kin/ Lest 12.9.2022. 

3. Kunstig intelligens i norsk helsetjeneste (KIN). Arrangementer. https://ehealthresearch.no/kin/arrangementer/ Lest 12.9.2022.

4. Kunstig Intelligens i Norsk helsetjeneste - KIN. Nettverksmøte nr. 2 2022. https://ehealthresearch.no/files/documents/Referat-nettverksmote-2-2022_2022-06-07-131104_tmip.pdf Lest 12.9.2022.

5. Steen T. Dødelig personvern. Aftenposten 18.12.2018. https://www.aftenposten.no/meninger/debatt/i/VR7jEW/doedelig-personvern… Lest 9.9.2022

6. Et nytt system for enklere og sikrere tilgang til helsedata. Rapport fra Helsedatautvalget 2016-2017. Oslo: Helse- og omsorgsdepartementet, 2017.  https://www.regjeringen.no/contentassets/1fe9cf37e64344e1a3b3c62f950b10… Lest 9.9.2022

Publisert: 12.09.2022
Laget av Ramsalt med Ramsalt Media