Artikkelen «Kunstig intelligens og legers svar på helsespørsmål» konkluderer (1):
Svarene generert av GPT-4 ble vurdert som mer empatiske, kunnskapsrike og hjelpsomme enn svarene fra leger. Det antyder at kunstig intelligens kan avlaste helsepersonell ved å formulere gode svarutkast på helsespørsmål.
Det er ikke overraskende at kunstig intelligens (KI) kan gi gode svar på gode spørsmål. Resultatene kan imidlertid ikke sees i isolasjon, og gjør det betimelig å minne om risiko ved bruk av ChatGPT eller lignende KI-modeller i klinisk medisinsk praksis.
1. Unøyaktighet og feilinformasjon – KI-modeller kan generere uriktige eller utdaterte medisinske råd, som kan føre til skadelige kliniske beslutninger.
2. Mangel på klinisk skjønn – KI mangler menneskelig intuisjon og profesjonell erfaring, som er avgjørende i komplekse saker som krever nyanserte vurderinger.
3. Skjevhet og etiske bekymringer – KI-modeller trenes på store datasett som kan inneholde skjevheter. Dette kan føre til ulikheter i medisinske anbefalinger, spesielt for underrepresenterte pasientgrupper.
4. Personvern og datasikkerhet – Bruk av KI i pasientinteraksjoner medfører risiko for eksponering av sensitiv helseinformasjon.
5. Juridiske og ansvarsmessige spørsmål – Det er uklart hvem som har ansvaret dersom KI-baserte råd fører til pasientskade – helsepersonell, institusjoner eller KI-utviklere.
6. Overavhengighet av KI – Klinikerne kan bli for avhengige av KI-forslag, noe som kan svekke deres kritiske tenkning og diagnostiske ferdigheter.
7. Mangel på forklarbarhet – KI-modeller fungerer som "svarte bokser". Dette gjør det vanskelig å forstå hvordan de kommer frem til konklusjoner, og skaper utfordringer med åpenhet og tillit.
8. Regulatoriske utfordringer – Nåværende medisinske reguleringer dekker ikke fullt ut KI-integrasjon i klinisk arbeidsflyt.
9. Feilinformasjon til pasienter – Dersom pasienter bruker KI-genererte medisinske råd uten profesjonell oppfølging, kan de feiltolke anbefalingene, utsette nødvendig behandling eller stille feil selvdiagnoser.
Rådet for legeetikk behandlet i 2024 en klage på et legesenters oppfordring til pasienter om bruk av ChatGPT som forberedelse til legetimer. Rådets vurdering var at dette representerte brudd på Etiske regler for leger kapittel I §§ 4 og 9, da ChatGPT ikke er en medisinsk anerkjent metode. Den medisinskfaglige kompetansen ligger hos legen, og kan ikke delegeres til pasientene. Legesenteret har ikke kontroll med kommunikasjonen mellom pasienten og ChatGPT – inkludert viktige aspekter som hvordan OpenAI bruker informasjonen pasienten legger inn, og risikoen for feilinformasjon. Rådet anbefalte innklagede å slutte med å anbefale pasienter å bruke ChatGPT for å forberede seg til legebesøk.
Det nevnes at helsemyndighetene maner til forsiktighet (2).
En opplyst diskusjon om hvordan KI skal brukes på en trygg måte i legenes kliniske virke, og for pasientene, blir avgjørende. Rådet ønsker en debatt om ovennevnte problemstillinger velkommen.
KI bør utforskes med nysgjerrighet, entusiasme - og forsiktighet
Artikkelen «Kunstig intelligens og legers svar på helsespørsmål» konkluderer (1):
Svarene generert av GPT-4 ble vurdert som mer empatiske, kunnskapsrike og hjelpsomme enn svarene fra leger. Det antyder at kunstig intelligens kan avlaste helsepersonell ved å formulere gode svarutkast på helsespørsmål.
Det er ikke overraskende at kunstig intelligens (KI) kan gi gode svar på gode spørsmål. Resultatene kan imidlertid ikke sees i isolasjon, og gjør det betimelig å minne om risiko ved bruk av ChatGPT eller lignende KI-modeller i klinisk medisinsk praksis.
1. Unøyaktighet og feilinformasjon – KI-modeller kan generere uriktige eller utdaterte medisinske råd, som kan føre til skadelige kliniske beslutninger.
2. Mangel på klinisk skjønn – KI mangler menneskelig intuisjon og profesjonell erfaring, som er avgjørende i komplekse saker som krever nyanserte vurderinger.
3. Skjevhet og etiske bekymringer – KI-modeller trenes på store datasett som kan inneholde skjevheter. Dette kan føre til ulikheter i medisinske anbefalinger, spesielt for underrepresenterte pasientgrupper.
4. Personvern og datasikkerhet – Bruk av KI i pasientinteraksjoner medfører risiko for eksponering av sensitiv helseinformasjon.
5. Juridiske og ansvarsmessige spørsmål – Det er uklart hvem som har ansvaret dersom KI-baserte råd fører til pasientskade – helsepersonell, institusjoner eller KI-utviklere.
6. Overavhengighet av KI – Klinikerne kan bli for avhengige av KI-forslag, noe som kan svekke deres kritiske tenkning og diagnostiske ferdigheter.
7. Mangel på forklarbarhet – KI-modeller fungerer som "svarte bokser". Dette gjør det vanskelig å forstå hvordan de kommer frem til konklusjoner, og skaper utfordringer med åpenhet og tillit.
8. Regulatoriske utfordringer – Nåværende medisinske reguleringer dekker ikke fullt ut KI-integrasjon i klinisk arbeidsflyt.
9. Feilinformasjon til pasienter – Dersom pasienter bruker KI-genererte medisinske råd uten profesjonell oppfølging, kan de feiltolke anbefalingene, utsette nødvendig behandling eller stille feil selvdiagnoser.
Rådet for legeetikk behandlet i 2024 en klage på et legesenters oppfordring til pasienter om bruk av ChatGPT som forberedelse til legetimer. Rådets vurdering var at dette representerte brudd på Etiske regler for leger kapittel I §§ 4 og 9, da ChatGPT ikke er en medisinsk anerkjent metode. Den medisinskfaglige kompetansen ligger hos legen, og kan ikke delegeres til pasientene. Legesenteret har ikke kontroll med kommunikasjonen mellom pasienten og ChatGPT – inkludert viktige aspekter som hvordan OpenAI bruker informasjonen pasienten legger inn, og risikoen for feilinformasjon. Rådet anbefalte innklagede å slutte med å anbefale pasienter å bruke ChatGPT for å forberede seg til legebesøk.
Det nevnes at helsemyndighetene maner til forsiktighet (2).
En opplyst diskusjon om hvordan KI skal brukes på en trygg måte i legenes kliniske virke, og for pasientene, blir avgjørende. Rådet ønsker en debatt om ovennevnte problemstillinger velkommen.
Litteratur:
1. Mork TE, Mjøs HG, Giskegjerde H et al. Kunstig intelligens og legers svar på helsespørsmål. Tidsskr Nor Legeforen 2025; 145. doi: 10.4045/tidsskr.24.0402
2. Dobloug HM. Kunstig intelligens i allmennpraksis: Kjøreregler for trygg og lovlig bruk. Dagens Medisin 6.12.2024. https://www.dagensmedisin.no/digitalisering-fastlegeordningen-fastleger/kunstig-intelligens-i-allmennpraksis-kjoreregler-for-trygg-og-lovlig-bruk/665298 Lest 22.2.2025.