Artikkel
Kunstig intelligens har mange anvendelsesområder, men kan det også hjelpe oss med etiske spørsmål?
En pasient skal innlegges for et kirurgisk inngrep og får spørsmål om hen ønsker resuscitering (hjerte-lunge-redning, HLR). Hen konsulterer kunstig intelligens for å klargjøre spørsmålet for seg selv. Verktøyet sammenligner personlige data som alder, helsestatus og verdier med en stor gruppe pasienter som har tatt stilling til spørsmålet. Maskinen melder: «Pasienter som ligner deg med henblikk på disse kjennetegnene, ville velge resuscitering i 30 % av tilfellene, forutsatt at overlevelse til utskriving er over 30 %.»
Et annet scenario er at pasientens holdning til resuscitering er ukjent (figur 1). Legen mater dette inn i beslutningssystemet. Den kunstige intelligensen vil beregne sannsynlige utfall av resuscitering basert på tilgjengelige data om pasienten, og informerer om at «x % av pasienter med samme kjennetegn har svart 'nei' på spørsmålet».
Kunstig intelligens og etikk
Kunstig intelligens og etikk
En gruppe sveitsiske bioetikere drøfter i en ny artikkel hvilke forutsetninger som må være til stede for at kunstig intelligens skal kunne fungere bra (1) . De presenterer også hvilke holdninger leger og sykepleiere ved et større universitetssykehus i Sveits hadde til hjelpemiddelet. Fagfolkene var åpne, men opptatt av hva som kan gå galt.
Kunstig intelligens kan være nyttig for mange formål, men kan også ha negative og kanskje ødeleggende konsekvenser. Hvilke betingelser må være til stede for forsvarlig bruk? Særlig vanskelig kan det være når det dreier seg om liv og død. Men kanskje kan kunstig intelligens brukes til å fatte etisk sett bedre beslutninger?
Maskiner og algoritmer er følelseskalde, og det kan være en svakhet ettersom etiske spørsmål også er følelsesspørsmål. Men nettopp maskinens fravær av følelser kan være nyttig for oss, slik at vi ikke fatter ubegrunnet emosjonelle beslutninger.
Maskinens fravær av følelser kan være nyttig for oss
Det er grunn til å anta at håndteringen av spørsmålet om resuscitering ikke fungerer godt nok i dag. Engelske data viser at 40 000 pasienter hvert år antas å ikke ønske resuscitering, uten at man kjenner pasientens ønske. I tillegg kommer det at mange pasienter har mangelfull kunnskap og synes det er vanskelig å vurdere hvilken informasjon som trengs, eller overdriver nytten av resuscitering. Pårørende blir ofte spurt i en stressende situasjon, og de kan ta valg som ikke er i tråd med pasientens ønsker.
Hva kan maskinen bidra med?
Hva kan maskinen bidra med?
Biller-Andorno og medarbeidere mener at dagens situasjon må forbedres, og at kunstig intelligens kan hjelpe. Maskinen kan bidra til et bedre grunnlag for å fatte disse beslutningene, fordi den kan tydeliggjøre hvilke elementer som bør med, og fordi den kan brukes i samtaler om spørsmålet. Det gjelder ikke bare medisinske forhold, men også hvilke verdier vi har og ønsker å basere beslutningene våre på. Her kan maskinen bruke metoder fra beslutningsteori, der verdiavklaringer inngår i mange analytiske modeller.
Kunstig intelligens kan bare være rådgiver. Det må være mennesker som bestemmer. Men maskinen kan gi hjelp til å klargjøre egne standpunkt og brukes i samtaler med pasient og pårørende, eller i diskusjoner i faggruppene. Kanskje kan en slik bruk av kunstig intelligens også brukes i klinisk etikk-komiteer?
Kvaliteten på beslutningsstøtten blir ikke bedre enn det som er matet inn. Data om helsesituasjon, utfall av behandling, sammenligningsgrunnlag, personlige verdier og kontekst må være best mulig. Forfatterne advarer mot systemer der algoritmene ikke er tilstrekkelig transparente. Transparens er avgjørende både for tillit, legitimitet, datasikkerhet og rettslig ansvar.