Fra Eliza til ChatGPT

    ()

    sporsmal_grey_rgb
    Artikkel

    Jeg ba ChatGPT om å skrive en lederartikkel om bruk av ChatGPT i forskning. Den var begeistret for seg selv, men jeg er foreløpig mer skeptisk. Teknologien er umoden, og bruken må diskuteres og reguleres.

    Foto: Einar Nilsen
    Foto: Einar Nilsen

    Nye store digitale språkmodeller som ChatGPT er basert på dyplæring og henter kunnskap fra enorme mengder fritt tilgjengelige digitale tekster. Ut fra dette produserer de syntetisk tekst som svar på åpne spørsmål. Resultatet kan nesten ikke skilles fra menneskeskapt tekst.

    Hva vil slik teknologi bety for forskning? For å få gode svar på vanskelige spørsmål kan det være lurt å gå direkte til kilden. Følgelig logget jeg meg inn på ChatGPT og ga den oppdraget: «Skriv en lederartikkel i Tidsskrift for Den norske legeforening om bruk av ChatGPT i forskning.» På mindre enn ett minutt hadde den skrevet en artikkel på uklanderlig norsk, som med noe velvilje kunne ha passert som en litt kjedelig lederartikkel her i Tidsskriftet.

    I lederartikkelen er ChatGPT svært begeistret for sin egen rolle i forskningen. Den «kan være til stor hjelp i forskning og utvikling av nye behandlingsmetoder», skriver den, og den kan «brukes til å generere hypoteser og ideer til nye forskningsprosjekter». Ifølge seg selv har den også bidratt til «flere vellykkede prosjekter som har ført til nye oppdagelser og bedre behandlingsmetoder».

    I klinisk medisin er det knapt grenser for hva slik teknologi kan benyttes til. Den kan generere journalnotater bare basert på samtalen mellom pasient og lege og deretter anbefale supplerende undersøkelser (1). Den kan svare på medisinske spørsmål, foreslå løsninger på kliniske problemstillinger og lage enkle pasientoppsummeringer av kompleks medisinsk informasjon – for å nevne bare noen av de svært mange potensielle bruksområdene.

    I forskningens verden er mange tidsskrifter og universiteter mest opptatt av at chatboter hverken bør være formelle eller reelle forfattere av artikler. Dette først og fremst fordi en chatbot ikke er en juridisk person og dermed ikke kan oppfylle forfatterskapskriterienes krav om å ta personlig ansvar for artikkelens innhold (2). Siden teknologien bruker eksisterende tekster for å generere ny tekst, uten å oppgi kilder, vil resultatet dertil kunne inneholde både intellektuelt og verbatimt plagiat, uten at dette oppdages. Chatboter har også en tendens til å «hallusinere», altså produsere direkte usanne påstander (1). For eksempel ba jeg ChatGPT om å fortelle om «kjente norske forskere på kreft i munnhulen». Straks listet maskinen opp «professor Jon Sudbø» som nummer én i Norge på det feltet, med den begrunnelsen at han «har publisert mange artikler i anerkjente tidsskrifter».

    Chatboter har også en tendens til å 'hallusinere', altså produsere direkte usanne påstander

    Med risiko for både faktafeil og plagiat i tekstene er det et tankekors at både dagens automatiske plagiatdetektorer og erfarne menneskelige fagfellevurderere er svært dårlige på å avsløre chatbotgenererte vitenskapelige tekster (3). Allerede utvikles det bedre programvare til slik bruk. Samtidig blir chatbotene bedre og bedre til å etterligne menneskeskrevet tekst. Det er et våpenkappløp som kommer til å fortsette, og er en av grunnene til at bruken av chatboter i vitenskapelig artikkelskriving må reguleres (4).

    I selve forskningsprosessen har maskinlæring og kunstig intelligens lenge vært benyttet, blant annet til dataanalyse. Men med de nye og avanserte språkmodellene kan bruken utvides betydelig. En chatbot kan gjøre litteratursøk, skrive oppsummeringer av tidligere artikler innen feltet, vekte funn, lage figurer og andre illustrasjoner og generere ideer og hypoteser for videre forskning, for bare å nevne noe (5). Noe av dette er ukontroversielt. Men ChatGPT kan produsere direkte faktafeil i selv enkle oppsummeringer av vitenskapelige artikler (6). Chatbotenes imponerende evner kan dessuten lett forføre leseren til å stole mer på teksten enn det er grunnlag for – et fenomen som er kalt automatiseringsbias (7).

    En av de aller første chatbotene, dataprogrammet Eliza, ble utviklet på 1960-tallet. Eliza kunne holde i gang en skriftlig samtale med et menneske ved å returnere sentrale ord hos motparten i spørsmålsform (8). Programmet fikk sitt navn fra karakteren Eliza Doolittle i teaterstykket Pygmalion – som i sin tur var inspirert av det greske sagnet om billedhuggeren som lagde en skulptur så livaktig at han forelsket seg og fikk gudene til å gjøre den levende (9). Mange håpet at Eliza kunne brukes i behandling av psykiske lidelser. Slik gikk det ikke.

    Det er ingen tvil om at ChatGPT og lignende chatboter vil gi store muligheter innen klinisk medisin og forskning i årene som kommer. Men ennå er det et langt stykke igjen før Pygmalions skulptur er blitt helt levendegjort. Bruken av teknologien må fortsatt både utvikles, diskuteres og reguleres, for fallgruvene og feilene er foreløpig mange. I ren forfengelighet spurte jeg for eksempel ChatGPT hvem Are Brean er. Han er «en anerkjent og erfaren plastisk kirurg» som «arbeider ved Aleris Plastisk kirurgi i Oslo» og «er en autoritet innen sitt felt», svarte maskinen. Ikke engang den siste påstanden er riktig.

    PDF
    Skriv ut
    Kommenter artikkel

    Anbefalte artikler

    Laget av Ramsalt med Ramsalt Media