RJ Krumsviks kommentar om maskinlæring krever en klargjøring (1): Mener Krumsvik at store språkmodeller (Large language models (LLM)) som ChatGPT og GPY-4 er kommet så langt i utviklingen at vi kan og bør bruke store samfunnsressurser på å få frem ny medisinsk innsikt basert på disse metodene? I så fall vil det støtte Direktoratet for e-helses arbeide med Helseplattformen.
I sin argumentasjon viser Krumsvik til to internasjonale publikasjoner og påstår at den ene viser at språkmodellene kan foreta egne beslutninger og at det allerede har gitt interessante forskerfunn (2, 3). Jeg kan ikke se at formuleringene til Krumsvik kan baseres på de to publikasjonene, publikasjonene beskriver kun fremtidsperspektiver. Under headingen «Healthcare and Medicine» nevner referanse 3 flere mulige fremtidige bruksområder som imidlertid utelukkende består i å bearbeide allerede foreliggende medisinsk innsikt.
Referanse 3 viser forøvrig til en redaksjonell artikkel med tittelen “ChatGPT and Other Large Language Models Are Double-edged Swords” som påpeker at ChatGPT har mange begrensninger, en er at ChatGPT kan formulere tilsynelatende troverdige, men feilaktige svar (4). Videre at ChatGPT tenderer til å følge instruksjoner, snarere enn å bidra til noe nytt. Det påpekes at brukere må nøye formulere spørsmål og også nøye kontrollere premissene som ChatGPT baseres på. Det er altså fortsatt en lang vei frem til at disse modellene kan fungere utenfor vår nøye kontroll.
Artikkelen antyder at behovet for kompetente fagfeller ikke vil bli mindre.
Samme artikkel inneholder også en tvetydighet (4), nemlig at det er viktig for vår profesjon å vite at personer som vil delta i reguleringen av medisinsk praksis kan lage argumenter ved bruk av disse tekstbaserte hjelpemidler.
Litteratur:
1. Krumsvik RJ. Maskinlæring i en brytningstid. Tidsskr Nor Legeforen 2023. https://tidsskriftet.no/2023/11/kommentar/maskinlaering-i-en-brytningstid Lest 5.12.2023
2. Bubeck S, Chandrasekaran V, Eldan R et al. Sparks of artificial general intelligence: Early experiments with GPT-4. ArXiv. Preprint 13.04.2023. https://arxiv.org/abs/2303.12712 Lest 5.12.2023
3. Ray PP. ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope. KeAi 2023; 3: 121-54. https://doi.org/10.1016/j.iotcps.2023.04.003
4. Shen Y, Heacock L, Elias J et al. ChatGPT and other large language models are double-edged swords. Radiology 2023; 307. doi: 10.1148/radiol.230163.
Ressursbruk: Kan vi satse på maskinlæring
RJ Krumsviks kommentar om maskinlæring krever en klargjøring (1): Mener Krumsvik at store språkmodeller (Large language models (LLM)) som ChatGPT og GPY-4 er kommet så langt i utviklingen at vi kan og bør bruke store samfunnsressurser på å få frem ny medisinsk innsikt basert på disse metodene? I så fall vil det støtte Direktoratet for e-helses arbeide med Helseplattformen.
I sin argumentasjon viser Krumsvik til to internasjonale publikasjoner og påstår at den ene viser at språkmodellene kan foreta egne beslutninger og at det allerede har gitt interessante forskerfunn (2, 3). Jeg kan ikke se at formuleringene til Krumsvik kan baseres på de to publikasjonene, publikasjonene beskriver kun fremtidsperspektiver. Under headingen «Healthcare and Medicine» nevner referanse 3 flere mulige fremtidige bruksområder som imidlertid utelukkende består i å bearbeide allerede foreliggende medisinsk innsikt.
Referanse 3 viser forøvrig til en redaksjonell artikkel med tittelen “ChatGPT and Other Large Language Models Are Double-edged Swords” som påpeker at ChatGPT har mange begrensninger, en er at ChatGPT kan formulere tilsynelatende troverdige, men feilaktige svar (4). Videre at ChatGPT tenderer til å følge instruksjoner, snarere enn å bidra til noe nytt. Det påpekes at brukere må nøye formulere spørsmål og også nøye kontrollere premissene som ChatGPT baseres på. Det er altså fortsatt en lang vei frem til at disse modellene kan fungere utenfor vår nøye kontroll.
Artikkelen antyder at behovet for kompetente fagfeller ikke vil bli mindre.
Samme artikkel inneholder også en tvetydighet (4), nemlig at det er viktig for vår profesjon å vite at personer som vil delta i reguleringen av medisinsk praksis kan lage argumenter ved bruk av disse tekstbaserte hjelpemidler.
Litteratur:
1. Krumsvik RJ. Maskinlæring i en brytningstid. Tidsskr Nor Legeforen 2023. https://tidsskriftet.no/2023/11/kommentar/maskinlaering-i-en-brytningstid Lest 5.12.2023
2. Bubeck S, Chandrasekaran V, Eldan R et al. Sparks of artificial general intelligence: Early experiments with GPT-4. ArXiv. Preprint 13.04.2023. https://arxiv.org/abs/2303.12712 Lest 5.12.2023
3. Ray PP. ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope. KeAi 2023; 3: 121-54. https://doi.org/10.1016/j.iotcps.2023.04.003
4. Shen Y, Heacock L, Elias J et al. ChatGPT and other large language models are double-edged swords. Radiology 2023; 307. doi: 10.1148/radiol.230163.