Brecht Moerenhout Verschenen op 19/12/2024

In het nieuws

Vertrouw niet blindelings op technologie. We lazen op de website van VRT Nieuws dat artificiële intelligentie (AI), zoals ChatGPT, Gemini en Copilot, steeds vaker gebruikt wordt voor medische vragen en advies over medicatie. Onderzoek van de Universiteit Antwerpen toont aan dat veel AI-modellen veelbelovend zijn, maar waarschuwt voor gevaarlijke fouten zoals verkeerd advies over medicatie.

Conclusie

AI-modellen kunnen nuttig zijn voor eenvoudige vragen, maar ze zijn niet foutloos en begrijpen de medische context niet. Vertrouw nooit blindelings op AI voor gezondheidsadvies en bespreek altijd je vragen met een gekwalificeerde zorgverlener. AI schept veel mogelijkheden voor de toekomst, maar menselijke medische expertise blijft onmisbaar.

Lees verder »

Waar komt dit nieuws vandaan?

Het artikel van 27 november 2024 op de nieuwswebsite van de VRT beschrijft het thesisonderzoek van Branco De Busser, masterstudent Farmaceutische Wetenschappen aan de UAntwerpen (1). Voor zijn onderzoek stelde hij verschillende AI-modellen vragen uit cursussen voor apothekers (2).

  • Hoewel de modellen vaak correcte informatie gaven, waren er ook vaak fouten (hallucinaties) en onnauwkeurigheden, zoals verkeerd advies over medicatie. Dat kan zeer gevaarlijk zijn.
  • Het onderzoek besluit dat deze modellen nuttig kunnen zijn als aanvullend hulpmiddel, maar dat ze geen betrouwbare vervanging zijn voor menselijke medische expertise.
Bron

Hoe moet je dit nieuws interpreteren?

AI biedt veel mogelijkheden en wordt steeds vaker in het dagelijkse leven gebruikt, ook in de gezondheidszorg. Maar nieuwe technologie brengt ook grote uitdagingen en risico’s met zich mee, die gebruikers niet mogen onderschatten.

Hoe werkt AI eigenlijk?

AI-modellen zoals ChatGPT zijn gebaseerd op Large Language Models (LLM’s). Die modellen worden getraind op enorme hoeveelheden tekstdata van het internet, boeken en wetenschappelijke artikels. Daardoor kunnen ze verbanden leggen tussen woorden en zinnen en zo menselijk klinkende antwoorden geven. Toch werkt AI anders dan het menselijk brein.

  • Terwijl mensen redeneren op basis van ervaring, context en logica, voorspelt AI het meest waarschijnlijke volgende woord op basis van patronen in de trainingsdata.
  • AI begrijpt dus niet wat het zegt. Het herkent slechts taalpatronen.
  • Dat verklaart waarom AI soms overtuigende, maar verkeerde of contextloze antwoorden geeft.
Beperkingen en risico’s

Aan AI zijn verschillende risico’s en beperkingen verbonden:

  • Onnauwkeurigheden en hallucinaties
    AI-modellen kunnen soms volledig verkeerde informatie verzinnen. Dat wordt ook wel ‘hallucinaties’ genoemd. 
    • Zo toonde een onderzoek bijvoorbeeld aan dat 69% van de aangehaalde wetenschappelijke bronnen volledig verzonnen zijn, maar toch geloofwaardig lijken door realistisch klinkende titels en auteursnamen (3). Dat maakt factchecking noodzakelijk.
    • Gebrek aan medische context
      AI houdt geen rekening met individuele medische dossiers of specifieke gezondheidsproblemen. Advies dat misschien correct lijkt, kan dus gevaarlijk zijn als het niet afgestemd is op iemands persoonlijke situatie, omdat een AI-model begrip en redenering mist zoals een mens dat heeft (4).
    • Bias en discriminatie
      AI leert van bestaande data, die vaak bevooroordeeld is. Dat kan leiden tot ongelijke behandeling van patiënten.
      • Enkele studies toonden bijvoorbeeld structurele vooroordelen aan in medische algoritmes (vooraf bepaalde sets instructies die een computerprogramma volgt), waardoor zwarte patiënten niet de zorg kregen die ze nodig hadden (5, 6).
    • Gebrek aan transparantie en privacy
      Privacy en transparantie vormen cruciale uitdagingen bij het gebruik van AI in de gezondheidszorg (7).
      • Vragen die gebruikers stellen aan een AI-model, kunnen opgeslagen worden en risico’s voor privacy met zich meebrengen.
      • Om ethisch en correct gebruik van AI te kunnen garanderen en gevoelige informatie te beschermen, is een duidelijk wettelijk kader rond dataprivacywetgeving noodzakelijk.
    Mogelijkheden van AI in de toekomst

    Hoewel er risico’s zijn, kan AI ook veel positieve toepassingen hebben in de gezondheidszorg (8). Het kan onder andere bijdragen aan:

    • Ondersteuning van zorgverleners
      AI kan medische professionals helpen door snel toegang te geven tot grote hoeveelheden medische informatie en wetenschappelijke studies.

    • Snellere triage
      AI kan symptomen analyseren en snel advies geven over de dringendheid van medische problemen.

    • Zelfzorgtools
      Voor eenvoudige vragen over zelfzorgproducten of levensstijladvies kan AI een laagdrempelig hulpmiddel zijn.

    • Administratieve hulp
      AI kan helpen om de administratieve last voor zorgverleners sterk te verminderen. Denk daarbij bijvoorbeeld aan het automatisch invullen van dossiers, afspraken inplannen of verzekeringsclaims verwerken. Dat maakt meer tijd vrij voor directe zorgverlening aan patiënten. 

    Conclusie

    AI-modellen kunnen nuttig zijn voor eenvoudige vragen, maar ze zijn niet foutloos en begrijpen de medische context niet. Vertrouw nooit blindelings op AI voor gezondheidsadvies en bespreek altijd je vragen met een gekwalificeerde zorgverlener. AI schept veel mogelijkheden voor de toekomst, maar menselijke medische expertise blijft onmisbaar.

    Referenties
    Content overnemen van Gezondheid en Wetenschap

    Gezondheid en Wetenschap heeft het alleenrecht op de meeste gepubliceerde content. Onze artikels mogen dus niet overgenomen worden zonder onze schriftelijke toestemming.

    Interesse in onze content? Neem contact op via info@gezondheidenwetenschap.be.

    Nieuwsbrief

    Schrijf je in voor onze nieuwsbrief