Oncologist in white coat talking to patient. A network of nodes is in the foreground to empasise AI
Oncologist in white coat talking to patient. A network of nodes is in the foreground to empasise AI

Mogen we kankerpatiënten helpen met AI?

Één flesje water per vraag op ChatGPT. Dat is er ongeveer nodig om het hoofd van deze immens populaire kunstmatige denker koel te houden. We hebben het dan alleen nog maar over een onschuldig gegenereerd mailtje, of vooruit, een grammaticale check op correct Nederlands. Stel je voor dat we met ChatGPT patiënten met kanker beter kunnen helpen. Hoeveel flessen water zouden daar voor nodig zijn? Hoe ver mogen we gaan om ons leven met kunstmatige intelligentie te verbeteren?

Opereren of niet opereren? Wel of geen chemotherapie? Het zijn onmenselijke keuzes in de oncologie die boven alles mensenwerk moeten blijven, vindt AI-expert Johan Kwisthout. Met die gedachte onderzoekt hij hoe we AI veilig kunnen gebruiken voor mensen met kanker; op een manier die ons versterkt én klimaatvriendelijk is. In zijn PersOn project werkt Kwisthout aan een kunstmatige intelligentie die artsen en kankerpatiënten helpt met moeilijke keuzes maken over behandelingen. ‘Kunstmatige intelligentie mag nooit keuzes voor de patiënt of arts maken; het moet ons vooral beter informeren over de mogelijke gevolgen van onze keuzes. Zodat we als mens betere beslissingen kunnen nemen’, begint Kwisthout. 

Professor Johan Kwisthout

Kunstmatige intelligentie mag nooit keuzes voor de patiënt of arts maken; het moet ons vooral beter informeren over de mogelijke gevolgen van onze keuzes. Zodat we als mens betere beslissingen kunnen nemen

Blackbox- en whiteboxmodellen

Maar wat als zo’n systeem zoveel energie kost dat het klimaat naar de knoppen gaat? Ook daar houdt Kwisthout rekening mee. Hij gebruikt voor zijn AI-systemen zogenoemde whitebox modellen; de kennis die het AI-systeem gebruikt is vooraf zorgvuldig ingevuld door mensen en kost daardoor een stuk minder energie. En als kennis afgebakend is, weten we altijd waar het vandaan komt. Dat is essentieel in de medische wereld. ‘ChatGPT is daarentegen hét voorbeeld van een blackbox model, waarbij het web wereldwijd wordt doorgespit op zoek naar een antwoord. Dat kost bakken met energie en we weten niet eens hoe een conclusie precies tot stand komt’, zegt Kwisthout. Stel je voor dat we dit tijdens een behandeltraject doen en dat de AI zegt: “opereren”. Denk je dan als arts: “Oké is goed, als jij het zegt”? Voel jij je als patiënt dan sterker, zekerder?’.  

Ons AI model biedt de ruimte voor een beter en duidelijker gesprek tussen arts en patiënt

Persoonlijke afwegingen 

Dit is precies waarom de AI-systemen van Kwisthouts team nooit de beste (vervolg)behandeling voor een kankerpatiënt zullen adviseren. In plaats daarvan geeft de kunstmatige intelligentie statistische informatie over mogelijke kans op remissie, complicaties of verwachte levensduur na een behandeling. ‘En hoe zwaar dat weegt is per persoon verschillend’, zegt Kwisthout. De één vindt 90% kans op succes plus een mogelijke complicatie misschien wel oké. De ander wil misschien verder zoeken naar een alternatieve behandeling. ‘Ons AI model biedt de ruimte voor een beter en duidelijker gesprek hierover tussen arts en patiënt.’

Transparantie is de sleutel tot succes 

Op dit moment werkt Kwisthout aan de juridische kant van het verhaal. Want een whitebox AI-model op het gebied van oncologie moet altijd voldoen aan de medische regelgeving. Maar medische kennis ontwikkelt zich constant. ‘Moet een AI-model dan bij iedere kleine aanpassing opnieuw door het volledige juridische en ethische goedkeuringsproces?’, vraagt Kwisthout zich af. Het zou niet zo mogen zijn dat we steeds op juridische goedkeuring moeten wachten als we nieuwe kennis in het model hebben gestopt. Iemands leven staat op het spel. Hij onderzoekt daarom hoe je kunt bepalen of een wijziging in het model  invloed heeft op de betrouwbaarheid of werking ervan. Dat doet hij door samen met zijn team te werken aan manieren die transparant laten zien welke onderdelen van het model zijn aangepast. ‘Dit maakt het gebruik van AI in de praktijk sneller, flexibeler en juridisch werkbaar’, zegt Kwisthout. 

Sympathieke AI

Uiteindelijk wil Kwisthout mensen betere keuzes laten maken met een model dat ook eerlijk is over wat het niet weet. ‘De kunst is vervolgens om alle informatie op een duurzame manier te presenteren die begrijpelijk en transparant is. Voor patiënten, artsen én juristen. Dat is uiteindelijk wat kunstmatige intelligentie sympathiek maakt en ons helpt om betere beslissingen te maken’. 

Contactinformatie

Thema
Kunstmatige intelligentie, Zorg & Gezondheid