'Als we AI willen ontwikkelen die mensen echt verder helpt, hebben we alle denkkracht nodig.'

Om de beste kunstmatige intelligentie te bouwen, is niet alleen maar rekenkracht en nieuwe technologie nodig, betoogt Pim Haselager. Willen we AI ontwikkelen die mensen ook echt verder helpt, dan hebben we daarvoor alle denkkracht nodig. Ook van mensen uit alle gelederen van de samenleving waar AI een rol gaat spelen. Alleen dan kunnen we de implicaties van die nieuwe technologie goed doorgronden.

Haselager is verbonden aan de Radboud Universiteit als hoogleraar Societal Implications of AI, en stuurt een onderzoeksgroep aan met diezelfde titel. In zijn onderzoek richt hij zich op een verantwoorde, interdisciplinaire ontwikkeling en toepassing van kunstmatige intelligentie en cognitieve neurowetenschappen. Haselager: ‘Een verantwoorde inzet van AI en cognitieve neurowetenschap vraagt om een constructieve ethiek die er vroeg bij moet zijn. Juist in de onderzoeks- en ontwikkelingsfase van technologie moeten maatschappelijke verwachtingen en zorgen een belangrijke rol kunnen spelen.’

‘Onderwerpen als mens-robot interactie, beslissingsondersteunende machines, chatbots, en directe communicatie tussen brein en computer vragen om maatschappelijke discussie over de ontwikkeling en gebruik van technologie,’ zegt de onderzoeker. ‘We hebben als mensheid een lange geschiedenis van vooroordelen, een bias waar we onze beslissingen op baseren. Als we niet opletten, wordt die bias overgenomen door zelflerende AI-systemen.’ Het kan echter lastig zijn om dat te voorkomen - zeker in je eentje, en zeker als je mogelijk zelf ook bepaalde (onbewuste) vooroordelen hebt. ‘Om daar verstandig over na te denken en evenwichtig over te praten, is diversiteit een absolute voorwaarde’, geeft Haselager aan.

‘Binnen één van de eerdere Brain Computing Interfacing-onderzoeken waarbij ik betrokken was, werkten we aan ondersteuning voor mensen die verlamd zijn. Dan moet je bijvoorbeeld denken aan cursors die ze kunnen bewegen door middel van hersenactiviteit. Hartstikke handig natuurlijk: je kunt ondanks je verlamming zelfstandig het licht uitdoen en andere apparaten in huis aansturen. Maar als we patiëntengroepen vroegen of ze het wilden gebruiken, kregen we ‘nee’ te horen. Want: om dit te gebruiken moest je toendertijd nog een soort van badmuts opzetten om je hersenactiviteit goed te kunnen meten. “Ik zie er niet uit met zo’n ding op,” vertelden de patiënten ons, “dat ga ik écht niet dragen.” Als onderzoeker ben je totaal niet met het uiterlijk bezig, maar juist door een gesprek met de stakeholders doe je die belangrijke inzichten alsnog op.’

Een portret van Pim Haselager

Reflection machines

Binnen de onderzoeksgroep wordt momenteel onder andere onderzoek gedaan naar zogenaamde reflection machines. Want reflectie op AI is niet alleen nuttig, het is zelfs verplicht: de Europese Unie eist dat er effective human oversight is bij de ontwikkeling en het gebruik van algoritmes. Haselager: ‘Steeds vaker worden beslissingen genomen die ondersteund worden door algoritmes. Denk bijvoorbeeld aan zelfrijdende auto’s, of geautomatiseerde besluitsystemen in overheidsbureaucratie. Wat je dan ziet is dat mensen die algoritmes geleidelijk steeds meer vertrouwen, terwijl ze niet nalopen of het systeem echt helemaal naar behoren werkt. Daardoor ontstaat een verantwoordelijkheidsgat: de mens vertrouwt op een machine, maar die draagt geen verantwoordelijkheid.’

Zo’n reflection machine moet die menselijke verantwoordelijkheid ondersteunen. Het pakt concrete data, en legt die voor aan menselijke toezichthouders. Als bij wijze van spreken testresultaat 22 een opvallende afwijking heeft, moet die toezichthouder zelf ook kunnen achterhalen hoe dat testresultaat tot stand is gekomen, en waar die afwijking dan vandaan komt. ‘Als je dat niet kunt uitleggen, is dat een alarmbel voor jezelf: kan ik dan wel voldoende op dat slimme algoritme rekenen? De ontwikkeling van zo’n systeem is complex: wat voor vragen moeten er gesteld worden, en wanneer stel je die? Je wil niet dat een computer bij elke stap een evaluatievraag aan je voorlegt.’

‘Binnenkort gaan we zo’n systeem testen voor de medische diagnose van lage rugpijn. Er zijn heel veel manieren om rugpijn aan te pakken: met een operatie, met fysiotherapie, of door sociale omstandigheden zoals stress aan te pakken. AI kan aanbevelingen doen voor de juiste aanpak, en wij willen een reflection machine ontwikkelen die helpt om te beoordelen of die aanpak echt de juiste is. Ook daar is diversiteit weer heel belangrijk: elke patiënt beleeft pijn anders, en ook factoren als gender, leeftijd en afkomst maken verschil. Dan is het belangrijk dat de onderzoeker die met patiënten in gesprek gaat daarvoor open staat, én een band kan opbouwen met die groep.’ Ook hier is alle denkkracht uit alle gelederen van de samenleving nodig om input van een bredere groep te kunnen verzamelen.

 

AI: bedreiging of kans?

Het grote publiek ziet AI nog vaak als een dreigende donderwolk die ons leven de komende decennia grondig gaat veranderen - en niet geheel op een positieve manier. Haselager: ‘De dreiging van AI is eigenlijk onze favoriete nachtmerrie, het is zo oud als Frankenstein: de dreiging dat wij als mensen de rol van God op ons nemen, dat we iets creëren dat ons kan vernietigen. Een fantasie rondom nieuwsgierigheid, rondom gevoelens van macht en angst: het appelleert aan hele basale emoties.’ Denk aan de Terminator, de fictieve robot met een Oostenrijks accent die het menselijk ras wil uitroeien. Maar ook in het nieuws komt vaak een toekomstbeeld voorbij waarbij robots ons vervangen op de werkvloer.

Volgens Haselager zijn er echter veel zinvollere manieren om nieuwe technologie in te zetten. ‘In de constructieve ethiek draait het niet om ja of nee zeggen tegen technologie. AI-ontwikkelingen zijn als een rivier die ons land binnenkomt, die hou je niet tegen. Maar je kunt het wél kanaliseren. Om het weg te houden bij plekken waar het fout kan gaan, maar óók om het te sturen naar plekken waar AI meer toevoegt.’

‘We moeten af van het idee dat we AI gaan maken die mensen kan vervangen. Het is veel zinvoller om te werken aan intelligentie die mensen ondersteunt, die ze beter tot hun recht laat komen. Waarom zou je een sociale robot bouwen, als wij daar als mensen al heel goed in zijn? Waarom wil je een robot laten praten, een gesprek laten voeren, als wij daar als mensen veel beter in zijn? Mijn zus werkte veertig jaar in de zorg, en had steeds minder tijd en ruimte voor persoonlijk contact met patienten en clienten. Dan moeten we niet een robot bouwen die dat sociaal contact overneemt, maar eentje die het zware fysieke werk doet. Laat de robot het bed verschonen, het huis stofzuigen en de ramen lappen, zodat mensen vrij zijn om menswaardige taken uit te voeren.’

 

Wil je meer lezen over ons onderzoek op het gebied van AI en de werkomgeving? Kijk dan op onze pagina over werken in AI aan de Radboud Universiteit.

Naar werken in AI