Werken AI en machine learning zoals ze bedoeld zijn? Met andere woorden: lossen ze de gewenste problemen op?
Naam
Nils Jansen
Opleiding
Software Science
Huidige functie
Universitair docent in Software Science
Nils Jansen, geboren in Duitsland, werkt sinds 2017 aan de Radboud Universiteit. Hij promoveerde in de Theoretische Informatica aan de RWTH Aachen University en werkt nu in Nijmegen als universitair hoofddocent, met focus op de veiligheid en betrouwbaarheid van AI en Machine Learning. Zijn meest recente prestatie: het verkrijgen van een EU-subsidie voor zijn onderzoek naar het veiliger maken van AI. En dat is goed nieuws, want er valt nog veel te winnen op dit gebied.
Machine Learning en AI
Machine Learning en AI kennen vele succesverhalen en tastbare voorbeelden. Denk maar aan zelfrijdende auto's of zelfvliegende drones. Volgens Nils Jansen denken veel mensen dat AI alle problemen kan oplossen. Er zijn echter nog grote uitdagingen. 'Mensen zijn nog steeds beter dan machines in het oplossen van veel problemen. De vraag is: doen AI en machine learning wat ze bedoeld zijn te doen? Met andere woorden: lossen ze de gewenste problemen op? Ons onderzoek richt zich op die vragen.'
We kunnen bijvoorbeeld het weer voorspellen op basis van bepaalde gegevens. We weten ook dat er factoren zijn die de uitkomst kunnen veranderen. We streven ernaar om robuuster te worden tegen alle mogelijke onzekerheden die zich in de echte wereld voordoen.
Reinforcement Learning
Reinforcement Learning is een specifieke machine learning techniek. Het verkent voornamelijk de omgeving. Nils Jansen legt uit: 'Het probleem is dat de agent, bijvoorbeeld een zelfvliegende drone of zelfrijdende auto, vaak alle mogelijke acties uitprobeert en vervolgens kijkt wat het mogelijke resultaat is. Het bekendste voorbeeld is Alpha Go. Een aantal jaar geleden versloeg de AI-computer die het spel Go speelde de beste menselijke speler ter wereld. Het kan dus zeer krachtig zijn, maar het is ook extreem veiligheidskritisch. Het kan zichzelf en zijn omgeving beschadigen omdat het alle mogelijke acties uitprobeert.' In tegenstelling tot wat de meeste mensen denken, zijn de nieuwe technologieën dus niet altijd beter en slimmer, maar creëren ze ook nieuwe veiligheidsuitdagingen.
Veilig maken
De European Research Council is onderdeel van de EU en biedt grote onderzoek financieringsprogramma's. Nils vroeg begin dit jaar een startsubsidie aan om meer onderzoek te kunnen doen naar de veiligheidsproblemen van Reinforcement Learning. En met succes: 'Ik kreeg € 1,5 miljoen toegekend om te investeren in het veiliger maken van Reinforcement Learning en AI. We gebruiken wiskundige modellen om de onzekerheid die zich in de echte wereld voordoet nauwkeurig vast te leggen. Onze groep probeert te meten wat er in het slechtste geval zal gebeuren, maar dan betrouwbaarder. Bijvoorbeeld: we nemen aan dat de wind een bepaalde snelheid en richting heeft, gebaseerd op historische gegevens. Wat we hieraan toevoegen, is dat we het veilige gedrag vooraf berekenen, gebaseerd op de onvolledige gegevens die we hebben. Amazon zal over een paar jaar drones gebruiken om pakketten te bezorgen. Op dit moment heeft een drone gegevens die het kan gebruiken om te voorkomen dat het tegen een gebouw botst, zoals gegevens over de wind. Deze zijn echter niet betrouwbaar genoeg. Daarom berekenen we vooraf het ergste wat er zou kunnen gebeuren. Daarna gebruiken we deze informatie om een beslissing te nemen met een aanvaardbaar risico.' De financiering helpt Nils Jansen en zijn team bij het werken aan de betrouwbaarheid van AI en machine learning. En uiteindelijk maakt dat de wereld voor ons allemaal een veiligere plek.
Dit artikel is geschreven en gepubliceerd door TechGelderland.nl. Foto's: Linda Verweij