19|09|17 De robotrechter | Lezing door jurist Ybo Buruma en filosoof Marjolein Lanzing
De robotrechter | Lezing door jurist Ybo Buruma en filosoof Marjolein Lanzing | Dinsdag 17 september 2019 | 19.30 – 21.00 uur | l Theaterzaal C, Radboud Universiteit | Radboud Reflects i.s.m. de Faculteit der Rechtsgeleerdheid
"Zeer interessante lezing! Heel prettig om zo snel na afloop de lezing terug te kunnen luisteren/kijken met de podcast en opname." (Uit een deelnemersevaluatie.)
Aankondiging - Gaan robots in de nabije toekomst de rechter vervangen? Technologie gaat de rechtspraak de komende jaren ingrijpend veranderen. Maar kan een robot een onderscheid maken tussen feiten en normen? En is het wenselijk dat machines beslissingen over onze levens nemen? Kom luisteren naar de visie van jurist Ybo Buruma en filosoof Marjolein Lanzing op de robotisering van het recht. Zie de volledige aankondigingstekst onderin.
Verslag - De robotrechter
Technologie gaat de rechtspraak de komende jaren ingrijpend veranderen. Hoe ver zal dit gaan? Wat kan een computer wel en niet beter dan de rechter? En in hoeverre is artificiële intelligentie in de rechtspraak wenselijk? Jurist Ybo Buruma en filosoof Marjolein Lanzing bogen zich over deze vragen en gingen in gesprek onder leiding van ethicus Marcel Becker.
Flitsboete
“Wie is er als eens veroordeeld door een robot?”, vroeg Buruma aan de zaal. Niemand stak zijn hand op. “En wie is wel eens geflitst voor te hard rijden met de auto?” Een aanzienlijk groter deel van het publiek stak nu zijn hand op. “Dan bent u wel degelijk veroordeeld door een robot.” Wanneer je geflitst bent, komt aan het uitdelen van je boete geen mens te pas, legde Buruma uit. Pas wanneer je bezwaar aantekent tegen de boete vanwege bijzondere omstandigheden, bijvoorbeeld omdat je vrouw aan het bevallen is en met spoed naar het ziekenhuis moet, dan komt er een mens aan te pas in de vorm van een rechter.
Juridische zoekmachines
Zo zijn er meer voorbeelden van geautomatiseerde systemen die door de overheid worden ingezet. Rechters en advocaten maken daarnaast al veel gebruik van ondersteunende technologie, vertelde Buruma. De Hoge Raad gebruikt bijvoorbeeld eigen zoekmachines voor arresten die draaien op algoritmes. Dat werkt vaak goed, maar niet altijd. Zo zal het systeem uitspraken van de Hoge Raad altijd als belangrijker zien, dan die van een lokale rechtbanken, terwijl de uitspraak van die ene lokale rechtbank, die slechts op pagina 53 van de zoekresultaten belandde, juist doorslaggevend kan zijn geweest.
Ongewenste output
Dit soort problemen met artificiële intelligentie in de rechtspraak zijn nog overzichtelijk, maar veel problematischer wordt het bij zogenaamd reinforcement learning. Dit soort zelflerende systemen worden ondoorzichtiger naarmate ze complexer worden. Zelfs programmeurs snappen vaak de code niet meer die dit type computers genereren. Het wordt dus een probleem als we niet meer kunnen achterhalen hoe een robotrechter tot zijn oordeel is gekomen, het zogenaamde black-box-probleem. Daarnaast kan een computer geen onderscheid maken tussen feiten en culturele normen, vertelde Buruma. We willen niet dat een computer een zwart iemand een hogere boete geeft dan een wit iemand, omdat het verband tussen 'hoogte boete' en 'huidskleur' uit de data blijkt te bestaan. Een computer bestempelt dit niet als ongewenst. We moeten dus niet aannemen dat uit een computer zomaar het juiste antwoord rolt.
Neutraal en efficiënt
Toch zag Buruma ook dat computers bepaalde dingen wel beter kunnen dan een menselijke rechter. Een rechter kan onbewust beïnvloed worden door de persoon die tegenover hem of haar staat of kan met het verkeerde been uit bed zijn gestapt. In sommige gevallen is een computer dus neutraler. Daarnaast zijn computers uiterst efficiënt. Het probleem zit dus vooral in de data. Wanneer advocatenkantoren computers gebruiken om de uitkomst van een zaak te bepalen zal de verdedigende partij de nadruk op andere argumenten leggen dan de aanvallende partij. Hoe kiest een rechter de relevante data?
Fingerspitzengefühl
Als artificiële intelligentie een belangrijke rol gaat spelen in de rechtspraak is het volgens Buruma van belang dat een rechter niet zijn fingerspitzengefühl verliest. De rechter moet aanvoelen wanneer er iets niet aan de haak is met wat de computer beweert. De Russische generaal Petrov voorkwam in 1983 een nucleaire oorlog, omdat hij niet vertrouwde wat zijn satellite warning system als output gaf. Het systeem beweerde dat er een inkomende nucleaire aanval onderweg was vanuit Amerika. Het protocol schreef voor ‘meteen terugslaan,’ maar Petrov vertrouwde de situatie niet. Het bleek een fout van de computer te zijn en hij voorkwam hiermee een nucleaire oorlog. Als hij had vertrouwd op de computer, dan had de wereld er heel anders uit kunnen zien.
Altijd bevooroordeeld
Lanzing onderschreef het idee dat een computersystemen ongewenst racistisch kan zijn. In de Verenigde Staten speelde dit met COMPAS, een programma dat aanvankelijk bedoeld was voor risico-inschatting, maar gebruikt werd in een rechtszaak met als resultaat dan een zwart iemand een zwaardere straf kreeg toebedeeld dan een wit iemand. De bedoeling van het systeem was om neutraal te zijn, maar er bleken vooroordelen in het systeem te zitten. Hoe het systeem tot zijn conclusie kwam, was nauwelijks meer te achterhalen, omdat de code te ingewikkeld was geworden. Het voorbeeld van Lanzing liet zien dat het heel belangrijk is wat je in een computer stopt, omdat data vrijwel altijd bevooroordeeld is. Een neutrale robotrechter bestaat dus niet.
Verantwoordelijkheid
Omdat data niet neutraal is, moeten we volgens Lanzing waken voor de zogenaamde automation bias: onze neiging om te denken dat computers neutraler zijn dan wij. We zien computers graag als zelfstandige entiteiten waar we verantwoordelijkheden aan toe kunnen schrijven. Lanzing benadrukte dat dit een gevaarlijke gedachte is en dat het belangrijk is dat de rol van de mens aanwezig blijft in onze omgang met zoiets als een robotrechter. Veel beter is het om te spreken van mens-machine-samenwerkingen. Dan blijven we zelf verantwoordelijk. Deze verantwoordelijkheid behelst veel meer dan slechts een human in the loop hebben.
Empathie
Het belang van de menselijke en empathische vermogens van de rechter mogen we volgens Lanzing niet onderschatten. Een computer kan niet empathisch zijn en het begrijpen van overtredingen in hun context kan erg belangrijk zijn, zoals Buruma al illustreerde met het voorbeeld van de snelheidsovertreding met je bevallende vrouw in de auto. Daarnaast heeft ieder mens recht op uitleg van het vonnis door een rechter, wat door het black-box-probleem zo goed als onmogelijk wordt. Het heeft ook nut om af en toe over de schreef te gaan en te leren van je fouten of om burgerlijk ongehoorzaam te zijn. Een computer zal de wet in deze context echter nooit interpreteren. Daarnaast noemde Lanzing het belang van vergeving, iets waartoe een computer niet in staat is. Buruma vertelde dat mededogen in de jaren 50 volstrekt normaal was en dat er veel aandacht ging naar resocialisatie. Nu is dat haast ondenkbaar.
Door: Dave Willems
Wil je op de hoogte blijven van onze activiteiten? Schrijf je dan in voor de tweewekelijkse nieuwsbrief.
Podcast:
Video:
Aankondiging
Gaan robots in de nabije toekomst de rechter vervangen? Technologie gaat de rechtspraak de komende jaren ingrijpend veranderen. Maar kan een robot een onderscheid maken tussen feiten en normen? En is het wenselijk dat machines beslissingen over onze levens nemen? Kom luisteren naar de visie van jurist Ybo Buruma en filosoof Marjolein Lanzing op de robotisering van het recht.
Big data
Robots kunnen nu al grote hoeveelheden juridische data analyseren en op basis daarvan een voorspelling doen over de uitspraak. Advocatenkantoren maken al gebruik van deze technologie. Maar hoe zit het met het uitspreken van een vonnis? Kan een robot daarbij oog hebben voor bijzondere omstandigheden en zoiets als billijkheid?
Een robotrechter kan aan de hand van big data concluderen dat je huidskleur een geldige reden is om je schuldig te bevinden. Dit soort racistische onderbouwingen zijn echter geen juridisch bewijs, maar juist uit de data afgeleide menselijke vooroordelen. Kan een robot daarvan loskomen en naast analyseren ‘hoe het is’ ook oordelen over ‘hoe het zou moeten zijn’?
Invloed van robots
Jurist Ybo Buruma vertelt wat de impact van kunstmatige intelligentie gaat zijn op het vak van de jurist. We moeten ons volgens hem niet laten afschrikken door het feit dat de inzet van KI nieuwe rechtsvragen met zich meebrengt. Wel moet de rechter oog houden voor de invloed van robots op de uitkomst van een vonnis en hiervan afwijken waar nodig.
Filosoof Marjolein Lanzing stelt de vraag wat het betekent voor de autonomie binnen de rechtspraak als robots beslissingen nemen. Is het beter wanneer de mens altijd de laatste zeggenschap heeft? Moeten we kunnen uitleggen waarom een robot een bepaalde beslissing heeft genomen? Blijft de mens de eindverantwoordelijke in de rechtspraak?
Na hun lezingen gaan Ybo Buruma en Marjolein Lanzing met elkaar in gesprek onder leiding van ethicus Marcel Becker.
Over de sprekers
Ybo Buruma is hoogleraar Algemene Rechtswetenschap aan de Radboud Universiteit en sinds 2011 raadsheer bij de Hoge Raad. Hij schreef dit jaar een betoog over de veranderende rol van de rechter onder invloed van robotisering.
Marjolein Lanzing is onderzoeker aan het Interdisciplinary Hub for Security, Privacy and Data Governance van de Radboud Universiteit. Ze schreef haar proefschrift over privacy onder invloed van de veranderende betekenis van het zelf in ons digitale tijdperk.
Dit is een programma van Radboud Reflects en de faculteit der Rechtsgeleerdheid van de Radboud Universiteit.
Wil je op de hoogte blijven van onze activiteiten? Schrijf je dan in voor de tweewekelijkse nieuwsbrief.