In augustus 2024 is de Europese AI Act in werking getreden: een wet die burgers beschermt tegen onverantwoord gebruik van kunstmatige intelligentie (AI) en die organisaties verplicht om zorgvuldig en transparant met AI om te gaan. De Radboud Universiteit neemt hierin haar verantwoordelijkheid en is gestart met het project AI Act.
De AI Act stelt strenge eisen op het gebied van AI. Als onderzoeker of student wil je de ruimte hebben om te experimenteren met de mogelijkheden van AI en zoveel mogelijk vrij zijn in je keuze om AI-tools te gebruiken, waarbij je je bewust bent van ethiek, transparantie, veiligheid en wet- en regelgeving. Dit project zorgt ervoor dat de universiteit voldoet aan de wetgeving én stimuleert dat jij als medewerker of student verantwoord omgaat met AI op het gebied van onderwijs, onderzoek en bedrijfsvoering.
Vijf hoofdonderdelen
Het AI Act-project bestaat uit vijf hoofdonderdelen, die parallel aan elkaar worden uitgevoerd:
- AI-beleid
Het project streeft ernaar om in november 2025 het beleid voor onderzoek op te leveren. Het beleid voor onderwijs en bedrijfsvoering is gepland voor december 2025. - AI-geletterdheid
Het beschikbaar stellen van trainingen, kennisclips en informatie voor studenten en medewerkers. Want AI begrijpen is essentieel om het goed te gebruiken. - Hulpmiddelen
Welke AI-tools gebruik jij tijdens je werk of studie en passen deze tools bij het AI-beleid van de universiteit? Er komen hulpmiddelen die je helpen met het kiezen van AI-tools en het verantwoord omgaan met AI-tools, zoals een software-overzicht en een AI-loket voor vragen en ondersteuning. Het project zorgt ervoor dat deze hulpmiddelen worden verankerd in de organisatie (governance). - AI-register
Het vullen en beschikbaar stellen van een centrale database met alle AI-toepassingen binnen de universiteit, inclusief risicoclassificatie volgens de AI Act. Dit register is essentieel om grip te houden op de inzet van AI en om risico’s zoals bias, inbreuk op auteursrecht of onbedoelde discriminatie te voorkomen. - Advies GenAI-applicatie
Onderzoek naar geschikte generatieve AI-tools voor campusbreed gebruik. Microsoft Copilot Chat is al beschikbaar, maar is dat voldoende?
Wat leveren we op?
Eind 2025 beschikt de Radboud Universiteit over een solide fundament voor AI:
- Een juridisch correct AI-beleid in lijn met onze kernwaarden, gedragen door de academische gemeenschap.
- Trainingen en informatievoorziening voor studenten en medewerkers, passend bij hun niveau en rol.
- Een governance-structuur die zorgt voor toezicht zonder innovatie te blokkeren.
- Een AI-register dat inzicht geeft in waar en hoe AI wordt toegepast, met bijbehorende risico-indicaties.
- Een onderbouwd advies voor één of meerdere universiteitsbrede GenAI-tools.
Planning
De planning ziet er globaal als volgt uit:
- AI-register: in september 2025 worden AI-applicaties geclassificeerd, waarbij wordt bepaald of applicaties veilig te gebruiken zijn op het gebied van dataverzameling. Vanaf oktober 2025 vind je de beoordeling per tool is het software-overzicht op ru.nl.
- AI-beleid: het beleid op het gebied van onderzoek en op het gebied van onderwijs worden opgeleverd in november 2025. AI-beleid op het gebied van bedrijfsvoering wordt opgeleverd in december 2025.
- AI-geletterdheid: vanaf december 2025 zijn voorlichtingsmateriaal en e-learnings op het gebied van AI beschikbaar.
- Advies GenAI-applicatie: in maart 2026 wordt een adviesrapport opgeleverd over het gebruik van generatieve AI-applicaties binnen de universiteit.
Waarom dit project?
AI is overal. De Radboud Universiteit biedt onderwijs en doet onderzoek op het gebied van AI. Samen met partners uit het bedrijfsleven en de publieke sector werken we aan AI-innovaties. In samenwerking met het Radboudumc ontwikkelen we AI-oplossingen voor de gezondheidszorg. Studenten gebruiken generatieve AI voor hun scriptie, docenten experimenteren met AI en software die we op de universiteit gebruiken bevat steeds vaker ingebouwde AI-functionaliteit. Hoe zorgen we dat dit veilig, eerlijk en transparant gebeurt?
De AI Act is de allereerste wetgeving wereldwijd die AI-systemen indeelt op basis van risico. Europa loopt hiermee voorop in het reguleren van kunstmatige intelligentie. Het gebruik van AI bepaalt het risico. Generatieve AI kan afhankelijk van het gebruik in verschillende risicocategorieën vallen. Een e-mail schrijven? Laag risico. Sollicitanten beoordelen? Hoog risico.
De AI Act stelt strenge eisen aan het gebruik van AI, vooral bij toepassingen met een hoog risico, zoals selectieprocedures of adaptief onderwijs. Overtreding kan leiden tot boetes tot wel €35 miljoen of 7% van de jaaromzet. Maar het gaat niet alleen om regels: AI raakt aan publieke waarden zoals privacy, gelijkheid en academische integriteit.
Visie, duiding en educatie spelen een cruciale rol. Daarom is AI-geletterdheid een belangrijk thema en een doel van dit project. Hoe kijkt onze universiteit aan tegen AI en de recente ontwikkelingen op dit gebied? Is een applicatie of functionaliteit daadwerkelijk gebaseerd op AI, of is het vooral een marketingterm? We willen inzicht bieden in de mogelijkheden van AI-applicaties, maar ook in de risico’s en de mogelijke gevolgen van het gebruik ervan, zoals op het gebied van privacy en duurzaamheid.
Nieuwsgierig naar het verhaal achter het project?
Lees het interview met het projectteam in VOX, waarin zij uitleggen waarom een AI-register nodig is, welke risico’s AI met zich meebrengt en hoe de universiteit hiermee omgaat.