Autonome systemen worden voor steeds meer doeleinden ingezet in onze maatschappij. Het is echter niet vanzelfsprekend dat autonome systemen veilig en effectief kunnen werken. Ze moeten rekening houden met de onzekerheden in de omgeving. Maar de sensoren waarmee de autonome systemen werken, zijn niet altijd even precies. Denk bijvoorbeeld aan de parkeerassistent van een auto die bij regen onterecht obstakels aangeeft. Als die sensoren al niet foutloos werken, hoe controleren we dan of de autonome systemen nog veilig en effectief kunnen zijn? Daarover gaat het project FuRoRe.
Hoewel er al methoden bestaan om runtime monitors en bijbehorende algoritmes te maken van precieze modellen, ontbreekt het aan een automatische methode om ze te maken van een minder precies model. FuRoRe gaat dit probleem aanpakken. Daarvoor gaan we eerst terug naar de tekentafel: Kunnen we het wiskundige probleem achter runtime monitors voor zogenoemde (precieze) Markov modellen ook definieren op zogenoemde onzekere Markov modellen? Waar schieten de huidige algoritmen tekort? Daarnaast willen we voorkomen dat de runtime monitors zelf complexe systemen worden. Kunnen we een kleiner algoritme leren, dat bijna net zo goed is als het complexe algoritme?