01-10-2019

Effectief toezicht met artificial intelligence is mogelijk

Deel dit bericht

Een groep experts heeft onder de vlag van ECP | Platform voor de InformatieSamenleving het essay Toezicht met algoritmen gepubliceerd. Daarin is een praktijkanalyse opgenomen die toezichthouders helpt artificial intelligence verantwoord in te bedden in hun beroepspraktijk en daarbij nauwlettend de vinger aan de pols te houden.

Het gepubliceerde essay is geschreven door dezelfde expertgroep die eind 2018 het AI Impact Assessment heeft gepubliceerd, omdat zij toen al maatschappelijke en politieke onrust signaleerde. Het impact assessment is speciaal ontwikkeld voor organisaties die hun verantwoordelijkheid willen nemen en AI verantwoord en transparant willen toepassen.

Automatische en zelflerende algoritmen rukken steeds verder op in de samenleving. De toepassing ervan gaat nog wel eens mis, getuige nieuwsberichten en politieke discussie over autonome overheidsbesluiten die door het gebruik van eenzijdige data tot discriminerende keuzes leiden. Vooral toezichthouders liggen onder vuur. Compleet vergeten wordt dat het gebruik van algoritmes kansen biedt voor het werk van toezichthouders.

Drie casussen
De afgelopen jaren heeft artificial intelligence een vlucht genomen door de combinatie van snelle technische ontwikkelingen en de beschikbaarheid van grote hoeveelheden digitale data. AI biedt onder andere nieuwe kansen voor het uitvoeren van toezicht. Daartegenover staat dat de inzet van technologie die meer doet dan het optimaliseren van goed beschreven processen, onbedoelde en onverwachte gevolgen kan hebben. Dat is het geval bij AI-technologie.

Het essay Toezicht met algoritmen biedt de helpende hand. De auteurs laten zien dat er werk aan de winkel is voor toezichthoudende instanties om AI op een verantwoorde manier te implementeren in de toezichtspraktijk. Daarbij geven zij aan dat het ook nodig is om de vinger aan de pols te houden, omdat de eigen organisatie en werkprocessen gaandeweg zullen veranderen. Ook worden bij de implementatie van nieuwe technologie fouten gemaakt die hersteld moeten worden en zal de integriteit van data en besluiten bewaakt moeten worden, om ongewenste neveneffecten te voorkomen. Aan de hand van drie casussen geven de AI-experts concrete handvatten. Achtereenvolgens worden het opsporen en aanpakken van witwassen, het toezicht in het verkeersdomein aan de hand van toekennen en afhandelen van boetes, en de verhouding tussen burger en overheid door de experts praktisch uitgewerkt.

Werk aan de winkel
De expertgroep signaleert dat toezichthoudende instanties de implementatie van AI-systemen onderschatten. Zij stelt dat implementatie veel meer vergt dan alleen het ‘inpassen' van een nieuwe technologie in de organisatie. Zo brengt AI bijvoorbeeld veranderingen met zich mee in de organisatie en in de primaire processen. Het kennis hebben van wat AI-technologie kan en doet, en wat de sterke en zwakke kanten zijn is onmisbaar voor een verantwoorde toepassing en implementatie van AI-systemen, aldus de experts. "Dat geldt ook voor het delen van ervaringen en het voeren van gesprekken over achterliggende ethische en juridische waarden tussen toezichthoudende instanties onderling", aldus Daniël Frijters, programmamanager bij ECP – een publiek-privaat platform voor de informatiesamenleving.
Probleem is alleen dat wet- en regelgeving rondom de inzet van nieuwe technologie als AI niet voldoende kaders biedt. Dat brengt onzekerheid met zich mee voor de partij die AI wil gaan inzetten, maar ook voor de toezichthouder zelf. In zo'n situatie stellen de experts voor om eenzelfde aanpak te kiezen als de Belastingdienst doet met de compliance-benadering. "In dergelijke situaties is het belangrijk om gezamenlijk verkennend te zoeken naar wat techniek wel en niet mag en wat wenselijk is. Samen met bedrijven ontdekt de toezichthouder waar de ethische en juridische grenzen liggen en hoe wet- en regelgeving kan worden toegepast in nieuwe en specifieke situaties."

Vinger aan de pols
De experts schrijven dat een blind geloof in AI-technologie niet zaligmakend is. Aan de hand van het praktijkvoorbeeld ‘Opsporen en aanpakken van witwassen' laten zij zien dat burgers onevenredig getroffen kunnen worden. Zo zet de roep van toezichthouders om steeds meer informatiebronnen te mogen koppelen de privacy van burgers onder druk. Ook blijkt een blind geloof te leiden tot automatische besluiten die niet te herleiden en moeilijk aan te passen zijn, zoals zichtbaar wordt in de casus ‘Toezicht in het verkeersdomein'. Vaak wordt met de beste bedoelingen gestreefd naar efficiency. De AI-experts laten zien dat dit ook zijn keerzijden heeft. De rol van de toezichthouder ten opzichte van de partij waarop toezicht wordt uitgeoefend, verandert. Vaak gebeurt dat onderhuids, onbewust en onverwacht.
Frijters: "De toepassing van AI biedt veel kansen voor toezicht, maar daarvoor is maatschappelijk draagvlak nodig. Dat vraagt om transparantie en een goede doordenking van het toepassing van AI. Er is dan ook werk aan de winkel voor toezichthouders. Ons essay helpt hen daarbij."

Company:

ECP

Partners