Twee voorvallen in één week benadrukken de urgentie van effectief toezicht op de meest invloedrijke technologie van dit moment: artificial intelligence. Uit onderzoek* van het Rathenau Instituut blijkt: steeds meer werkenden worden aangestuurd, gecontroleerd en beoordeeld door een algoritme. Dat kan gevolgen hebben voor hun werkplezier en mentale gezondheid. En minister Dijkgraaf biedt excuses aan voor discriminatie rond huisbezoeken van studenten met een migratieachtergrond door de Dienst Uitvoering Onderwijs (DUO). De minister heeft naar aanleiding hiervan het ‘risicogestuurde toezicht’ per direct stopgezet. Hoe kun je als toezichthouder dan wel omgaan met AI? Het vereist echt een ander denkkader!
Het traditionele idee dat toezichthouders volledige experts moeten zijn op het gebied van nieuwe technologieën zoals AI, is achterhaald. In plaats daarvan moet je je als toezichthouder richten op het beoordelen van het bredere ecosysteem rondom AI-toepassingen. Dit ecosysteem omvat niet alleen de technologie zelf, maar ook de organisatorische, ethische, sociale en maatschappelijke impact ervan.
Ander denkkader voor AI
Een belangrijk aspect van goed toezicht is je bewust zijn van de kansen en risico’s die AI met zich meebrengt. Daarin gaat het om het denken vanuit de context waarin AI wordt toegepast.
Een voorbeeld: het verzamelen van data voor het toepassen van een stem voor iemand die de ziekte ALS heeft is acceptabel, terwijl als datzelfde gebeurd met de stem van een zanger is dat niet toegestaan. Het is belangrijk om deze maatschappelijke context met bijbehorende waarden te begrijpen, en die als toezichthouder te toetsen bij AI-toepassingen.
AI heeft impact op verschillende niveaus: van individuele keuzes tot sociale dynamiek en op maatschappelijk niveau. Toezichthouders moeten niet alleen letten op de geautomatiseerde beslissingen die AI-systemen zelf nemen, maar ook op hoé deze beslissingen worden geïnterpreteerd en toegepast. Dit vraagt om eenduidig begrip van ethische principes die ten grondslag liggen aan AI-toepassingen.
Toezicht op ethische kaders
- Transparantie: zorg dat je als organisatie transparant omgaat met data en algoritmes.
- Uitlegbaarheid: werk je met HRM- of CRM-systemen? Zorg dat je aan klanten en stakeholders kan uitleggen wat de uitkomst is van iets.
- Menselijke interactie: besluitvormingsprocessen moeten altijd door mensen worden aangestuurd.
- Eerlijkheid: neem oordelen weg en wees eerlijk in wat er gebeurt in de organisatie.
- Autonomie: waar mogelijk moet je als klant zelf controle houden op gebruik van jouw data / algoritmes.
Deze waarden kunnen dienen als leidraad voor je toezicht op de impact die AI kan hebben in verschillende contexten, en voer het gesprek hierover met de bestuurder. Het is essentieel dat organisaties hun eigen ethische kaders ontwikkelen en toepassen om ervoor te zorgen dat AI op een verantwoorde en inclusieve manier wordt ingezet.
Hoe gaat een bestuurder om met het beleid op algoritme management? Hoe gebruikt de organisatie data om medewerkers te instrueren, controleren en beoordelen? Levert het algoritme management meer productiviteit op, wenselijk in tijden van personeelskrapte, of juist minder? Wat wil de bestuurder dat de uitkomst van de AI-processen is, en kloppen die dan ook?
Hoe houd je toezicht op AI?
Toch blijft de vraag voor veel toezichthouders: hoe zetten we AI op onze RvT-agenda? Laat inventariseren waar AI al in de organisatie wordt toegepast. (Zie ook het artikel over welke 4 uitdagingen toezichthouders mee te maken krijgen). Stel de vragen die hierboven staan. Is er een ethisch kader vastgesteld? Het echte antwoord is een integrale aanpak te hanteren, waarbij de impact op zowel individuele als sociale en maatschappelijke niveaus worden meegenomen, zodat je als toezichthouder AI effectief kan toetsen en adviseren waar nodig.
Als we willen dat AI een positieve kracht is in de organisatie waarop je toezicht houdt, moet jee ervoor zorgen dat het op een verantwoorde en ethische manier wordt toegepast. Dit vereist niet alleen actief toezicht, maar ook begrip van de complexe dynamiek rond AI. Alleen zo kan je de volledige potentie van AI benut worden, terwijl tegelijkertijd de risico’s geminimaliseerd worden en de maatschappelijke waarden behouden blijven.
Heb jij vragen over toezicht houden op AI of andere technologische ontwikkelingen? Volg dan de verdiepingsmodule Toezicht op digitalisering. Bedoeld voor iedere toezichthouder, ongeacht je portefeuille of aandachtsgebied. Je kunt je ook meteen inschrijven. Voor vragen mag je contact opnemen met Caroline Wijntjes.
* TNO / Rathenau Instituut, Onderzoek: eigen ritme of algoritme?, 6 maart 2024