We vragen het aan Joris Krijger, techniekfilosoof die werkzaam is als Ethics & AI Officer bij De Volksbank. Daarnaast promoveert Joris aan de Erasmus Universiteit Rotterdam op het onderwerp Ethiek en AI.
Vanaf februari 2025 wordt AI-geletterdheid een wettelijke vereiste als gevolg van de AI Act. De leveranciers van AI-systemen en de organisaties die AI-systemen gebruiken zijn op grond van artikel 4 van de AI Act verplicht om er voor te zorgen dat alle medewerkers, die gebruikmaken van AI ook AI-geletterd zijn. Hoe definieer je AI-geletterdheid vanuit jouw perspectief als techniekfilosoof en Ethics & AI Officer bij De Volksbank?
“Laten we vooropstellen dat nog veel onduidelijkheid is over wat AI-geletterdheid precies is. Als je naar de wettekst kijkt dan staat er dat je naar het beste van je vermogen inspanningen moet doen om een voldoende begrip van AI te krijgen. Er zitten dus abstracte termen in die voor meerdere interpretaties vatbaar zijn. Bij De Volksbank interpreteren we het als volgt; het gaat over het vermogen van medewerkers om AI systemen kritisch te evalueren en te begrijpen hoe AI werkt. Weten wat het kan en wat het niet kan zodat medewerkers ermee om kunnen gaan op een manier die verantwoord is en die past bij de organisatiewaarden. Ook gaat het om inzicht in hoe AI de organisatie raakt en welke (ethische) vraagstukken, kansen en risico’s het met zich meebrengt.”
Welke stappen kunnen organisaties nemen om hun AI-geletterdheid te verbeteren?
“Bij De Volksbank heeft iedere medewerker een basistraining AI doorlopen en daarnaast hebben we gespecialiseerde leerpaden aangeboden aan medewerkers die, zoals we dat zeggen ‘dichter op het vuur zitten als het om AI gaat’.
Naast educatie vinden we ook interdisciplinaire samenwerking als het gaat om AI belangrijk. We betrekken bij AI projecten niet alleen technici, maar vanuit verschillende disciplines wordt meegedacht en gewerkt. Ook ben ik bij De Volksbank bezig om organisatiebreed dus juist niet alleen bij de technische, inkoop- of ontwikkelafdelingen, te laten zien, welke kansen en risico’s AI kan bieden.
We proberen bij de ethische beoordeling van AI systemen zoveel mogelijk diverse geluiden mee te nemen. Dat gaat dan niet zozeer over geletterdheid, maar wel over hoe nemen we als organisatie beslissingen over het gebruik van AI en wie krijgen daar allemaal een stem in? Daar kun je een commissie of klankbordgroep voor maken waarin vertegenwoordigers van verschillende delen van de organisatie iets kunnen inbrengen.
Tenslotte wat goed werkt, is medewerkers op de hoogte houden van wat er gebeurt in de wereld van AI. Niet te technisch, maar in begrijpelijke taal. Ik merk bij De Volksbank maar ook bij andere organisaties een enorme nieuwsgierigheid naar AI. Die kun je gebruiken voor meer bewustzijn en het goed informeren van je mensen.”
Wat zijn de belangrijkste ethische vraagstukken rond AI die je tegenkomt in jouw werk bij De Volksbank?
“Dat zijn eigenlijk de usual suspects als het om ethiek en AI gaat. AI traint op historische data en in die historische data zitten allerlei vooringenomenheden ‘bias’, zaken die mogelijk niet meer representatief zijn voor de wereld zoals die nu is of passen bij de waarden van jouw organisatie. Het bekende voorbeeld is Amazon met een HR systeem waarbij vrouwen op voorhand uit het selectieproces werden verwijderd voor technische functies. Dat betekent niet dat AI intentioneel discrimineert maar omdat het getraind was op data waarin vrouwen geen technische functies hadden. Dan kan het, ook zonder de data te hebben over of iemand man of vrouw is, zichzelf aanleren dat een vrouw niet thuishoort op een technische positie. Dat zijn risico’s die je wilt voorkomen.
Een ander belangrijk ethisch vraagstuk is de uitlegbaarheid van AI; soms is het gewoon zo complex dat je het niet eens meer kunt volgen of uitleggen. Gooit het, in het voorbeeld van hierboven, vrouwen bewust eruit? Omdat het zulke complexe berekeningen zijn, snappen we het niet meer. De belangrijkste vraag die achter beide uitdagingen zit is hoe we AI inbedden in bestaande werkpraktijken. Hoeveel gaan we uit handen geven aan AI? We delegeren een taak aan een autonoom systeem, maar hoeveel van de verantwoordelijkheid van die taak delegeren we? Alles? Het voelt niet helemaal eerlijk als we tegen de vrouwelijke sollicitanten, die zijn afgewezen, zeggen ‘dat is nou eenmaal het AI systeem’. Maar bij zulke complexe een zelflerende systemen is het ook gek als we bijvoorbeeld de ontwikkelaar, die vaak ook niet weet hoe het systeem zich precies gaat gedragen, verantwoordelijk houden. Dus de vraag is: bij wie ligt de verantwoordelijkheid dan? Dat zijn vraagstukken die rond AI spelen nog los van de privacyvraagstukken en robuustheid- en validatie aspecten.”
Wat kunnen organisaties doen om aan de slag te gaan met AI en ethiek?
“Uit mijn onderzoek komt heel sterk naar voren, en dat sluit ook aan bij bovenstaande antwoord, dat alleen ontwikkelaars trainen of kaders meegeven niet werkt. Verantwoorde AI is een organisatie vraagstuk. Omdat er zoveel contextuele aspecten meewegen in of een AI verantwoord gebruikt wordt of niet denk ik dat de belangrijkste stap nu is dat organisaties zorgen dat ze, in hun structuren en processen, mechanismen inbouwen om ethiek een plek te geven. Organisaties zouden moeten streven naar wat ik ‘ethische volwassenheid’ noem. Dat betekent dat je nog los van welke waarden je prioriteert bij AI (kies je voor snelheid of uitlegbaarheid bijvoorbeeld) je een aantal dingen inregelt om die afweging bewust te kunnen maken. We hebben onderzoek gedaan naar wat maakt dat organisaties op een goede manier met de ethiek van AI om kunnen gaan. Daarin hebben we zes dimensies in gevonden, namelijk: awareness & culture (er moet bewustzijn van ethiek zijn maar ook ruimte en middelen voor worden vrijgemaakt), beleid (goede kaders over de ethiek van AI), governance (ethische mechanismen in het proces om te kunnen corrigeren en bijsturen), communicatie en training (het intern en extern communiceren van het belang van ethiek en het trainen van niet alleen de data scientists maar de hele organisatie; de AI geletterdheid), ontwikkel- en inkoopprocessen (ethiek niet op ad hoc basis en eenmalig betrekken bij de inkoop of ontwikkeling maar als continue toets in het proces), en tooling (de juiste instrumenten om de ethische aspecten mee boven tafel te krijgen en te bespreken zoals technische middelen die ‘bias’ laten zien of impact assessments). (Voor meer informatie zie: The AI ethics maturity model: a holistic approach to advancing ethical data science in organizations | AI and Ethics)”
In hoeverre zie je voor organisaties waar juridische processen en dienstverlening centraal staan nog specifieke uitdagingen?
“Juist in de juridische sector leven hele interessante vragen rond AI. Omdat een deel van het juridisch werk goed te automatiseren valt, is gebleken dat AI van grote toegevoegde waarde kan zijn. Dus ik vermoed dat in de juridische sector een existentiële vraag komt rond wat nu een goede juridische dienstverlener definieert in het AI tijdperk. Wat moet hij/zij nou in huis hebben om toekomstbestendig te zijn? Dat gaat over het type werkzaamheden, de kwaliteit van de werkzaamheden tot het verdienmodel. Wat betekent het voor je verdienmodel als AI de drempel voor juridische hulp verlaagt maar ook als de productiviteit stijgt als gevolg van AI?
Daar zit iets ethisch in: wat is onze ‘purpose’ en in hoeverre kan AI daaraan bijdragen? Het vraagt om omdenken en ook een beetje nederigheid. We moeten de menselijke capaciteiten gaan omarmen maar misschien ook erkennen dat we soms beter af zijn als dingen ten dele uit handen gegeven kunnen worden aan AI. Dan komt er ruimte voor andere zaken waar de menselijke expertise en de kennis des te relevanter wordt. Hoe je daar goed op voor sorteert dat is een super interessante uitdaging voor de komende paar jaar.”
Joris Krijger is een van de docenten van de opleiding Certified AI Strategy & Implementation Legal. Een opleiding gericht op verantwoorde en optimale toepassing van AI in organisaties waarin juridische dienstverlening/werkprocessen centraal staan. Meer informatie vind je hier.