Ethiek en Artificial Intelligence (AI), twee begrippen die steeds vaker in een adem genoemd worden. Want als we overal AI gaan inzetten, met name voor besluitvorming en automatische systemen, dan moeten we vooraf nadenken over de impact en of het wel ethisch wenselijk is. Maar wordt de juiste ethische discussie wel gevoerd? AI is namelijk ontzettend dom.
Door Arnoud Engelfriet
Het is hoe dan ook goed dat er meer aandacht komt voor AI en ethiek, maar het blijft opletten dat de juiste discussie plaatsvindt. Je moet het vooral niet hebben over de ethische overwegingen die AI-software maakt bij besluitvorming. Het gaat om de ethiek van mensen die wordt overlaten aan AI-systemen.
Wat AI precies is, weet volgens mij niemand. Ik houd het bij de cynische constatering dat AI de inzet van statistiek-gedreven voorspellingen is. die griezelig veel lijkt op hoe mensen zouden handelen. De weersvoorspelling is dus geen AI, een machine learning-systeem dat tumoren herkent is op het randje (want nieuw en computer dus griezelig) maar een humanoïde robot die contextuele grappen maakt, die is AI.
De technologie achter AI is op zich vaak verrassend simpel. Meestal gaat het om machine learning, analysetechnieken op grote bakken data waarmee het systeem regels afleidt om voorspellingen te doen. Heb je een stapel met een miljoen spamberichten en een miljoen niet-spamberichten, dan komt daar een griezelig accurate herkenning van spam uit. Ondanks dat niemand vooraf harde regels stelt (‘als het uit China komt en Viagra wordt genoemd, dan is het spam’). Die regels worden ‘van onderaf’, uit de data dus, afgeleid: ‘90% van de spam komt uit China, en slechts 1% van de niet-spam, dus als het uit China komt dan is het spam’.
AI kun je gebruiken om ‘echte’ beslissingen te maken. Grofweg sloop je dan de mens uit het proces en koppel je de uitkomst van de AI aan de input van het vervolgsysteem. Kom hier met die stapel financiële gegevens, laat de AI zeggen of een hypotheek risicovol is en gebruik de ja/nee om de afwijsbrief dan wel het contract te genereren. En dát is waar je die ethiek zo broodnodig hebt.
A-ethisch
AI is dom. Althans, doet rechtlijnig wat er uit de data volgt. Dat klinkt heel logisch en fair, maar veronderstelt dat die data-analyse op een faire manier gebeurt. En dat is een risicovolle veronderstelling, want die data is vaak niet fair, en daarmee de AI ook niet. Wees je in het verleden vaak hypotheken af van mensen die Achmed heten, dan doet de AI dat net zo braaf. Dat het bij jou toeval was, doet er niet eens meer toe. Maar die AI is niet onethisch omdat die zo blind aan het discrimineren is. Die doet gewoon wat de data hem ingeeft. De AI is a-ethisch.
Ethiek bij AI komt dus altijd pas een stap later. De AI zegt nee, wat gaan we daarmee doen? Is het wenselijk om die uitvoer te vertrouwen, kunnen we randgevallen herkennen en wat gaan we doen als achteraf een besluit niet in orde blijkt te zijn?
Ethiek komt trouwens óók een stap eerder. Bij de dataverzameling. Want als je een niet-representatieve dataset hebt, dan zal de AI daar verkeerd mee omgaan. Zoals ik een paar columns geleden zei, dáár komt al die ellende van. Vaak is data uit beperkte bron geselecteerd, of ergens aangekocht, en in ieder geval is de data niet getest op representativiteit en actualiteit. Daar gaat het dan meteen mis, want met slechte brondata ga je natuurlijk nooit goede voorspellingen doen.
De werkelijke ethische vraag zou dus volgens mij moeten zijn: we gaan nu een mens vervangen door een procedé dat op basis van statistiek een conclusie trekt; is dat wel wenselijk? Hoe voorkomen we daarin dat het misgaat voor de betrokken burgers of klanten?