Bias of vooringenomenheid in algoritmes en artificial intelligence, veel is er al over geschreven. Het lijkt zelfs het grootste actuele probleem te zijn dat grootschalige adoptie van AI nog in de weg staat.
Door Arnoud Engelfriet
Want het is natuurlijk niet de bedoeling dat AI de besluitvorming over gaat nemen als daarmee discriminatie of uitsluiting van bepaalde groepen optreedt, of als mensen worden afgewezen op basis van een vooringenomenheid die we onwenselijk vinden. Maar zelfs als we dat probleem oplossen, blijft de inzet van AI en algoritmes een moeilijke.
Het probleem achter die bias is dat we AI vaak een eind laten kauwen op een hele berg data en vervolgens conclusies laten trekken op basis van een onderlinge samenhang. Maar waarom die samenhang er is, of hoe men tot een patroon is gekomen, dat kan zo’n AI vaak niet zeggen. Maar ‘computer says no’ is juridisch onaanvaardbaar, ook als zo’n uitleg er eigenlijk niet is.
Uitlegbaarheid van AI is dus het devies. Laat maar eens zien (met een beslisboom of lijst van relevante factoren) hoe je tot dat besluit bent gekomen. En als je dan ziet dat daar een ‘verboden’ factor is gebruikt, dan bijstellen die hap. Of een moreel kompas eronder dat automatisch zorgt voor correctie. Op die manier voorkom je vooringenomenheid, in ieder geval een heel eind.
Fundamenteler probleem
Maar is dat genoeg, zeker bij juridische analyses en uitspraken zoals in rechtspraak? Ik denk het niet. Er is namelijk een veel fundamenteler probleem met AI dan alleen maar dat de uitspraak mogelijk biased is, of gebaseerd op een gebrekkige dataset. AI is namelijk fundamenteel zeer behoudend, en kan niet omgaan met rare situaties waarin de data niet voorziet. Of met voortschrijdend maatschappelijk inzicht. En laten dat nu precies factoren zijn waar de rechtspraak regelmatig mee geconfronteerd wordt.
AI is bedoeld om standaardzaken te automatiseren. Patronen opsporen binnen het gewone, zodat deze in de toekomst sneller en beter (want consistenter) kunnen worden afgehandeld. Bevat deze aanvraag tekortkomingen, lijkt deze persoon op een verdachte, is er een crimineel bezig in ons netwerk. Dat soort patronen kun je prima met een AI opsporen.
Dergelijke patronen zijn namelijk neutraal: zo ziet crimineel gedrag er nu eenmaal uit, of zo bepaal je nu eenmaal gelijkenis van twee gezichten. Laat je dat echter los op juridische situaties dan krijg je een heel ander verhaal. Feitelijk vergelijk je dan een casus met een rits eerdere casussen, en de uitkomst zal dan vergelijkbaar zijn met die eerdere uitspraken. Dat klinkt mooi – consistentie in rechtspraak is een groot goed – maar echte vernieuwing zit er niet in.
AI is goed in vergelijken
Dat is ook precies hoe AI werkt. Een robotrechter leert geen rechtsregels zoals menselijke juristen doen, en leert zelfs niet uit het analyseren van eerdere jurisprudentie wat belangrijke factoren zijn. AI’s zijn goed in het vergelijken: een dataset waar elk item (oftewel elk vonnis) in zit, bepalen welke factoren per item essentieel zijn om in een bepaald bakje te horen.
Dat is een beetje hoe een ervaren menselijke rechter ook werkt. Oké, een standaard-incassozaakje, of daar heb je weer een fotoclaim met het bekende verhaal over citaatrecht. Maar niet helemaal: een AI-tool kijkt blind naar alle factoren die hij ziet, en dat kunnen ook onbedoelde factoren zijn (als advocaat X pleit of de eiser woont in Amstelveen, dan is dat een indicatie dat de zaak niet sterk is).
Uiteindelijk is de kern echter wel dat AI alléén afgaat op de eerdere dataset. Hij leert immers alleen daaruit hoe er recht gesproken moet worden. Een afwijking van die dataset is daarbij niet te verwachten. Computers zijn immers niet creatief, en niet gevoelig voor ongewone omstandigheden, nieuwe feiten of het overtuigendste pleidooi. Dat is ook de reden waarom robotrechters alleen voor standaardwerk ingezet moeten kunnen worden, én dat er altijd ruimte moet zijn om die ongewone omstandigheden te kunnen stellen waarna een mensenrechter er naar kijkt.
De grote uitdaging bij AI in het recht zal dus zijn hoe de gekke gevallen eruit gevist worden en door een mens behandeld gaan worden.