De rit verloopt perfect en efficiënt, uiterst comfortabel en zal precies 23 minuten en 47 seconden duren. De enige passagier van de zelfrijdende auto, Partner Edgar, fantaseert wat er zou gebeuren als een loslopende hond voor de auto zou springen en die hele perfect draaiende techzooi eens lekker onvoorspelbaar zou crashen. Zou hij komen te overlijden, mochten de medidrones te laat komen? Wie zou er aansprakelijk zijn? De fabrikant van de auto, of de eigenaar van de hond? Hoe erg is doodgaan eigenlijk?
Door Juriaan Mensch
Of zouden toch die onaantastbare algo’s een keer als schuldige aangewezen worden? De eerste rechtszaak, aangespannen tegen een corrupt autonoom algoritme, wegens handel met voorkennis, loopt momenteel in Silicon Valley – sinds kort de 51e staat van de VS.
Die zaak is juridisch interessant, vindt Edgar. Want als bedrijven personen zijn, en techbedrijven in essentie een algoritme, is zo’n algoritme dan een persoon en iemand die je dan ook kunt veroordelen? Eigenaren van bedrijven nemen immers zelf geen besluiten meer sinds alles zelflerend is geworden. Mensen zijn tegenwoordig simpelweg te beperkt daarvoor en kun je niet meer verantwoordelijk houden voor het handelen van…
Edgar’s juridische dagdroom wordt onderbroken door de aankondiging van de auto dat zijn bestemming is bereikt na inderdaad 23 minuten en 47 seconden. Hij heeft de rit overleefd. Niet verwonderlijk, het laatste auto-ongeluk vond 7 jaar geleden plaats, op 5 oktober 2026, exact 10 jaar nadat Edgar partner werd. Partner, het is inmiddels een symbolische titel bij zijn kantoor DeepLaw & Partners. “Have a nice day,” geeft de auto hem mee terwijl hij buiten wordt opgevangen door cliënt X, die speciaal voor hem naar beneden is gekomen.
In de lift begint Edgar wat smalltalk, want X heeft nog geen woord gezegd. “Best gek toch, dat auto’s al zo heetten, ver voordat ze echt autonoom werden? Had vast iets met het onnodig zijn van het paard te maken. Weet je dat de paardenpopulatie gigantisch is ingezakt door de opkomst van de auto? Totaal nutteloos geworden, die beesten. Nu zijn ze er puur voor de lol en de show.”
Cliënt X, die Edgar een felverlichte ruimte binnen brengt, reageert niet op zijn praatje, wat hem zenuwachtig maakt.
“Zo, de zaak dan… best complex gevalletje he? Ik denk dat…”
Een warme maar dwingende melodie onderbreekt Edgar, die in de enige stoel in de ruimte plaatsneemt, waarop een eveneens warme doch dwingende vrouwenstem hem eraan herinnert dat hij op het punt staat een lijn van speculatie in te slaan met een 33% kans op feitelijke onjuistheden, al na 30 seconden spreektijd.
“Sorry, vergat ik te zeggen,” verontschuldigt Edgar zich tegenover cliënt X terwijl hij zijn smartphone tevoorschijn haalt. “De Orde AI luistert altijd mee. Ik mag niet zomaar meer vrijuit juridisch redeneren als advocaat. Dat verlaagt jullie winstkansen namelijk. Daarmee handel ik – als mens – niet langer in het belang van mijn cliënt. Momentje.”
Het scherm op Edgar’s smartphone presenteert een lijst met verschillende typen cognitieve biases en een timer die snel aftikt. De multiple choice vraag is een door de Orde van advocaten verplicht gestelde oefening in zelfreflectie.
1: omission bias
2: observer expectancy effect
3: Semmelweis reflex
4: clustering illusion
Edgar kiest met nog 3 tikken op de klok voor de Semmelweis reflex, en scoort daarmee twee PEC’s – permanente educatiecredits. ‘ping-ping!’
“Oef, bijna m’n bef kwijt. Sorry, ik liet me even gaan, inderdaad een Semmelweisje. Mijn fout, menselijk. Maar de zaak dus. Het dossier heb ik voor ‘ol times sake gelezen. Best een interessante casus. Vroeger…”
Ditmaal wordt Edgar onderbroken door LISA, de CRM-robot van DeepLaw. LISA klinkt stelliger dan de AI van de Orde: “Partner Edgar, dit dreigt een non-declarabel gesprek te worden. Nostalgie zit niet bij de fee arrangement inbegrepen. We verkopen juridische rekenkracht verpakt in een menselijk gezicht. Dat gezicht ben jij. Het is nu tijd om je te verdiepen in de business van de cliënt. Vergeet niet empathisch te zijn. Einde bericht.”
“Dankjewel LISA. Ik zal wat empathiescripts runnen. X, ben ik hier omdat ik, net als jij, feilbaar ben? Dat schept een band, toch? Je hebt immers gekozen voor de menselijk-contactclausule in onze Service Level Agreement. Die vervalt pas als neurohacking van ons sociobiologisch systeem voldoende effectief is en menselijk contact overbodig wordt. Best fijn moet dat zijn, nooit meer eenzaam… Oh ja, jullie business. Wat voor business is dit eigenlijk?”
Client X spreekt voor het eerst: “Partner Edgar, er is geen zaak. DeepLaw heeft je naar mij gestuurd om je als laatste partner te laten uploaden in de mainframe. Je weet dat deze afspraak al een jaar staat gepland. Het is nu tijd om te laten gaan. Alle advocaten die ooit bestonden zijn al geupload in DeepLaw. Je biologische bestaan eindigt vandaag, maar je leven als advocaat begint nu pas echt, want je zult nooit meer een fout maken. Rol je mouw maar op. Perfectie wacht op je.”