In strafzaken wordt de whodunnit-vraag steeds belangrijker. Rechters selecteren en waarderen alle bewijsmiddelen, om het antwoord van de officier te verifiëren (of falsifiëren?). Het is volgens de Hoge Raad namelijk aan de strafrechter om ‘van het beschikbare materiaal datgene tot het bewijs te bezigen wat deze uit een oogpunt van betrouwbaarheid daartoe dienstig voorkomt’.
Door Niek van de Pasch
Vanuit allerlei hoeken schieten experts ons daarbij te hulp. Zo schrijven rechtspsychologen bijvoorbeeld planken vol over waarnemingen, herinneringen en verklaringen van getuigen. Verbalisanten geloven we meestal op hun ambtsedig woord, maar dat is vooral beslissend bij verdachten van overtredingen die een heterdaadje ontkennen. Het blijft echter altijd prettiger om informatie zo direct mogelijk te consumeren.
Wie gedrag in een context moet beoordelen, is daarom blij als die gebeurtenis is opgenomen. Als een foto meer zegt dan duizend woorden, zegt een video immers meer dan duizend foto’s. Filmpjes kunnen dan ook meedoen als bewijsmiddelen, onder meer via onze eigen waarneming op zitting.
Helaas is dit geen situatie waar life imitates art. In misdaadseries ontmaskeren digitale speurneuzen boeven met één druk op de zoomknop. Hun tapes hebben – eventueel na een behendige remaster – zo’n fabelachtige resolutie, dat ze tweelingbroers op hun lachrimpels kunnen onderscheiden in de reflectie van een besteklade.
De praktijk is vaak wat minder fancy. Bewakingscamera’s registreren soms maar nét hoe winkeldieven een gele pixel onder hun jas verstoppen. En met de beeldfrequentie van een diavoorstelling glippen uitgedeelde optaters nog weleens tussen de frames door. De stand van de techniek is natuurlijk wel al iets opgeschoven, zoals iedereen met een smartphone dagelijks ervaart. Maar is verder ook altijd beter?
Enter deepfakes: de overtreffende trap van een vervalste handtekening of gephotoshopt plaatje. Een kwade genius voedt zijn systeem met honderden of duizenden fragmenten aan beeld en geluid. Het programma analyseert deze bestanden minutieus, om zo een datamodel van iemand te construeren. De software kan diegene vervolgens van alles laten doen of zeggen. Tot nu toe gaat het bijna altijd om twee dingen: fopspeeches door politici of natuurfilms met beroemdheden.
Misschien wel het beste voorbeeld van dat eerste fenomeen is de (zogenaamde) toespraak van Barack Obama over de gevaren van nepnieuws, die website Buzzfeed en komiek Jordan Peel samen produceerden. Bij publieke en sociale hoogwaardigheidsbekleders zijn audiovisuele grondstoffen handig genoeg in overvloed voorradig. Op sociale media en WhatsApp circuleren tegenwoordig echter ook genoeg selfies en spraakberichten om jan-en-alleman erbij te lappen.
Op zich is manipulatie van bewijsmateriaal natuurlijk niks nieuws. Toch lijkt deze ontwikkeling om twee redenen extra spannend. Ten eerste voelen bewegende beelden intuïtief als ‘het’ bewijs van ‘de’ waarheid. Alsof je er zelf bij was en het met eigen ogen zag. Dit laatste bastion van ongerepte bewijsvoering manifesteert zich nu nog als veilige haven, maar verdient binnenkort dus meer alertheid.
Ten tweede laat een zogeheten ‘generatief adversariaal netwerk’ (dit kunstmatig intelligent ‘gan’ creëert veel deepfakes) geen sporen meer na die mensen zullen opmerken. De enige die nog een kans maakt om echt van nep te onderscheiden, is dan – u raadt het al – een volgend algoritme. Is wat ons rest dus een wedloop van programmeurs die elkaar de loef afsteken met codetaal vol drieletterafkortingen?
Nou zal het met grootschalige trucage vast wel meevallen. Het venijn zit ‘m daarentegen misschien juist in het omgekeerde scenario: niet zozeer nep dat doorgaat voor echt, maar veeleer echt dat wordt weggezet als nep – een nieuwe vorm van plausible deniability dus. Als een geavanceerde applicatie volgens experts werkelijk nul traceerbare aanwijzingen voor geknoei zal herbergen, hoe reageren wij juristen straks dan op een deepfake-verweer? Zal dat ooit twijfel gaan zaaien die redelijk genoeg is om serieuze rechtsgevolgen te bewerkstelligen? Moeten we de grondslagen van onze overtuiging herijken?
Het sinterklaascadeau van de Europese Commissie was eind vorig jaar een heus ‘actieplan tegen desinformatie’. Specifiek over het verschijnsel deepfakes luidt de noodkreet uit Brussel: ‘De gebruikte instrumenten en technieken veranderen snel. De respons moet net zo snel evolueren.’ Wetgevers in Engeland en Amerika denken op dit moment al na over specifieke deepfake-delicten. Ook op andere terreinen binnen het strafproces lijkt bewustwording intussen op z’n minst welkom.