Kiekeboe! Sinds vorig jaar zomer ben ik vader. Onze kleine man is inmiddels bijna negen maanden oud. Uit de nieuwsbrief waar mijn vrouw me voor inschreef, begrijp ik dat we met Kiekeboe! zijn begrip van objectpermanentie trainen: spullen en mensen blijven bestaan, ook als ze uit beeld verdwijnen.
Door Niek van de Pasch
Dat cognitief vermogen is ook een belangrijke graadmeter voor de intelligentie van dieren. Biologen toetsen dit met allerlei proefjes, waarvoor bijvoorbeeld honden zakken en makaken slagen.
Waar op dit spectrum valt de huidige stand van de wetenschap in kunstmatige intelligentie? Dat kunnen we vanaf deze maand ontdekken tijdens de heuse ‘Animal-AI Olympics’. In die competitie zal ook blijken hoe goed we onze fauna eigenlijk doorgronden. Programmeurs halen de inspiratie voor hun algoritmes namelijk vaak uit de natuur. Zo is de software achter Google’s reverse image search afgekeken van het visuele systeem van primaten. Als dat op het eerste oog mooie resultaten oplevert, ontstaat al gauw het idee dat de robots ons op de hielen zitten en binnenkort voorbijrazen. Of bedriegt die schijn?
Ruim een eeuw geleden begon ‘Kluger Hans’ furore te maken. Vriend en vijand waren gefascineerd door dit paard, dat vergezeld door zijn baas voor hooggeëerd publiek sommen kon oplossen. De uitkomst meldde Hans door met zijn hoef op de grond te tikken.
Van een afstandje leek de knol inderdaad pienter. Pas op het moment dat een schilder het duo nauwgezet moest observeren, bleek hoe Hans afging op subtiele en onbewuste hints van zijn baas. Toen die van het toneel verdween om zijn gelijk te bewijzen, had het paard genoeg aan veranderende lichaamshoudingen van toeschouwers. Zo wendden die hun blik van hoef naar hoofd zodra Hans bij het juiste aantal klopjes aankwam.
Die vaardigheid is beslist een vorm van intelligentie, maar toch iets anders dan de rekenkunst waar iedereen voor viel. Precies zo’n strategie blijken veel kunstmatig intelligente systemen ook te hanteren. De wetenschappers die dat fenomeen onlangs blootlegden, schatten zelfs dat de helft zo klug is als Hans.
Eén toepasselijk voorbeeld: een prijswinnend algoritme bleek foto’s van paarden trefzeker te categoriseren, omdat die onevenredig vaak watermerken linksonder bevatten. Dat was nog nooit iemand opgevallen, omdat de datasets te groot zijn om handmatig te ordenen. Toen die labels werden verwijderd van paardenplaatjes (of juist werden toegevoegd aan autoplaatjes), viel de ogenschijnlijk slimme software genadeloos door de mand.
Maar maakt het eigenlijk iets uit hoe een proces verloopt, als de uitkomst op zich tevreden stemt? Met die vraag zijn andere onderzoekers bezig. Zij bekommeren zich vooral om de samenwerking tussen mensen en machines. Zoals in elke productieve relatie is daar een basis van vertrouwen nodig. Algoritmes zouden daarom moeten kunnen uitleggen waarom ze iets doen of laten. Zeker bij fouten of verrassingen heeft de menselijke partner behoefte aan toelichting.
Vanuit die gedachte lieten de academici diverse participanten urenlang Frogger spelen. In die game moet een kikker naar de overkant huppen, zonder in rivieren of onder vrachtwagens te belanden. Op basis van spontane uitroepen legden zij een corpus vol alledaagse rationalisaties aan. Uit deze verzameling genereert hun algoritme voor elke keuze in het spel een beweegreden in klare taal. Ze geven toe dat een achteraf geconstrueerd motief weinig of niks zegt over de échte drijfveren van het systeem, maar menen dat dit niet deert en tussen mensen net zo werkt.
Hier ontstaat een interessante parallel met de rechtspraak. Harm Kloosterhuis en Carel Smith schreven eerder dit jaar in Ars Aequi over het juridisch syllogisme. Zij weerleggen het misverstand dat rechters de ‘eigenlijke redenen’ voor hun oordeel zouden maskeren, door een uitspraak als logisch geldige redenering op te zetten. Het syllogisme wil nu juist geen denkproces beschrijven, maar slechts de motivering controleerbaar maken: hoe volgt deze beslissing uit die argumenten? Terwijl dit betoog uit de rechtenfaculteiten van Rotterdam en Leiden klinkt, beweren informatici uit Duitsland en Amerika dus dat AI (zogenaamd) ‘slimme’ beslissingen kan nemen – met onzinnige redenen, maar logische motiveringen…
Als ik ’s avonds thuis kom en die objectpermanentie bij vlagen signaleer, vraag ik me als elke ouder hardop af: ‘Wat zou er toch omgaan in dat koppie?’ Een mysterie met onvermoede implicaties voor de toekomst van mijn vak.