Zitten twee planeten in het café. Zegt de een tegen de ander: ‘Je ziet er niet zo lekker uit joh. Wat is er aan de hand?’
‘Kuch… Ik heb last van mensheid.’
‘Oh, niks aan de hand dus. Dat gaat vanzelf over.’
Door Juriaan Mensch
In het verleden schreef ik wel eens op negatieve wijze over de juristengeest: afstandelijk, rationeel, pessimistisch – gefocust op wat er allemaal mis kan gaan, alleen maar grizzly’s, bruine of ijsberen op de weg zien. Binnen bedrijven kennen ze de juristen beter als het Deal Prevention Team. Kan niet, mag niet. Stelletje negativo’s.
Welnu, dat imago gaan we rechtzetten. Leve de pessimist! Want momenteel lees ik het meest interessante en mogelijk relevante boek ever voor onze toekomst als mensheid.
Het heet Superintelligence – Paths, Dangers, Strategies. Het is geschreven door Oxford prof. Nick Bostrom. Hij is tevens oprichter van het Future of Humanity Institute en boardmember bij The Future of Life Institute bij MIT in Boston. Bostrom houdt zich bezig met existentiële bedreigingen. In andere woorden, de zaken waardoor wij, unieke primaten die we zijn, mogelijk uitgeroeid kunnen worden. Denk aan grote meteorietinslagen, of wat we onszelf aandoen, zoals uit de hand gelopen klimaatverandering. De vraag is voor Bostrom meestal niet of, maar wanneer.
Misschien zijn we redelijk snel de sjaak. Want over een paar decennia misschien al dient zich een nieuwe bedreiging aan: artificiële intelligentie (AI). Hebben we al, maar straks van de soort die de menselijke talloze malen overstijgt. Superintelligentie dus (de prefix Super slaat op u). Denk aan machines of kunsthersenen met een IQ van 5659 punten of meer.
Ik tel nogal wat mensen uit de wereldwijde tech-community onder mijn vrienden. Vrijwel allemaal zijn ze techno-optimist, cheerleaders voor de geweldige mogelijkheden die technologische ontwikkelingen, waaronder Superintelligentie, ons zal brengen. Veel ervan ben ik ook voor: weg met kanker, files en de PvdA. De Islamitische Staat in een weekje tijd met een slimme zwerm taserdrones van de kaart vegen zonder veel dodelijke slachtoffers? Top!
En kom maar door met dat plan om het universum te koloniseren voordat ons zonnetje supernova gaat. Groen licht voor schone en onuitputtelijke energiebronnen of 150 jaar oud worden in goede gezondheid. Maar regel eerst die welvaartsexplosie, via een door slimme computers gereguleerde en gestimuleerde economie. Iedereen rijk! Kunnen AI’s allemaal beter fixen dan bijvoorbeeld de slimdomme hormoongedreven mensen in de financiële wereld die nu nog aan de knoppen draaien.
Wij, Homo Sapiens, (Latijn voor Wijze Man) bakken er peren van vergeleken met de SuperAI’s. De wereld is straks te complex om nog aan ons over te laten. Laten we gewoon chillaxen en die veredelde rekenmachines het werk laten doen. Elke dag uitslapen mensen! Alles kan beter, sneller en goedkoper zonder u.
Hoewel, beter…
U voelde het misschien al aankomen: als we de komende intelligentie-explosie tenminste overleven. Bostroms boek is namelijk geen lofzang, maar een waarschuwing. Hij is niet tegen het ontwikkelen van SuperAI, maar noemt de komst ervan […] perhaps the most important issue the human race has ever faced. Want de effecten van onze slimme uitvindingen zijn praktisch bijna onvoorspelbaar en oncontroleerbaar. En als de evolutie ons iets leert dan is het dat mindere soorten verdrongen worden door superieure.
Want wat als u een maandagdipje hebt en uw huis-AI vraagt om u gelukkiger te maken? Is de geboden oplossing dan een injectie met heroïne? Of een korte termijnstrategie volgend, uw irritante jankende peuter de mond dicht ducktapen – of erger? Niet ondenkbaar als dat de bron van uw onvrede is. Dat is een vrij onschuldig voorbeeld. Maar neem een simpele paperclipfabriek, gerund door een superintelligentie met een programmeerfoutje, die zou zomaar de hele planeet in paperclips kunnen veranderen. U grinnikt nu in ongeloof?
De beperktheid van uw voorstellingsvermogen is geen goede grond voor een gevoel van veiligheid.
Bostrom voorziet dat we een compleet en complex nieuw rechtssysteem in code nodig hebben om de SuperAI’s te controleren. En de (optimistische) ontwerpers en de eigenaars. Het is misschien zelfs niet overdreven te stellen dat we nu aan het begin staan van een nieuwe wapenwedloop, alleen heet het nu nog niet zo. Denk niet dat dit over twintig jaar pas belangrijk wordt, dit moet geregeld zijn voordat SuperAI wordt uitgevonden, anders is het te laat.
Dus advocaten, beroepspessimisten die jullie zijn: biedt tegenwicht aan het vigerende techno-optimisme. De wereld en uw kinderen hebben zwartkijkers nu harder nodig dan ooit. Dus denk doem, en red ons. Natuurkundigen, filosofen, biologen, wiskundigen en computerwetenschappers hebben ze al bij het Future of Life Institute. Advocaten nog niet.
Aanmelden kan hier: futureoflife.org