De mens voorbij (2)

Mijn vorige column, over de film Ex Machina, bracht een kleine discussie teweeg over de morele implicaties van instinct en zelfbehoud bij artificiële intelligentie. En eerlijk gezegd ook een paar inzichten die ik nog niet had gehad. Dank dus aan de reageerders! Een reactie op sommigen van hen, vermomd als column.

Ik werkte een vraag uit die bij mij opkwam naar aanleiding van de film over een vrouwelijke robot die instinct en manipulatie gebruikt om te ontsnappen aan haar menselijke makers. De vraag was waar de zoektocht die de wetenschap onderneemt bij de ontwikkeling van artificiële intelligentie eigenlijk toe leidt: een met menselijke intelligentie uitgerust werkpaard, dat ons moeilijk werk uit handen moet nemen of een overtreffing van de grillige imperfecties van de mens?

Hierbij poneerde ik de stelling dat de prijs van complexere intelligentie een instinct voor zelfbehoud teweeg zou brengen, die ook wel eens nadelig voor de mens zou kunnen uitpakken. Niet mijn idee uiteraard, maar een samenvatting van vele verhalen en films die over het onderwerp zijn gemaakt. Of in elk geval een dystopische idee, waarvoor de makers de mensheid willen waarschuwen.

Terecht wees iemand op het feit dat zelfbehoud bij mens en dier niet altijd opgaat en dat zelfopoffering en altruïsme ten gunste van de groep vaak voorkomt. Iemand anders voegde hieraan toe dat geweten en moraal juist voortkomt uit zelfbehoud, om als groep sterker te staan en te overleven. Ik ben het hier helemaal mee eens, met als kanttekening dat je daar als voorwaarde aan verbindt dat er ook sprake is van een groep. Robot Ava is in de film zo goed als alleen. Blade Runner en ook de Zweedse serie Real Humans proberen het overlevingsinstinct van robots als groep wel uit te werken.

Een theorie over het bewustzijn en het kunstmatig creëren van een bewustzijn of intelligentie (ik stel nog steeds dat dat twee verschillende entiteiten zijn) is dat deze voortkomen alleen uit de complexiteit van het hersennetwerk zelf. Hogere levensvormen vertonen over het algemeen meer tekenen van bewustzijn dan lagere, voor zover dat objectief te onderzoeken is. Maar bij gebrek aan bovennatuurlijke verklaringen zoals een ziel die van het lichaam bezit neemt, vind ik dit een redelijk aannemelijk idee. Ik denk dat dat ook de basis van mijn stelling was.

Zo verder geredeneerd zou je je kunnen voorstellen dat het uitbreiden en optimaliseren van een kunstmatig netwerk dat leert en op niveau interageert met zijn schepper eenzelfde soort proces van bewustzijnsvorming doormaakt. Een bewustzijn van de eigen identiteit kan volgens mij bijna niet bestaan zonder enige speculatie over mogelijke bedreigingen van het voortbestaan ervan. Iets wat ik instinct zou noemen.

Een aanname die ik hierbij maakte in mijn vorige column was dat zo’n instinct een primitieve, amorele keuze tot zelfbehoud zou nemen. Of dat waar is weet ik niet, je zou alleen kunnen beargumenteren dat als een individu helemaal alleen en op zichzelf is aangewezen, zonder benul van groepsbelang, de keuze voor zelfbehoud een onontkoombare optie is. Wat ik maar wilde bestrijden is het idee dat een geweten (wéér een andere entiteit) een programma is wat je kunt uploaden of programmeren.

Wat ik overigens een intrigerendere vraag uit de reacties van de vorige column vond, was de simpele vraag of ik met mijn stelling over een gebrek aan moreel kompas niet teveel uitging van de menselijke maat. Dat ondermijnt mijn stelling eigenlijk het meest. Het zou inderdaad kunnen dat een superintelligentie die puur rationeel redeneert een volledig eigen moreel systeem ontwikkelt, dat voor ons mensen onbevattelijk is. Op dit terrein speelt zich dus ook de discussie af: in welke mate is er sprake van een natuurlijk evolutionair proces en in welke mate is het wenselijk om de menselijke imperfecties te overstijgen met als risico als mens zelf overvleugeld te worden, als je dat proces zélf in de hand hebt?