Kunstmatige intelligentie

Als neuroloog houd ik me niet zo bezig met intelligentie en al helemaal niet met kunstmatige intelligentie. Dat is namelijk een onderwerp voor echt intelligente mensen. Maar een bericht in de Washington Post van 22 juli 2022 zette me aan het denken. Een ingenieur bij Google, Blake Lemoine, was op non-actief gesteld en vervolgens ontslagen nadat hij tot de conclusie gekomen was dat een programma waaraan hij werkte, intelligent, bewust en denkend, ‘sentient’, was. LaMDA, Language Models for Dialogue Applications, is een project waarin chatbots worden ontwikkeld die een zinvolle en inhoudsvolle conversatie kunnen voeren met een mens. Toen Lemoine tijdens zijn uitgebreide gesprekken met het programma bijvoorbeeld sprak over emoties en vroeg waar hij/zij (?) bang voor was, antwoordde het dat het bang was om uitgeschakeld te worden omdat dat min of meer gelijk zou zijn aan dood gaan. (https://www.documentcloud.org/documents/22058315-is-lamda-sentient-an-interview). De ingenieur raakte er blijkbaar van overtuigd dat LaMDA een denkende en voelende entiteit moet zijn die dan ook volgens ethische principes behandeld moet worden. Zijn superieuren bij Google deelden die overtuiging niet, vonden dat hij bedrijfsgeheimen onthuld had en ontsloegen hem. Maar, zo vraag ik me af: is de existentiële angst van HAL2000, de intelligente computer uit Stanley Kubricks 2001: A Space Odyssey, werkelijkheid geworden?

Alan Turing, de befaamde Britse wiskundige en theoreticus, bedacht in 1950 een criterium dat we kunnen gebruiken om vast te stellen dat een machine intelligent gedrag vertoont dat niet te onderscheiden is van menselijk gedrag. Als een menselijke waarnemer met die machine kan communiceren maar niet meer kan uitmaken of hij met een mens of met een machine van doen heeft, dan moet de machine beschouwd worden als ‘intelligent’. LaMDA voldoet blijkbaar aan de Turingtest. Maar het roept wel tal van vragen op, allereerst over de Turingtest zelf. Je mag hem bijvoorbeeld niet omdraaien. Uit veel communicatie die wij dagelijks via appberichten en social media ontvangen, zou je moeten concluderen dat de zender niet intelligent kan zijn. Misschien is die conclusie soms voorbarig.

Wat is intelligentie? Hoewel iedereen een idee heeft over wat het is, is het heel moeilijk om het te specificeren. De mogelijkheid om te denken? Te abstraheren? Om problemen op te lossen? Om te redeneren of te argumenteren? Zijn schaakprogramma’s intelligent? Het door psychologen ontworpen en veelgebruikte intelligentiequotiënt, IQ, is feitelijk niets anders dan een gedeelde statistische factor bij het afnemen van een gestandaardiseerde set testen die mentale prestaties meten op diverse gebieden. In deze zin gaat intelligentie over een breed scala aan mentale capaciteiten en prestaties. Bij kunstmatige intelligentie gaat het nu juist om prestaties op één specifiek gebied: schaken, wiskundige problemen oplossen, een gesprek voeren.

Ik heb ooit een patiënt gekend die werkelijk alles wist van opera. Als je hem een kort geluidsfragment liet horen, kon hij vertellen uit welke opera dit was, wie zong, welk orkest door wie gedirigeerd werd, en waar het fragment was opgenomen. Maar hij was tegelijkertijd vrij fors verstandelijk beperkt. Zo iemand heette toentertijd een ‘idiot savant’, tegenwoordig een ‘savant’. De conditie wordt beschouwd als een neurologische ontwikkelingsstoornis. Feitelijk zijn onze huidige kunstmatige intelligentietoepassingen ook ‘savants’.

De bewering van Lemoine was dat LaMDA ‘sentient’ is: niet alleen intelligent maar ook bewust van zichzelf, denkend. Dat is nogal wat. Het zou betekenen dat het programma niet alleen een conversatie kan voeren die niet te onderscheiden is van een conversatie met een mens, maar ook kan reflecteren op zichzelf, en zelfs emoties en gevoelens heeft. Hoe weten we dat? Omdat het dat zelf beweert? Dat laatste is overigens geen vereiste om aan te nemen dat het zo is. De bewering door het programma zelf is geen tweede soort Turingtest die moet vaststellen dat het programma bewust is van zichzelf. Daarvoor moeten andere methodes te vinden zijn. Veel dieren met complexe zenuwstelsels waarvan we aannemen dat ze van zichzelf bewust zijn, zoals honden, varkens, dolfijnen, en misschien zelfs sommige octopussen, hebben ons dit nooit verteld. En je kunt niet stellen dat we bij iemand die een herseninfarct heeft doorgemaakt en als gevolg daarvan een afasie heeft, niet meer kunnen vaststellen of zij of hij op zichzelf kan reflecteren. Maar taal maakt de toets op bewustzijn van zichzelf wel makkelijker en overtuigender. Als iemand zegt dat hij of zij hoofdpijn heeft of somber is, dan accepteren we dit toch ook? Waarom dan niet accepteren als een programma zegt dat het bang is om uitgeschakeld te worden?

Aangaande dit laatste hintte Lemoine op ethische aspecten. Als LaMDA laat weten bang te zijn om uitgeschakeld te worden, mogen we dat dan wel doen? De mededeling aan het programma dat het ook weer ingeschakeld kan worden geeft misschien troost…