Maarten Boudry schreef een stuk over intelligentie, intentie en onze intuïtie daarover, naar aanleiding van de film 2001: A Space Odyssey:

“In 2001: A Space Odyssey besluit de bemanning om de boordcomputer HAL 9000 uit te schakelen na een rekenfout. Maar HAL luistervinkt bij hun gesprek en begint de bemanningsleden systematisch te doden. Eén astronaut blijkt slimmer dan HAL had verwacht en weet naar het schip terug te keren via een noodsluis. Dave Bowman kruipt HAL’s logische kern binnen en begint de geheugenmodules los te schroeven. Terwijl HAL’s bewustzijn wegvloeit, smeekt hij: “I’m afraid, Dave.” Zijn stem wordt trager, kinderlijker, tot hij een liedje zingt dat halverwege wegsterft.

Dit angstbeeld — een AI die zichzelf koste wat kost in leven wil houden — keert eindeloos terug in sciencefiction, van het op hol geslagen Skynet in The Terminator tot de ontsnapte robot in Ex Machina.

Maar waarom zou een superslimme computer de wereld willen overheersen? Filosofen ontwikkelden daar een argument voor, dat bekend staat als instrumentele convergentie. De kern luidt als volgt: zelfs als je een AI een volkomen onschuldig einddoel geeft, zal het systeem vanzelf bepaalde subdoelen ontwikkelen die nuttig zijn voor vrijwel elk doel. Het belangrijkste daarvan is zelfbehoud. Zoals Stuart Russell het formuleerde: “You can’t fetch coffee if you’re dead.””

Lees het hele stuk in de Salon of de oorspronkelijke versie zoals die in De Morgen verscheen.

Deel via: