AI met voorbedachten rade

De afgelopen jaren is de aandacht voor kunstmatige intelligentie (AI) enorm toegenomen, en niet zonder reden. Dankzij sterkere rekenkracht van computers en een almaar groeiende hoeveelheid data gingen de ontwikkelingen razendsnel. Zo snel zelfs, dat techreuzen hun AI-modellen beschikbaar stelden aan het grote publiek zonder dat ze uitgebreid waren getest en zonder dat er voldoende veiligheidswaarborgen waren ingebouwd. De krantenkoppen waren enerzijds lovend, want AI-modellen zoals ChatGPT bieden oneindig veel toepassingsmogelijkheden, maar kritisch anderzijds: AI bleek onbetrouwbaar, gaf onjuiste informatie en vertoonde discriminerend gedrag.

De oplossing lijkt simpel: inzicht krijgen in wat zo’n AI-systeem geleerd heeft en ongewenst gedrag aanpassen. De praktijk is echter weerbarstig: AI-modellen zijn vaak groot en complex en zijn daardoor ‘zwarte dozen’ (black boxes). Zelfs AI-ontwikkelaars weten niet precies wat een AI-systeem heeft geleerd. Dat zit zo: ontwikkelaars ontwerpen de architectuur van het AI-model en bepalen zo hoe een AI-model moet leren, maar niet wát het moet leren. Het is te vergelijken met een ontwikkelaar die een fysiek exemplaar van een menselijk brein knutselt, maar alleen de eigenaar van het brein kan het vullen met ervaringen. AI leert zichzelf door patronen te ontdekken in data. Bijvoorbeeld dat een kat snorharen heeft en dat de woorden ‘bos’ en ‘boom’ vaak samen in een tekst voorkomen. Deze patronen slaat het model op in de vorm van miljoenen getallen waar mensen geen chocola van kunnen maken.

Pas nadat het leerproces van zo’n AI-model is voltooid, kan geëvalueerd worden of het geleerde gedrag overeenkomt met intenties en verwachtingen door allerlei verschillende input te geven en te kijken wat het AI-model als output geeft. Zo’n reverse-engineering aanpak van een black box heeft zijn beperkingen en geeft gebruikers weinig controle. In plaats van achteraf raden wat een AI-model geleerd heeft, is mijn droomproject ‘AI met voorbedachten rade’: AI die mensen vooraf kunnen interpreteren, aanpassen en goedkeuren.

De term ‘met voorbedachten rade’ kennen we uit het strafrecht en wijst op ‘met kalm beraad en rustig overleg handelen’. Mijns inziens zou dat ook op AI van toepassing moeten zijn: een zorgvuldige aanpak met overleg tussen belanghebbenden is van cruciaal belang voor een effectief en ethisch-verantwoorde ontwikkeling van AI.

Dat ‘kalm beraad en rustig overleg’ zou enerzijds met de gehele samenleving gevoerd moeten worden. Wat vinden wij moreel acceptabel gedrag in welke situatie? Wat zijn de normen en waarden waar een AI-model aan gehouden moet worden? Anderzijds kunnen bepaalde belanghebbenden in meer detail overleggen over een specifieke toepassing. Wat is nodig om een arts zo optimaal mogelijk te ondersteunen bij het diagnosticeren van ziektes? Hoe kan AI de assemblagelijn van een fabriek efficiënter maken? AI-specialisten zullen een goed inlevingsvermogen moeten hebben om de vertaalslag te maken naar domein-specifieke oplossingen. AI-experts en domeinspecialisten zullen daarom moeten samenwerken om zo grenzen te verkennen én de juiste grenzen te stellen.

De grootste uitdaging zit hem vervolgens in het vastleggen van het besproken gewenste gedrag in een AI-model. Er moet effectieve AI ontwikkeld worden die mensen kunnen samenstellen, aanpassen en interpreteren. De AI-progressie van de afgelopen jaren kwam voor een groot deel door het trainen van AI-modellen op steeds grotere hoeveelheden data, al dan niet legaal verzameld. Nu de rechtszaken over auteursrechtschendingen en privacy-inbreuken lopen, kan wat mij betreft de focus weer verlegd worden naar innovatie op de onderliggende techniek. En daar hebben we toch echt de creativiteit en het moreel kompas van de mens bij nodig.

AI is een breed begrip en klinkt voor sommigen wellicht wat ongrijpbaar. Maar een beslisboom is bijvoorbeeld ook AI: een beslisboomalgoritme kan zelf patronen vinden in data en vat dat samen in interpreteerbare regels: als dit, dan dat. De geleerde redenatie is dus in te zien, te begrijpen en relatief makkelijk aan te passen door de gebruiker. “Als persoon een niet-westerse achtergrond heeft, dan hoger risico”? Ho ho, die regel halen we eruit. Helaas zijn zulke interpreteerbare modellen vaak te simplistisch. Die zullen geen tekst kunnen vertalen of kanker in een CT-scan kunnen herkennen.

Het is dus nodig om de kracht van complexe modellen, tegenwoordig vaak artificiële neurale netwerken, te combineren met de interpreteerbaarheid van simplistische modellen. Dit klinkt misschien als onhaalbare toekomstmuziek maar er zijn door mij en andere AI-ontwikkelaars al eerste veelbelovende stappen in deze richting gezet. Ik zie de ultieme ‘AI met voorbedachten rade’ voor me als een modulair aanpasbaar systeem, vergelijkbaar met een legobouwpakket. Legoblokjes kunnen naar wens worden weggehaald, toegevoegd en aangepast. Net alsof de mens een chirurg is en zelf draadjes kan verleggen in een artificieel brein. Op die manier kunnen betrokkenen voordat het AI-model in gebruik genomen wordt gezamenlijk bepalen welke redenaties het model erop na mag houden. Bovendien kunnen vooraf de taken en doelen bepaald worden waarvoor het AI-model ingezet mag worden. De AI kan vervolgens aan deze grenzen gehouden worden, om zo hallucinaties of ongefundeerde beslissingen te voorkomen. Net zoals bij mensen is het niet zwak maar juist krachtig als de AI aangeeft dat het iets niet kan of weet.

Kortom, mijn toekomstproject gaat over het gezamenlijk bepalen en implementeren van gewenst gedrag van AI: AI met voorbedachten rade. Hier is nog veel technologische innovatie voor nodig, en tegelijkertijd ook een constante dialoog over doeltreffend en acceptabel gedrag.

 

Deel via: