Hoe zorg je ervoor dat Artificial Intelligence-technologie de mensheid blijft dienen en dat daarbij de rechten van het individu beschermd blijven? Daarover buigen Europarlementariërs zich bij het ontwikkelen van de AI Act, een wet waarvoor ook de TU/e input levert. Maar de Europese wet is er nog niet en ondertussen blijven systemen als GPT-4 (de motor achter ChatGPT) zich in een noodtempo doorontwikkelen. En dat gebeurt veel te snel, staat in een open brief die door veel tech-prominenten werd ondertekend, waaronder verschillende TU/e’ers.

Een belangrijke manier die Wim Nuijten, wetenschappelijk directeur van het Eindhoven Artificial Intelligence Systems Institute (EAISI) ziet om te zorgen dat AI-systemen niet tot zulke (voor de mensheid) desastreuze acties overgaan, is om vol in te zetten op AI alignment: het zorgen dat systemen zo ontwikkeld worden dat ze overeen komen met menselijke waarden. “Daar is echter weinig werk in verricht en het is ook niet de verwachting dat we het snel gaan oplossen. De ontwikkelingen op technologisch gebied gaan daarentegen super snel.” Of het lukt om die alignment snel genoeg op orde te krijgen is volgens hem dan ook maar de vraag. Daarnaast zijn niet overal op de wereld morele waarden hetzelfde, al zou je er volgens Nuijten toch in ieder geval van uit moeten kunnen gaan dat de gemene deler is dat weinig mensen een einde willen maken aan de mensheid.

Daniel Kapitan, fellow bij EAISI, ondertekende de open brief ook. Hij geeft onder andere colleges bij Jheronimus Academy of Data Science.

Hij ziet zichzelf als een technologieoptimist en gelooft in de interactie tussen mens en machine, maar vindt wel dat dat omkleed moet worden met processen en dat de mens in the loop moet blijven. Dat gebeurt niet bij bijvoorbeeld GPT-4, dat volgens Kapitan een letterlijke blackbox is. “We denken dat het systeem een bepaald begrip heeft van de wereld, waarschijnlijk anders dan hoe wij mensen dingen ‘begrijpen’. Maar hoe het precies werkt daar hebben we nog geen idee van. We zouden onderzoek moeten doen om de blackbox open te trekken, maar ontwikkelaars schermen continu met commerciële belangen en dat het intellectueel eigendom zou zijn. Dat kan echt niet.”

In tegenstelling tot Wim Nuijten pleit Kapitan er dan ook voor om de architectuur van deze systemen wél open te gooien, zodat peer-review mogelijk wordt. Om die macht wat in te perken zouden big tech bedrijven ‘opgeknipt’ moeten worden, vindt hij.

Lees het uitgebreidere stuk op de site van Cursor van de TUe.