Hoe kunnen AI-systemen zo worden ontworpen dat de mens nog steeds voldoende controle heeft? Na jaren onderzoek hebben Delftse onderzoekers samen met internationale collega’s het eerste handboek geschreven over ‘betekenisvolle menselijke controle’ op systemen met autonome eigenschappen. David Abbink, hoogleraar haptic human-robot interaction en wetenschappelijk directeur van het interdisciplinaire onderzoeksinstituut AiTech van de TU Delft, en Geert-Jan Houben, pro-vice rector van AI, Data and Digitalisation en leider van het TU Delft AI Initiative, spreken over hoe het Delftse onderzoek naar ‘betekenisvolle menselijke controle’ tot meer verantwoorde ontwikkeling en implementatie van systemen met autonome eigenschappen moet leiden en hoe Delft hier wereldwijd een leidende rol in heeft genomen.
Binnen het onderzoek naar autonome systemen is het concept ‘betekenisvolle menselijke controle’ geïntroduceerd. Dit concept is in de afgelopen tien jaar een steeds belangrijkere rol gaan spelen in het wetenschappelijk onderzoek aan de TU Delft naar systemen met autonome eigenschappen. En met het oprukken van lerende systemen door kunstmatige intelligentie (AI) in alledaagse toepassingen is het belang alleen maar groter geworden.
Er zijn vier eigenschappen belangrijk: een ‘moral operational design domain’, dat afgebakend moet worden; mensen en machines moeten mentale modellen van elkaar en de omgeving hebben; de verantwoordelijkheid die aan een mens wordt toegekend moet in verhouding staan tot het vermogen en de autoriteit van die mens om het systeem ook daadwerkelijk te controleren; en de handelingen van het AI-systeem moeten altijd gelinkt kunnen worden aan minstens één persoon die zich ook nog eens bewust is van de morele verantwoordelijkheid.” De drie wetten van de robotica vernieuwd!
Lees het hele stuk op de site van de TU Delft.