Interviews met Jan Broersen over kunstmatige intelligentie

© iStockphoto.com/Andrey Prokhorov

en interviewden dr. ir. (Theoretische filosofie), die onderzoek doet naar de verantwoordelijkheid van intelligente systemen, over de opmars van kunstmatige intelligentie.

Om te beginnen zet Broersen een misvatting recht over kunstmatige intelligentie (artifical intelligence, AI): "Mensen die er niet zelf in werken denken bij AI meestal direct aan robots. Ik denk eerder aan slimme algoritmes, oftewel softwareprogramma’s voor computers. Bijvoorbeeld online systemen die een profiel van je maken en selecteren wat je te zien krijgt, denk aan Google en Facebook." We gaan AI dus overal terugzien.

Prof. dr. ir. Jan Broersen. Foto: Ed van Rijswijk
Dr. ir. Jan Broersen

Doemscenario

Ook de vaak gehoorde doemscenario's omtrent AI komen ter sprake: veel mensen zijn bang dat computers de mens zullen inhalen omdat ze eindeloos kunnen bijleren. Die angst is volgens Broersen niet helemaal gegrond. Net als mensen zijn AI-systemen beperkt en kunnen ze dus niet eindeloos bijleren. De mens blijft volgens Broersen de meest risicovolle factor. Het probleem is niet zozeer systemen die kwaadaardig worden en het op de mens gaan munten, maar eerder mensen met de verkeerde bedoelingen die autonome systemen inzetten voor verkeerde doeleinden.

Bedrijfsinvestering

Ook veel bedrijven investeren in het ontwikkelen van kunstmatige intelligentie, bijvoorbeeld Google en Tesla. Dat zorgt voor een spanningsveld met de universiteiten: een bedrijf als Google heeft de middelen om miljarden te investeren in de ontwikkeling van AI en duizenden werknemers die daaraan meewerken, daar kunnen universiteiten nooit tegenop. Bovendien worden universitaire onderzoekers onder druk gezet om open access te publiceren omdat hun onderzoek met publieke middelen gefinancierd wordt, terwijl bedrijven er weinig belang bij hebben om hun ontdekkingen en ontwikkelingen openbaar te maken, zij willen er geld aan verdienen. Om dit spanningsveld te doorbreken is een mentaliteitsomslag nodig bij bedrijven volgens Broersen. Een uitzondering hierop is Tesla: veel van wat het bedrijf ontdekt wordt openbaar gemaakt, zonder patenten.

Verantwoordelijkheid

In zijn eigen onderzoek wil Broersen mensen tot nadenken aanzetten over hoe intelligente systemen met verantwoordelijkheid zouden kunnen omgaan. Hij ontwikkelt een theorie over hoe je intelligente systemen kunt laten redeneren over wat mag en wat niet mag, bijvoorbeeld ten opzichte van de wet, maar ook als een soort artificieel moreel kompas. We moeten de systemen dus op een gelijke manier als onze kinderen opvoeden. Pas als de systemen geavanceerd genoeg zijn, kunnen we ze verantwoordelijkheid geven. Tot het zover is, moet de mens die houden. "Dus het is prima wanneer een arts zich laat adviseren door de IBM-supercomputer Watson, die in staat is alle medische literatuur op een rij te zetten, maar Watson is niet meer dan een stuk gereedschap. De arts houdt de verantwoordelijkheid en moet die ook altijd nemen", aldus Broersen.