Kun je een functioneringsgesprek houden met AI?

hands moving data around in a visualisation of a virtual system

We gebruiken algoritmes om snel van A naar B te kunnen navigeren, in contact te blijven met onze vrienden en om te bepalen wat we vanavond gaan eten. Kortom, data analyse en algoritmes maken steeds meer deel uit van ons leven. Ook organisaties maken steeds vaker gebruik van algoritmes. Maar hoe controleer je of AI zijn werk goed blijft doen? Kun je, net als bij een mens, een functioneringsgesprek houden met AI? En daarop aansluitend, hoe kunnen toezichthouders omgaan met het toenemende gebruik van AI door de organisaties waar zij toezicht op houden? Dit zijn de vragen waar een nieuw onderzoeksconsortium binnen het UU AI & Media Lab mee aan de slag gaat.

Algoritmes stellen ons in staat om taken sneller, efficiënter en soms zelfs beter uit te voeren. Soms zetten organisaties een algoritme in dat zelf patronen leert te herkennen en besluiten kan ondersteunen of zelfs maken.

AI is niet waardevrij

“Maar AI is niet waardevrij”, vertelt projectleider Iris Muis van de Utrecht Data School, “zoals dat ook geldt voor andere Big Data technieken. Het kan publieke waarden, zoals transparantie, privacy en vertrouwen aantasten, maar ook versterken. Natuurlijk willen wij dat organisaties gebruik maken van AI die onze vrije en democratische samenleving versterkt, en niet die waarden aantast of ons raakt in onze mensenrechten.”

Artificial Intelligence kan publieke waarden zoals transparantie, privacy en vertrouwen aantasten, maar ook versterken.

Iris Muis
projectleider Iris Muis, Utrecht Data School

Toezichthouders en AI

Het consortium Toezichthouders en AI binnen het UU AI & Media Lab zal zich juist met deze kwestie bezig houden. Muis: “Toezichthouders houden van oudsher het overzicht op wat organisaties doen in Nederland, en controleren of zij zich houden aan de geldende wet- en regelgeving. De organisaties die zij moeten controleren, maken steeds vaker gebruik van AI. Dit zorgt ervoor dat toezichthouders zich moeten gaan specialiseren in nieuwe vormen van controle: namelijk toezicht op het verantwoord gebruik van AI. Hoe kunnen zij controleren of er wel op een verantwoorde manier gebruik wordt gemaakt van AI? En hoe zouden zij zelf AI kunnen inzetten om hun wettelijke taak efficiënter uit te voeren?”

Auditen van algoritmes

In het tweejarige onderzoeksproject worden concrete handvatten ontwikkelt om algoritmes te auditen en houdt rekening met de sociaal-culturele context. Tevens biedt het project ruimte voor experiment en training om deze handvatten te implementeren in de praktijk van toezichthouders. De deelname van het i-Partnerschap Rijk, een samenwerkingsverband op het gebied van IT tussen kennisinstellingen en Rijksoverheid, heeft tot doel meer partners aan te haken bij het consortium en de resultaten te vertalen naar de bredere context. Op deze manier draagt het bij aan de maatschappelijke impact en valorisatie van het onderzoek.

Deelnemers onderzoeksconsortium

Het consortium omtrent toezichthouders en AI bestaat uit de volgende partijen:

  •  Agentschap Telecom (AT)
  •  Nederlandse Voedsel en Waren Autoriteit (NVWA)
  •  I-Partnerschap Rijk
  •  Universiteit Utrecht, bestaande uit:
    • Onderzoekers van de , Faculteit Geesteswetenschappen;
    • Onderzoekers van de Faculteit Bètawetenschappen. 

De Universiteit Utrecht en AI

De Universiteit Utrecht erkent het belang van de verdere ontwikkeling van kennis op het gebied van Artificial Intelligence (AI). Tot op heden heeft ze dit onder meer gedaan via het focusgebied Human-centered Artificial Intelligence en de AI labs. Door samenwerking aan onderzoek en onderwijs vergroten we de aandacht voor maatschappelijke vraagstukken, genereren we nieuwe state-of-the-art kennis en toepassingen voor specifieke domeinen en dragen we bij aan een betere aansluiting tussen opleiding en beroepspraktijk.