AI compliance

Het conformeren aan alle wettelijke kaders bij de inzet en toepassing van AI-systemen en -tools is een belangrijk onderdeel bij de ontwikkeling van AI-beleid. De ontwikkeling van dat UU AI-beleid kent een risico-gebaseerde aanpak. Elk onderdeel van het beleid past in de AI-roadmap die gebaseerd is op het AI holistische framework onderwijs.

We definiëren AI als alle AI-systemen en -tools die worden bedoeld in de EU AI Act alsmede impactvolle algoritmes die mogelijk risicovolle effecten op onderwijs, onze onderwijssystemen of mensenrechten zouden kunnen hebben. 

De Europese AI verordening en risicocategorieën

De Europese AI verordening (EU AI Act) maakt onderscheid tussen verschillende risicocategorieën:

  1. Verboden AI
  2. Hoog risico AI
  3. Laag en minimaal risico AI

Certified AI Compliance Officers (CAICO's) faculteiten

CAICO staat voor Certified AI Compliance Officer en is een certificering die gepaard gaat met een training en een examen. Door het behalen van deze certificering is duidelijk dat de vereiste voorkennis en competentie aanwezig is om te kunnen bepalen wat de risico’s zijn van AI systemen en tools. De CAICO zal dan andere kennis en expertises betrekken om tot een goede oordeelsvorming te kunnen komen onder meer via het AI Compliance SO&O & UB team.

Voor algemene vragen over AI compliance m.b.t. onderwijs kun je terecht bij: