UU AI Ethische gedragscode

We erkennen de potentieel grote impact van AI-technologie op ons instituut, de academische gemeenschap, onze waarden en op onze studenten en medewerkers. Met het doel van verantwoorde innovatie met en door AI, vinden we het belangrijk om een aantal veiligheid- en beheersmaatregelen op te stellen voor het gebruik van AI binnen onze universiteit.

0. Strategie van de universiteit, bestaande gedragscodes en publieke en academische waarden

De universiteit biedt onderwijs conform het UU onderwijsmodel, waar het verantwoord inzetten van AI integraal onderdeel van uitmaakt. Onze docenten bevorderen innovatief onderwijs, stimuleren kritisch denken en bereiden studenten voor op hun toekomstige loopbaan en rol in de maatschappij. Tegelijkertijd waarborgen docenten het correcte gebruik van AI en dragen zij bij aan de ontwikkeling van academische basisvaardigheden. De universiteit stelt als uitgangspunt dat zij zelf de regie houdt over de toepassing en inzet van AI.
 

  • Onze onderzoekers, docenten en onderwijsondersteuners ontwerpen en ontwikkelen AI met ethische verantwoorde bedoelingen, zowel voor gebruik binnen ons universitair onderwijs als met onze samenwerkingsrelatie
  • Onze docenten en onderwijsondersteunend personeel gebruiken AI met de bedoeling om de onderwijs- en leerervaring te verbeteren en het succes van studenten te bevorderen in overeenstemming met het UU-onderwijsmodel.
  • Onze medewerkers en studenten maken alleen gebruik van en/of ontwikkelen AI die voldoet aan Nederlands, Europees en toepasselijk internationaal recht.
  • Onze medewerkers en studenten doen hun uiterste best alleen gebruik te maken en/of ontwikkelen van AI die aansluit bij onze democratische principes en de waarden van onze rechtstaat.
  • Onze medewerkers en studenten zorgen er actief voor dat het gebruik, de generatie en de promotie van AI in overeenstemming is met de principes van open science, eerlijk gegevensgebruik (inclusief het niet opzettelijk weglaten van gegevens) en de ethische bedrijfsvoering van de academische gemeenschap.
  • Onze medewerkers en studenten gebruiken, genereren of promoten niet opzettelijk nep- of deepfake-inhoud (afbeeldingen, code, tekst, audio, video's enz.) die met AI zijn geproduceerd die schade kan toebrengen aan individuen, de universiteit, haar reputatie, de integriteit van academisch onderwijs en onderzoek, of de samenleving in het algemeen: het do-no harm-principe.

1. Menselijke autonomie

AI-systemen moeten de menselijke autonomie en waardigheid respecteren. Mensen moeten voldoende kunnen sturen en ingrijpen in beslissingen die door AI worden genomen. Het garanderen van fundamentele rechten, menselijke autonomie en toezicht tijdens de gehele levenscyclus van een AI-systeem.
 

  • De universiteit doet haar uiterste best om de digitale soevereiniteit en onze academische waarden te beschermen tegen Big Tech-dominantie en geopolitieke invloeden die een bedreiging vormen voor onze democratie en onze academische waarden.
  • Onze docenten en onderzoekers zullen ervoor zorgen dat er altijd menselijk toezicht zal zijn bij het ontwikkelen of gebruiken van algoritmen in kritieke gebruiksscenario's.
  • AI kan onze docenten en onderzoekers helpen en is primair niet bedoeld om onze medewerkers te vervangen.

2. Technisch robuust en veilig

AI moet veilig en robuust zijn in ontwerp en gebruik, met aandacht voor betrouwbaarheid en bescherming tegen systeemfouten of misbruik. Dit omvat weerbaarheid tegen aanvallen, betrouwbaarheid, reproduceerbaarheid en algemene veiligheid van AI-systemen om onbedoelde negatieve effecten te voorkomen.
 

  • Onze docenten en onderwijsondersteunend personeel nemen (voor zover mogelijk) alle nodige voorzorgsmaatregelen om de goede werking en het veilige gebruik van AI te garanderen, waarbij de privacy van zowel studenten als medewerkers wordt gewaarborgd.
  • Onze medewerkers en studenten maken geen gebruik van verboden AI. Voor hoog risico AI-systemen of hoog risico algoritmes die mensenrechten schenden, werken wij in overeenstemming met de AVG, EU AI Act en eventuele aanvullende UU voorwaarden.
  • Onderzoek naar verboden of risicovolle AI wordt uitgevoerd binnen de juiste juridische zandbak-voorwaarden Indien dat wettelijk vereist is.

3. Sociaal en ecologisch welzijn

Bevorder duurzaamheid, milieuvriendelijkheid en versterk de positieve sociale impact van AI op democratie en samenleving. AI moet bijdragen aan het algemeen belang, rekening houden met mogelijke maatschappelijke en ecologische effecten en streven naar positieve impact.
 

  • Onze medewerkers en studenten stellen alles in het werk om AI te gebruiken in overeenstemming met de SDG's, waarbij de bescherming van onze planeet voorop staat. Onze medewerkers en studenten staan stil bij de negatieve impact van het gebruik van AI op onze omgeving en gebruiken AI alleen met de intentie om waarde toe te voegen
  • Onze medewerkers en studenten gebruiken of ontwikkelen niet opzettelijk AI voor toepassingen die het maatschappelijk welzijn of levende wezens schaden.
  • In onze communicatie zorgen we voor een ethisch verantwoord beeld van AI om te voorkomen dat de suggestie wordt gewekt dat AI menselijke capaciteiten heeft.

4. Privacy en databescherming

Respect voor privacy, kwaliteit en integriteit van data, en het faciliteren van toegangsrechten​. AI-systemen moeten voldoen aan privacyregels en zorgvuldig omgaan met (persoons)gegevens, waarbij de rechten en de waardigheid van individuen worden gerespecteerd.
 

  • Onze medewerkers en studenten beschermen hun eigen IE (intellectueel eigendom) en privacy en respecteren de IE en de privacy van anderen, en maken verantwoord gebruik van AI in overeenstemming met de AVG en Responsible AI-criteria (EU Trustworthy AI).
  • Onze medewerkers en studenten gebruiken AI niet met het doel om ongeoorloofde toegang te krijgen tot gegevens, websites of systemen, inclusief beperkte delen van universitaire netwerken of databases.
  • Onze onderzoekers zetten zich in voor een verantwoord en eerlijk gebruik van AI en het gegevensbeheer en de privacy. Ze respecteren het AI-beleid van subsidieverstrekkers, onderzoekspartners en uitgevers.
  • Onze medewerkers en studenten gebruiken alleen AI die in overeenstemming zijn met de Nederlandse verordening kennisveiligheid om onze academische waarden en IP te beschermen.

5. Transparantie

Zorg voor traceerbaarheid, uitlegbaarheid en duidelijke communicatie over AI-systemen. De werking en uitkomsten van AI moeten begrijpelijk en traceerbaar zijn; gebruikers moeten weten wanneer ze met een AI-systeem te maken hebben.
 

  • Medewerkers en studenten die AI gebruiken, zorgen ervoor dat ze op de hoogte zijn van de regels voor verantwoordgebruik van AI en hoe deze dienovereenkomstig gebruiken.
  • Medewerkers en studenten worden actief herinnerd aan het verantwoord gebruik van AI, waarbij het College van Bestuur de nodige ondersteuning faciliteert.
  • Medewerkers en studenten zijn transparant over het gebruik van AI (waaronder bijvoorbeeld het gebruik van digital twins of persoonlijke klonen) in hun studie en werk.

6. Diversiteit, non-discriminatie en rechtvaardigheid

AI moet ontworpen worden met oog voor inclusie, zodat iedereen ervan kan profiteren en ongelijke behandeling of vooringenomenheid wordt vermeden. Vermijd oneerlijke vooroordelen, bevorder toegankelijkheid en betrek belanghebbenden in het proces.
 

  • Bij de selectie en het gebruik van AI systems en tools doen onze medewerkers en studenten hun uiterste best om AI in te zetten die voor iedereen toegankelijk, transparant, eerlijk, inclusief en niet-discriminerend is en diversiteit respecteren.
  • Onze medewerkers en studenten gebruiken AI en genereren met AI niet opzettelijk content die bevooroordeeld, misleidend, bedrieglijk of opzettelijk onvolledig is, of die valse informatie, politieke of religieuze opvattingen promoot, of schadelijke stereotypen genereert die het open academische debat ernstig belemmeren.

7. Verantwoordelijkheid

Er moeten heldere rollen en verantwoordelijkheden zijn voor het ontwerpen, implementeren en gebruiken van AI, zodat toezicht en corrigerende maatregelen mogelijk zijn bij ongewenste gevolgen. Zorg voor auditmogelijkheden, documenteren, minimaliseer negatieve effecten, mitigeer risico’s en bied verantwoording en verhaalmechanismen.
 

  • AI-governance, -beleid, -risicobeperkende en -documentatie strategieën worden ontwikkeld onder verantwoordelijkheid van de Directies, Faculteitsbesturen en het College van Bestuur.
  • De decanen zijn verantwoordelijk voor het AI-bewustzijn van de academische gemeenschap en de rechtmatige adoptie van AI (WHW Art 9.15).
  • Onze medewerkers en studenten zijn zelf verantwoordelijk voor de content die zij genereren met (behulp van) AI.