Risico's en beperkingen
Om GenAI veilig en verantwoord te gebruiken in onderzoek en onderzoeksondersteuning moet met meerdere juridische, beleidstechnische en ethische overwegingen en risico's rekening worden gehouden. Hieronder staan de belangrijkste principes voor AI-gebruik voor onderzoek aan de UU, alsmede de belangrijkste risico's en risicoverminderingstips.
Plagiaat en auteurschap
De positie van de Universiteit Utrecht op het gebied van wetenschappelijke integriteit is omschreven in de UU Code Zorgvuldige en Integere Wetenschap en in de Nederlandse Gedragscode Wetenschappelijke Integriteit (2018). In de laatste is plagiaat gedefinieerd als “het gebruik zonder passende erkenning van ideeën, werkwijzen, resultaten of teksten van een ander”. Of en in welke mate door AI gegenereerde tekst telt als plagiaat is momenteel nog steeds een grijs gebied. Het blijft daarom jouw verantwoordelijkheid om er zeker van te zijn dat ingediend werk jouw eigen inspanningen reflecteert, en ook om de auteurschapsregels in de Nederlandse Gedragscode Wetenschappelijke Integriteit te overwegen.
Originaliteit
Als jouw werk origineel moet zijn, is het belangrijk dat het publiek redelijkerwijs kan aannemen dat je de inhoud zelf hebt gemaakt. Deze verwachting is in bepaalde gevallen minder belangrijk, zoals het schrijven van een standaard instructiehandleiding of gids voor gebruikers. Zelfs in die situaties geldt dat als AI wordt gebruikt om te helpen in het maken van de inhoud, het nog steeds belangrijk is dat een persoon het nakijkt om er zeker van te zijn dat het juist is.
Transparentie
Als je GenAI op een ‘substantiële’ manier gebruikt in je workflow of onderzoek (als je het bijvoorbeeld gebruikt voor meer dingen dan alleen basale tekstbewerkingsondersteuning), wees dan transparant over je gebruik van GenAI-tools. De term 'substantieel' is lastig te definiëren, maar de voorzien in een aantal uitgangspunten die je kunt meenemen in je overweging.
Als onderzoeksondersteunend personeel kan het soms gebeuren dat je werkt met materiaal (bijvoorbeeld tekst) geschreven door een onderzoeker die door jou wordt ondersteund. Als je hun werk invoert in een GenAI-tool, wees er dan zeker van dat de onderzoeker die je ondersteunt geen bezwaar heeft tegen jouw gebruik van een GenAI-tool en specificeer welke tool je wilt gaan gebruiken (en hoe).
Erken als onderzoeker op gepaste en transparante wijze het gebruik van de bron/het platform zoals je zou doen met elk ander bewijs/materiaal. In de praktijk zal dit sterk variëren, afhankelijk van hoe de AI-tools in dit specifieke geval worden gebruikt en/of van de conventies in verschillende disciplines. Voor meer informatie over het citeren van GenAI in jouw werk, zie GenAI citeren in je werk.
Tips over wetenschappelijke integriteit
- Zorg ervoor dat elk werk dat je indient een reflectie blijft van je eigen inspanning.
- Wees bij substantieel gebruik transparant over je gebruik van GenAI, zowel binnen en buiten de organisatie.
Bij het gebruik van GenAI worden grote hoeveelheden data verwerkt, waar in veel gevallen persoonsgegevens tussen kunnen zitten. Afhankelijk van welke AI-tool je gebruikt, kan de data waarmee je het model prompt uiteindelijk worden gebruikt door de modelontwikkelaars om de modellen waar de tool op is gebaseerd te trainen en te verbeteren. Als resultaat daarvan kan de persoonlijke data ‘lekken’, bv. worden gereproduceerd als output voor een andere gebruiker en openbaar beschikbaar worden, ook al was dat in eerste instantie niet de intentie.
Alles dat wordt gedaan met persoonsgegevens waarbij computertools worden gebruikt, inclusief AI, is gebonden aan strenge regelgeving, en de juridische definitie van persoonsgegevens is veel breder dan wat leken onder die term verstaan. Raadpleeg voor verdere informatie de intranetpagina's over en . De Algemene Verordening Gegevensbescherming (AVG, of GDPR in het Engels) stelt regels voor het omgaan met persoonsgegevens. Als je GenAI gebruikt met persoonsgegevens moet je je aan deze regels houden. In wetenschappelijk onderzoek zijn er enkele uitzonderingen, maar de meeste hoofdvereisten blijven van kracht.
Raadpleeg een relevante functionaris van je afdeling voor je data invoert in een AI-tool als de data die je in gaat voeren persoonsgegevens bevat: elk organisatieonderdeel in de faculteiten en directies van de UU heeft die je kunnen helpen.
Tips voor privacybescherming en databeveiliging
- Als je GenAI gebruikt, behandel dan de informatie die je invoert alsof je het post op een openbare site (bv. een sociaal netwerk of een openbare blog).
- Gebruik geen persoonsgegevens of gevoelige data als input als je GenAI-tools gebruikt, tenzij je zeker weet dat de AVG wordt nageleefd.
- Veel risico's die met GenAI te maken hebben, zijn niet meteen zichtbaar. In veel gevallen is het noodzakelijk om te kijken naar de impact van je gebruik van GenAI op databescherming en privacy. Je staat er niet alleen voor: de UU heeft die beschikbaar zijn om je te assisteren en te adviseren in dit proces.
Als je GenAI-tools gebruikt, is het cruciaal om op de hoogte te zijn van potentiële IP-kwesties. In de context van AI-gegenereerde inhoud kunnen er kwesties ontstaan over wie de IP-rechten van de gegenereerde inhoud bezit. De huidige wetgeving biedt nog geen duidelijke antwoorden op AI-gerelateerde IP-kwesties. Houd bij substantieel gebruik van GenAI (zie "Wetenschappelijke integriteit" hierboven) een track record bij van je workflow (bv. eerdere kladteksten en revisies, literatuursamenvattingen) om, indien nodig, aan te kunnen tonen dat je werk origineel is (bv. als er twijfel is over de oorsprong van het werk).
Net als persoonsgegevens kan werk van anderen dat is ingevoerd in een AI-tool ook per ongeluk ‘lekken’. Het werk van anderen dat je invoert in een AI-tool is beschermd door het auteursrecht van de auteurs en/of uitgevers. Het invoeren van deze werken in AI-tools kan een schending van het auteursrecht zijn. Lees de licenties waaronder deze werken zijn gepubliceerd. Hoewel oudere licenties niet expliciet rekening houden het gebruik van AI-tools staan er nog steeds relevante algemene voorwaarden in, en recentere licenties kunnen al AI-specifieke clausules bevatten.
Tips voor het vermijden van juridische risico's
Zorg ervoor dat de trainingsdata van je GenAI-model geen inbreuk maakt op IP-rechten van derden tot er duidelijke wetten van kracht zijn, wees hierbij voorzichtig. Om deze risico's te verminderen:
- Bij ‘substantieel’ gebruik van GenAI (zie "Wetenschappelijke integriteit" hierboven) in bijvoorbeeld publicaties of proposals dien je transparant te zijn over hoe je GenAI hebt gebruikt.
- Houd een track record bij van interacties met GenAI-tools.
- Kies je GenAI-tool zorgvuldig uit, waarbij je rekening houdt met IP- en databeveiligingsrisico's (zie ook Effectief gebruik van GenAI).
- Sommige tools geven je een opt out-mogelijkheid om je data niet te laten gebruiken voor modeltraining (via de gebruikersinstellingen). Andere tools geven je de opt in-mogelijkheid en gebruiken je data niet voor modeltraining tenzij je daar expliciet mee hebt ingestemd. Kies indien mogelijk voor opt out bij modeltraining of gebruik tools die geen ingevoerde data gebruiken voor modeltraining.
GenAI-modellen zijn slechts zo goed als de data waarmee ze zijn getraind. Als de trainingsdata bevooroordeeld (biased) of incompleet is, wordt de output van GenAI ook bevooroordeeld of incompleet. Als een model bijvoorbeeld alleen getraind is op tekst uit westerse landen zal het de bewoordingen, culturele vooroordelen en ideeën bevatten die in deze landen overheersen. Als je bijvoorbeeld een voorstel schrijft over geestelijke gezondheidsomstandigheden die meer heersend zijn in niet-westerse landen, dan kan dit een probleem zijn. Kies daarom GenAI-tools die gebruik maken van diverse en representatieve trainingsdata, en/of screen de outputdata zorgvuldig op potentiële bevooroordeeldheden.
Tips om bias te vermijden
- Zorg ervoor dat je de trainingsdata van de GenAI-tool zo goed mogelijk inziet en begrijpt. Diverse en representatieve data leiden tot eerlijkere outputs.
- Blijf kritisch en beoordeel voortdurend de output van de GenAI op patronen van bevooroordeeldheid.
GenAI herkent patronen en produceert statistisch waarschijnlijke output zonder de context te begrijpen zoals een mens dat doet. Het kan daarom output genereren die er geloofwaardig uitziet, maar feitelijk onjuist is of zelfs nergens op slaat - een fenomeen dat vaak "hallucinatie" wordt genoemd. De AI-tool kan bijvoorbeeld vol zelfvertrouwen een niet bestaande psychologische theorie beschrijven die "Cognitieve Resonantietheorie" heet en dit toeschrijven aan een fictieve psycholoog. Of het kan publicaties citeren die niet echt bestaan als om verwijzingen wordt gevraagd. Aangezien GenAI-modellen zelden onzekerheid uitdrukken, zullen ze zulke dingen onverschrokken presenteren als feiten, waardoor het moeilijker wordt om onzorgvuldigheden op te sporen.
De output van een GenAI-model is ook sterk afhankelijk van hoe je je prompt, instructie of vraag verwoordt. Dus voor effectief gebruik kan het soms nodig zijn om een prompt aan te passen om relevantere of preciezere output te verkrijgen. Aangezien deze modellen probabilistisch zijn, zul je bovendien nooit precies twee keer dezelfde output krijgen, zelfs niet met dezelfde prompt.
Tips voor het factchecken van GenAI-output
- Finetune je prompts zodat de output zo relevant en nauwkeurig mogelijk is, en houd bij welke prompts je gebruikt.
- Evalueer GenAI-outputs altijd kritisch en check op hallucinaties.
Hoewel GenAI processen kan versnellen en kan helpen om nieuwe ideeën te genereren, kan te veel vertrouwen op GenAI leiden tot gebrek aan overzicht en kritisch denken. Sommige GenAI-tools worden gepresenteerd als tijdbesparende ‘AI Research Assistants’ (bv. Elicit, Scite, Scholarcy). Als je ervoor kiest om deze te gebruiken, wees dan voorzichtig in het gebruik en wees op de hoogte van hun beperkingen. Wees altijd de human-in-the-loop en evalueer de nauwkeurigheid in de output van de AI.
Tips voor het behouden van balans met GenAI
- Gebruik (en promoot) een gebalanceerde benadering, waarbij je onthoudt en benadrukt dat GenAI een tool is om menselijke expertise aan te vullen in plaats van het volledig te vervangen.
- Vorm je eigen GenAI peer-reviewcommunity. Voor langere en/of belangrijkere output kun je het vier-ogen-principe (of veel-ogen-principe) toepassen, net zoals je dat doet bij academische publicaties.
Het draaiende houden en vooral het trainen van GenAI-modellen vereist aanzienlijk veel rekenkracht, wat leidt tot een hoog energieverbruik en een substantiële carbon footprint. Datacentra zijn verantwoordelijk voor zo'n een tot twee procent van het elektriciteitsverbruik wereldwijd en een gemiddelde Chat GPT-3 prompt gebruikt zo'n tien keer zoveel elektriciteit als een gemiddelde browserzoekopdracht, ruwweg het equivalent van een LED-gloeilamp een uur lang laten branden [1]. Naast energiegebruik vereist GenAI indirect grote hoeveelheden zoet water voor serverkoeling. Als je naar het grote plaatje kijkt, kan de wereldwijde behoefte aan AI leiden tot 4,2 tot 6,6 miljard kubieke meter waterontrekking in 2027 [2]. Dit getal is groter dan 4 tot 6 keer de jaarlijkse wateronttrekking van Denemarken of de helft van het Verenigd Koninkrijk.
Hoewel het gebruik van GenAI veel voordelen kan hebben voor je werk, is het belangrijk om de voordelen van AI te maximaliseren en tegelijk rekening te houden met de milieu-impact. Zorg ervoor dat je weet waar GenAI de meeste waarde toevoegt in jouw specifieke workflow en wees goed op de hoogte van het middelenverbruik ervan. Dit kan helpen om de middenweg te vinden tussen kosten en baten.
[1] Vries, The growing energy footprint of artificial intelligence, Joule (2023), j.joule.2023.09.004
[2] Li, P., Yang, J., Islam, M. A., & Ren, S. (2023). Making ai less” thirsty”: Uncovering and addressing the secret water footprint of ai models.
Tips voor het verminderen van milieu-impact
- Vraag jezelf af of GenAI echt nodig is voor de taak, of dat een minder energie-intensieve oplossing (zoals een browserzoekopdracht of een - in onderzoekscontext - standaard machine-learning-aanpak) voldoende of zelfs beter geschikt is.
- Grote general-purpose-modellen zijn krachtig, maar gebruiken ook veel stroom. Gebruik kleinere, taakspecifieke modellen voor simpele taken indien mogelijk (bv. voor grammaticacontroles of vertaling).
Leidende principes
- Menselijke verantwoording en menselijk toezicht: Blijf altijd de ‘human in the loop’ als je met GenAI werkt. Verzeker je ervan dat content gegenereerd door AI feitelijk juist is.
- Databescherming en -beveiliging: Zorg dat je bekend bent met het UU-databeveiligingsbeleid en weet hoe je hulp kunt vinden van experts op het gebied van databeveiliging in de organisatie.
- Transparantie; show and tell: Wees proactief op de hoogte van de voordelen en gevaren van de GenAI-tools die je gebruikt of levert, en communiceer proactief over hoe je die hebt gebruikt.
- Diversiteit, discriminatie en transparantie: Wees je bewust van bevooroordeeldheid in GenAI-data en -output. Verzeker je ervan dat output overeenkomt met de UU-waarden op het gebied van Equality, Diversity and Inclusion.
- Milieu en maatschappelijk welzijn: Kies, waar mogelijk, voor GenAI-tools en -instrumenten die zijn ontworpen met klimaat- en sociale overwegingen in het achterhoofd. Gebruik geen GenAI als je doel net zo effectief bereikt kan worden met andere middelen waar geen GenAI-gebruik bij komt kijken.