GenAI: Wetenschappelijke Integriteit vertalen naar verantwoord (Gen)AI-Gebruik
Als UGent’er word je verondersteld (wetenschappelijk) integer te zijn. (Gen)AI mag niet gebruikt worden om op enige wijze inbreuk op de wetenschappelijke integriteit te maken of rechtvaardigen. Onderzoekers dienen ook alle voorzorgsmaatregelen te nemen om onopzettelijke inbreuken te voorkomen.
De vier hoofdbeginselen voor wetenschappelijk-integer (Gen)AI-gebruik
Volgens de Europese Gedragscode voor Wetenschappelijke integriteit (ook: ALLEA-code) bestaat dat het concept van wetenschappelijke integriteit uit vier hoofdbeginselen: verantwoordelijkheid, betrouwbaarheid, eerlijkheid en respect. Generatieve-AI-gebruik kan ervoor zorgen dat bepaalde van die hoofdbeginselen in het gedrang komen. Binnen de Europese AI-richtlijnen zijn deze beginselen o.a. uitgewerkt met oog op de AI-context in de “Living guidelines on the responsible use of generative AI in research” van het ERA Forum (lees de samenvatting van deze richtlijnen op het Intranet). Hieronder maken we de vertaalslag van de algemene beginselen bij onderzoek uit ALLEA-code naar het integer gebruik van (gen)AI door onderzoekers.
1. Verantwoordelijkheid voor het onderzoek van idee tot publicatie, voor het beheer en de organisatie ervan, voor opleiding, toezicht en mentorschap, en voor de bredere maatschappelijke impact van onderzoek.
Je neemt verantwoordelijkheid op voor het onderzoek van idee tot publicatie, voor het beheer en de organisatie ervan, voor training, begeleiding en mentorschap, en voor de bredere maatschappelijke impact ervan. Dit omvat de verantwoordelijkheid voor alle output die je als onderzoeker produceert, ondersteund door het concept van menselijk handelen en toezicht. Onderzoekers waarborgen en dragen verantwoordelijkheid voor de wetenschappelijk integriteit van hun werk. Ze beschermen de intellectuele rechten en ongepubliceerde werken alsook de (al dan niet) gevoelige (persoons)gegevens of vertrouwelijke informatie van anderen.
Samengevat: jij blijft zelf verantwoordelijk voor elk gebruik van (gen)AI, de (kwaliteit van de) gegenereerde output, wat je met de output van de tools doet, en kan aan deze verantwoordelijkheid gehouden worden.
2. Betrouwbaarheid bij het waarborgen van de kwaliteit van het onderzoek, zoals die tot uiting komt in het ontwerp, de methodologie, de analyse en het gebruik van middelen.
Je waarborgt de kwaliteit van onderzoek. Deze betrouwbaarheid wordt weerspiegeld in het ontwerp, de methodologie, de analyse en het gebruik van middelen. Als onderzoeker verifieer je de door (Gen)AI gegenereerde informatie en toets je de output van (Gen)AI altijd kritisch af aan de eigen (vakinhoudelijke) kennis en expertise. Je bent je bewust van de mogelijke aanwezigheid van onjuistheden, onnauwkeurigheden, hallucinaties, plagiaat of inbreuk op rechten van derden in gegenereerde output alsook mogelijke inherente bias en onnauwkeurigheden die kunnen leiden tot schending van gelijkheids- en non-discriminatiebeginselen.
Je neemt dus de nodige voorzorgsmaatregelen om (gen)AI-tools correct te gebruiken en de gegenereerde resultaten te controleren zodat je onderzoekskwaliteit gewaarborgd blijft. Dit vergt een goed begrip van de (technische) mogelijkheden (of limieten) van de toepassing van (gen)AI-tools en de (ethische) implicaties van het gebruik ervan. Zo is het van belang om niet zomaar output over te nemen, omwille van de kans op fouten
en feitelijke onwaarheden (zie Risico 1: Onbetrouwbaarheid). Check dus zeker alle gemaakte claims. Je kan een (gen)AI – tool bv. ook laten helpen in het opstellen van je analyse. Ook daar zal het belangrijk zijn om na te gaan of de gegenereerde uitkomst überhaupt mogelijk is, rekening houdende met je onderzoeksdesign.
3. Eerlijkheid in het ontwikkelen, uitvoeren, evalueren, rapporteren en communiceren van onderzoek op transparante, billijke, volledige en onbevooroordeelde wijze.
Als onderzoeker stel je eerlijkheid centraal bij het ontwikkelen, uitvoeren, beoordelen, rapporteren en communiceren over onderzoek. Je doet dit op een transparante, eerlijke, grondige en onpartijdige manier.
Onderzoekers zijn dus open over het substantieel gebruik van (gen)AI, volgens de normen van hun vakgebied. Wat geldt als “substantieel” gebruik hangt eveneens af van de context en normen van de specifieke discipline. In zo’n geval geef je het gebruik van de (gen)AI-tool aan, net zoals we dat van wetenschappers verwachten in de context van andere software, toepassingen en methodologieën binnen hun discipline. Deze good practice werd ook expliciet opgenomen in de ALLEA-code, die stelt dat...
Onderzoekers [...] hun resultaten en methoden [rapporteren], inclusief het gebruik van externe diensten of AI en geautomatiseerde hulpmiddelen, op een manier die in overeenstemming is met de geaccepteerde normen van het vakgebied en die verificatie of replicatie, indien van toepassing, vergemakkelijkt. (ALLEA-code, 2023, p. 7, eigen nadruk)
Het verbergen van het gebruik van AI bij het creëren van inhoud of het opstellen van publicaties wordt beschouwd als onaanvaardbaar wangedrag in het onderzoek (2023, p.11).
4. Respect voor collega's, onderzoeksdeelnemers, onderzoeksobjecten, de maatschappij, ecosystemen, cultureel erfgoed en het milieu.
In het kader van (gen)AI betekent dit dat je als onderzoeker zorgt dat je, wanneer je de tools gebruikt, respectvol blijft omgaan met de samenleving, ecosystemen, cultureel erfgoed en het milieu, maar zeker ook onderzoeksobjecten en –subjecten, dat je bv. het werk van collega’s erkent (ook al doen de tools dit niet altijd vanzelf), dat je informatie afkomstig van onderzoekssubjecten of anderen vertrouwelijk behandelt (en dus niet zomaar in een tool invoert), ... Daarbij gaat het dus ook over privacy en vertrouwelijkheid (zie Risico 2: Schending van privacy en confidentialiteit) en respect voor intellectuele eigendomsrechten (zie Risico 3: Schending van auteursrechten / plagiaat).
Verantwoord gebruik van (Gen)AI houdt in dat je rekening houdt met en kritisch nadenkt over (1) de beperkingen van de technologie, waaronder stereotypen, vooroordelen en bias, zowel in de eigen input als in gegeneerde output, (2) de impact ervan op het milieu, (3) de bestaande digitale kloof en ongelijkheid in de toegang tot en kennis over (Gen)AI-tools, en (4) de maatschappelijke effecten ervan (bias, diversiteit, non-discriminatie, eerlijkheid en het voorkomen van schade). Gebruik (gen)AI enkel wanneer dit een meerwaarde vormt.
Als je bovenstaande hoofdbeginselen, ook in het gebruik van (gen)AI, niet naleeft, kan je een inbreuk plegen op de wetenschappelijke integriteit. Een voorbeeld daarvan is plagiaat. Als je weet hoe de tools werken (zie de beknopte intranetpagina “AI of GenAI: wat is het en hoe werkt het?” of verdiepende Ufora-module "Hoe werkt generatieve AI?") en waar de risico's in het gebruik liggen (zie Waardoor ontstaan de risico's bij generatieve-AI-gebruik?), besef je dat de gegenereerde teksten, afbeeldingen … ideeën bevatten van anderen. Sommige tools zullen de correcte bron weergeven (bv. tools binnen academisch onderzoek), maar andere, zoals ChatGPT, geven geen bronnen weer of verzinnen soms bronnen. Het is jouw taak om de bronnen steeds te controleren én op zoek te gaan naar de oorspronkelijke bron als die zou ontbreken of niet zou kloppen.
Zie de generatieve AI-tools als het gereedschap dat je kan helpen bouwen. Zie ze niet als machines die al je werk overnemen!
|
Voor meer informatie over wetenschappelijke integriteit, consulteer de gerelateerde intranetpagina. Voor meer informatie over het verantwoord gebruik van (Gen)AI, raadpleeg dan:
|
Wil je meer info over (Gen)AI aan de UGent?
Er is aan de UGent al heel wat informatie beschikbaar over de omgang met (generatieve) AI in vanuit verschillende opzichten en doeleinden (werking, risico's, verantwoord gebruik, tools en toepassingen, oefeningen, vormingen, peer review en evaluatie, transcriptie, onderzoeksvoorstellen...). Een overzicht van alle (Gen)AI-gerelateerde pagina’s vind je op “GenAI: Overzichtstip over (Gen)AI aan de UGent”, namelijk de onderzoek- en onderwijstips, het intranet, de landingspagina, de Ufora-infosites etc.. .
Neem zeker ook een kijkje op onze algemene landingspagina “Generatieve AI aan de UGent”! Hier vind je het officiële richtkader voor verantwoord AI-gebruik aan de UGent, een overzicht van de basisinformatie en van het informatie- en bijscholingsaanbod aan de UGent.
Vertaalde tips
Laatst aangepast 27 november 2025 09:46