terug naar zoeken

GenAI: Wetenschappelijke Integriteit vertalen naar verantwoord (Gen)AI-Gebruik

Als UGent’er word je verondersteld (wetenschappelijk) integer te zijn. (Gen)AI mag niet gebruikt worden om op enige wijze inbreuk op de wetenschappelijke integriteit te maken of rechtvaardigen. Onderzoekers dienen ook alle voorzorgsmaatregelen te nemen om onopzettelijke inbreuken te voorkomen. 

Volgens de Europese Gedragscode voor Wetenschappelijke integriteit (ook: ALLEA-code) bestaat dat concept uit vier hoofdbeginselen: verantwoordelijkheid, betrouwbaarheid, eerlijkheid en respect. Generatieve-AI-gebruik kan ervoor zorgen dat bepaalde van die hoofdbeginselen in het gedrang komen. Hieronder maken we de vertaalslag van de algemene beginselen bij onderzoek uit ALLEA-code naar het integer gebruik van (gen)AI door onderzoekers. 

1.    Verantwoordelijkheid voor het onderzoek van idee tot publicatie, voor het beheer en de organisatie ervan, voor opleiding, toezicht en mentorschap, en voor de bredere maatschappelijke impact van onderzoek.

Jij blijft zelf verantwoordelijk voor elk gebruik van (gen)AI, de (kwaliteit van de) gegenereerde output, wat je met de output van de tools doet en kunnen aan deze verantwoordelijkheid gehouden worden.. 
 
2.    Betrouwbaarheid bij het waarborgen van de kwaliteit van het onderzoek, zoals die tot uiting komt in het ontwerp, de methodologie, de analyse en het gebruik van middelen.  

Je neemt de nodige voorzorgsmaatregelen om (gen)AI-tools correct te gebruiken en de gegenereerde resultaten te controleren zodat je onderzoekskwaliteit gewaarborgd blijft. Dit vergt een goed begrip van de (technische) mogelijkheden (of limieten) van de toepassing van (gen)AI-tools en de (ethische) implicaties van het gebruik ervan. Zo is het van belang om niet zomaar output over te nemen, omwille van de kans op fouten 
en feitelijke onwaarheden (zie Risico 1: Onbetrouwbaarheid). Check dus zeker alle gemaakte claims. Je kan een (gen)AI – tool bv. ook laten helpen in het opstellen van je analyse. Ook daar zal het belangrijk zijn om na te gaan of de gegenereerde uitkomst überhaupt mogelijk is, rekening houdende met je onderzoeksdesign. 

  
3.    Eerlijkheid in het ontwikkelen, uitvoeren, evalueren, rapporteren en communiceren van onderzoek op transparante, billijke, volledige en onbevooroordeelde wijze.

Met betrekking tot (gen)AI betekent dit dat onderzoekers open zijn over substantieel gebruik van (gen)AI, volgens de normen van hun vakgebied. Wat geldt als “substantieel” gebruik hangt eveneens af van de context en normen van de specifieke discipline. In zo’n geval geef je het gebruik van de (gen)AI-tool aan, net zoals we dat van wetenschappers verwachten in de context van andere software, toepassingen en methodologieën binnen hun discipline. Deze good practice werd ook expliciet opgenomen in de ALLEA-code, die stelt dat...

Onderzoekers [...] hun resultaten en methoden [rapporteren], inclusief het gebruik van externe diensten of AI en geautomatiseerde hulpmiddelen, op een manier die in overeenstemming is met de geaccepteerde normen van het vakgebied en die verificatie of replicatie, indien van toepassing, vergemakkelijkt. (ALLEA-code, 2023, p. 7, eigen nadruk)

Het verbergen van het gebruik van AI bij het creëren van inhoud of het opstellen van publicaties wordt beschouwd als onaanvaardbaar wangedrag in het onderzoek (2023, p.11). 

 
4.    Respect voor collega's, onderzoeksdeelnemers, onderzoeksobjecten, de maatschappij, ecosystemen, cultureel erfgoed en het milieu.

In het kader van (gen)AI betekent dit dat je als onderzoeker zorgt dat je, wanneer je de tools gebruikt, respectvol blijft omgaan met onderzoeksobjecten en –subjecten, dat je bv. het werk van collega’s erkent (ook al doen de tools dit niet altijd vanzelf), dat je informatie afkomstig van onderzoekssubjecten of anderen vertrouwelijk behandelt (en dus niet zomaar in een tool invoert), ... Daarbij gaat het dus ook over privacy en vertrouwelijkheid (zie Risico 2: Schending van privacy en confidentialiteit) en respect voor intellectuele eigendomsrechten (zie Risico 3: Schending van auteursrechten / plagiaat).
 
Als je bovenstaande hoofdbeginselen, ook in het gebruik van (gen)AI, niet naleeft, kan je een inbreuk plegen op de wetenschappelijke integriteit. Een voorbeeld daarvan is plagiaat. Als je weet hoe de tools werken (zie AI of GenAI: wat is het en hoe werkt het?” of "Hoe werkt generatieve AI?") en waar de risico's in het gebruik liggen (zie Waardoor ontstaan de risico's bij generatieve-AI-gebruik?), besef je dat de gegenereerde teksten, afbeeldingen … ideeën bevatten van anderen. Sommige tools zullen de correcte bron weergeven (bv. tools binnen academisch onderzoek), maar andere, zoals ChatGPT, geven geen bronnen weer of verzinnen soms bronnen. Het is jouw taak om de bronnen steeds te controleren én op zoek te gaan naar de oorspronkelijke bron als die zou ontbreken of niet zou kloppen.

Zie de generatieve-AI-tools als het gereedschap dat je kan helpen bouwen. Zie ze niet als machines die al je werk overnemen!

Voor meer informatie over wetenschappelijke integriteit, klik hier.

Voor meer informatie over het verantwoord gebruik van (Gen)AI, klik hier.  


Meer info over (Gen)AI aan de UGent?

Er is aan de UGent al heel wat informatie beschikbaar over de omgang met (generatieve) AI in vanuit verschillende opzichten en doeleinden. Neem zeker een kijkje op onze algemene landingspagina “Generatieve AI aan de UGent”, hier vind je het officiële richtkader voor verantwoord AI-gebruik aan de UGent, een overzicht van de basisinformatie en van het informatie-aanbod aan de UGent. Maar er is nog meer info beschikbaar.

Meer informatie over (Gen)AI in onderzoek?

Wil je bijleren, verdiepen, experimenteren en oefenen?

Meer info over (Gen)AI in onderwijs?

Wil je weten welke informatie de studenten krijgen?

 

 

 


Laatst aangepast 10 oktober 2025 16:48