Generatieve AI in het UGent-onderwijs

Je kan er niet meer aan ontsnappen: generatieve-AI-tools als ChatGPT, Copilot, Consensus, Perplexity ... zijn alomtegenwoordig, binnen en buiten de universiteitsmuren. Maar wat is dat eigenlijk, zo’n generatieve-AI-tool? Wat kunnen ze en wat kunnen ze (nog) niet? Welke gevaren schuilen er in het gebruik? En mag je de tools überhaupt gebruiken? Deze pagina bevat de antwoorden op bovenstaande vragen.

Artificiële intelligentie (AI) evolueert continu. We proberen deze pagina up-to-date te houden zodat de aangeboden informatie niet achterhaald is.

Wat is generatieve AI?

Generatieve AI verwijst naar AI-systemen die in staat zijn om nieuwe, originele inhoud te creëren op basis van de patronen en structuren die ze hebben geleerd uit bestaande gegevens. Ze worden getraind op enorme hoeveelheden data, voornamelijk gehaald van het internet.

Door geavanceerde algoritmen en neurale netwerken kunnen ze tekst, afbeeldingen, audio, video's en computercode genereren die overeenkomt met wat mensen zouden kunnen produceren. Die nieuwe inhouden zijn statistisch vergelijkbaar met hun trainingsgegevens, maar uniek en aangepast aan specifieke input of instructies.

Wil je meer weten over wat generatieve AI is en hoe het werkt? Bekijk dan module 1 van het Ufora-leerpad Generatieve AI: over leren en creëren!

Welke generatieve-AI-tool gebruik je het best?

ChatGTP is nog steeds het bekendste voorbeeld van een generatieve-AI-tool. Gelijkaardige chatbots schieten als paddenstoelen uit de grond, en worden aan een hels tempo geïntegreerd in verschillende applicaties. Denk maar aan Copilot (van Microsoft), Gemini (van Google) en Claude.

De UGent schuift Microsoft Copilot naar voren als dé tool om te gebruiken als AI-assistent. Door een overeenkomst met Microsoft zijn je ingevoerde data in de Copilot-versie waar je inlogt met je UGent-account veilig. Surf naar copilot.microsoft.com en log bovenaan rechts in zodat er een groen schildje verschijnt. Als je over dat schildje hovert, krijg je de boodschap "Ondernemingsgegevensbescherming is van toepassing op deze chat". Zie je geen mogelijkheid om in te loggen? Check dan of er al een groen schildje staat: je bent hoogstwaarschijnlijk al ingelogd.

Er zijn ook immens veel andere tools die je helpen met wetenschappelijk onderzoek, academisch schrijven ... Elke tool en app heeft andere sterktes en beperkingen. Blijf steeds kritisch.

Wil je meer weten over welke generatieve-AI-tools je kan gebruiken, en hoe je weet of een AI-tool verantwoord is? Bekijk dan module 2 van het Ufora-leerpad Generatieve AI: over leren en creëren!

Wat zijn de risico's?

Generatieve AI gebruiken verloopt niet zonder risico’s. Houd steeds onderstaande beperkingen en mogelijke ethische implicaties in het achterhoofd wanneer je de tools gebruikt.

  • De makers zijn vaak weinig transparant over hun trainingsdata: welke informatie hebben ze ingevoerd en waar hebben ze die gevonden? In combinatie met de afwezigheid van bronnen gaat het hier dus mogelijks over intellectuele diefstal. Bovendien expliciteren ze ook niet waar de door jou ingegeven informatie naartoe gaat. Let extra op bij gratis tools: voer nooit privacygevoelige informatie in! Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG)  geschonden worden. En voer ook nooit syllabi, artikels ... zonder toestemming van de auteur in: je geeft die teksten gratis weg aan de makers van de tools.
  • De informatie die je krijgt, is niet altijd correct. De antwoorden zijn inhoudelijk onbetrouwbaar aangezien de data waarop de antwoorden gebaseerd zijn beperkt zijn. Als er namelijk onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je toch een geloofwaardig antwoord krijgen dat niet noodzakelijk waar is. Dat heet “hallucineren”, wat ervoor zorgt dat we moeilijker kunnen inschatten wat waar en wat niet waar is. Bovendien kunnen die teksten met fouten, fake afbeeldingen enz. een eigen leven leiden, wat bijdraagt tot fake nieuws.
  • De antwoorden kunnen bias bevatten, omdat het systeem getraind is op mogelijk gekleurd bronmateriaal én omdat dat bronmateriaal nooit alle data van de hele wereld bevat. Zo zullen de antwoorden voornamelijk gebaseerd zijn op westerse data.
  • Een andere ethische implicatie van generatieve AI is de impact op wetenschappelijke integriteit. Veel tools geven geen bronnen bij de gegenereerde informatie waardoor je steeds moet nagaan wie de oorspronkelijke auteur is. Het is jouw verantwoordelijkheid om te waken over de kwaliteit van je onderzoek!
  • Het lijkt alsof generatieve AI in staat is om ongelijkheid weg te werken: alle studenten hebben toegang tot de tools, waardoor bv. een tutor inschakelen om bepaalde schrijftaken tot een goed einde te brengen niet meer enkel weggelegd is voor de rijkere studenten. De makers van de tools blijken echter meer en meer betalende versies van hun product aan te bieden die veel performanter zijn dan de gratis versies. Dat werkt net ongelijkheid in de hand.
  • Sociale ongelijkheid wordt ook versterkt door de manier waarop de systemen gefinetuned worden. Om zowel bias als ethisch verwerpelijke antwoorden uit hun systemen te krijgen, schakelden de bedrijven achter de tools wereldwijd mensen in om feedback te geven op de antwoorden van de tools. Het is onduidelijk in welke arbeidsomstandigheden die werkkrachten moesten functioneren, wat in meerdere mediaberichten werd aangeklaagd.
  • Ook de ecologische voetafdruk is niet te onderschatten. Voor de ontwikkeling van de tools en het gebruik ervan is een enorme rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
  • Een bijkomend risico is het gevaar voor antropomorfisme: het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie. Het is belangrijk te begrijpen dat de programma’s enkele redeneringspatronen hebben geleerd uit teksten, maar geen expliciete logica bevatten en zeer beperkt zijn in redeneercapaciteiten.

Mag je generatieve AI gebruiken?

Vanaf academiejaar 2024-2025 gelden onderstaande richtlijnen voor taken die je thuis maakt:

  • voor de masterproef is het verantwoord gebruik van generatieve-AI-tools toegelaten.
  • voor andere (schrijf)taken wordt het verantwoord gebruik zelfs aangemoedigd, als voorbereiding op de masterproef.
Let op: een individuele lesgever in een specifiek vak kan nog steeds het gebruik verbieden, om zo te kunnen nagaan of je bepaalde basiscompetenties wel echt onder de knie hebt. (zie ook: Wat is het nut van bepaalde competenties als je later ook een AI-tool kan gebruiken?) Lees dus steeds je studiefiche na of vraag het aan je lesgever.

Het woord "verantwoord" is hier erg belangrijk. Bovenstaande risico's tonen hoe je voorzichtig moet omgaan met de tools, zeker op het gebied van privacy, betrouwbaarheid en bias. Je zal in je opleiding handvaten krijgen voor dat verantwoord gebruik. Je kan er ook meer over lezen in module 2 van het Ufora-leerpad Generatieve AI - van leren tot creëren.

Dat verantwoord gebruik kan je onder andere moeten aantonen als onderdeel van een procesevaluatie. Je lesgevers zullen, meer dan vroeger, het proces bevragen. Niet enkel of je ethisch en integer te werk ging bij het gebruik van de tools, maar ook of je specifieke competenties eigen aan de taak beheerst. Denk maar aan bronnen vinden, samenvatten …: hoe heb je dat aangepakt? Waarom is dit een goede samenvatting? Enzovoort.  Zelfreflectie speelt hier een cruciale rol: je zal het proces moeten bijhouden en expliciteren, door o.a. een mondelinge toelichting, tussentijdse (peer)feedback, bevragingen, enz. Wil je alvast wat oefenen? Vraag dan binnen je opleiding naar de vragen die gesteld kunnen worden of bekijk enkele voorbeeldvragen. Maak je een taak, bv. de masterproef, met collega-studenten? Dan ben jij ook medeverantwoordelijk voor de integriteit van je collega's, en zal je dus ook over hun doen en laten bevraagd worden.

Wanneer is er toch sprake van fraude?

Er zijn enkele duidelijke gevallen waar je genAI onverantwoord hebt gebruikt en je daardoor een onregelmatigheid begaat.

- Plagiaat is plagiaat, of je nu wel of geen genAI-tools hebt gebruikt. Als je de tools onverantwoord gebruikt, kan het dat je informatie geeft zonder bronnen, dat de bronnen zijn verzonnen (‘hallucinaties’) of dat er verkeerde bronnen bij de gegeven informatie staan . Let op: een genAI-tool is geen auteur, en kan dus ook geen bron zijn. Refereren aan een genAI-tool als enige bron kan dus ook als plagiaat beschouwd worden.

- Je laat genAI nepdata genereren en gebruikt die als echte data. Het spreekt voor zich dat dat een duidelijk geval van fraude is.

- Je laat het denkproces over aan genAI: delen van de taak werden gemaakt met behulp van genAI zonder jouw eigen ideeën en/of tussenkomst. Je doet zo uitschijnen heeft alsof het product volledig je eigen werk is. Dat is misleiding aangezien je pretendeert specifieke competenties eigen aan de taak verworven te hebben, wat een voorbeeld is van onterecht auteurschap claimen.

Bovenstaande onregelmatigheden leiden tot een examentuchtprocedure. 

Wanneer is er sprake van een onvoldoende?

Wanneer je de tools voor bepaalde toepassingen mocht gebruiken, maar je ze slecht hebt gebruikt, dan is dat gebruik niet noodzakelijk fraude, maar kan het leiden tot een onvoldoende omdat je de vereiste competenties onvoldoende beheerst.

Moet je transparant zijn over het gebruik van de tools?

Sommige opleidingen en/of lesgevers verplichten hun studenten transparant te zijn over hun gebruik. Vraag het na!

Krijg je geen instructies? Wees je dan bewust van het volgende:

- Als leeractiviteit, nl. een reflectie-oefening, is transparant zijn over je genAI-gebruik heel interessant. Het helpt je namelijk om in te zien of je de tools misschien te vaak of minder efficiënt gebruikt. Of in situaties waarin je ze beter niet gebruikt omdat ze in de weg staan om specifieke vaardigheden zelf te verwerven. 

- Binnen procesevaluatie houd je ook het best bij hoe je de tools hebt gebruikt. Op een mogelijke mondelinge verdediging van een taak met "verantwoord genAI-gebruik" als eindcompetentie, bv. de masterproef, zal je nl. beoordeeld worden op dat gebruik. Als je het dus niet bijhoudt, zal je daar met je mond vol tanden staan.

Je vindt online een voorbeeldchecklist om je genAI-gebruik bij te houden.

Biedt generatieve AI ook mogelijkheden?

Uiteraard kunnen de tools je ook helpen. Zo kan je extra duiding en voorbeelden vragen bij moeilijkere leerstof, feedback vragen op zelfgeschreven teksten, wetenschappelijke artikels zoeken voor je onderzoek, enz. Inspiratie nodig? Check module 2 in het Ufora-leerpad Generatieve AI - van leren tot creëren.

Wat is het nut van bepaalde competenties als je later ook een AI-tool kan gebruiken?

Bepaalde competenties, zoals het zelfstandig schrijven van teksten in een correct taalgebruik, lijken nu misschien minder belangrijk. Die competenties behoren echter tot de vereiste leerresultaten van veel opleidingen. Zo kan je geen diploma Rechten verkrijgen zonder in staat te zijn zelf een juridische argumentatie te formuleren als oplossing van een complex juridisch vraagstuk. Of een diploma van een talenopleiding zonder zelf goede en correcte teksten te schrijven. Of een diploma Informatica zonder in staat te zijn zelf te programmeren.

Een sterke schrijfvaardigheid vereist daarenboven meer dan wat zo’n generatieve-AI-tool op dit moment kan. Competenties als kritisch denkvermogen, kennis van effectieve communicatie en creativiteit blijven noodzakelijk om de kwaliteit van de gegenereerde teksten in te schatten en aan te passen.

Hoe kan je je bijscholen?

Niet elke student is vanzelf in staat om vlotjes met zulke tools te werken. Voel je jezelf onbekwaam om de tools te gebruiken? Zou je graag meer te weten komen over generatieve AI in het algemeen?