Risico's en ethische implicaties bij gebruik van generatieve AI
Generatieve AI gebruiken verloopt niet zonder risico’s . Houd steeds rekening met onderstaande beperkingen en mogelijke ethische implicaties wanneer je de tools gebruikt.
Onbetrouwbaarheid / fake nieuws
De output van de tools kan inhoudelijk onbetrouwbaar zijn. Dat komt door de beperkte data waarop de antwoorden gebaseerd zijn.
Als er onvoldoende of geen data zijn om een specifieke vraag te beantwoorden, zal je een antwoord krijgen dat overtuigend maar niet noodzakelijk waar is. Dat heet “hallucineren”.
Bovendien kunnen die teksten met fouten, valse afbeeldingen enz. een eigen leven leiden, wat bijdraagt tot fake nieuws.
Bias
De tools putten enkel uit de voorbeelden waarmee ze getraind zijn en die zijn niet noodzakelijk representatief voor de taak die opgelost moet worden.
Die bias ontstaat echter niet alleen door de kwantiteit, maar ook door de kwaliteit van de data. Ze zijn namelijk van het internet gehaald en dus zelf niet vrij van onwaarheden, vooroordelen en bias.
Schending van privacy
In de gratis tools worden je data vaak bijgehouden om de systemen verder te trainen. Voer dus nooit vertrouwelijke of privacy-gevoelige informatie in het systeem in. Dit kan risico’s met zich meebrengen waarbij de privacy of vertrouwelijkheid van jezelf of anderen, en de beginselen van de algemene verordening gegevensbescherming (AVG) geschonden worden.
Schending van auteursrecht / plagiaat
De bedrijven achter AI-modellen zijn vaak niet transparant over de oorsprong van hun trainingsdata. Bovendien geven de tools vaak geen of onbestaande bronnen weer. Beide zaken zorgen ervoor dat je (onbewust) auteursrechten schendt wanneer je output van de tools gebruikt.
Zorg er ook voor dat je zelf hier niet aan bijdraagt door zonder toestemming andermans werk in te voeren. Zelf auteursrechten claimen op output kan dan weer enkel wanneer je creatieve controle kan aantonen. Dat laatste ligt juridisch nog moeilijk.
Uniformiteit
Woorden en zinnen die vaker gebruikt worden, zijn meer aanwezig in de data van de tools, en zullen dus ook statistisch gezien meer voorkomen in de output. Hoe meer we AI gebruiken om teksten te schrijven, hoe meer ze op elkaar beginnen te lijken. Eenheidsworst dus.
En die uniforme teksten gaan dan ook weer de taalmodellen in, waardoor de gelijkenissen alleen maar toenemen. En dat geldt niet enkel voor het taalgebruik, maar ook voor de inhouden van teksten. Het is geen verrassing dat dit de creativiteit niet ten goede komt.
Impact op competenties (verwerven)
De tools vaak gebruiken kan ervoor zorgen dat bepaalde vaardigheden (onbewust) stilletjes aan verdwijnen. Denk maar aan vertalingen naar die ene taal die je minder machtig bent. AI-tools kunnen die vaardigheden van je overnemen. Dat kan handig zijn, maar in een context van onderwijs en onderzoek moeten bepaalde vaardigheden nog wel worden aangeleerd.
Grotere ecologische voetafdruk
Voor de ontwikkeling van de tools en het gebruik ervan is een enorme rekenkracht nodig. De datacenters waar de tools worden getraind en de data worden bijgehouden veroorzaken een stijging van elektriciteits- en waterverbruik. Dat water is nodig om de chips af te koelen.
Sociale ongelijkheid en unfairness
Het lijkt soms alsof generatieve AI in staat is om ongelijkheid weg te werken: iedereen heeft toegang tot de tools, waardoor extra ondersteuning niet meer enkel weggelegd is voor de rijkeren. De betalende versies van de tools zijn echter veel performanter dan de gratis versies. Dat werkt net ongelijkheid in de hand.
Die ongelijkheid uit zich ook in het al dan niet willen en kunnen gebruiken van de tools, door uiteenlopende redenen.
De training van de modellen roept ook heel wat ethische vragen op. De bedrijven bouwden weliswaar veiligheidsmechanismen in om ethisch verwerpelijke antwoorden te vermijden, op basis van menselijke feedback, maar gebruikten daarvoor goedkope werkkrachten in erbarmelijke arbeidsomstandigheden. Bovendien zijn de ethische keuzes cultureel en ideologisch bepaald, op dit moment voornamelijk met een Amerikaanse insteek aangezien de Amerikaanse techbedrijven de grootste zijn.
Vervaging grens – machine
Het lijkt alsof de computer praat en denkt als een mens waardoor we de systemen overmatig gaan vertrouwen. Bovendien bestaat de kans dat we ze als mensen gaan beschouwen, wat een daling kan veroorzaken van menselijke interactie.
Het is belangrijk te begrijpen dat de programma’s enkele redeneringspatronen hebben geleerd uit teksten, maar geen expliciete logica bevatten en beperkt zijn in redeneercapaciteiten.
Meer weten?
Wil je meer informatie over de risico’s en hun concrete impact? Doorloop module 1.3 van de Ufora-infosite Generatieve AI: over leren, creëren, onderzoeken en doceren