
Jan Vandeurzen
Gevolgen en gevaren van Artificiële Intelligentie
Generative AI
Sommigen noemen het een onverantwoord experiment. Voor anderen is het een revolutionaire uitvinding, vergelijkbaar met de iPhone. Het kan alledaagse taken vereenvoudigen: een e-mail vertalen, een gedicht schrijven, een planning maken, een antwoord krijgen op een vraag die je niet direct aan Google kunt stellen... Het is nog nooit zo gemakkelijk geweest als nu.
In november 2022 maakte de wereld kennis met ChatGPT, gelanceerd door het bedrijf OpenAI. In februari 2023 telde de chatbot meer dan 100 miljoen gebruikers wereldwijd.
TikTok, een van de meest populaire sociale media-applicaties deed er 9 maanden over om hetzelfde aantal te bereiken.

ChatGPT van OpenAI
Soortgelijke/alternatieve programma's:



Van links naar rechts, Bard (Google), Bing AI (Microsoft), en Perplexity AI
Wat is ChatGPT eigenlijk?
Een woordje uitleg van Michel Philippens, gespecialiseerd in datawetenschap en gegevensanalyse.
Een wonder
in woorden
Men hoeft niet ver te zoeken om talloze verhalen te vinden over hoe ChatGPT een taak of proces gunstiger kan maken om te volbrengen.
Denk aan studenten die fouten vlotter en sneller kunnen verbeteren of teksten kunnen genereren.
Denk aan toeristen die ChatGPT kunnen gebruiken om reisplannen te maken.
Denk aan werkzoekenden die veel sneller en eenvoudiger een CV kunnen maken of een bestaande CV kunnen verbeteren.
En dan hebben we het nog niet eens over hoe ChatGPT kan helpen bij taken zoals het vinden van fouten in computercode die de gebruiker kan invoeren. C++? Javascript? HTML/CSS? Python? ChatGPT kent de meeste programmeertalen.
De populariteit van ChatGPT valt niet te betwisten. Het is er, en het zal blijven. Maar wat zijn de risico's van een relatief nieuwe uitvinding zoals ChatGPT?

"OpenAI was opgericht met de overtuiging dat kunstmatige intelligentie het potentieel heeft om bijna elk aspect van ons leven te verbeteren, maar ook dat het ernstige risico's met zich meebrengt waar we samen aan moeten werken om deze te beheersen."
Denk goed na voordat je ChatGPT gebruikt voor belangrijke documenten zonder ze na te kijken. Het fenomeen van studenten die ChatGPT inzetten voor hun huiswerk is bekend.
Terwijl sommige scholen proberen het gebruik van het programma te beperken, omarmen andere scholen en universiteiten (zoals de KU Leuven) ChatGPT.
Zolang het binnen bepaalde richtlijnen en op een rechtvaardige manier wordt toegepast.
Maar schoolwerk is relatief onschuldig, zou je denken. Een waarschuwing zou wellicht volstaan. Maar wat als ChatGPT wordt misbruikt door personen die een grotere impact op de samenleving hebben? Iemand met een belangrijke juridische functie of individuen met allesbehalve zuivere bedoelingen?
En kan ChatGPT bepaalde jobs makkelijker maken of volledig vervangen?
De gegenereerde problematiek
Via ChatGPT kunnen hackers ook op grotere schaal schadelijke activiteiten uitvoeren.
Phishing is het stelen van persoonlijke informatie. Door ChatGPT te gebruiken, hoeven cybercriminelen veel minder tijd te besteden aan het creëren van overtuigende e-mails of berichten. Hackers kunnen op grote schaal deze berichten naar bedrijven of organisaties sturen. Phishing blijft een integraal onderdeel van cybercriminaliteit en het infiltreren van bedrijven en organisaties.
Ook het ontwikkelen van geavanceerde malware (kwaadaardige software) kan door ChatGPT vereenvoudigd worden. Nieuwe cybercriminelen hebben tegenwoordig weinig technische kennis nodig om hiermee aan de slag te gaan. ChatGPT kan zelfstandig denken en handelen, mits het de juiste instructies krijgt. Het creëren van schadelijke computerprogramma's is nog nooit zo eenvoudig geweest.
En het verlies van bepaalde jobs ter gevolge van ChatGPT is ook opgemerkt.
Emily Hanley, een copywriter, schrijver, en comédienne getuigde in een Business Insider artikel hoe zij haar job als copywriter verloor toen haar klanten besloten om ChatGPT te gebruiken in plaats van haar diensten. Haar klanten waren voornamelijk kleine bedrijven en startups.
"Het goede nieuws was dat ik niet (het probleem) was, maar de echte reden liet mij wensen dat het wel zo was."
De zaak betrof een klant die beweerde dat hij letsel had opgelopen tijdens zijn reis naar New York.
Toen de luchtvaartmaatschappij een federale rechter benaderde om de zaak te seponeren, diende Schwartz een juridisch rapport van 10 pagina's in. Het document ging verder dan bijna tien rechtszaken en juridische beslissingen... die niet echt bestonden. ChatGPT had ze verzonnen.
En zelfs toen de advocaat in zijn eigen schermafbeeldingen liet zien dat hij ChatGPT had gevraagd of de rechtszaken echt waren, bleef de chatbot volhouden dat ze wel degelijk echt waren.
Dit fenomeen staat bekend als (kunstmatige) hallucinatie.
De klokken luiden
In het afgelopen jaar heeft OpenAI, het bedrijf achter ChatGPT, te maken gehad met talrijke regeringen die meer regels willen invoeren.
Italië was het eerste Westerse land dat ChatGPT had geblokkeerd begin april op basis van onder andere “onwettelijke massa verzameling en opslag van persoonlijke gegevens” en dat de chatbot mogelijk "minderjarigen blootstelt aan absoluut ongeschikte antwoorden in vergelijking met hun mate van ontwikkeling en bewustzijn". Vele andere landen hadden soortgelijke zorgen.
Het gebruik van de chatbot werd enkel terug toegelaten eind april, wanneer OpenAI maatregelen nam en Europese gebruikers de optie gaf om een formulier in te dienen die persoonlijke data ingevoerd in de chatbot zou verwijderen.
Maar ook de Europese Unie maakt pogingen om artificiële intelligentie te reguleren op een verantwoordelijke wijze..
Het Europees Parlement keurde in juni de EU AI Act (Artificial Intelligence Act) goed.
Dat maakte de Europese Unie de eerste ter wereld om reguleringen in te voeren op het gebied van kunstmatige intelligentie. Politici beseffen hoe prominent AI is (en zal worden) in onze samenleving en trachtten de ethische kwesties in verband met data en privacy meteen aan te pakken.
Enkele richtlijnen die in de wet voor kunstmatige intelligentie zoals ChatGPT zijn gezet:
-
het moet ergens vermeld worden dat teksten zijn gegenereerd door de chatbot
-
ontwikkelaars moeten er op letten dat hun kunstmatige intelligentie geen illegale inhoud kan genereren
-
het publiceren van datasets die de AI gebruikt om zichzelf te trainen
Er moet wel nog onderhandeld worden met de lidstaten van de Europese Unie. Het parlement heeft de wet misschien goedgekeurd, maar het zal nog enkele jaren duren voordat de regels effectief van kracht gaan. Maar de technologie evolueert zo snel, en sommige critici vinden dat de wetgeving nu al achterloopt.
Trage stappen in de juiste richting
In de schijnwerpers van ChatGPT hebben we zowel de horizon van mogelijkheden als de schaduwzijde van onbedoeld of kwaadschiks gebruik gezien.
In het volgende deel keren we ons naar de wereld van AI-tekst-naar-afbeelding generatoren. Daar klinkt de oproep voor verantwoorde innovatie en ethisch bewustzijn, net zoals ChatGPT, sterker dan ooit tevoren.
De wereld van artificiële intelligentie stopt niet bij het maken van teksten of programma's. Vandaag de dag kan men simpelweg enkele woorden of zinnen in een tekst-naar afbeelding generator stoppen om een unieke afbeelding te krijgen.
Maar zelfs dit onschuldig gebruik van AI-tools kan niet aan kritiek ontsnappen.
Waar haalt de AI zijn inspiratie vandaan? Zijn de afbeeldingen wel uniek? En hoe kan deze technologie misbruikt worden?
tekst-naar-beeldgenerators



(DALL-E 2, Midjourney, Stable Diffusion..)
Het schrijven van beelden

Boris Eldagsen, The Electrician
Deel van een serie foto's genaamd "Pseudomnesia", The Electrician van de Duitse Boris Eldagsen haalde in april 2023 de eerste plaats in Sony's wereldwijde fotowedstrijd. Een foto in een vintage jasje die twee dames van verschillende generaties afbeeldt. De oude dame omarmt de jongere, en een derde persoon legt zijn hand op de jonge vrouw achter de camera.
Maar er was geen camera om van te spreken. Eldagsen weigerde de prijs te aanvaarden. De reden?
De foto werd gemaakt via kunstmatige intelligentie (specifiek het programma DALL-E-2, een ander product van OpenAI). Hij vergeleek zichzelf met een hacker die naar zwakheden polst in een computer. Hij beweerde dat hij wou testen of fotowedstrijden klaar waren voor de nieuwe technologie.
"Hoeveel van jullie wistten of vermoedden dat dit door AI was gegenereerd? Er klopt hier iets niet, of wel?" schreef hij op zijn website na de wedstrijd.
Door de prijs te weigeren, stelde Eldagsen daar bij dringende vragen over de grenzen en perceptie van kunst in het tijdperk van opkomende AI-technologieën. Volgens hem zijn kunstwedstrijden niet klaar voor de nieuwe technologie.
#NotoAIart
Een online campagne waar artiesten en illustrators hun zorgen meedelen over de impact van AI-tools op kunst.
Simpelweg wat prompts invoeren via een AI-tool om kunstwerken te genereren is geen echte kunst, volgens tegenstanders op sociale media.
Voor de artiesten is er een grotere nadruk op het creatieve proces en niet enkel het eindresultaat. Maar buiten het gegeven van creativiteit duiken andere problemen op bij het gebruik van AI-tools zoals DALL-E-2 en Midjourney.

De afbeelding die vaak met de hashtag op twitter verschijnt.
Een rechtszaak in januari 2023 die werd aangespannen door Getty Images, één van de grootste beeld- en media-archieven ter wereld, symboliseert het probleem die kunstenaars en tekenaars dikwijls openbaren: kunstmatige intelligentie plagieert auteursrechtelijk beschermde werken.
De beklaagde in deze zaak is Stable Diffusion. Net zoals DALL-E-2 werkt het op dezelfde manier. De gebruiker van de dienst voert simpelweg enkele prompts in en Stable Diffusion genereert een afbeelding. Deze afbeeldingen komen niet uit het niets - ze zijn gebaseerd op de miljoenen afbeeldingen die al te vinden zijn op het internet. En alhoewel een AI-tool veel kan doen, maakt het geen onderscheid tussen auteursrechtelijk beschermde werken of werken die in het publieke domein vallen.
Afbeeldingen (1) en (2) weergeven heel duidelijk waar de AI-gegenereerde afbeeldingen vandaan kwamen. Het watermerk is in beide voorbeelden vervormd, maar nog steeds te zien.
Kunst voor iedereen
De voorstanders van AI-gegenereerde kunst noemen het af en toe de "democratisering van kunst". Als kunst kan worden gemaakt door mensen die nog nooit een potlood of penseel in de hand hebben genomen, wat is dan exact het probleem? Meer kunst voor meer mensen?
De problematiek is tweevoudig:
Een toekomst in de kunst?
Verschillende illustrators getuigen over hoe zij al waren ontslagen als gevolg van de opkomst van kunstmatige intelligentie.
"Ik werd uit mijn contract gezet omdat mij werd verteld dat AI afbeeldingen direct kan genereren." beweerde één illustrator.
Maar het ligt niet enkel aan het potentiele verlies van jobs voor deze tekenaars. Zij stellen ook dat ontwikkelaars van deze AI programma's vaak het werk van deze illustrators kopiëren voor hun eigen doeleinden, zonder enige vergoeding voor de originele kunstenaar.
Dat brengt ons ineens naar het tweede deel van het probleem met AI programma's zoals DALL-E-2.
Plagiaat en diefstal

Afbeelding (1) Bron: The Verge

Afbeelding (2) Bron: The Verge
Stable Diffusion, Midjourney, DALL-E-2.. deze nieuwe AI-tools zijn een wake-up call voor kunstenaars en illustrators wereldwijd. Terwijl regeringen nog met hun handen in de haren zitten over de wetgeving, zullen artiesten de impact langzaamaan meer voelen.
Het werk kopiëren van copywriters en kunstenaars, en andere beschermde media is dus met AI-tools mogelijk. Maar zelfs voice-over artiesten, die niets schrijven of tekenen, kunnen niet ontsnappen aan de grote hand van kunstmatige intelligentie.
Net zoals wij hebben gezien bij het gebruik van ChatGPT in verband met copywriters, vrezen sommigen artiesten dat hun diensten niet meer nodig zullen zijn in de toekomst. Waarom zou een bedrijf een illustrator huren als hun kunst voor een fractie van de tijd en het geld kan worden gemaakt door simpelweg wat prompts in te voeren?
In Japan spreken we niet meer over een hypothetisch scenario. In een land waar stripboeken (of mangas) een centrale plaats heeft in de mediacultuur, is de impact al waargenomen.
In een online enquête (van de organisatie Arts Workers Japan) met maar liefst 27 000 respondenten zegt bijna 60% dat ze zich zorgen maken over het gebruik van AI-kunst.
Presidenten Trump, Obama en Biden die Minecraft spelen.
Enkele videospel personages die hun eigen cover maken van het liedje Country Roads.
De verbeelding is de enige limiet.
Talloze soortgelijke memes zijn opgedoken op Youtube, Tiktok en X (voormalig Twitter).
Met kunstmatig gegenereerde stemmen kan iedereen een stem nemen van eender welke persoon en deze voor zijn eigen doeleinden gebruiken. Maar de vraag wordt opnieuw gesteld: welke gevolgen brengt dat met zich mee?
AI-software gegenereerde stemmen
De echte stemmen van de presidenten:
De echte stemmen van de voice-over artiesten in het spel Red Dead Redemption 2:
Voor wat hoort wat
Show, don't tell.
Beneden staan aan de linkerkant de echte stemmen van de personen in kwestie, aan de rechterkant wat kunstmatige intelligentie met hun stemmen kan uitsteken.
Er zijn talloze kanalen verspreid op elk platform die kunstmatige intelligentie gebruiken om content te creëren voor hun volgers en abonnees. Afhangende van het onderwerp en de figuren die in de video's worden gebruikt, kunnen deze razend populair worden op het internet.
De presidenten spelen Minecraft
Waarschuwing: vulgair taalgebruik
Videospel personages maken een cover van Country Roads
Cover gemaakt door AI
Allemaal heel indrukwekkend en grappig hoe stemmen niet enkel gekopieërd en vervormd kunnen worden, maar zelfs hun plek kunnen vinden in liedjes. Maar de voice-over artiesten, net zoals de copywriters en kunstenaars, zijn nog lang niet zo enthousiast over de nieuwe ontwikkeling in de technologie.

Arthur Morgan (links) en Roger Clark (rechts)
Roger Clark, de voice-over artiest die de stem gaf voor het personage Arthur Morgan (Red Dead Redemption 2), uitte zijn ongenoegen voor kunstmatige intelligentie die stemmen zo makkelijk kan nabootsen.
In een TikTok video noemt Roger Clark deze soort AI-tools "plagiaatsoftware". Hij hint naar het feit dat de gelijkenissen van artiesten en acteurs zonder toestemming gekopiëerd kunnen worden.
Hij verwees in de online video ook naar de stakingen die plaatsnemen in de Verenigde Staten tussen schrijvers en mediagroepen.
Writers Guild
Strike

Het arbeidsconflict tussen de mediagroep AMPTP en de Writer's Guild of America (die tienduizenden schrijvers en verschillende acteurs vertegenwoordigt) begon op 2 mei 2023.
Alhoewel het beperken van het gebruik van kunstmatige intelligentie niet het hoofddoel is van de staking, hebben organisators wel gecommuniceerd dat AI-tools schrijvers en acteurs niet zouden mogen vervangen.
Voor de conclusie van dit artikel laten we het woord aan ChatGPT.
Concluderend kunnen we stellen dat kunstmatige intelligentie een krachtige en veelzijdige technologie is die zowel mogelijkheden als gevaren met zich meebrengt. Terwijl het gemak en de innovatie die het biedt niet te ontkennen zijn, moeten we waakzaam zijn voor mogelijke misbruiken en onbedoelde negatieve gevolgen. De opkomst van AI heeft de kunst- en creatieve industrieën veranderd, waarbij nieuwe vormen van plagiaat kunnen opduiken. Het is duidelijk dat we op een punt zijn beland waar ethische en regelgevende kwesties moeten worden aangepakt om ervoor te zorgen dat de voordelen van AI opwegen tegen de risico's.