In deze aflevering bespreken we het gevaar van ChatGPT en Artificial Intelligence (AI) in het algemeen. In november 2022 werd ChatGPT gelanceerd, een taalmodel getraind door het Amerikaanse techbedrijf OpenAI. Deze nieuwe technologie biedt veel uitkomsten, maar het is niet zonder gevaar. Kunstmatige intelligentie kan namelijk met zowel goede als slechte intenties gebruikt worden, waardoor het wat ons betreft valt onder de duistere kant van de samenleving.
Muziek: Halloween The Pumpkin Head van Frank Schroeter.
Bij het voorbereiden van deze aflevering zijn Engelstalige bronnen gebruikt. Het kan daardoor zijn dat er vertalingsfouten in deze tekst zitten, ondanks dat we hierop proberen te letten. Daarnaast willen we benadrukken dat we zijn géén journalisten, onderzoekers of experts ben op het gebied van computerwetenschappen en artificial intelligence, maar slechts amateur podcastmakers.
ChatGPT, een tool van OpenAI
Volgens Wikipedia is ChatGPT een chatbot van OpenAI die op 30 november 2022 is gelanceerd. Het is een behoorlijk indrukwekkende tool, want je kan er veel uiteenlopende dingen mee: je kan het vragen om songteksten te schrijven of een filmscript, maar ook stukjes code voor software of zelfs essays – en nog veel meer. De bot onthoud wat je eerder in het gesprek hebt gezegd en latere correcties zijn mogelijk. Dankzij machine learning zal de chatbot naar verwachting alleen maar slimmer en nauwkeuriger worden, want hoe meer het wordt gebruikt hoe meer data het heeft om op den duur betere antwoorden te kunnen geven.
De chatbot was na lancering binnen no time mega populair: volgens OpenAI had het op 4 december 2022 al ruim 1 miljoen gebruikers. Niet gek, want de tool werkt niet alleen in het Engels, maar ook onder andere in het Nederlands. Dat het populair is, was ook te zien aan de berichtgeving erover in de Nederlandse media vorige week (dus de week van 15 januari 2023). Zo kwam ik er een NOS artikel over tegen, gevolgd door een draadje op reddit in de r/thenetherlands subreddit. De volgende dag zag ik zelfs een nieuwe aflevering over dit onderwerp van NRC Vandaag in mijn Spotify app (luistertip!).
Voorbeelden
Mijn interesse was gewekt, dus besloot ik de tool zelf uit te proberen. Eerst in het Engels, daarna in het Nederlands. Wat mij meteen opviel is dat het in het Engels net wat beter werkt. Ook ligt de tool er regelmatig uit omdat het dan ‘at capacity’ is. Anyway, ik heb de tool de afgelopen week echt uitvoerig getest. Ik heb het de openingsdialoog van deze aflevering laten genereren en die is als volgt:
Ik heb de bot daarna de opdracht gegeven om voor ons dialoog te genereren over Artificial Intelligence waarbij jij sceptisch bent en ik neutraal:
Het gevaar van ChatGPT
ChatGPT is dus best wel een interessante tool, maar niet zonder potentiële gevaren. Toen ik de chatbot vroeg naar de meest bekende moordzaak of true crime zaak van een specifieke Nederlandse stad, kwam het met een zeer overtuigend antwoord. De chatbot vertelde over een massamoord, waarbij het vriendje of ex-vriendje van een meisje haar hele gezin zou hebben vermoord. Heftig toch? Er ging alleen wel meteen een rode vlag bij mij op, want ik herkende deze zaak niet. Ook via Google kon ik er niks over vinden. Wat blijkt? De zaak bestaat helemaal niet. Toen ik de bot vroeg naar Huttenkloas (shoutout naar luisteraars van De Morbide Zusters), kreeg ik informatie over Klaas Carel Faber – een Nederlandse SS’er die werd veroordeeld wegens oorlogsmisdaden. Dat is meteen één van de gevaren van deze chatbot — iets wat OpenAI overigens ook zelf aangeeft. Het programma is erg foutgevoelig en gaat regelmatig creatief om met de waarheid, waardoor het dus onbedoeld desinformatie kan verspreiden. Er is hier zelfs een term voor: hallucineren.
In Nederland wordt de chatbot inmiddels al veel gebruikt door onder andere Nederlandse scholieren. Vorige week schreef NOS Nieuws over hoe de tool wordt gebruikt voor het laten maken van huiswerkopdrachten of zelfs hele verslagen. De plagiaatscanners van scholen pikken dit nog niet op. Dit is zorgelijk, want het schrijven van verslagen is een belangrijk onderdeel van oefenen met taal en het ontwikkelen van bepaalde skills.
Daarnaast kan de tool ook op een niet ethische manier worden ingezet. Zo schrijft Bloomberg dat ChatGPT gebruikt kan worden om goed geschreven phishing e-mails te laten genereren of zelfs code voor het ontwikkelen van malware. Het kan dus worden gebruikt voor het plegen van cybercrime. Een onderzoeksteam van Georgetown University waarschuwt hier dan ook voor. Daarnaast waarschuwen ze dat de tool gebruikt kan worden voor het ontwikkelen van propaganda. Ondanks dat ChatGPT bepaalde limieten heeft uit veiligheidsredenen, zo heeft het beperkte kennis van gebeurtenissen na 2021 en is het getraind om ongepaste verzoeken af te wijzen, zijn er nog steeds manieren om het haatzaaiende content te laten generen. OpenAi geeft zelf ook aan dat de bot “af en toe schadelijke instructies of bevooroordeelde inhoud kan produceren”.
Ook wordt in de NRC Vandaag aflevering terecht genoemd dat de chatbot van een techbedrijf is met commerciële belangen. OpenAI verdient geld aan deze technologie en is daardoor niet neutraal. Dat brengt natuurlijk de nodige risico’s met zich mee. Ook omdat het van een Amerikaans bedrijf is die wellicht anders met onze data omgaat dan bedrijven die zich houden aan de regels van de EU.
Het gevaar van AI in het algemeen
Met Artificial Intelligence is het over het algemeen zo dat wat je erin stopt er ook weer uit komt. Dat wil zeggen: als de input misogynistisch (voor zover dat een bestaand woord is), racistisch of op een andere manier discriminerend is, dan zal de output dat ook zijn. Dat is niet vreemd, want de startdata wordt door mensen ingevoerd. Ik was een paar jaar geleden naar re:publica — een congres in Berlijn — waar ik een lezing heb bijgewoond van Nakeema Stefflbauer, getiteld ‘A Modern Romance? AI in the Age of Emancipation’. Tijdens deze lezing noemde ze verschillende voorbeelden waarbij AI onbedoeld discrimineerde:
- Bij de eerste iPhone met Face ID, de iPhone X, konden willekeurige Aziatische personen elkaars iPhone unlocken. Een Chinese vrouw kwam hierachter toen haar gloednieuwe iPhone X ook door andere Aziatische personen geopend kon worden, ondanks dat ze zelf haar Face ID had ingesteld. Ook een tweede nieuwe iPhone gaf dit probleem. Bron: dit artikel van Heather Johnson Yu voor NextShark.
- Amazon gebruikte jaren geleden al machine learning voor het werven van personeel. Ze hadden een software tool ontwikkeld die op basis van 100 CV’s een top 5 samenstelde van de beste kandidaten. Echter kwamen ze er in 2015 achter dat de tool voorkeur gaf aan mannelijke kandidaten als het ging om softwareontwikkelaarvacatures of andere technische functies. Om CV’s te kunnen analyseren moest de tool hierop getraind worden en dit deden ze door CV’s in te voeren van personen die in een periode van 10 jaar bij het bedrijf hebben gesolliciteerd. Deze data bestond grotendeels uit CV’s van mannen, waardoor de tool zichzelf hiervoor een voorkeur aanleerde. Hierdoor werd onbedoeld CV’s van vrouwelijke kandidaten weggefilterd, ongeacht of de kandidaat wel of niet geschikt was voor de functie. Bron: dit artikel van Arwa Mahdawi voor The Guardian.
- Uit onderzoek is gebleken dat zelfrijdende auto’s minder snel stoppen voor personen van kleur. Dit komt omdat de software personen van kleur niet goed kan herkennen wegens gebrek aan data. De ontwikkelaars van deze software hebben hier dus niet bij stil gestaan. Dit is onder andere waarom diversiteit op de werkvloer belangrijk is. Bron: dit artikel van Jessica Miley voor Interesting Engineering.
Volgens Stanford University is één van de gevaren van Artificial Intelligence dan ook dat veel mensen denken dat het neutraal en objectief is, terwijl dit dus helemaal niet zo is. Omdat het wordt aangedreven door al bestaande data is er altijd kans op ongelijkheid. Dit kan grote gevolgen hebben voor het gebruik van AI in bijvoorbeeld een medische setting, omdat de data die wordt gebruikt voor dit soort medische tools vaak grotendeels gebaseerd is op witte personen – en dan ook nog eens vaak mannen. Een verkeerd getraind algoritme is gevaarlijk voor patiënten, want zo kan een kankerdiagnose over het hoofd worden gezien of kunnen er valse positieve uitslagen worden gegeven.
Als de data bewust of onbewust discrimineert op basis van gender, seksuele voorkeur, nationaliteit, religie of andere persoonlijke kenmerken, dan zal de AI tool dat dus ook doen. Het handelt dan ook niet vanuit ethische principes, want het heeft geen (eigen) normen en waarden – tenzij die geprogrammeerd zijn. AI kan dus ook bewust met slechte bedoelingen worden ingezet. Stanford University noemt bijvoorbeeld het gebruik van AI voor het creëren van deep fakes en online bots waarmee politieke extremisten makkelijk desinformatie kunnen verspreiden.
Daarnaast vormt AI ook mogelijk een gevaar voor onze privacy. Voor de luisteraars die de aflevering ‘Nosedive’ van Black Mirror hebben gezien of de aflevering over MeowMeowBeenz (‘App Development and Condiments’) van Community, in China werken ze al jaren aan een vergelijkbaar social credit systeem dat wordt aangedreven door AI. De Chinese overheid houdt al jaren de Chinese bevolking in de gaten door middel van gezichtsherkenning software in combinatie met beveiligingscamera’s in openbare ruimtes. Hierdoor kunnen ze makkelijk iemands dagelijkse activiteiten in kaart brengen. Ze zijn bezig hier een puntensysteem aan te koppelen op basis van iemands gedrag. Vertoon je ongewenst gedrag, dan wordt je score dus verlaagd. Een lage score kan vervolgens tot gevolg hebben dat je niet meer mag reizen.
Geeksforgeeks.org schrijft ook over het inzetten van AI voor militaire doeleinden. Denk bijvoorbeeld aan “killer robots”, oftewel autonome wapens. Dit zijn wapens die op basis van AI zelfstandig op zoek kunnen gaan naar een target. Maar wat nou als ze geen onderscheid kunnen maken tussen hun target en andere personen? Of als het door een systeemfout willekeurige mensen begint te targeten? Een ander voorbeeld is het inzetten van militaire drones. Dankzij AI is het mogelijk om onbemande gevechtsvliegtuigen rond te laten vliegen, maar ook dit is niet zonder risico. Het is daarom bij door AI aangestuurde militaire wapens belangrijk dat het bevel om aan te vallen door een mens wordt opgelegd, niet door een machine.
Kortom: aan Artificial Intelligence zit nog aardig wat haken en ogen. Het kan vrij makkelijk op een onethische manier worden ingezet, zoals voor het schenden van mensenrechten. En ook als iemand er goede bedoelingen mee heeft kan het toch onbedoeld negatieve consequenties hebben.
Nog een korte toevoeging: ik heb de coverart van deze aflevering laten genereren door een AI tool – maar persoonlijk ben ik geen fan van AI in combinatie met kunst. Je leest steeds vaker hoe het werk van kunstenaars, originele werken, gestolen wordt door anderen door middel van AI.
Positieve mogelijkheden
Het is overigens niet mijn bedoeling om angst te zaaien, want Artificial Intelligence biedt ook mogelijkheden. Zo schreef Sunil Kumar in 2019 terecht over dat het gebruik van AI kan leiden tot het minder maken van menselijke fouten. Ook maakt het heel snel beslissingen, sneller dan wij doen. Daarnaast kan AI ingezet worden om gevaarlijke handelingen voor ons uit te voeren en helpt het ons bij het ontdekken van andere planeten, maar ook de diepste punten van oceanen. Het biedt ook veel steeds meer mogelijkheden voor klantenservices, waardoor je als klant 24 uur per dag goed geholpen kan worden.
In de NRC Vandaag aflevering worden voorbeelden genoemd van hoe ChatGPT je werk wat makkelijker kan maken. In de aflevering vertelt een vrouw die haar eigen bedrijf heeft over hoe ze het gebruikt voor het schrijven van teksten, omdat dat niet haar sterkste punt is. Het verlaagd daardoor haar werkdruk. Daarnaast vertelt een softwareontwikkelaar over hoe hij het gebruikt voor het laten controleren van stukjes code. De bot helpt namelijk fouten te halen uit de ingevoerde code en doet zelfs suggesties voor nieuwe code.
ChatGPT biedt bijvoorbeeld daarnaast ook mogelijkheden voor het onderwijs. Zo schrijft onderwijswebsite Vernieuwenderwijs dat het gebruikt kan worden voor het verkrijgen van feedback op zelfgeschreven teksten. Of voor het leren voor examens, bijvoorbeeld door het laten genereren van kennisvragen. Ook kan je makkelijk bronnen laten omzetten naar APA stijl. Daarnaast kunnen docenten het op den duur gaan gebruiken voor het maken van lessen en colleges. Natuurlijk blijft plagiaat een ding, maar BBC News meldt dat de 22-jarige Edward Tian een plagiaatscanner heeft ontwikkelt die wél teksten van ChatGPT weet te onderscheiden van teksten die geschreven zijn door mensen. Zolang je ChatGPT als hulpmiddel gebruikt en niet je complete werk eraan uitbesteed, is er niet zoveel aan de hand.
Tot slot
Tot slot wil ik blijven benadrukken dat ChatGPT — en AI in het algemeen — een tool is. Het is niet inherent goed of slecht. Het kan dan wel tot op zekere hoogte een mens imiteren, maar dat ís het natuurlijk niet. Het heeft echter wel input van mensen nodig voor het genereren van output. Daarom is regulatie belangrijk, maar dat roept ook meteen vragen op. Want hoe bepalen we wat de grenzen zijn van deze technologie – als die er überhaupt zijn? En wie mag daarover beslissen? Nieuwe technologieën bieden altijd mooie uitkomsten, maar brengen ook altijd de nodige gevaren met zich mee.
Dat zien ook een paar van onze luisteraars in, want vroeg in een instagram story waar anderen zich zorgen over maken betreft artificial intelligence. Annewytske antwoordde dat ze zich zorgen maakt over dat haar gedachten en gedrag van buitenaf bestuurd kan worden. Vera antwoordde dat ze zich zorgen maakt over dat we compleet afhankelijk zullen zijn van AI en dat het ons gaat belemmeren in onze vrijheid – iets wat je nu dus in China ziet gebeuren. Grappig genoeg antwoordde Tamara dat ze zich geen zorgen maakt, want AI zal naar haar inzien niet slechter zijn dan mensen.
Gebruikte bronnen
Gebruikte software:
Gebruikte bronnen:
- Arwa Mahdawi – The Guardian – Amazon ditched AI recruiting tool that favored men for technical jobs (2018)
- GeeksforGeeks.org – 5 Dangers of Artificial Intelligence in the Future (2022)
- Heather Johnson Yu – NextShark – Chinese Woman Gets Refund Because the iPhone X Thinks All Asians Look the Same (2017)
- Jessica Miley – Interesting Engineering – Autonomous Cars Can’t Recognize People With Darker Skin (2021)
- Joost Schellevis & Sophie Moerland – NOS Nieuws – ChatGPT glipt langs docenten: ‘Ik gebruik het om snel huiswerk te maken’ (2023)
- Katrina Manson – Bloomberg – Viral ChatGPT Spurs Concerns About Propaganda and Hacking Risks (2023)
- Nadine Yousif – BBC News – ChatGPT: Student builds app to sniff out AI-written essays (2023)
- NRC Vandaag – ChatGPT: je nieuwe collega die nooit meer weggaat (2023)
- Reddit – r/thenetherlands – Hoeveel invloed heeft AI software al invloed in jouw vakgebied? (2023)
- Stanford University – Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report – SQ10. What are the most pressing dangers of AI? (2021)
- Sunil Kumar – Towards Data Science – Advantages and Disadvantages of Artificial Intelligence (2019)
- Wessel Peeters – Vernieuwenderwijs – Artificiële intelligentie (AI) in het onderwijs – wat kun je er mee? Voorbeelden, inzichten en tools (2023)
- Wikipedia [EN] – ChatGPT
- Wikipedia [EN] – OpenAI
Recent Comments