Kritische reacties over de ‘kosten’ die tegenover deze ‘baten’ staan, worden niet zelden afgedaan met de opmerking dat ChatGPT1 slechts een stuk gereedschap is dat verstandig of onverstandig kan worden gebruikt. Zolang we lerenden2 stimuleren om het eerste te doen, kan er weinig fout gaan.
Samen met ‘je wordt niet vervangen door AI, maar door iemand die beter met AI kan omgaan dan jij’ vormt ‘het is maar een tool’ de kern van het narratief waarmee de AI-optimisten zich tegen de AI-sceptici verdedigen. Argumenten waartegen weinig lijkt in te brengen. Verantwoord en effectief gebruik van ChatGPT als hulpmiddel, personal assistent, brainstormpartner, ideeëngenerator of inspiratiebron: daar kan toch niemand op tegen zijn, en al helemaal niet als we de focus in het onderwijs verleggen van het eindproduct (summatieve evaluatie) naar het leerproces (formatieve evaluatie en feedback).
Toch?
De toekomst zal uitwijzen of de optimisten gelijk hebben. Maar vooralsnog zie ik een technologie waarvan de gevolgen op de lange termijn amper te overzien zijn. En dan heb ik het niet zozeer over problemen met AI die in principe oplosbaar zijn, technisch dan wel juridisch. Zo wil ik best geloven dat de kans op onwaarheden/hallucinaties en vooroordelen/bias met elke volgende versie van GPT kleiner wordt, en dat nieuwe (internationale) wetgeving ons beter zal beschermen tegen schendingen van privacy en auteursrecht. Ik heb het hier nadrukkelijk over de (langetermijn) impact van generatieve AI op het zelfstandig denken.
Wat gebeurt er uiteindelijk met ons denken wanneer we het telkens opnieuw losmaken van onszelf en toevertrouwen aan een algoritme, niet omdat het móet, maar omdat het kán, omdat het ons werk versimpelt? Wat gebeurt er wanneer we de worsteling met taal consequent overlaten aan ChatGPT? Zou het kunnen dat wat nu verstandig lijkt later tóch, alle succesverhalen ten spijt, onverstandig blijkt? Dat het worstelen, het moeite doen, nodig blijkt om iets diepgaand te begrijpen of in de vingers te krijgen? Dat we door ons dagelijks gebruik van ChatGPT, ook al is het ‘slechts’ als hulpmiddel, sluipenderwijs belangrijke cognitieve vaardigheden als lezen, schrijven, structureren en redeneren zullen verliezen? Dat we het verleren om ons die vaardigheden, letterlijk, eígen te maken? Dat de creativiteit en individualiteit in ons denken onder druk komen te staan? Het zijn vragen die raken aan het wezen van het onderwijs, en alleen al om die reden een antwoord verdienen.
In dit essay onderzoek ik daarom hoe het gebruik van generatieve AI in het onderwijs op (vooral) lange termijn het denken van docenten en lerenden kan beïnvloeden. Ik doe dat voor vijf aspecten van onderwijs die nauw met het denken verweven zijn: taal, kennis, creativiteit en idee-ontwikkeling, individualiteit en technologie. Daarbij zal ik de veronderstelde invloed telkens illustreren aan de hand van onderwijstaken en -opdrachten die relatief vaak met behulp van ChatGPT worden uitgevoerd.
Het essentiële verschil tussen mensen en computers is dat wij inzicht hebben in de onderliggende structuur van de werkelijkheid. Wij maken een innerlijk model van de wereld waarin verbanden worden gelegd tussen ervaringen en concepten. Door informatie in ons hoofd op een logische en coherente manier te ordenen, leren we begrijpen hoe de wereld werkt. Vanuit de psychologie en filosofie weten we dat mensen één belangrijk instrument hebben om die mentale ordening tot stand te brengen: de taal. Door te lezen, schrijven en spreken leren we verbanden leggen, samenhang aanbrengen, logisch redeneren en argumenteren, analyseren, kritisch reflecteren en ga zo maar door. Het denken structureert de taal, maar de taal structureert ook het denken. Zo bezien hebben talige activiteiten een belangrijke intrinsieke waarde: ze scherpen onze geest en vormen onze gedachten.
Mensen ontlenen hun denkkracht dus voor een groot deel aan lezen en schrijven. Maar klopt dit ook voor de lerenden die (delen van) hun opdrachten inmiddels dagelijks aan ChatGPT uitbesteden? Neem het schrijven van een eigen tekst. Door ChatGPT te vragen om een outline of eerste draft, plaatsen zij feitelijk die zo belangrijke eerste schetsfase van het schrijven buiten zichzelf. De fase waarin de relatie tussen denken en taal zijn beslag krijgt in de vorm van een symbiotische wisselwerking tussen geest en pen, tussen de reflectie op en vorming van gedachten en de schriftelijke expressie van gedachten. Deze vraagt meer moeite van lerenden dan het bijschaven van een tekst die ChatGPT hen voorschotelt, een taak die geen complexe innerlijke dialoog tussen ideeën en woorden vereist. En precies daarin schuilt het gevaar van ChatGPT, want het is juist die mentale inspanning die ervoor zorgt dat mensen zich het taalgestuurd denken eigen maken.
Met andere woorden, elke keer als lerenden (en docenten?) de worsteling met taal uit de weg gaan, ontnemen zij zichzelf een mogelijkheid om te leren structureren, redeneren, reflecteren, et cetera. Hoe vaker zij taal gebruiken als middel om een prompt te ‘engineeren’ in plaats van als middel om hun gedachten te vormen, hoe meer zij inboeten op hun denkvermogens. Het is een effect dat zichzelf bovendien versterkt, want het brein went aan luiheid: wie vandaag en morgen geen moeite doet voor iets zal dat overmorgen ook niet doen. Een neerwaartse spiraal die mogelijk eindigt bij verlies van de vaardigheid om zélf te kunnen schrijven en, uiteindelijk, denken.
De hierboven uiteengezette logica voor het schrijven van een eigen tekst is ook toepasbaar op het samenvatten van een tekst van een ander, met dien verschil dat het (over)gebruik van ChatGPT dan niet zozeer de ontwikkeling van schrijfvaardigheden maar die van leesvaardigheden, én de daaraan ontleende denkvaardigheden, ondermijnt.
Kennis ontwikkelt zich wanneer nieuwe en al bestaande kennis samenkomen en elkaar wederzijds beïnvloeden. Zo kan nieuwe kennis worden gestapeld op, of geassimileerd in, de oude, en kan oude kennis worden geaccommodeerd aan de nieuwe. Vanuit dit oogpunt kun je je afvragen hoe zinvol het is om zonder voldoende ‘bestaande kennis’ de hulp van ChatGPT in te schakelen voor het vergaren van ‘nieuwe kennis’, en wel om twee redenen.
De eerste reden betreft het stellen van de vraag. Een van de essentiële functies van kennis is te weten wat je niet weet, en dus ook welke kennis je elders moet halen. Zonder voldoende kennis van een onderwerp is het dus lastig om een écht betekenisvolle vraag aan ChatGPT te stellen. Of preciezer gezegd: om in de prompt zoveel specifieke inhoudelijke context mee te geven dat het model een gericht en relevant antwoord kan genereren. Hoe meer je daarentegen van een onderwerp weet, hoe meer je weet wat je niet weet, en hoe meer je tot het besef komt dat ‘wat is…’-vragen te algemene antwoorden opleveren en context de sleutel is tot een effectieve prompt. Daar heb je geen prompt engineers voor nodig om je dat te vertellen, het volstaat om tot op zekere hoogte ‘deskundig’ te worden op een bepaald gebied.
De tweede reden waarom eigen kennis zo belangrijk is, heeft te maken met het kunnen interpreteren van het antwoord van ChatGPT. Om de door het taalmodel gegenereerde informatie op waarde te kunnen schatten moeten lerenden deze eerst binnen de context van hun bestaande kennis over het betreffende onderwerp plaatsen. Dit stelt hen in staat om verbanden te leggen tussen de nieuwe informatie en dingen die ze al weten, maar ook om de mogelijke bronnen (voor zover traceerbaar) van de verstrekte informatie te controleren op betrouwbaarheid. Pas dan kunnen zij goed inschatten of het antwoord van ChatGPT noopt tot aanvulling of aanpassing van hun bestaande kennisschema’s of de vorming van een nieuw, en is er dus sprake van echt léren.
Concluderend stel ik dat ChatGPT vooral (alleen?) kan bijdragen aan het leerproces van lerenden wanneer zij al over een relevante kennisachtergrond beschikken. Een achtergrond die nodig is om het model op een kritische en effectieve manier te bevragen en benutten. Als lerenden die kennisbasis ontberen, zijn ze min of meer gedwongen om de regie over de inhoud, over de vraag hoe iets zit, in handen van ChatGPT te leggen. Met als risico dat hun vraag blijft hangen in vaagheid en ze vervolgens niets dóen met het antwoord, behalve het klakkeloos overnemen.
De boodschap aan het onderwijs is dat het gebruik van generatieve AI de eerste fase van kennisopbouw nooit mag ondermijnen, laat staan vervangen. Wees als docent dus voorzichtig met de inzet van ChatGPT als leermiddel als je de centrale concepten van een nieuw onderwerp nog niet hebt geïntroduceerd. Laat lerenden, binnen redelijke grenzen en met gepaste ondersteuning, worstelen met (de relaties tussen) deze ankerbegrippen zodat een solide fundament wordt gelegd voor het nieuwe kennisschema, met daarin betrouwbare mentale kapstokken waaraan nieuwe informatie, bijvoorbeeld van ChatGPT, kan worden opgehangen. Een stevig in het langetermijngeheugen verankerde kennisbasis voorkomt bovendien dat het werkgeheugen overbelast raakt, iets wat lerenden beperkt in het begrijpen van de nieuwe informatie.
Het aanbrengen van een degelijke basislaag van kennis op een bepaald gebied werkt dus ondersteunend én ontlastend. Die eerste kennisopbouw lijkt mij een taak van het onderwijs die met de opkomst van generatieve AI niet minder belangrijk, maar juist belangrijker is geworden. Kunnen ‘Chatten met Napoleon’ is natuurlijk leuk en leerzaam, maar vooral als leerlingen éérst door een bevlogen docent zijn meegevoerd in het leven en de tijd van deze beroemde Franse keizer en legeraanvoerder, en daardoor interesse en zín hebben gekregen om met hem te kletsen.
Hierboven suggereerde ik dat lerenden zonder voldoende kennis over een onderwerp sneller bereid zijn om een antwoord van ChatGPT te accepteren dan lerenden met meer kennis. Deze suggestie behoeft een nadere beschouwing, want ook laatstgenoemden zijn niet immuun voor de invloed van de richting die het model met zijn antwoorden aanreikt, alleen om een andere reden. En die heeft alles te maken met een belangrijk inzicht uit de cognitieve psychologie, namelijk dat de meeste mensen automatisch kiezen voor de makkelijkste weg om tot conclusies te komen (zie onder andere Daniel Kahneman’s bestseller Thinking, Fast and Slow). Voor ChatGPT-gebruikers betekent dit kortweg dat het antwoord op hun vraag een bias introduceert in hun denken over het onderwerp waarover zij iets te weten willen komen. Hierdoor worden zij, bewust of onbewust, gestuurd in een bepaalde denkrichting.
Het behoeft nauwelijks betoog dat dit (het stimuleren van) creativiteit en idee-ontwikkeling in het onderwijs en daarbuiten in de weg staat. Of de hulp van ChatGPT nu wordt ingeroepen voor het samenvatten van een artikel, het maken van een opzet voor een presentatie of het formuleren van een duidelijke en haalbare onderzoeksvraag, in wezen gebeurt er steeds hetzelfde: het denkraam van lerenden wordt, of ze willen of niet, verschoven naar het kader dat ChatGPT hen biedt, waardoor zij minder geneigd zijn om buiten dat kader te kijken en denken. Want wat als ChatGPT een ánder statistisch plausibel antwoord had gegenereerd? Of, belangrijker nog, als zij zélf langer en dieper hadden nagedacht over, respectievelijk, de hoofd- en bijzaken in de tekst, de kernboodschap van hun verhaal of de afbakening van hun probleemstelling? Welke denkpaden zouden zij dán zijn ingeslagen?
Mijn zorgen zitten dus nog niet eens zozeer bij (de mogelijke dwalingen in) de denkrichting waarin ChatGPT lerenden meeneemt maar eerder bij alle alternatieve richtingen die daarmee worden afgesloten. Zorgen die ook docenten zich ter harte zouden moeten nemen wanneer zij ChatGPT inzetten bij, ik noem maar een paar dwarsstraten, het maken van een rubric, schrijven van een opleidingsplan of bedenken van toetsvragen. Ook zij staan bloot aan de verleiding om mee te gaan in de door het algoritme aangegeven richting in plaats van zelf – intensiever en kritischer dan ze al deden – te reflecteren op, respectievelijk, hun eigen definities van kwaliteit, het onderscheidende karakter van hun opleiding of de eigen accenten in de leerstof.
Voor ‘toetsvragen’ nam ik onlangs de proef op de som in mijn eigen onderwijs. Het resultaat: geen enkele suggestie van ChatGPT verdiende een plek in mijn reeds bestaande vragenpool. Waarmee ik zeker niet wil zeggen dat ik zo’n goede toetsontwikkelaar ben, integendeel. Het punt dat ik wil maken is dat veel van de door ChatGPT voorgestelde vragen waarschijnlijk wél door mijn ballotage waren gekomen (al dan niet in aangepaste vorm) als ik de hulp van de virtuele assistent had ingeschakeld nog voordat ik er zelf aan gesleuteld en geschaafd had.
En wat te denken van het gebruik van ChatGPT als hulpmiddel bij activiteiten die echt intrinsiek verbonden zijn met creativiteit en idee-ontwikkeling, zoals het opzetten van vernieuwend onderzoek of het bedenken van, of aan de slag gaan met, uitdagende probleemoplossingsgerichte werkvormen. Wanneer docenten of lerenden bij dergelijke activiteiten een door ChatGPT getrokken spoor (of zijpad daarvan) besluiten te volgen, beperken zij juist datgene wat zij eigenlijk volledig zouden moeten aanboren: hun mentale ruimte voor vrijdenken en de ontwikkeling van ideeën buiten de gebaande paden. De bron van creativiteit ligt immers in het vermogen om in die ruimte eígen woorden en beelden op te roepen.
Deze remmende werking van generatieve AI op creativiteit en idee-ontwikkeling wordt bovendien nog eens versterkt door een andere factor, één die te maken heeft met hoe taalmodellen als ChatGPT werken. Zoals bekend genereren deze modellen tekst aan de hand van patronen en relaties tussen woorden die ze hebben geleerd in bestaande teksten. Wat de fundamentele vraag opwerpt of een tekst van ChatGPT echt nieuwe ideeën kan bevatten. Immers, alles wat het model produceert berust uiteindelijk op statistische voorspelbaarheid, op taal die anderen ooit éérder hebben gebezigd. En taal, zo weten we inmiddels, is de kruiwagen van het denken. Ontwikkeling in denken schuilt vaak in ontwikkeling in taal. Nieuwe ideeën en perspectieven vinden hun oorsprong in, bijvoorbeeld, het doorbreken van gangbare taalgebruiken en -patronen, het ontwikkelen van nieuw vocabulaire of, last but not least, het tot stand brengen van nooit eerder gelegde combinaties en verbindingen tussen woorden (lees: concepten) tot een nieuw, samenhangend geheel.
Creativiteit en idee-ontwikkeling ontstijgen dus wat in feite de corebusiness van ChatGPT is, namelijk het remixen van bestaande talige elementen op basis van kansberekening. En hoe verleidelijk deze remixes ook zijn, werkelijk vernieuwende ideeën zullen docenten en lerenden er niet in aantreffen, wel het gemiddelde van het gemiddelde gedachtegoed. Die nieuwe ideeën zullen ze toch écht zelf moeten genereren. Hoe? Inderdaad, door te worstelen met taal.
Een mooie vergelijking die ik in dit verband wel eens tegenkom: voor een nieuwe culinaire ervaring kun je beter zelf recepten uitproberen dan de Thuisbezorgd laten langskomen.
Eerder wees ik er al op dat we onze objectieve kennis over de wereld om ons heen niet mogen laten afhangen van wat ChatGPT erover zegt. Maar hoe zit het met onze subjectieve overtuigingen? Wat doet generatieve AI met kennis die we op onze eigen, persoonlijke manier verwerven en invullen? Met de kennis die wortelt in onze ervaringen, opvoeding, cultuur en relaties met anderen, en die vaak diep in ons lichaam en handelen ligt besloten? Kortom: wat gebeurt er met ons wanneer wij de taal, en daarmee alle betekenissen die in die taal huizen, continu in handen leggen van een niet-menselijke entiteit die niet ‘denkt’ vanuit een individuele en sociaal-culture achtergrond maar vanuit een statistisch model?
Om tot een antwoord te komen is het belangrijk om te benadrukken dat taal dus niet alleen gaat over de objecten in de wereld, maar ook over hoe mensen – subjecten – zich actief en intentioneel verhouden tot die objecten en elkaar. Waar ik mij zorgen over maak, is dat de ‘taal van het subject’ geleidelijk aan zal worden verdrongen door de ‘taal van het object’, de taal van AI. Met als gevolg dat ons denken steeds verder losgezongen raakt van het persoonlijke, tot het punt dat er niets ‘eigens’ meer is aan de ideeën en overtuigingen die we vormen.
Hoe vaker we meegaan met ideeën die ‘van buiten’ ons komen, van een – letterlijk – onpersoonlijk algoritme, hoe meer we het vermogen verliezen om te denken vanuit wie we ‘van binnen’ zijn, vanuit onze menselijke kern die zich op een unieke wijze verbindt met de wereld en anderen. Ik ben niet de eerste die het zegt, maar generatieve AI dreigt ons feitelijk op afstand van de werkelijkheid te zetten: we worden toeschouwer van, in plaats van actor in, de wereld.
En dat is precies waarin het gevaar voor het onderwijs schuilt. Docenten zijn bij uitstek geen ‘objectieve toeschouwers’. Zij zijn ‘subjectieve actoren’ die doceren vanuit een nauwe betrokkenheid met de praktijken binnen hun vakgebied. Een betrokkenheid die niet alleen de inspiratiebron vormt voor henzelf maar ook voor hun leerlingen en studenten. Pas wanneer de docent een eigen gezicht geeft aan zijn onderwijs, vanuit zijn eigen taal (!), identiteit, inzichten, stokpaardjes en vakmanschap, krijgen zij het zo belangrijke persoonlijke karakter van het vak te zien. Over dat belang is veel te zeggen, maar het laat zich, helemaal in de context van dit essay, het best samenvatten door het om te draaien: als het persoonlijke karakter van onderwijs er níet toe zou doen, kun je inderdaad net zo goed een generatieve AI-bot voor de klas zetten.
De impact van generatieve AI op de individualiteit in het denken blijft niet beperkt tot het doceren van een vak. Feitelijk staat die individualiteit onder druk bij alle onderwijs- én leeractiviteiten waarbij de nadruk niet ligt op ‘statistisch gemiddelde’ inhoud maar juist op de afwijking ervan. Wanneer je bijvoorbeeld ChatGPT gebruikt bij het op papier zetten van een beleidsvisie loop je als onderwijsprofessional het risico dat je denken stukje bij beetje wordt losgemaakt van je eigen onderwijskundige en pedagogische achtergrond en idealen, soms zonder het zelf in de gaten te hebben. Of denk aan het samenvatten (of vertalen) van een tekst die bewust veel ruimte laat voor eigen interpretatie en invulling of waarin de schrijver tussen de regels zijn eigen stem laat doorklinken. Er is natuurlijk niets op tegen om ChatGPT een eerste versie te laten schrijven, maar houd er dan wel extra rekening mee dat al het persoonlijke in die samenvatting (of vertaling) door het algoritme zal worden platgeslagen.
Het zijn – wederom – voorbeelden van wat je oneerbiedig de prijs van het niet-worstelen met een tekst zou kunnen noemen.
De laatste reden waarom het gebruik van generatieve AI invloed kan hebben op het denken in en over het onderwijs is subtieler en heeft te maken met de relatie tussen technologie en de mens. Ik ben geen techniekfilosoof, maar van mensen die dat wel zijn weet ik inmiddels dat je beide niet los van elkaar kunt zien.
In het ontwerp van technologie zitten waarden en doelen ingebakken die, per definitie, niet neutraal zijn en die ons gedrag en onze keuzes, bewust of onbewust, in een bepaalde richting duwen. Een pistool is om te doden, en het doel van AI is om machines in staat te stellen om, op algoritmische wijze, menselijke taken efficiënter en sneller uit te voeren. Beide zijn ontworpen voor een specifiek gebruik en creëren daarmee een context waaruit een bepaalde manier van denken en doen kan voortkomen.
De opvatting dat ChatGPT slechts een stuk gereedschap is dat je verstandig of onverstandig kunt gebruiken, doet dus geen recht aan het feit dat het gebruik van deze en andere AI-tools onvermijdelijk, en vaak ongemerkt, een focus op (kille) algoritmische efficiëntie met zich meebrengt. En dat is iets waar zeker ook in het onderwijs risico’s aan verbonden zijn. Vanuit verschillende disciplines, waaronder de pedagogiek en filosofie, is er de afgelopen jaren op gewezen dat de complexiteit en veelzijdigheid van onderwijzen en leren niet te vangen zijn in algoritmen, en dat elke poging daartoe het onderwijs reduceert tot een technische aangelegenheid waar alle menselijkheid, interactiviteit en inherente onvoorspelbaarheid zijn uitgehaald.
In het kader van dit essay is het zinvol om dit punt van zorg toe te spitsen op de (langetermijn) impact die generatieve AI kan hebben op het denken van lerenden en docenten. Daarbij baseer ik mij op de logica die in dit essay centraal staat: hoe meer we uitbesteden aan ChatGPT, hoe minder we worstelen met taal, hoe minder we ons het taalgestuurd denken echt eígen maken, en hoe moeilijker het is om de complexe wereld om ons heen te ordenen tot een logisch, samenhangend verhaal in ons hoofd. Het gaat mij vooral om dat laatste, om het belang van mentale modelvorming. Want dat is wat er op het spel staat als we generatieve AI vooral ten dienste stellen van het algoritmisch optimaliseren van een efficiëntie-gedreven ‘buitenwereld’ in plaats van dat we het gebruiken ten behoeve van het ontwikkelen van een betekenis-gedreven ‘binnenwereld’. Het zou in elk geval een ernstige verschraling van het onderwijs betekenen als we onze pogingen om de wereld te begrijpen meer en vaker zouden baseren op statistische dan op onze eigen mentale modellen.
Maar feitelijk geldt dit natuurlijk voor de samenleving als geheel. Er zal een verarming van het denken optreden wanneer statistische logica de overhand krijgt bij het verkrijgen en organiseren van informatie en nemen van beslissingen. Het zal de deur openen naar een technocratie, naar een samenleving die we steeds minder zullen benaderen en interpreteren vanuit onze innerlijke zelf en steeds meer vanuit innerlijke lege algoritmen die zijn gericht op het modelleren van ‘normaliteit’, niet van de (vaak zo prachtige) ‘afwijkingen’ daarvan.
Samenvattend concludeer ik dat het gebruik van ChatGPT op diverse manieren het denken van lerenden en docenten kan beïnvloeden. De toenemende uitbesteding van onderwijsopdrachten en -taken aan taalgenererende AI kan, op den duur, ondermijnend werken voor (i) de ontwikkeling van lees- en schrijfvaardigheden en daaraan ontleende denkvaardigheden als structureren en redeneren, (ii) de opbouw van degelijke vakspecifieke kennisbases om vanuit verder te leren, (iii) de bevordering van creativiteit en idee-ontwikkeling, (iv) de individualiteit in het denken en persoonlijke invulling van onderwijs, en (v) de menselijke maat in en het ‘prachtige risico’ van onderwijs (Biesta, 2015).
Ik heb laten zien dat deze negatieve invloeden grotendeels lopen via de taal, als het medium waarlangs mensen de wereld, anderen en zichzelf leren begrijpen. Door taal steeds meer in handen te geven van AI, verliezen we dus een deel van ons mens-zijn, van onze cultuur, en ons vermogen om zélf woorden, en dus betekenis, te geven aan de wereld om ons heen. Het verklaart de eerder beschreven verstrekkende impact die het gebruik van generatieve AI kan hebben op zowel de cognitieve, creatieve, sociale als persoonlijke aspecten van leren en onderwijzen
Met dit alles in gedachten lijkt het mij onmogelijk om ChatGPT te beschouwen als een copiloot die de piloot werk uit handen neemt waardoor deze zich volledig kan richten op zijn kerntaken. In tegenstalling tot de samenwerking tussen beide in een cockpit kent deze in het onderwijs een keerzijde. Immers, hoe vaker de ‘piloot’ de ‘copiloot’ inschakelt hoe meer hij inboet op de, vooral cognitief-linguïstische en creatieve, vaardigheden die gerelateerd zijn aan die kerntaken.
Het onderwijs zal hier rekening mee moeten houden, zeker gezien de vermeende daling van het taalniveau van onze lerenden. Dit wil echter niet zeggen dat ChatGPT geen meerwaarde kan hebben in het onderwijs, natuurlijk heeft het dat. Docenten en opleidingsmanagers zullen het gebruik ervan alleen nog zorgvuldiger moeten afstemmen op de specifieke doelen van hun onderwijs(beleid) alsmede de visie en kernwaarden waarop zij het baseren. Waarbij het van belang is dat zij goed kunnen beargumenteren waarom en hoe zij ChatGPT willen inzetten, bijvoorbeeld bij het bestrijden van de leescrisis en, niet onbelangrijk binnen de context van dit essay, schrijfcrisis (een crisis die ten onrechte minder aandacht krijgt dan de leescrisis; zie bijvoorbeeld de dit jaar verschenen bundel ‘Opdat wij schrijven’).
Maar een welwillende opstelling tegenover de mogelijkheden van ChatGPT is in mijn ogen nog geen reden om de AI-tool dan maar meteen op te nemen in de kerndoelen digitale geletterdheid, zoals SLO onlangs deed. In kerndoel 5 lees ik: ‘In gesprek gaan met ChatGPT om ideeën op te doen, structuur in teksten aan te brengen, teksten te vertalen en taalgebruik te verbeteren’. Het lijkt mij, in het licht van de eerder genoemde potentiële risico’s, voorbarig om AI-technologie nu al zo’n prominente rol in het taalonderwijs toe te kennen. Eerst maar eens afwachten hoe het gebruik ervan op de langere termijn uitpakt.
Dezelfde terughoudendheid is op zijn plaats ten aanzien van het eerder genoemde en ongemakkelijk provocerende idee dat ‘je niet vervangen zult worden door AI, maar door iemand die beter met AI kan omgaan dan jij’. Mocht ik ooit vervangen worden, dan hoop ik vooralsnog, totdat AI mijn ongelijk bewijst, dat dat is door een collega met verstand van zaken en passie voor zijn vak.
De onderliggende, meer fundamentele vraag die de komende jaren beantwoord zal moeten worden is hoe we ons, binnen het onderwijs en daarbuiten, moeten verhouden tot die zo disruptieve AI-technologie die we, nu die er eenmaal is, niet meer níet kunnen gebruiken, en die het risico in zich draagt steeds van middel tot doel te verworden.
Het belangrijkste, en meteen ook het moeilijkste, is om niet in de valkuil van die doel/middel-omkering terecht te komen. Hoe verleidelijk het ook is om te kiezen voor het gemak van generatieve AI, de kwaliteit van leren en onderwijzen zal altijd en op alle niveaus het vertrekpunt van denken over onderwijs moeten zijn. Daarom moeten we ons ook niet laten opjagen door de snelheid waarmee AI het onderwijs infiltreert, maar eerder juist de tijd nemen voor een hernieuwde reflectie op de wezenlijke bedoeling van dat onderwijs.
Interessant genoeg wordt de essentie van die herbezinning treffend tot uitdrukking gebracht in ‘Tractaat over het spieken’, de onderwijsklassieker van Cornelis Verhoeven uit 1980. Het boek is begin dit jaar opnieuw uitgegeven, met een introductie van pedagoog en auteur Joop Berding. Hierin betoogt hij dat ‘Tractaat over het spieken’ weer helemaal actueel is in het huidige debat over onderwijs en AI wanneer we ‘spieken’ vervangen door ‘het gebruik van ChatGPT’: ‘Het gaat om dezelfde tendens, met een vergelijkbare onwenselijke impact op het onderwijs: snelheid boven diepgang, gladjes door de materie heen in plaats van je ervoor in te spannen, zielloze productie in plaats van een boeiend en soms weerbarstig proces van zelfvorming.’
Voor alle duidelijkheid: ik leen dit citaat, niet omdat ik het fraude-narratief over taalgenererende AI wil promoten, maar vanwege de overlap met mijn pleidooi voor ‘moeite’. Want als dit essay één ding heeft duidelijk gemaakt, dan is het wel dat ‘talig worstelen’ nodig is om belangrijke denkvaardigheden te verinnerlijken en, als gevolg daarvan, de wereld, anderen en onszelf diepgaand te leren begrijpen.
Vanuit dit oogpunt kun je je afvragen of het wel verstandig is dat wij ons sinds de opkomst van generatieve AI zo gemakkelijk, soms bijna achteloos, onttrekken aan de worsteling met teksten—een mentale inspanning die dus een functioneel onderdeel vormt van ons leven, in elk geval dat van lerenden en docenten. Of, scherper geformuleerd in het licht van Verhoeven’s kern van onderwijs: in hoeverre draagt de inzet van generatieve AI bij aan een onderwijscultuur waarin intellectuele verdieping, kritisch-reflectieve vorming en persoonlijke betrokkenheid als leidende waarden worden gesteld boven efficiëntie, snel resultaat en oppervlakkige (lees: statistisch gemiddelde) kennis? De vraag stellen is hem beantwoorden, en het antwoord geeft aanleiding tot enige zorg over of en hoe de in dit essay ingeschatte (langetermijn) impact van generatieve AI op het onderwijs nog kan worden beteugeld.
Ik beschouw mezelf niet als tech-pessimist, noch als tech-optimist, maar ook wie vindt dat mijn inschatting berust op ongegrond technologiefatalisme, zal het met mij eens zijn dat we AI geen vrij spel mogen geven in het onderwijs (en daarbuiten) zolang niet duidelijk is wat de langetermijngevolgen zijn voor het denken en doen van lerenden en docenten. Het veelgelezen en -besproken boek ‘Generatie angststoornis: wat social media met onze kinderen doen’ van sociaal psycholoog Jonathan Haidt illustreert op indringende wijze wat er kan gebeuren als de negatieve impact van nieuwe technologie te laat wordt onderkend en aangepakt. Het leest als een waarschuwing voor een laissez-faire benadering van de techindustrie, en dwingt eens te meer tot nadenken over de vraag hoe het gebruik van generatieve AI op doeltreffende wijze kan worden gereguleerd voordat het eventueel ‘te laat’ is.
Hoewel meer en strengere wet- en regelgeving zou kunnen helpen om verantwoord gebruik te bevorderen, denk ik niet dat ‘dwang’ de meest effectieve aanpak is. Meer heil zie ik in de ontwikkeling van raamwerken en schalen die onderwijsinstellingen kunnen helpen bij het (contextafhankelijk) beoordelen in welke mate en op welke wijze AI een rol mag spelen bij bepaalde taken en opdrachten.
Maar een verstandige omgang met AI begint bovenal bij een beter bewustzijn van wat de technologie met ons doet. Ofwel, vertaald naar de context van dit essay: lerenden en docenten kunnen de gemaksbelofte van ChatGPT pas weerstaan als zij eerst de ‘waarde van het worstelen’ inzien, en begrijpen dat deze onder druk komt te staan bij een overmatig beroep op hun personal assistent. En dat vereist een (verdere) verschuiving van de focus in het onderwijs op ‘moeten presteren’ naar ‘willen leren’.
Met andere woorden, lerenden en docenten moeten wíllen worstelen, – en dus ook niet of minder wíllen ‘spieken’ bij ChatGPT –, simpelweg omdat zij de wereld, anderen en zichzelf diepgaand willen leren begrijpen en de denkkrachten die zij daarvoor nodig hebben niet willen opgeven.
Menno van der Schoot is als universitair hoofddocent verbonden aan de afdeling Pedagogische- en Onderwijswetenschappen aan de Faculteit der Gedrags- en Bewegingswetenschappen van de Vrije Universiteit Amsterdam.
Voetnoten:
Voetnoot 1: ChatGPT of één van de andere inmiddels duizenden generatieve AI-tools zoals Copilot, Bart, Gemini of Claude. Gemakshalve spreek ik in dit essay verder over ChatGPT.
Voetnoot 2: Lerenden verwijst naar alle leerlingen en studenten die onderwijs volgen, van primair tot en met hoger onderwijs.
Referenties
Biesta, G. (2015). Het prachtige risico van onderwijs. Culemborg: Uitgeverij Phronese.
Bouwer, R., Hamel, M., van Norden, S., Steenbakkers, J., & Stronks, E. (Eds.) (2024). Opdat wij schrijven: Herinrichting van het schrijfonderwijs nu. Uitgeverij Pica.
Verhoeven, C. (2024, heruitgave). Tractaat over het spieken: het onderwijs als producent van schijn. Telos Uitgevers.
Dit is een ingezonden artikel, waarvoor de redactie niet verantwoordelijk is. Lees hier meer over ons beleid aangaande ingezonden stukken. |
En blijf op de hoogte van onderwijsnieuws en de nieuwste wetenschappelijke ontwikkelingen!
Inschrijven