Beste Universiteiten van Nederland, Vereniging Hogescholen, en respectievelijke Colleges van Bestuur,
Met deze brief nemen wij een principieel standpunt in tegen de verspreiding van zogeheten ‘AI’-technologieën op universiteiten en hogescholen. Als onderwijsinstelling kunnen we niet goedkeuren dat studenten, docenten of leidinggevenden onkritisch gebruik maken van AI. We roepen ook op tot het heroverwegen van directe financiële banden tussen universiteiten, hogescholen en AI-bedrijven. Het onbelemmerd introduceren van AI-technologie is in strijd met de geest van de EU AI Act. Het ondermijnt onze fundamentele pedagogische waardes en de principes van wetenschappelijke integriteit. Het weerhoudt ons ervan onze standaarden van onafhankelijkheid en transparantie hoog te houden. En, wat ons vooral zorgen baart, AI-gebruik verhindert aantoonbaar het leren van studenten en tast het vermogen tot kritisch denken aan.
Als academici, en vooral als docenten in het hoger onderwijs, hebben we de verantwoordelijkheid om onze studenten op te leiden, niet om diploma’s uit te delen die geen verband meer houden met vaardigheden op hoger onderwijs-niveau. Onze plicht als docenten is om kritisch denken en intellectuele eerlijkheid te cultiveren. Het is niet onze rol om politieagent te spelen, en ook niet om bedrog te bevorderen; noch is het onze rol om het ontwijken van diep denkwerk door onze studenten te normaliseren. Bij hoger onderwijsinstellingen draait het om aandachtige verdieping in de materie. Het doel van hoger onderwijs is niet om problemen zo snel en efficiënt mogelijk op te lossen, maar om vaardigheden te ontwikkelen voor het identificeren van en omgaan met nieuwe problemen die nog niet eerder opgelost zijn. Wij verwachten dat studenten de ruimte en tijd krijgen om hun eigen, diep doordachte meningen te vormen, geïnformeerd door onze expertise en gevoed door onze educatieve ruimtes. Zulke ruimtes moeten beschermd worden tegen reclame van bedrijven, en onze financiering mag niet verspild worden aan winstmakende partijen, die weinig in ruil daarvoor te bieden hebben en de vaardigheden van onze studenten actief aantasten. Zelfs de term “Artificial Intelligence” (die wetenschappelijk gezien verwijst naar een academisch vakgebied; kunstmatige intelligentie) wordt veel misbruikt, waarbij conceptuele onduidelijkheid wordt ingezet om de belangen van commerciële bedrijven te bevorderen en wetenschappelijke discussies te ondermijnen. Het is onze taak om de term ‘AI’ te demystificeren en te bevragen in ons onderwijs, onderzoek en maatschappelijke betrokkenheid.
We moeten het ecosysteem van menselijke kennis beschermen en cultiveren. AI-modellen kunnen het uiterlijk van wetenschappelijk werk nabootsen, maar ze houden zich (per definitie) niet bezig met waarheid. Het resultaat is een stortvloed aan ongecontroleerde maar overtuigend-klinkende “informatie”. In het beste geval is zulke output bij toeval waar, maar zonder goede bronvermelding en losgezongen van menselijk redeneren en het wetenschappelijk werk waarvan het steelt. In het ergste geval is het fout op een zelfverzekerde manier. Beide gevallen zijn gevaarlijk voor het ecosysteem.
Overdreven gehypete ‘AI’-technologieën, zoals chatbots, large language models, en gerelateerde producten, zijn enkel dat: producten die de technologische industrie, net als de tabaks- en olie-industriën, uitpompen om winst te maken, in strijd met de waardes van ecologische duurzaamheid, menselijke waardigheid, pedagogische waarborging, data-privacy, wetenschappelijke integriteit, en democratie. Deze ‘AI’-producten zijn materieel en psychologisch schadelijk voor het vermogen van onze studenten om zelf na te denken en te schrijven, en bestaan in plaats hiervan voor het belang van investeerders en multinationals. Als marketingstrategie om zulke middelen naar de collegezaal te brengen, beweren bedrijven ten onrechte dat studenten lui zijn of niet over schrijfvaardigheden zouden beschikken. Wij veroordelen dergelijke beweringen en verheffen de zelfbeschikking van studenten boven commerciële invloeden.
We hebben dit eerder gezien, met tabak, olie, en vele andere schadelijke industrieën die niet onze belangen behartigen en die niet geven om de academische vooruitgang van onze studenten of de integriteit van onze wetenschappelijke processen.
Wij roepen u op tot het volgende:
• Verzet u tegen de introductie van AI in onze eigen software-systemen, van Microsoft tot OpenAI tot Apple. Het is niet in ons belang om onze processen te laten corrumperen en onze data weg te geven voor het trainen van modellen die niet alleen nutteloos zijn voor ons, maar ook schadelijk.
• Verbied AI-gebruik in de klas bij opdrachten voor studenten, net zoals we essayfabrieken en andere vormen van plagiaat verbieden. Studenten moeten beschermd worden tegen het aantasten van hun vaardigheden en de ruimte en tijd krijgen om hun opdrachten zelf uit te voeren.
• Stop met het normaliseren van AI hype en de gangbare leugens waarmee de technologische industrie deze technologieën neerzet. Deze technologieën hebben niet de geadverteerde capaciteiten, en de invoering ervan brengt voor studenten en academici het risico met zich mee dat ethische, juridische, academische en wetenschappelijke standaarden op het gebied van betrouwbaarheid, duurzaamheid en veiligheid worden geschonden.
• Versterk onze academische vrijheid als medewerkers van hoger onderwijs-instellingen om deze principes en standaarden te handhaven in onze collegezalen, ons onderzoek en op de computersystemen die we verplicht zijn te gebruiken als onderdeel van ons werk. Wij academici hebben het recht op onze eigen ruimtes.
• Behoud kritisch denken over AI en bevorder kritische omgang met technologie op een stevige academische basis. Academische discussie moet vrij zijn van de belangenverstrengeling die veroorzaakt wordt door bedrijfsfinanciering, en onderbouwd verzet moet altijd een optie zijn.
Vriendelijke groet,
Olivia Guest, Assistant Professor of Computational Cognitive Science, Cognitive Science & Artificial Intelligence Department and Donders Centre for Cognition, Radboud University Nijmegen
Iris van Rooij, Professor of Computational Cognitive Science, Cognitive Science & Artificial Intelligence Department and Donders Centre for Cognition, Radboud University Nijmegen
Marcela Suarez Estrada, Lecturer in Critical Intersectional Perspectives on Artificial Intelligence, School of Artificial Intelligence, Radboud University Nijmegen
Lucy Avraamidou, Professor of Science Education, Faculty of Science and Engineering, University of Groningen
Barbara Müller, Associate Professor of Human-Machine Interaction, Faculty of Social Sciences, Radboud University Nijmegen
Marjan Smeulders, Researcher Microbiology and teacher ambassador for Teaching and Learning Centre, Faculty of Science, Radboud University Nijmegen
Arnoud Oude Groote Beverborg, Lecturer of Pedagogy, Faculty of Social Sciences, Radboud University Nijmegen
Ronald de Haan, Assistant Professor in Theoretical Computer Science, Faculty of Science, University of Amsterdam
Mirko Tobias Schäfer, Associate Professor of AI, Data & Society, Faculty of Science, Utrecht University
Mark Dingemanse, Associate Professor & Section leader AI, Language and Communication Technology, Faculty of Arts, Radboud University Nijmegen
Frans-Willem Korsten, Professor in Literature, Culture, and Law, Leiden University for the Arts in Society
Mark Blokpoel, Assistant Professor of Computational Cognitive Science, Cognitive Science & Artificial Intelligence Department and Donders Center for Cognition, Radboud University Nijmegen
Juliette Alenda-Demoutiez, Assistant Professor, Economic Theory and Policy, Faculty of Management, Radboud University Nijmegen
Federica Russo, Professor of Philosophy and Ethics of Techno-Science & Westerdijk Chair, Freudenthal Institute, Utrecht University
Felienne Hermans, Professor in Computer Science Education, Vrije Universiteit Amsterdam
Francien Dechesne, Associate Professor of Ethics and Digital Technologies, eLaw Center for Law and Digital Technologies, Leiden University
Jaap-Henk Hoepman, Professor in Computer Science, Radboud University / Karlstad University.
Jelle van Dijk, Associate Professor Embodied Interaction Design, Faculty of Engineering Technology, University of Twente
Andrea Reyes Elizondo, Researcher & PhD Candidate, Faculties of Social Sciences & Humanities, Leiden University
Djoerd Hiemstra, Professor in Computer Science, Radboud University
Liesbet van Zoonen, Professor of Cultural Sociology, Erasmus University Rotterdam
Emily Sandford, Postdoctoral Researcher, Leiden Observatory, Leiden University
M. Birna van Riemsdijk, Associate Professor Intimate Computing, Human-Media Interaction, University of Twente
Maaike Harbers, Professor of Artificial Intelligence & Society, Rotterdam University of Applied Sciences
Marieke Peeters, Senior Researcher Responsible Applied Artificial Intelligence and Human-AI Interaction, Research Group on Artificial Intelligence, HU University of Applied Sciences Utrecht
Marieke Woensdregt, Assistant Professor of Computational Cognitive Science, Cognitive Science & Artificial Intelligence Department and Donders Center for Cognition, Radboud University Nijmegen
Edwin van Meerkerk, Professor of Cultural Education, Radboud Institute for Culture and Heritage, Faculty of Arts, Radboud University Nijmegen
Sietske Tacoma, Senior Research Responsible Applied Artificial Intelligence, Research Group on Artificial Intelligence, HU University of Applied Sciences Utrecht
Nolen Gertz, Associate Professor of Applied Philosophy, Chair of Interdisciplinary Sciences Examination Board, University of Twente
Ileana Camerino, Lecturer of Academic Skills, School of Artificial Intelligence, Radboud University Nijmegen
Annelies Kleinherenbrink, Assistant Professor for Gender and Diversity in AI, Cognitive Science & Artificial Intelligence Department and Gender & Diversity, Radboud University Nijmegen
Bronnen
Avraamidou, L. (2024). Can we disrupt the momentum of the AI colonization of science education?. Journal of Research in Science Teaching, 61(10), 2570–2574. https://doi.org/10.1002/tea.21961
Bainbridge, L. (1983). Ironies of automation. Automatica, 19(6), 775–779. https://doi.org/10.1016/0005-1098(83)90046-8
Bender, E.M. & Hanna A. (2025). The AI Con - How to Fight Big Tech’s Hype and Create the Future We Want. Harper. https://thecon.ai/
Bender, E.M. ‘Resisting Dehumanization in the Age of “AI”’. Current Directions in Psychological Science 33, no. 2 (1 April 2024): 114–20. https://doi.org/10.1177/09637214231217286
Bender, E. Shah, C. (2022, December 13). All-knowing machines are a fantasy. IAI News. iai.tv/articles/all-knowing-machines-are-a-fantasy...
Birhane, A. (2020). Algorithmic Colonization of Africa. SCRIPT-Ed, 17(2), 389–409. https://doi.org/10.2966/scrip.170220.389
Birhane, A. & Guest, O. (2021). Towards Decolonising Computational Sciences. Kvinder, Køn & Forskning, 2, 60–73. https://doi.org/10.7146/kkf.v29i2.124899
Broussard, M. (2018). Artificial unintelligence: How computers misunderstand the world. MIT Press. mitpress.mit.edu/9780262537018/artificial-unintell...
Crawford, K. (2021). The atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. yalebooks.yale.edu/book/9780300264630/atlas-of-ai/...
Dingemanse, M. (2024). Generative AI and Research Integrity. Guidance commissioned and adopted by Radboud University Faculty of Arts. https://doi.org/10.31219/osf.io/2c48n
Erscoi, L., Kleinherenbrink, A. V., & Guest, O. (2023, February 11). Pygmalion Displacement: When Humanising AI Dehumanises Women. https://doi.org/10.31235/osf.io/jqxb6
Fergusson, G., Schroeder, C., Winters, B., & Zhou, E. (2023). Generating Harm. Generative AI’s Impact & Paths Forward. EPIC (Electronic Privacy Information Center). epic.org/documents/generating-harms-generative-ais...
Fernandez, A. L. (2025) Resisting AI Mania in Schools - Part I. Substack newsletter. Nobody Wants This (blog). annelutzfernandez.substack.com/p/resisting-ai-mani...
Forbes, S. H., & Guest, O. (2025). To Improve Literacy, Improve Equality in Education, Not Large Language Models. Cognitive Science, 49(4), e70058. https://doi.org/10.1111/cogs.70058
Gebru, T., & Torres, Émile P. (2024). The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence. First Monday, 29(4). https://doi.org/10.5210/fm.v29i4.13636
Gerlich, M. (2025). AI tools in society: Impacts on cognitive offloading and the future of critical thinking. Societies, 15(1), 6. https://doi.org/10.3390/soc15010006
Gertz, N. (2023). More than Machines? Jacques Ellul on AI's Real Threat to Humanity. Commonweal Magazine. commonwealmagazine.org/jacques-ellul-gertz-artific...
Gertz, N. (2024). Nihilism and Technology: Updated Edition. Rowman & Littlefield. rowman.com/ISBN/9781538193266/Nihilism-and-Technol...
Gibney, E. (2024). Not all'open source'AI models are actually open: here's a ranking. Nature. https://www.nature.com/articles/d41586-024-02012-5
Jackson, L., & Williams, R. (2024). How disabled people get exploited to build the technology of war. The New Republic. newrepublic.com/article/179391/wheelchair-warfare-...
Kalluri, P. (2020). Don’t ask if artificial intelligence is good or fair, ask how it shifts power. Nature, 583(7815), 169–169. https://www.nature.com/articles/d41586-020-02003-2
Liesenfeld, A., & Dingemanse, M. (2024). Rethinking open source generative AI: open-washing and the EU AI Act. In The 2024 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’24). Rio de Janeiro, Brazil: ACM. https://dl.acm.org/doi/10.1145/3630106.3659005
Lutz Fernandez, A. (2025). Help Sheet: Resisting AI Mania in Schools. drive.google.com/file/d/1e_kgaBs8yZL2pa_RVAemmfhow...
McQuillan, D. (2022). Resisting AI: An anti-fascist approach to artificial intelligence. Policy Press. https://bristoluniversitypress.co.uk/resisting-ai
McQuillan, D. (2025). The role of the university is to resist AI. Seminar, June 11, Goldsmiths Centre for Philosophy and Critical Thought. https://danmcquillan.org/cpct_seminar.html
Mejías, U. A., & Couldry, N. (2024). Data grab: The new colonialism of big tech and how to fight back. The University of Chicago Press. press.uchicago.edu/ucp/books/book/chicago/D/bo2161...
Monett, D., & Paquet, G. (2025). Against the Commodification of Education—If harms then not AI. Journal of Open, Distance, and Digital Education, 2(1). https://doi.org/10.25619/WAZGW457
Monett, D., & Grigorescu, B. (2024). Deconstructing the AI Myth: Fallacies and Harms of Algorithmification. Proceedings of the 23rd European Conference on e-Learning, ECEL 2024, 23(1), 242-248. https://doi.org/10.34190/ecel.23.1.2759
Muldoon, J., Graham, M., & Cant, C. (2024). Feeding the machine: The hidden human labor powering A.I. Bloomsbury Publishing. bloomsbury.com/us/feeding-the-machine-978163973497...
Narayanan, A & Kapoor, S. (2024) AI Snake Oil: What Artificial Intelligence Can Do, What It Can't, and How to Tell the Difference. Princeton University Press
O’Neil, C. (2017). Weapons of Math destruction: How big data increases inequality and threatens democracy. Crown. https://dl.acm.org/doi/10.5555/3002861
Oakley, B., Johnston, M., Chen, K. Z., Jung, E., & Sejnowski, T. J. (2025). The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI. http://dx.doi.org/10.2139/ssrn.5250447
Perrigo, B. (2023). Exclusive: OpenAI used Kenyan workers on less than $2 per hour to make ChatGPT less toxic. Time Magazine, 18, 2023. time.com/6247678/openai-chatgpt-kenya-workers/...
RCSC author collective. (2023). A Sustainability Manifesto for Higher Education. earthsystemgovernance.org/2023radboud/.... https://repository.ubn.ru.nl/handle/2066/301240
Ricaurte, P. (2022). Ethics for the majority world: AI and the question of violence at scale. Media, Culture & Society, 44(4), 726–745. https://doi.org/10.1177/01634437221099612
Sano-Franchini, J., McIntyre, M., & Fernandes, M. (2023). Refusing GenAI in Writing Studies: A Quickstart Guide. https://refusinggenai.wordpress.com/
Shah, C., & Bender, E.M.. ‘Situating Search’. In Proceedings of the 2022 Conference on Human Information Interaction and Retrieval, 221–32. CHIIR ’22. New York, NY, USA: Association for Computing Machinery, 2022. https://doi.org/10.1145/3498366.3505816
Suarez, M., Müller, B. C. N., Guest, O., & van Rooij, I. (2025). Critical AI Literacy: Beyond hegemonic perspectives on sustainability. Sustainability Dispatch, Radboud Centre for Sustainability Challenges. https://doi.org/10.5281/zenodo.15677840. rcsc.substack.com/p/critical-ai-literacy-beyond-he...
van Dijk, J. (2020). Post-human Interaction Design, Yes, but Cautiously. In: ACM Designing Interactive Systems Conference (DIS' 20). Association for Computing Machinery, New York, NY, USA, 257–261. https://doi.org/10.1145/3393914.3395886
van der Gun, L., & Guest, O. (2024). Artificial Intelligence: Panacea or Non-Intentional Dehumanisation?. Journal of Human-Technology Relations, 2. https://doi.org/10.59490/jhtr.2024.2.7272
van Rooij, I., & Guest, O. (2024, September). Don’t believe the hype: AGI is far from inevitable. Press release, Radboud University. ru.nl/en/research/research-news/dont-believe-the-h...
van Rooij, I. (2022, December). Against automated plagiarism [Blog]. Iris van Rooij. irisvanrooijcogsci.com/2022/12/29/against-automate...
van Rooij, I., & Guest, O. (2025). Combining Psychology with Artificial Intelligence: What could possibly go wrong? PsyArXiv. https://doi.org/10.31234/osf.io/aue4m_v1
van Rooij, I., Guest, O., Adolfi, F., De Haan, R., Kolokolova, A., & Rich, P. (2024). Reclaiming AI as a Theoretical Tool for Cognitive Science. Computational Brain & Behavior, 7(4), 616–636. https://doi.org/10.1007/s42113-024-00217-5
Williams, D. P. (2024). Scholars are Failing the GPT Review Process. Historical Studies in the Natural Sciences, 54(5), 625-629. https://doi.org/10.1525/hsns.2024.54.5.625