12 December 2025
Zorgvuldig & Zorgzaam Digitaal

Aan de formerende partijen in de Eerste en Tweede Kamer en aan de demissionaire regering,

Deze brief schrijven we u vanwege uw belangrijke verantwoordelijkheid over het huidige en toekomstige AI-beleid, digitalisering en publieke waarden. Wij zijn een coalitie van wetenschappers, experts en vertegenwoordigers van maatschappelijke organisaties.

Met deze brief willen we twee dingen doen:

a) Context bieden bij plannen die nu rondgaan zoals het AI Deltaplan, de AIC4NL position paper en de Invest-NL AI Deep Dive. In de investeringsvoorstellen staan aannames en voorstellen die niet gebaseerd zijn op wetenschappelijke inzichten en publieke waarden.

b) Een andere, constructieve en onderbouwde aanpak bieden die uitgaat van mens, natuur en democratie. We zien waarde in een gedeelde aanpak waarin wetenschappers, maatschappelijke organisaties en belanghebbenden meebepalen of, hoe en welke investeringen noodzakelijk zijn.

De besluiten die genomen gaan worden, bepalen de digitale toekomst van alle mensen in Nederland. Er is een belangrijke rol voor de overheid om te zorgen dat digitalisering het welzijn van mensen vergroot en onze autonomie niet ondermijnt. Zo zien wij een grote kans om afscheid te nemen van de greep van grote buitenlandse techbedrijven met hun schadelijke invloeden door algoritmes en AI-modellen.

Dat kan Nederland niet alleen: de samenwerking met andere Europese landen is cruciaal om onze digitale infrastructuur veilig te stellen. Zeker nu de VS openlijk een vijandige opstelling heeft gekozen, moeten we zorgen dat we krachten bundelen.

Tegelijkertijd kunnen we niet alleen leunen op Europa. De voorgestelde Omnibus van de Europese Commissie dreigt zowel de AVG als de AI-Act af te zwakken en ondermijnt daarmee het publieke belang ten gunste van grote, vaak buitenlandse, techbedrijven.

Daarom is dringend een positieve aanpak van digitalisering en AI nodig. Maar wel ĂŠĂŠn die het eigenaarschap en handelingsperspectief breed in de maatschappij verankert, en die vertrekt vanuit publieke waarden en grondige wetenschappelijke validatie van nieuwe toepassingen.

Onze uitgangspunten en voorstellen zijn niet nieuw. De machine als neutrale, goedkope vervanger van mensenhanden en -hoofden is een hardnekkige droom die al vaak geleid heeft tot het negeren van inzichten over de samenleving en zorgen over kwaliteit van leven (Illich, 1973; Franklin, 1999). Wij vinden dat een pragmatische en menselijke kijk op digitalisering en technologie meer aandacht en ruimte verdient dan het nu krijgt (Zaga et al., 2022).

Uitgangspunt 1: Respecteer kennis en kunde, maak scheiding tussen hype en wetenschap voor zorgvuldige afwegingen

‘Artificiële intelligentie’, kortweg ‘AI’, heeft meerdere betekenissen. AI is om te beginnen een onderzoeksgebied. Als idee, systeem, en onderzoeksveld bestaat het al lang, sinds halverwege vorige eeuw.

Echter, sinds een paar jaar is AI in het dagelijks taalgebruik een marketingterm voor een toepassing als ChatGPT geworden, of een etiket op een waaier aan implementaties en technologieĂŤn (Guest et al., 2025). Die lang niet altijd de grote beloften waarmaken, maar wel veel investeerders lijken aan te trekken (The Economist, 2025). En waar te vaak bestaande lessen en standaarden voor veilig en verantwoord gebruik worden genegeerd (Dobbe, 2023; Dobbe, 2025; Murray-Rust, Alfrink, Zaga, 2025).

Onverantwoorde afhankelijkheid van AI en het te haastig toepassen, kan grote gevolgen hebben en het maatschappelijk vertrouwen verder ondermijnen, zoals bleek bij het toeslagenschandaal, waar geautomatiseerde werkprocessen gezinnen ongekende schade hebben toegebracht. Ook zijn er toenemende risico's voor impact op de mentale gezondheid van mensen. Zo leidt het gebruik van chatbots zelfs tot psychoses met soms fatale uitkomsten (Taylor, 2025; Preda, 2025).

Wij doen hierbij een oproep om hype en wensdenken te scheiden van realiteit om zo onderbouwde keuzes voor investeringen te maken en risico's te vermijden.

Voor zorgvuldige afwegingen is betrekken van expertise noodzakelijk. Expertise die technologie ziet in relatie tot de samenleving en de wereld om ons heen. Zo is bekend dat goede oplossingen voor veel problemen, zoals ecologische vraagstukken, reeds bedacht zijn en andere inzet vergen dan een puur technologische benadering. Kennis van mens en de wereld heeft een AI-model niet. AI an sich kan de problemen niet oplossen maar hooguit verergeren of ons afleiden van het werk dat nodig is.

Graag dragen we bij om die bestaande kennis en deskundigheid van experts en onderzoekers over te brengen op beleidsmakers.

Uitgangspunt 2: Voor AI-toepassingen geen unieke positie bij wet- en regelgeving

Op dit moment lijkt experimenteren en haastig ondernemen de norm geworden in de techindustrie, vaak verkocht onder een sluier van 'onvermijdelijkheid' (AI Now Institute, 2025). Woorden die hierbij horen zijn 'race' en 'verminderde regeldruk' en 'angst om de boot te missen'. Wij hebben het standpunt dat beleid en regelgeving juist een belangrijk doel hebben: namelijk beschermen van wat van waarde is en een eerlijke afweging maken tussen kosten en baten.

In de investeringsvoorstellen die nu circuleren, wordt bepleit om regelgeving te verminderen en hiermee een selecte groep van investeerders en ondernemingen een voorkeursbehandeling te geven. Voorbeelden uit de plannen zijn: aanpassing ontslagrecht, afschaffen van intellectueel eigendomsrecht en versnelde vergunningverlening die eigen belangen dient. Dit zien we als een breuk met belangrijke publieke waarden en de volgende stap naar onrust tussen mensen.

We zien verder een risico in het ongereguleerd maken van en experimenteren met toepassingen in de leefomgeving, zoals voorgesteld door ondernemers en investeerders. Dit is niet zonder gevaar: we weten al dat experimenten met onbemenste voertuigen (Chougule et al, 2023) en ook de ongecontroleerde uitrol van chatbots hebben geleid tot dodelijke slachtoffers (Taylor, 2025).

Regelgeving voor AI is daarom juist hard nodig. Het Rathenau Instituut wees in een rapport aan de Tweede Kamer eerder op de noodzaak voor politici en beleidsmakers om AI te reguleren (Rathenau Instituut, 2024). Net zoals we dat hebben voor andere diensten en producten. Zonder robuuste en breed geaccepteerde regelgeving hadden we namelijk geen veilige luchtvaart, consumentenproducten of medische behandelingen gehad (Leveson, 2011).

Het idee dat regelgeving innovatie per definitie in de weg staat is dus achterhaald, maar desondanks springlevend in het discours over AI en digitalisering (Bradford, 2024). Wij onderstrepen het belang van goed toezicht, omdat goede regelgeving juist bijdraagt aan het maken van de juiste maatschappelijke en economische afwegingen.

Uitgangspunt 3: Streef naar economische haalbaarheid en toegevoegde waarde voor iedereen

Economen waarschuwen al enige tijd dat de groei binnen de AI-industrie leunt op risicovolle financiering, leningen en circulaire investeringsmodellen (Arun, 2025). Dat terwijl het merendeel van de bedrijven de beloofde productiviteitswinsten niet eens waarmaakt (The Economist, 2025).

Deze speculatieve investeringen vormen risico's voor de Nederlandse economie, inclusief onze pensioenfondsen. Wij zien dat in de voorgestelde plannen vooral investeerders en directeuren van bedrijven hun stempel drukken op de richting. Dat vinden wij zorgelijk, omdat de opbrengsten bij een kleine groep terecht komen, maar de risico's worden afgewenteld op de maatschappij.

Wij maken ons ook zorgen om mensen die niet zichtbaar zijn. Hoewel in de marketing de nadruk ligt op kunstmatigheid en machines, is AI afhankelijk van een onnoemlijke hoeveelheid verborgen arbeid, denk aan datalabelling en contentmoderatie (Williams and Miceli, 2023). Dit gebeurt voornamelijk in lagelonenlanden onder onveilige arbeidsomstandigheden, met onzekere contractvormen (Munn, 2024). Nederland hecht waarde aan eerlijk werk, en we moeten ervoor zorgen dat in de hele keten onze keuzes geen negatieve gevolgen hebben en een eerlijke prijs betaald wordt.

In plaats van te proberen om dringende sociale en economische problemen op te lossen met een blind vertrouwen in technologieĂŤn die daar niet voor ontworpen zijn, hebben we juist een beschermende aanpak nodig voor mensen die negatieve gevolgen ervaren van ongereguleerde aanpak. Denk aan onderwijzers, juristen, onderzoekers, ambtenaren, kunstenaars, zorgprofessionals en vertalers.

AI-toepassingen hebben ten onrechte schijn van betrouwbaarheid (Suchman, 2019; Suchman, 2023; Anderl et al., 2024). De kritiekloze adoptie en ongefundeerde claims zorgen voor grote schade in de maatschappij en afleren van vaardigheden en kritisch denken. Sectoren zoals het onderwijs (Guest et al., 2025), de journalistiek (NDP Nieuwsmedia, 2025), de wetenschap (van Rooij, 2024), de zorg (Jeyaretnam, 2025) lijden hier al onder.

In de rechtspraak geldt dit ook nadrukkelijk (Advocatie, 2025). De maatschappij moet kunnen vertrouwen op zorgvuldigheid en feitelijke juistheid van jurisprudentie. Ons advies is daarom om fors te investeren in kritische AI-geletterdheid in vitale werkvelden zoals rechtspraak, onderwijs, zorg en overheid.

Uitgangspunt 4: Verminder energie- en waterverbruik, wees bewust van schadelijke effecten

Grote AI-modellen en datacenters verbruiken enorme hoeveelheden water, energie en land, ook vaak in kwetsbare gebieden (JimĂŠnez Arandia et al., 2025; Suarez et al., 2025). Ook in Nederland zet dit het stroomnet onder druk (NOS, 2025). Uitbreiding van datacenters betekent een verdere toename in energieverbruik en uitstoot van broeikasgassen en vervuiling van water dat voor koeling gebruikt wordt (International Energy Agency, 2025; Gamazaychikov & Luccioni, 2025). Deze datacentra en hun activiteiten concurreren met andere vitale behoeften zoals huisvesting, voedselvoorziening en infrastructuur (Netbeheer Nederland, 2025).

Nederland ligt achter op het schema om de uitstoot in 2030 te verminderen (Reuters, 2025). Het openen van meer hyperscale datacenters voor AI specifiek, zal de energie- en klimaattransitie daarom ernstig verstoren (Green Screen Coalition, 2025).

Het gaat ons niet alleen om effecten in Nederland. Een democratisch en mensgericht AI-beleid is ook buiten landsgrenzen nodig, in een wereld waarin democratische instituties worden ondermijnd en schadelijke machtsdynamieken door AI verder worden versterkt. Ook daar hebben we mee te maken.

Onze zorg is verder de wijze van ondernemen van grote techbedrijven. Wij weten uit onderzoek dat een deel van de AI-industrie dezelfde drijfveren heeft als de olie-industrie, zoals uitbuiting, vernietiging van ecosystemen, kolonisatie, surveillance en het versterken van autoritaire regimes (Hao, 2022; Ricaurte,2022).

Wij hebben de kans om hierin andere keuzes te maken en we raden aan daar gezamenlijk met alle belanghebbenden mee aan de slag te gaan (Zaga et al., 2022).

Uitgangspunt 5: Betrek bij beleidsvorming alle stemmen, inclusief maatschappelijk middenveld

In Nederland is er veel kennis over de impact van AI. Ons voorstel is om ook de kritische perspectieven nadrukkelijk mee te wegen in ontwerp. Door gezond verstand te verkiezen boven geautomatiseerde gedachteloosheid kunnen we een voorbeeldrol vervullen op het gebied van AI-onderzoek en verantwoorde digitalisering (Zaga et al., 2022).

Wij zien de kracht en toegevoegde waarde van samenwerking over de hele linie (Murray-Rust, Alfrink & Zaga, 2025). Daarbij moet ook het maatschappelijk middenveld betrokken worden. Het accent moet liggen op het vermogen van burgers en professionals om hun levens en organisaties zelf vorm te geven. Niet op technologieĂŤn die vooral beloven iets op te lossen, maar niet in staat zijn om sociale en economische uitdagingen het hoofd te bieden.

Nederland kan daarnaast een voorbeeldrol spelen in Europa in het ondersteunen van maatschappelijk middenveld, de academische wereld en het bedrijfsleven bij het vormen van een digitaal ecosysteem dat diep geworteld is in publieke waarden (PublicSpaces, 2025).

De stap naar voren

Nederland kan een weg inslaan voor digitalisering die recht doet aan mens, natuur en democratie. Wij doen een pleidooi om dit gezamenlijk en zorgvuldig te doen: met wetenschappers, maatschappelijke organisaties en ondernemers. Zo bereiken we een breed gedragen agenda die aansluit op fundamentele vragen die leven in de maatschappij. Wij pleiten voor een constructieve en onderbouwde aanpak die uitgaat van mens, natuur en democratie.

Wij adviseren te starten met analyse van het vraagstuk dat voorliggend is. Niet met het verzamelen van technologische oplossingen die op zoek zijn naar financiering. En bij mogelijke implementaties het afwegingskader te gebruiken dat wij al succesvol hanteren als maatschappij: namelijk bestaande wet- en regelgeving die ons beschermt. En onze gezamenlijkheid en creativiteit.

Onze aanbevelingen:

Analyseer eerst het probleem, dan naar de oplossing

• Open het gesprek voor een inventarisatie van vraagstukken rond digitalisering. Betrek daarbij wetenschappers, maatschappelijk middenveld en belanghebbenden.

• Kijk welke toepassingen bestaan, in Nederland en elders. Controleer claims en leg ze naast investeringen uit private en publieke middelen.

• Maak de afweging in hoeverre oplossingen afhankelijkheid van grote technologiebedrijven verkleinen of juist vergroten.

• Bied nadrukkelijk ruimte aan alle perspectieven en juist ook de kritische en de perspectieven die minder ruimte hebben gekregen in het huidige discours.

• Neem de systemische risico's van AI-toepassingen in kritische sectoren zoals onderwijs, zorg, rechtspraak en wetenschap serieus.

• Luister daarbij naar inzichten van wetenschappers over onder andere verlies aan essentiële vaardigheden en kritisch denken.

• Formaliseer wetenschappelijke evaluatie van claims over toepassing van AI en digitale systemen om hiermee zorgvuldige afwegingen te kunnen maken over de inzet van publiek geld.

• Kies het bijpassende besturingsmodel met bijpassende bevoegdheden. Dat kan een ministerie of minister zijn.

Maak en gebruik een helder afwegingskader

• Geen monopolie voor een kleine groep. Als investeringen voor digitalisering uit publieke middelen komen en gaan over de publieke infrastructuur, dan zijn de opbrengsten ook voor het publiek.

• Bescherm mensen door wet- en regelgeving voor de schadelijke effecten van AI en algoritmische besluiten.

• Stop met ongereguleerde experimenten in de openbare ruimte.

• Voorzie toezichthouders (ACM, AP) van voldoende middelen om hun verantwoordelijkheden voor controle en handhaving uit te voeren.

• Richt een publieke AI-raad in waarin het maatschappelijk middenveld is vertegenwoordigd.

• Neem principes van de rechtsstaat in acht. Bescherm nadrukkelijk onze vitale digitale infrastructuur voor inmenging en overnames door buitenlandse mogendheden.

Bescherm bestaande afspraken voor mens en natuur

• Respecteer de geldende wetten en mensenrechten en zo ook milieuovereenkomsten en intellectueel eigendom. Zorg voor eerlijke lonen en contracten. Creëer geen voorkeurspositie voor een selecte groep.

• Maak digitalisering een integraal onderdeel in de afwegingen voor natuur, natuurlijke bronnen en energie. Kijk daarbij verder dan Nederland: weeg de schadelijke effecten van extractie en uitbuiting in andere landen mee.

• Investeer in duurzame mensgerichte, waardengedreven oplossingen om zo een alternatief te hebben.

Ondersteun initiatieven die bijdragen aan zinvolle digitalisering en publieke waarden

• Investeer in een brede kritische AI-geletterdheid. Start met de voornaamste kritische sectoren: onderwijs, overheid, rechtspraak en medische beroepen. Betrek daarbij de wetenschap en experts voor de invulling en implementatie.

• Ondersteun partijen die in publiek-privaat-civiele samenwerkingen duurzame bijdragen kunnen leveren.

• Kijk bij publieke digitale infrastructuur naar alternatieve economische modellen, zoals een inrichting als nutsvoorziening.

• Zorg ervoor dat kennis en ervaring worden gedeeld en beschikbaar worden gemaakt.

Ondertekening

Wij ondertekenen deze oproep met de overtuiging dat het anders en beter kan in onze samenleving. Laten we samenwerken aan een toekomst die zowel gewenst is, als de moeite waard om voor te vechten. Een die uitgaat van gezond verstand boven geautomatiseerde gedachteloosheid.

12 december 2025

Coalitie Zorgvuldig & Zorgzaam Digitaal

dr. ir. Cristina Zaga, Assistant Professor Transdisciplinary Design for Socially Just Digital Innovation and Automation, Director of the JEDAI Network Social Justice in AI, University of Twente, NL

dr. Olivia Guest, Assistant Professor of Computational Cognitive Science, Radboud University, NL

dr. ir. Roel Dobbe, Assistant Professor Verantwoorde Digitalisering en Publieke AI Systemen, Directeur Sociotechnical AI Systems Lab, TU Delft & Bestuurslid Stichting PublicSpaces, NL

drs. Wiep Hamstra, Expert overheidsdienstverlening en -communicatie, NL

Lilian de Jong, MSc, co-founder Dutch AI Ethics Community, NL

Wouter Nieuwenhuizen, Researcher, Rathenau Instituut, NL

dr. Marcela Suarez Estrada, Lecturer in Critical Intersectional Perspectives on AI, Radboud University, NL

prof. dr. Iris van Rooij, Professor of Computational Cognitive Science, Chair of Cognitive Science and Artificial Intelligence, Radboud University, NL

--

prof. dr. F. Hermans, Professor of Computer Science Education, Vrije Universiteit, NL

prof. dr. M. Dingemanse, Hoogleraar AI: Taaldiversiteit en CommunicatietechnologieĂŤn, Radboud Universiteit, NL

dr. ir. Eelco Herder, Associate Professor, Universiteit Utrecht & Voorzitter ACM SIGWEB & Lid ACM Technology Policy Council, NL

Jelle van der Ster, Algemeen directeur SETUP, NL

drs. Siri Beerends, PhD candidate Philosophy of Technology, University of Twente / Researcher SETUP, NL

Emile van Bergen, Senior software engineer computer vision, NL

Paul Peters, Fluxology / Creative Reduction, NL

Dr. Nolen Gertz, Associate Professor of Applied Philosophy, University of Twente, NL

Gerry McGovern, author of World Wide Waste, and 99th Day

Bronnen en literatuur

Altmeyer, P., Demetriou, A. M., Bartlett, A., & Liem, C. C. S. (2024). Position: Stop Making Unscientific AGI Performance Claims. In R. Salakhutdinov, Z. Kolter, & K. Heller (Eds.), International Conference on Machine Learning (Vol. 235, pp. 1222-1242). (Proceedings of Machine Learning Research).

Adamantia Rachovitsa and Niclas Johann, “The Human Rights Implications of the Use of AI in the Digital Welfare State: Lessons Learned from the Dutch SyRI Case,” Human Rights Law Review 22, no. 2 (June 1, 2022): ngac010, https://doi.org/10.1093/hrlr/ngac010

Advocatie Redactie (2025, September 10). Rechtbank Rotterdam berispt advocaat wegens aanvoeren van niet-bestaande jurisprudentie. Advocatie. advocatie.nl/nieuws/rechtbank-rotterdam-berispt-ad...

Agnew, W., McKee, K. R., Gabriel, I., Kay, J., Isaac, W., Bergman, A. S., & Mohamed, S. (2023). Technologies of resistance to AI. Equity and Access in Algorithms, Mechanisms, and Optimization, 1-13.Reyes-Cruz, G., Spors, V., Muller, M., Ciolfi Felice, M., Bardzell, S., Williams, R. M., ... & Feldfeber, I. (2025, April). Resisting AI Solutionism: Where Do We Go From Here?. In Proceedings of the Extended Abstracts of the CHI Conference on Human Factors in Computing Systems (pp. 1-6).

AI Now Institute (2025, June 3). 1.3: AI Arms Race 2.0: From Deregulation to Industrial Policy. AI Now Institute. ainowinstitute.org/publications/research/1-3-ai-ar...

Anderl, Christine, Stefanie H. Klein, Büsra Sarigül, Frank M. Schneider, Junyi Han, Paul L. Fiedler, and Sonja Utz. 2024. ‘Conversational Presentation Mode Increases Credibility Judgements during Information Search with ChatGPT’. Scientific Reports 14 (1). Nature Publishing Group: 17127. https://doi:10.1038/s41598-024-67829-6

Arun, A. (2025, November 12). Bubble or Nothing. Center for Public Enterprise. publicenterprise.org/report/bubble-or-nothing/...

Avraamidou, L. (2024). Can we disrupt the momentum of the AI colonization of science education?. Journal of Research in Science Teaching, 61(10), 2570-2574.

Bara, M. (2025, November 5). The Hidden Cost of AI at Work: Why ‘Workslop’ Is Quietly Undermining Productivity. Medium.ai.plainenglish.io/the-hidden-cost-of-ai-at...

Baumer, E. P. S., & Silberman, M. S. (2011, May 7). When the implication is not to design (technology). Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. CHI ’11: CHI Conference on Human Factors in Computing Systems, Vancouver BC Canada. https://doi.org/10.1145/1978942.1979275

Birhane, A. (2021). Algorithmic injustice: a relational ethics approach. Patterns, 2(2).

Birhane, A. & Guest, O. (2021). Towards Decolonising Computational Sciences. Women, Gender & Research. https://doi.org/10.7146/kkf.v29i2.124899

Birhane, A., Kalluri, P., Card, D., Agnew, W., Dotan, R., & Bao, M. (2022, June). The values encoded in machine learning research. In Proceedings of the 2022 ACM conference on fairness, accountability, and transparency (pp. 173-184).

Birhane, A., Ruane, E., Laurent, T., S. Brown, M., Flowers, J., Ventresque, A., & L. Dancy, C. (2022, June). The forgotten margins of AI ethics. In Proceedings of the 2022 ACM conference on fairness, accountability, and transparency (pp. 948-958).

Bradford, A. (2024). The false choice between digital regulation and innovation. Nw. UL Rev., 119, 377.

Chougule, Amit, et al. (2023) A comprehensive review on limitations of autonomous driving and its impact on accidents and collisions." IEEE Open Journal of Vehicular Technology 5, 142-161.

Crawford, K. (2021). The atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Dingemanse, M. (2025, July 3). Waarom ik niet instem met het onderhandelingsakkoord voor de CAO universiteiten – The Ideophone. ideophone.org/waarom-ik-niet-instem-met-het-onderh...

Dobbe, R. (2023, November 22). ‘Safety Washing’ at the AI Safety Summit in the UK. Dutch version: iBestuur. ibestuur.nl/data-en-ai/toepassingen/safety-washing... English version: Linkedin. linkedin.com/pulse/safety-washing-ai-summit-roel-d...

Dobbe, R. (2025). AI Safety is Stuck in Technical Terms—A System Safety Response to the International AI Safety Report (No. arXiv:2503.04743). arXiv. https://doi.org/10.48550/arXiv.2503.04743

Dobbe, R. (2025, July 25). Opinie | De vloek van AI. NRC. nrc.nl/nieuws/2025/07/25/de-vloek-van-ai-a4901292...

The Economist (2025, November 26). Investors expect AI use to soar. That’s not happening. (n.d.). The Economist. Retrieved December 2, 2025, from economist.com/finance-and-economics/2025/11/26/inv...

El-Sayed, S., Kickbusch, I., & Prainsack, B. (2025). Data solidarity: Operationalising public value through a digital tool. Global Public Health, 20(1), 2450403.

Erscoi, L., Kleinherenbrink, A., & Guest, O. (2023). Pygmalion Displacement: When Humanising AI Dehumanises Women. SocArXiv. https://doi.org/10.31235/osf.io/jqxb6

Franklin, U. M. (1999). The Real World of Technology. CBC Massey Lectures. Toronto: Anansi.

Gamazaychikov, B., & Luccioni, S. (2025, November 10). ⚡ Power, Heat, and Intelligence ☁️—AI Data Centers Explained 🏭. Hugging Face. huggingface.co/blog/sasha/ai-data-centers-explaine...

Gebru, T., & Torres, É. P. (2024). The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence. First Monday.

Government of the Netherlands. (2024). Government-wide vision on generative AI of the Netherlands. [Kamerstuk]. government.nl/documents/parliamentary-documents/20...

Green Screen Coalition. (2025, February 5). Within Bounds: Limiting AI’s environmental impact. Green Screen Coalition. https://greenscreen.network/en/blog/within-bounds-limiting-ai-environmental-impact/

Guest, O. (2025). What does “Human-Centred AI” mean? arXiv. https://doi.org/10.48550/arXiv.2507.19960

Guest, O., Suarez, M., & van Rooij, I. (2025). Towards Critical Artificial Intelligence Literacies. Zenodo. https://doi.org/10.5281/zenodo.17786243

Guest, O., Suarez, M., Müller, B., van Meerkerk, E., Oude Groote Beverborg, A., de Haan, R., Reyes Elizondo, A., Blokpoel, M., Scharfenberg, N., Kleinherenbrink, A., Camerino, I., Woensdregt, M., Monett, D., Brown, J., Avraamidou, L., Alenda-Demoutiez, J.,Hermans, F., & van Rooij, I. (2025). Against the Uncritical Adoption of “AI” Technologies in Academia. Zenodo. https://doi.org/10.5281/ZENODO.17065099

Hao, K. (2022). An MIT Technology Review Series: AI Colonialism. MIT Technology Review. technologyreview.com/supertopic/ai-colonialism-sup...

Hao, K. (2025). Empire of AI: Dreams and nightmares in Sam Altman's OpenAI. Penguin Group.

Heikkilä M (2022), “Dutch Scandal Serves as a Warning for Europe over Risks of Using Algorithms,” Politico.politico.eu/article/dutch-scandal-serves-...

Illich, I. (1973). Tools for Conviviality. Open Forum. London: Calder and Boyars.

International Energy Agency (2025) Energy and AI – Analysis. (2025, April 10). IEA. https://www.iea.org/reports/energy-and-ai

Investors expect AI use to soar. That’s not happening. (2025). The Economist. Retrieved December 2, 2025, from economist.com/finance-and-economics/2025/11/26/inv...

Jeyaretnam, M. (2025, August 13). Using AI Made Doctors Worse at Spotting Cancer Without Assistance. TIME.time.com/7309274/ai-lancet-study-artificial-i...

JimĂŠnez Arandia, P., Dib, D., & AlarcĂłn, M. (2025, August 8). The Backyard of AI: A Map of the 21st Century Gold Rush. Pulitzer Center. pulitzercenter.org/stories/backyard-ai-map-21st-ce...

Leveson, N. G. (2011). Engineering a safer world: Systems thinking applied to safety. The MIT Press.library.oapen.org/handle/20.500.12657/26043...

McQuillan, D. (2022). Resisting AI: An anti-fascist approach to artificial intelligence. Policy Press.

MĂźgge, D., Paul, R., & Stan, V. (2025). The AI matrix: Profits, power, politics. Agenda Publishing.

Munn, L. (2024). Digital labor, platforms, and AI. Introduction to Digital Humanism: A Textbook, 557–569.

Murray-Rust, D., Alfrink, K., & Zaga, C. (2025). Towards Meaningful Transparency in Civic AI Systems. arXiv preprint arXiv:2510.07889.

NDP Nieuwsmedia. (2025, November 20). Media sturen informateur brandbrief: “Techbedrijven bedreigen democratie ernstig.” NU. nu.nl/media/6376559/media-sturen-informateur-brand...

Netbeheer Nederland (2025). Netbeheer Nederland Scenario’s Editie 2025. (2025, May 14). netbeheernederland.nl/artikelen/nieuws/netbeheer-n...

NOS (2025, May 22). Nieuw onderzoek: AI verbruikt 11 tot 20 procent van wereldwijde stroom datacenters. (2025, May 22). nos.nl/nieuwsuur/artikel/2568297-nieuw-onderzoek-a...

O’Neil, C. (2017), Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (Crown).PublicSpaces. (2025). PublicSpaces.net. Retrieved December 2, 2025, from https://publicspaces.net

Preda, A. (2025). Special Report: AI-Induced Psychosis: A New Frontier in Mental Health. Psychiatric News. https://doi.org/10.1176/appi.pn.2025.10.10.5

Rathenau Instituut (2024). Politici en beleidsmakers moeten aan de slag met risico’s van generatieve AI. Den Haag.

Reuters. (2025, September 16). Netherlands will highly likely miss 2030 climate goal, experts say. Reuters. reuters.com/sustainability/cop/netherlands-will-hi...

Ricaurte, Paola (2022). “Ethics for the majority world: AI and the question of violence at scale”. In: Media, Culture & Society 44.4, pp. 726–745.

Rolnick, D., Donti, P. L., Kaack, L. H., Kochanski, K., Lacoste, A., Sankaran, K., ... & Bengio, Y. (2022). Tackling climate change with machine learning. ACM Computing Surveys (CSUR), 55(2), 1-96.

Shrishak, K. (2025, November 14). European Commission breaches own AI guidelines by using ChatGPT in public documents. Irish Council for Civil Liberties. iccl.ie/news/european-commission-breaches-own-ai-g...

Stengers, I. (2018). Another science is possible. Cambridge, UK: Polity.

Suarez, M., MĂźller, B., Guest, O., & Van Rooij, I. (2025, June 12). Critical AI Literacy: Beyond hegemonic perspectives on sustainability [Substack newsletter]. Sustainability Dispatch. https://doi.org/10.5281/zenodo.15677840

Suchman, Lucy A. (2019). ‘Demystifying the Intelligent Machine’. In Cyborg Futures: Cross-Disciplinary Perspectives on Artificial Intelligence and Robotics, edited by Teresa Heffernan, 35–61. Social and Cultural Studies of Robots and AI. Cham: Springer International Publishing. https://doi:10.1007/978-3-030-21836-2_3

Suchman, L. (2023). The uncontroversial ‘thingness’ of AI. Big Data & Society, 10(2), 20539517231206794. https://doi.org/10.1177/20539517231206794

Taylor, J., & reporter, J. T. T. (2025, August 2). AI chatbots are becoming popular alternatives to therapy. But they may worsen mental health crises, experts warn. The Guardian. theguardian.com/australia-news/2025/aug/03/ai-chat...

van Rooij, I., Guest, O., Adolfi, F., De Haan, R., Kolokolova, A., & Rich, P. (2024). Reclaiming AI as a Theoretical Tool for Cognitive Science. Computational Brain & Behavior, 7(4), 616–636. https://doi.org/10.1007/s42113-024-00217-5

van Rooij, I. (2025) AI slop and the destruction of knowledge. Zenodo. https://doi.org/10.5281/zenodo.16905560

Verhagen, L. (2025, November 22). De AI-industrie buit mens en aarde uit, zoals de nootmuskaatwinning dat eerder deed, zegt Nederlandse expert. de Volkskrant. volkskrant.nl/tech/de-ai-industrie-buit-mens-en-aa...

Vincent, N., Li, H., Tilly, N., Chancellor, S., & Hecht, B. (2021, March 3). Data leverage: A framework for empowering the public in its relationship with technology companies. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. FAccT ’21: 2021 ACM Conference on Fairness, Accountability, and Transparency, Virtual Event Canada. https://doi.org/10.1145/3442188.3445885

Weidinger, L., Mellor, J., Rauh, M., Griffin, C., Uesato, J., Huang, P. S., & Gabriel, I. (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

Williams, R. M. (2025). AI’s Eugenic Legacies, Our Disabled Future: We’re Wrong About What’s in This Book. In Disabling Intelligences: Legacies of Eugenics and How We are Wrong about AI (pp. 1-13). Cham: Springer Nature Switzerland.

Williams, A., and M. Miceli. "Data Work and its Layers of (In) visibility." JustTech. Social Science Research Council (2023).

Zaga, C., & Lupetti, M. L. (2022). Diversity equity and inclusion in embodied AI: reflecting on and re-imagining our future with embodied AI. 4TU. Federation.

301
signatures
282 geverifieerd
  1. dr. ir. Cristina Zaga, Assistant Professor, University of Twente, Enschede
  2. Roel Dobbe, Assistant Professor, TU Delft, Delft
  3. drs. Wiep Hamstra, Expert overheidsdienstverlening en -communicatie, Den Haag
  4. Iris van Rooij, Professor, Cognitive Science and AI, Radboud University, Nijmegen
  5. Lilian de Jong, Dutch AI Ethics Community / Stichting Toekomstbeeld der Techniek, Nijmegen
  6. Wouter Nieuwenhuizen, Researcher, Rathenau Instituut, The Hague
  7. M. Dingemanse, Hoogleraar AI, Taaldiversiteit en Communicatie, Radboud Universiteit
  8. Peter Troxler, Lector, Hogeschool Rotterdam, Rotterdam
  9. Jelte van Waterschoot, Researcher, Saxion University of Applied Sciences, Enschede
  10. Lieke Wouters, co-directeur en curator, stichting Platform POST, Nijmegen
  11. Jelle Van Dijk, Onderzoeker, Universiteit Twente, Utrecht
  12. Wladimir Mufty, Programmamanager Digitale Soevereiniteit, SURF, Utrecht
  13. Robert-Jan den Haan, Universitair docent, Universiteit Twente, Enschede
  14. Maartje de Graaf, Associate Professor of Human-Computer Interaction, Utrecht University, Utrecht
  15. Hans Parić- Schermer, I-adviseur, Gemeente Zoetermeer, Rotterdam
  16. Laurens Vreekamp, Journalist, Future Journalism Today, Arnhem
  17. Joost Elshoff, Informatiemanager, Zuyd Hogeschool, Heerlen
  18. Gerben de Vries, AI Research Engineer, Hilversum
  19. Pascal Wiggers, Lector Responsible IT, Hogeschool van Amsterdam, Amsterdam
  20. Paul Peters, Principal Architect ¡ Change Agent ¡ Interim CTO, Fluxology++
...
242 more
verified signatures
  1. Janina Schaumann, Asst. Prof., University, Enschede
  2. Samaa Mohammad-Ulenberg, Advisor Digital Ethics and AI Governance / Co-founder, Freelance / Dutch AI Ethics Community, Utrecht
  3. Ashwin van Gool, Mathematics Teacher, Rotterdam
  4. Ingrid Kock, Manager, Houten
  5. Jeroen Linssen, Lector Symbiotic AI, Saxion University of Applied Sciences, Deventer/Ensch
  6. Iohanna nicenboim, Postdoctoral researcher, TU Delft, Rotterdam
  7. Rosalie Arendt, Assistant Professor, University of Twente
  8. Dani Shanley, Assistant Professor, Maastricht University, Maastricht
  9. Marije Brom, Program manager/Senior Researcher, Hogeschool Rotterdam, Rotterdam
  10. Yvonne Blokland, Programme Manager, Vrije Universiteit Amsterdam
  11. Daniel Davison, Lab Technician, University of Twente, Enschede
  12. Tricia Griffin, Lecturer, Maastricht University, Maastricht
  13. Pieter du Plessis, PhD Candidate, Universiteit Maastricht, Maastricht
  14. Martijn Schornagel, Graphic – UX designer, Momono Ontwerpwerk, Haarlem
  15. Frank Kresin, Decaan vd Faculteit Digitale Media & Creatieve Industrie, HvA, Amsterdam
  16. Saloni Singh, Phd, Vrije university Amsterdam, Amsterdam
  17. Marcel Schouwenburg, Founder & CTO, Claustrum.^science
  18. Michiel van der Meer, Postdoctoral Researcher, Leiden University, Leiden
  19. Carlos Hernandez COrbato, Associate professor, Delft University of Technology, Delft
  20. Baisong Liu, Robotic Researcher, Technology University of Eindhoven, Eindhoven