Overheden staan onder druk om kunstmatige intelligentie (AI) in te zetten. De belofte is groot: meer efficiëntie, betere dienstverlening en datagedreven besluitvorming. Tegelijkertijd roept dit vragen op over transparantie en verantwoordelijkheid. Elja Daae wees mij op LinkedIn op het artikel A Moral Agency Framework for Legitimate Integration of AI in Bureaucracies van Chris Schmitz en Joanna Bryson. Het onderzoekt hoe AI legitiem kan worden geïntegreerd in bureaucratische organisaties zonder dat verantwoordelijkheid verdwijnt in wat zij een ethics sink noemen.
De auteurs bouwen voort op het denken van Max Weber over bureaucratie als een systeem van rationaliteit en verantwoording. Weber zag bureaucratie als een “machine” die door hiërarchie, regels en transparantie politieke besluiten uitvoerbaar maakt. Volgens Schmitz en Bryson dreigt de introductie van AI dit systeem te verstoren, doordat AI vaak wordt gepresenteerd als autonoom en daarmee verantwoordelijkheidslijnen kan vertroebelen. Zij stellen dat dit geen onvermijdelijk gevolg is van AI, maar een resultaat van bewuste keuzes in ontwerp en implementatie: “constructs leading to unattributed accountability in bureaucracies — which we term ‘ethics sinks’ — are the result of design decisions” (p. 1).
Een belangrijk onderdeel van hun analyse is het onderscheid tussen drie manieren om AI te positioneren. Ten eerste als tool: een instrument dat de mens gebruikt, al schuurt dit beeld door de schaal en autonomie van huidige AI-systemen. Ten tweede als moreel subject: een actor die zelf verantwoordelijkheid draagt. Dat wijzen de auteurs af, omdat AI geen duurzame gevoeligheid voor beloning en straf kent. Ten derde als infrastructuur: een verlengstuk van de bureaucratie zelf, “the muscles, sinews and ligaments of a bureaucracy” (p. 8). Deze derde positie achten zij het meest vruchtbaar. AI vergroot de handelingsruimte van menselijke ambtenaren, maar neemt hun verantwoordelijkheid nooit over.
Concreet werken de auteurs dit uit in een Moral Agency Framework met drie uitgangs-punten:
- Behoud altijd duidelijke en rechtvaardige menselijke verantwoordingslijnen.
- Zorg dat ambtenaren kunnen verifiëren of een systeem correct functioneert, ook als de technische werking niet volledig transparant is.
- Zet AI alleen in wanneer dit de twee kerndoelen van bureaucratie niet schaadt: legitimiteit (het uitvoeren van de democratische wil) en stewardship (het waarborgen van stabiliteit en continuïteit).
De auteurs illustreren dit met voorbeelden van kwetsbaarheid. Zo kan de inzet van identieke AI-systemen de diversiteit van morele afwegingen bij ambtenaren verminderen, waardoor het vermogen om complexe situaties zorgvuldig te beoordelen afneemt. Daarnaast kan sterke afhankelijkheid van één technologie of leverancier de veerkracht van een organisatie verzwakken en zelfs leiden tot politieke chantage of discontinuïteit wanneer een product wordt stopgezet.
Conclusies en aanbevelingen
De inzet van AI in de bureaucratie hoeft geen bedreiging te zijn voor legitimiteit en verantwoording, maar dat vergt bewuste ontwerpkeuzes. Schmitz en Bryson benadrukken dat AI nooit als moreel subject mag worden gezien: verantwoordelijkheid ligt altijd bij mensen en instellingen. Tegelijkertijd erkennen zij dat AI de verdeling van die verantwoordelijkheid verandert. Hun advies is om AI te behandelen als onderdeel van de institutionele infrastructuur, vergelijkbaar met regels of procedures, en om toezicht en verificatie centraal te stellen.
Als AI verkeerd wordt ingezet, kan dit leiden tot administrative evil (p. 10), waarbij bureaucratische structuren juist misbruikt worden voor schadelijke doelen. Daarom is voortdurende aandacht voor ontwerp, toezicht en toetsing essentieel. Of AI legitimiteit versterkt of juist ondergraaft, hangt uiteindelijk niet af van de technologie zelf, maar van de keuzes die overheden maken.
Elja Daae wees er in haar recensie terecht op dat het artikel waardevol is door de focus op legitimiteit en verantwoordelijkheid, maar dat er nog weinig verbinding wordt gelegd met de praktijk van algoritmische besluitvorming en concrete beleidsvoorbeelden. Juist daar ligt een kans om de abstracte noties van legitimiteit en stewardship tastbaar te maken voor overheden die nu worstelen met kaders voor AI.
Schmitz reageert daarop met een verwijzing naar een vervolgstudie waarin hij en zijn collega’s het morele raamwerk verder uitwerken richting praktische implementatie. Zij formuleren drie richtlijnen voor het inrichten van toezicht:
- Ontwerp observatietools die bruikbaar zijn voor zowel technische experts als domeinexperts.
- Bouw interfaces die aansluiten bij de logica en taal van niet-technische ambtenaren.
- Houd rekening met legacy-systemen door altijd fallback-mechanismen voor menselijk toezicht te voorzien.
Waar het eerste artikel vooral waarschuwt voor het gevaar van ethics sinks, laat dit vervolg zien hoe moeilijk het is zulke principes in te bedden binnen bestaande bureaucratische structuren. De essentie is dat moreel agency alleen houdbaar blijft als toezicht en coördinatie structureel worden herontworpen.
Bronnen:
- Weber, M. (1921/1978). Economy and Society: An Outline of Interpretive Sociology. University of California Press.
- Floridi, L., & Sanders, J. (2004). On the Morality of Artificial Agents. Minds and Machines, 14(3), 349–379.
- Schmitz, C., & Bryson, J. (2025). A moral agency framework for legitimate integration of AI in bureaucracies. arXiv.
- Schmitz, C., Rystrøm, J., & Batzner, J. (2025, July). Oversight structures for agentic AI in public-sector organizations. In E. Kamalloo, N. Gontier, X. H. Lu, N. Dziri, S. Murty, & A. Lacoste (Eds.), Proceedings of the 1st Workshop for Research on Agent Language Models (REALM 2025) (pp. 298–308). Association for Computational Linguistics.
3 reacties
In reactie op het bericht van Elja Daae, verwijst Joost Gerritsen naar een post van Stefan Eder die benadrukt dat het gevaar niet alleen in de techniek schuilt, maar ook in de taal waarmee we AI duiden. Door systemen te framen als “agents” ontstaat de indruk dat zij zelf verantwoordelijkheid dragen, terwijl zij juridisch en ethisch niets meer zijn dan geavanceerde tools. In domeinen als recht, zorg en overheid is dat onderscheid cruciaal: aansprakelijkheid en verantwoording kunnen niet worden gedelegeerd aan software. De boodschap sluit direct aan bij Schmitz en Bryson: alleen door AI consequent als instrument binnen menselijke verantwoordelijkheid te plaatsen, blijft legitimiteit behouden.
Beetje off-topic, maar als we dan toch bezig zijn met bureaucratie: Felienne Hermans laat in haar nieuwsbrief over bureaucratie op een ironische maar ook pijnlijke manier zien hoe bureaucratie in de praktijk wordt ervaren als een opeenstapeling van systemen en regels. Haar observaties maken duidelijk hoe problematisch het zou zijn als zulke logica’s verder geautomatiseerd worden en beslissingen aan AI-systemen zouden worden overgelaten.
Een recente artikel van Feng, McDonald en Zhang (2025) sluit hier goed op aan. Zij laten zien dat autonomie van AI-systemen geen vaststaand technisch gegeven is, maar een ontwerpbeslissing.
In hun raamwerk onderscheiden zij vijf niveaus van autonomie, variërend van de gebruiker als operator tot de gebruiker als louter observator. Daarmee maken zij concreet hoe ontwikkelaars en organisaties de mate van autonomie bewust kunnen kalibreren. Interessant is hun voorstel voor zogeheten autonomiecertificaten, waarmee een onafhankelijke instantie kan vastleggen tot welk niveau een systeem mag opereren, en hun methode van assisted evaluation om autonomie los van technische capaciteit te meten. Waar Schmitz en Bryson vooral normatief waarschuwen voor het verdwijnen van verantwoordelijkheid in een “ethics sink”, biedt dit artikel een praktisch instrumentarium om autonomie in te perken en bestuurbaar te maken.