Leiderschap in het AI-tijdperk: van techno-solutionism naar betekenisvolle toepassing

door Marco Derksen op 27 november 2025

Tijdens het Wolters Kluwer AIvolution Event op 6 november 2025 in Amsterdam presenteerde David De Cremer de sessie The AI-Savvy Leader: Hoe je de regie behoudt en AI voor je bedrijf laat werken. De Cremer is een wereldwijd toonaangevend denker en gedragswetenschapper, met een bijzondere interesse in het managen en leiden van individuele en organisatorische transformaties in het AI-tijdperk. Volgens hem mislukken veel AI-initiatieven niet door technische beperkingen, maar door een gebrek aan leiderschap, betekenisgeving en organisatorisch leervermogen.

Van AI-hype naar leiderschapscrisis
De Cremer opent met een eenvoudige constatering waar bijna iedereen in de zaal zich in herkent: iedereen heeft van AI gehoord, maar bijna niemand begrijpt het echt. Tegelijkertijd is AI overal: in de media, in directiekamers en in economische voorspellingen. PwC voorspelt dat AI rond 2030 ruim vijftien biljoen dollar bijdraagt aan de wereldeconomie, ongeveer veertien procent van het wereldwijde bruto binnenlands product.

Die belofte staat haaks op wat we nu in de praktijk zien. Uit onderzoek van BCG blijkt dat driekwart van de bedrijven moeite heeft om met AI daadwerkelijk waarde te realiseren. Uit onderzoek van de RAND Corporation blijkt dat ongeveer tachtig procent van de AI-adoptieprojecten faalt. Dat percentage ligt ongeveer twee keer zo hoog als bij andere grote IT-projecten. RAND en De Cremer duiden dit nadrukkelijk als falend leiderschap: bestuurders die hun verantwoordelijkheid laten liggen en AI te vaak overlaten aan IT-afdelingen en leveranciers.

De semantiek van AI
De Cremer laat zien dat veel problemen beginnen bij de taal die we rondom AI gebruiken. Taal doet ertoe, en semantiek is een manier om te begrijpen hoe organisaties denken en handelen.

Een belangrijk onderscheid dat hij maakt is dat tussen AI-driven en AI-enabled. Veel bestuurders kondigen trots aan dat hun organisatie AI-driven wordt. In dat frame komt AI achter het stuur te zitten en belanden mensen op de passagiersstoel. De strategie wordt dan een automatiseringsreflex: AI moet overal worden ingezet om de concurrentie bij te houden. De Cremer laat zien dat er in dat verhaal ongemerkt een waardeoordeel meeklinkt. Als AI de strategie is, worden kenniswerkers gezien als kostenposten die je kunt vervangen. Angst en weerstand nemen toe, en er ontstaat een zero-sumlogica waarin mensen zich afvragen of hun baan op termijn naar AI verschuift.

Hij koppelt dit aan techno-solutionism: het idee dat technologie (tegenwoordig vooral AI) de oplossing is voor bijna elk probleem. De Cremer heeft samen met collega’s een schaal ontwikkeld om dat geloof te meten in tientallen landen. Landen als Turkije, Saudi-Arabië, India en Zuid-Korea scoren hoog. Nederland zit in het midden, België bungelt onderaan. De Cremer vertelt dit met een knipoog, maar maakt duidelijk dat een minder technofiele houding soms juist ruimte biedt voor doordachte toepassingen. Later in zijn verhaal gebruikt hij dit nogmaals om te laten zien dat blind enthousiasme voor technologie vaak leidt tot slechte beslissingen.

Een tweede semantische ingreep is zijn definitie van AI. Hij grijpt terug op Alan Turing en John McCarthy, maar benadrukt één woord: AI is een machine die op een intelligente manier lijkt te denken en te handelen. Dat woordje lijkt is voor hem cruciaal. Het herinnert ons eraan dat AI niet begrijpt, geen wereldbeeld heeft en geen moreel kompas. Het werkt op patronen en statistiek. Dat onderscheid is essentieel als hij later ingaat op het contrast tussen beslissingen die AI kan ondersteunen en keuzes die alleen mensen kunnen maken.

AI-adoptie als gedragsvraagstuk en change management
Volgens De Cremer wordt AI veel te vaak gezien als een technisch project. AI-adoptie kun je niet delegeren. Niet aan IT, niet aan consultants, niet aan leveranciers. Als leiders zich afzijdig houden en vooral budgetten goedkeuren, gaat het vrijwel zeker mis.

Hij beschrijft hoe de cyclus meestal verloopt. Bestuurders voelen de druk om niet achter te blijven, keuren budgetten goed en zetten AI prominent op de agenda. Daarna wordt het dossier vaak overgedragen aan IT, die logischerwijs kiest voor oplossingen waar ze zelf enthousiast van worden — vaak de meest shiny tools die hen persoonlijk aanspreken. De vraag of dit past bij de strategie, de klantrelaties, het werk van teams of de risico’s wordt dan naar de achtergrond geduwd. Het menselijke deel van verandering wordt beschouwd als iets dat vanzelf wel volgt als de technologie maar goed genoeg is.

Het onderzoek van RAND legt de oorzaken van falende AI-projecten nadrukkelijk bij leiderschap, governance en het ontbreken van duidelijke doelen. Daarnaast blijkt uit een enquête onder dataspecialisten dat ruim negentig procent culturele en veranderkundige obstakels ziet als de grootste hindernis voor datagedreven werken. Techniek staat helemaal onderaan.

Om dat te duiden gebruikt De Cremer de J-curve van verandering. Bij elke grote vernieuwing is er eerst een periode van dalende productiviteit en ongemak. Mensen moeten leren, aannames loslaten en fouten maken. Pas daarna komt de waardestijging. Hij legt daar een tweede J-curve bovenop: technologie zelf heeft tijd nodig om in te slijten in processen en verdienmodellen. Volgens hem onderkennen organisaties die dubbele J-curve te weinig. Dat zorgt ervoor dat bestuurders te snel conclusies trekken, projecten te vroeg stopzetten of op opportunistische wijze AI overal willen inzetten zonder helder doel.

Van engineering naar gedrag
De kern van zijn alternatief verwoordt De Cremer als de human–AI–human-loop. Hij legt uit dat AI alleen waarde oplevert als de mens zowel aan het begin als aan het einde van het proces staat. De mens schetst de context, formuleert het probleem en geeft richting. AI verwerkt de data en geeft analyse. Daarna keert de mens terug om te interpreteren, te beoordelen en te besluiten wat er gebeurt.

Hij waarschuwt voor het tegenovergestelde patroon: als je begint met een generiek AI-antwoord en dat achteraf probeert te rationaliseren, verlies je grip. Onderzoek laat zien dat mensen dan cognitief worden meegesleurd door het antwoord dat AI geeft. Daarmee verzwakt hun beoordelingsvermogen en onthouden ze minder van wat er werkelijk speelt. Volgens De Cremer leidt dat tot een brein dat lui wordt en sneller meegaat in wat een model suggereert, in plaats van kritisch te blijven.

Hier komt zijn onderscheid tussen decision en choice terug. Een beslissing is iets wat je kunt berekenen. Een keuze vraagt om waarden, context en verantwoordelijkheid. AI kan goed helpen bij berekeningen en voorspellingen, maar kan geen verantwoordelijkheid dragen voor keuzes die impact hebben op mensen. De morele last blijft dus altijd bij de mens liggen.

Wat AI níét ziet
Om te laten zien waar AI tekortschiet, gebruikt De Cremer illustraties die duidelijk maken dat AI geen werkelijk begrip heeft en geen wereldmodel bezit. Zoals het voorbeeld van een foto van een koe. Een AI-model ziet één lange koe. Iedereen in de zaal herkent meteen dat er meerdere koeien achter elkaar staan — niet omdat iemand dat uitrekent, maar omdat niemand een koe van vijf meter kent. De Cremer gebruikt dit om te laten zien dat AI observaties combineert zonder inzicht in hoe de wereld werkt.

De Cremer wijst erop dat taalmodellen in de kern stochastische voorspellingsmachines zijn: ze berekenen welk woord waarschijnlijk volgt op het vorige, zonder zich werkelijk een beeld te vormen van de situatie waarover ze schrijven.

Hetzelfde geldt voor de planeet Uranus, die door generatieve modellen soms wordt weergegeven als een fantasieachtige bol. AI mist intuïtie en achtergrondkennis. Ook optische illusies, zoals het woord science, laten zien dat AI beschrijft wat het ziet zonder verder te redeneren. Voor leiders is dit volgens De Cremer een essentieel punt: redeneren over onbekende situaties, dynamiek en context blijft een menselijke taak.

AI-savviness: artificial versus authentic diligence
De Cremer gebruikt het woord AI-savvy om het type leiderschap te beschrijven dat in de komende jaren nodig is. Hij legt uit dat AI-savviness begint bij een juist begrip van wat AI wel en niet is. Artificial intelligence noemt hij liever artificial diligence. Daarmee bedoelt hij dat AI vooral uitstekend is in patroonherkenning, dataverwerking en statistische analyse. Het doet precies het werk waar mensen vaak weinig geduld voor hebben of eenvoudig in verdwalen.

Daar tegenover staat authentic diligence: dat gaat over intuïtie, waarden, omgaan met onzekerheid, cultuur en empathie. Het Triple-A-model dat hij samen met Garry Kasparov ontwikkelde, zet beide naast elkaar en laat zien dat echte waarde pas ontstaat als kunstmatige en menselijke intelligentie elkaar versterken in de vorm van augmented intelligentie.

Hij benadrukt ook dat leiders moeten beseffen dat AI in een lab iets anders is dan AI in de praktijk. Demo’s van grote techbedrijven zijn indrukwekkend, maar worden gemaakt in gecontroleerde omgevingen zonder rommelige data, juridische risico’s en de onvoorspelbaarheid van klanten en medewerkers. Zodra AI in echte organisaties komt, neemt het risico snel toe. Dat maakt menselijke supervisie noodzakelijk. Volgens De Cremer zitten we voorlopig nog stevig in de fase van supervised AI, en is het onverstandig om te denken dat modellen zelfstandig complexe contexten aankunnen.

Arbeidsmarkt: de experience trap en instapbanen
De Cremer laat Amerikaanse arbeidsmarktdata zien die duidelijk maken dat vooral twintigers in instapfuncties geraakt worden door AI. Beroepen waar veel routinematig werk in zit — zoals klantenservice, junioranalisten of beginnende programmeurs — laten een duidelijke terugval zien in werkgelegenheid voor deze groep.

Hij koppelt dit aan onderzoek, zoals het Stanford-paper Canaries in the Coal Mine, waarin jonge werknemers in AI-exposed beroepen structureel slechter scoren op werkgelegenheid. De Cremer noemt dit de experience trap leading to death by automation. Organisaties schrappen eenvoudig instapwerk omdat AI het snel en goedkoop kan overnemen. Jongeren bouwen daardoor minder ervaring op. Op korte termijn levert dat efficiëntie op, op lange termijn ontstaat er een gat in de opvolging. Als de huidige generatie ervaren medewerkers met pensioen gaat, is er te weinig opgeleid talent om hen op te volgen.

Hij benadrukt daarom dat augmentatie niet alleen gaat over de combinatie van mens en technologie, maar over de combinatie van mens, ervaring en technologie. AI kan alleen waarde creëren als mensen voldoende inzicht en praktijkervaring hebben om de technologie betekenisvol in te zetten. Het doel is versterken, niet vervangen.

Leiderschap in drie lagen: idee, cultuur, praktijk
De Cremer stelt dat leiders AI op drie niveaus richting moeten geven:

Eerst moet AI een betekenisvol idee worden dat aansluit bij de missie en waarden van de organisatie. Visionair leiderschap is nodig om helder uit te spreken waarom AI ertoe doet. Hij noemt voorbeelden als JPMorgan Chase en Bosch, die AI niet als los experiment behandelen, maar integreren in hun visie op producten, dienstverlening en interne processen. Belangrijk is dat deze bedrijven AI koppelen aan klantwaarde, veiligheid, gemak en kwaliteit van dienstverlening — niet aan vervanging van mensen.

Daarna moet dat idee landen in de dagelijkse cultuur. Hier benadrukt De Cremer dat AI een ondersteuning is voor medewerkers. Mensen moeten begrijpen hoe het hun werk verandert en waarom. Hij beschrijft het transparantieprobleem waarbij medewerkers bang zijn om toe te geven dat ze AI gebruiken. Ze vrezen dat hun leidinggevende denkt dat ze afhankelijk zijn van technologie of minder competent. Volgens onderzoek worden mensen die openlijk AI gebruiken soms als minder betrouwbaar beoordeeld. Dat maakt het moeilijk om AI op een gezonde manier in het dagelijks werk te integreren.

Tot slot gaat het om de fase waarin AI een normaal onderdeel van het werk is. De Cremer benoemt communicatie, soft skills en ethiek als de belangrijkste voorwaarden.

Communicatie moet in alle richtingen lopen en zonder onnodige drempels. De Cremer vergelijkt het met een vliegtuig dat voortdurend moet landen en weer opstijgen. Dat gaat alleen goed als alle betrokkenen hun informatie direct delen en zich samen verantwoordelijk voelen voor een veilig en soepel proces. Zodra signalen blijven hangen in hiërarchische lagen of afdelingen, ontstaan risico’s en vertragingen. Precies dat mechanisme ziet hij ook terug bij AI: waarde ontstaat alleen als informatie snel circuleert en niemand afwacht.

Soft skills worden steeds belangrijker. Veerkracht, nieuwsgierigheid, kritisch denken en samenwerken over verschillende afdelingen heen bepalen of AI waarde oplevert. De Cremer noemt dit de feeling economy. In een wereld waar veel cognitief werk geautomatiseerd kan worden, verschuift waarde naar menselijke kwaliteiten.

Ethiek is daarbij een belangrijke pijler. Hij benadrukt dat discussies over ethiek niet mogen verdwijnen. Hij verwijst naar incidenten bij grote technologiebedrijven waar kritische AI-ethici zijn ontslagen. Volgens De Cremer is het juist bij AI noodzakelijk dat tegenspraak aanwezig blijft. Hij waarschuwt ook dat vertrouwelijke informatie nooit zonder bescherming in publieke AI-modellen moet worden gestopt. In beroepsgroepen zoals juristen en adviseurs kan dat direct tot schending van vertrouwelijkheid leiden.

Volgens De Cremer moet het denken over data en AI altijd beginnen bij het doel dat de organisatie wil bereiken. Data volgen de purpose, niet andersom. Dat is de essentie van AI-enabled werken.

Conclusies en aanbevelingen
De Cremer eindigt met een aantal take-aways die samen zijn visie vormen:

  • AI blijft, en het economische potentieel is groot, maar de komende tien jaar zullen vooral draaien om organisatieverandering. AI-adoptie is een gedragstraject dat tijd kost.
  • Leiders kunnen de regie over AI niet uitbesteden. De vraag die ertoe doet is waarom een organisatie AI wil inzetten en hoe dat past bij de waarden en de context van het werk. Daar ligt een verantwoordelijkheid die niemand anders kan dragen.
  • Succesvolle AI vraagt om een expliciete keuze voor augmentatie. Dat betekent investeren in mensen, en vooral in jonge medewerkers die ervaring nodig hebben om AI goed te kunnen toepassen. Het gaat niet om vervanging, maar om versterking: mensen, ervaring en technologie in samenhang.
  • Taal doet ertoe. Wie spreekt over AI-driven, automatische vervanging of totale automatisering creëert angst en verkeerde verwachtingen. De Cremer pleit voor een vocabulaire waarin AI een hulpmiddel is en mensen het middelpunt blijven.
  • Tot slot benadrukt hij dat AI-savvy leiders lerende leiders zijn. Het vraagt dagelijkse oefening om bij te blijven en om de juiste vragen te blijven stellen. In zijn eigen woorden: een keuze is niet hetzelfde als een beslissing. De verantwoordelijkheid ligt bij leiders, niet bij de technologie.

Verder lezen

3 reacties

Beantwoord

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.

Laatste blogs

Bekijk alle blogs (1301)
Contact