De discussie over kunstmatige intelligentie (AI) wordt vaak gedomineerd door grootse beloftes en doemscenario’s. AI zou in korte tijd sectoren fundamenteel veranderen, banen overbodig maken of juist enorme efficiëntiewinsten opleveren. In de praktijk blijkt de werkelijkheid weerbarstiger. Afgelopen week las ik hierover weer enkele interessante berichten die elk vanuit een ander perspectief naar deze uitdaging kijken en samen een genuanceerd beeld schetsen.
Jessica Workum, een van de AI-boegbeelden in de zorg, stelt dat er zeven grote barrières zijn die ervoor zorgen dat 98 procent van de AI-modellen nooit de praktijk bereikt. Het gaat om inadequate probleemdefinitie, gebrek aan externe validatie, te weinig prospectieve studies, trage regelgeving, gebrekkige workflow-integratie, wantrouwen bij professionals en een beperkt financieel rendement. Haar kernvraag: “What would you do differently with this AI insight? If the answer is nothing, don’t build it.” Workum laat zien dat veel AI-modellen stranden nog vóórdat ze betekenis krijgen in het werk van professionals of de ervaring van burgers.
Eva Deckers, ook werkzaam in de zorg, sluit daarbij aan vanuit haar praktijk. Zij schetst hoe de dagelijkse realiteit wordt gekenmerkt door versnipperde technologie, vendor lock-in en dataproblemen. AI dreigt dit eerder te verergeren dan op te lossen. Ze benadrukt dat succesvolle implementatie niet begint bij het kiezen van een applicatie, maar bij het op orde brengen van de basis: data beschikbaar maken, definities afspreken en een platform bouwen. “So far I was always told I was too far ahead… maybe for now I just enjoy the experience of being slow. Because slow isn’t bad – it’s deliberate.” Waar Workum de barrières benoemt, laat Decker zien hoe traagheid juist een bewuste strategie kan zijn.
Maurits Martijn, journalist bij De Correspondent, verwijst in het artikel ‘De realiteit zit de beloofde AI-revolutie nog wel even in de weg‘ naar wetenschappers als Arvind Narayanan en Sayash Kapoor, die stellen dat AI zich ontwikkelt als een normale technologie. Niet de technische capaciteit bepaalt het tempo van verandering, maar instituties, politiek en economie. Net als eerdere technologieën zal AI de samenleving veranderen, maar pas op termijn en vooral wanneer productieprocessen en organisatievormen mee transformeren. Deze discussie over AI als normale technologie werd eerder deze week ook gevoerd naar aanleiding van een artikel in het Eindhovens Dagblad. In mijn reactie op LinkedIn stelde ik dat AI in veel opzichten vergelijkbaar is met technologieën als de stoommachine of elektromotor, die decennia nodig hadden om door te dringen. Tegelijkertijd benadrukte ik dat AI géén normale technologie is wanneer je kijkt naar de verborgen kosten van AI en de invloed op ons denken en handelen.
Het MIT-rapport The GenAI Divide, gepubliceerd onder de NANDA-initiative, kreeg de afgelopen periode opvallend veel aandacht in de media. Het laat zien dat 95 procent van de generatieve AI-projecten strandt in de pilotfase en geen meetbare impact oplevert. Ondanks miljardeninvesteringen slagen slechts enkelen erin waarde te realiseren. De kloof tussen hoge adoptie en lage transformatie wordt verklaard door gebrekkige workflow-integratie, tools die niet leren van feedback en verkeerde investeringspatronen. Het rapport onderstreept dat de implementatieproblematiek niet sectorspecifiek is, maar een breed patroon vormt in vrijwel alle domeinen.
Wat al deze analyses gemeen hebben, is dat ze wijzen op een dieper liggend probleem bij de implementatie van AI: organisaties zijn vaak zelf onvoldoende duidelijk over hun processen en doelen. Simone Cicero introduceerde hiervoor het begrip semantische schuld: de erfenis van vage definities, inconsistent taalgebruik en onduidelijke processen. Juist bij implementatie van AI wordt die semantische schuld goed zichtbaar: modellen hallucineren of leveren geen waarde omdat er geen heldere context of probleemdefinitie is. Dat maakt de stap van optimalisatie naar echte transformatie lastig. Zoals Eva Decker benadrukt, begint alles bij fundamenten, maar die fundamenten zijn niet alleen technologisch, ze zijn ook semantisch. Zonder duidelijkheid over processen, doelen en problemen is het lastig komen tot visie en beleid en zetten organisaties AI blind in, met alle risico’s van dien.
Gezamenlijk laten deze perspectieven zien dat organisaties zich niet moeten laten meeslepen door de snelheid van de hype, maar moeten werken aan zorgvuldige adoptie. De belangrijkste conclusies zijn dat AI pas waardevol wordt als het ingebed raakt in workflows en infrastructuur, dat investeren in de fundamenten cruciaal is, dat maatschappelijke en economische adaptatie altijd trager verloopt dan de technologische ontwikkelingen en dat organisaties moeten leren van de hoge faalkans van pilots. De aanbeveling is daarom om bestuurders en beleidsmakers te helpen balanceren tussen versnellen en vertragen: ruimte geven voor experimenten, maar tegelijk investeren in de voorwaarden die duurzame toepassing mogelijk maken.
Concreet advies voor een AI-strategie
Een AI-strategie begint bij helderheid over hoe we werken, wie waarvoor verantwoordelijk is en wat we willen bereiken. Organisaties die hun eigen functioneren onvoldoende scherp hebben gedefinieerd, lopen het risico dat AI vooral verwarring toevoegt in plaats van waarde. De startvraag is daarom altijd: welk probleem willen we precies oplossen, en wat moet er concreet veranderen in ons handelen, onze dienstverlening of besluitvorming?
Daarna is het nodig te investeren in stevige fundamenten. Dat betekent in de eerste plaats: betrouwbare en goed beheerde data, met duidelijke definities, eigenaarschap en toegangsrechten. In de tweede plaats: een infrastructuur die integratie en schaalbaarheid mogelijk maakt, zodat toepassingen niet op eilanden blijven hangen. En in de derde plaats: afspraken en processen waarin verantwoordelijkheden helder zijn belegd, zodat altijd duidelijk is wie beslist, wie toezicht houdt en wie aanspreekbaar is op uitkomsten. Zonder dit fundament blijven pilots losse experimenten die niet verder komen dan een demonstratie.
AI ontwikkelt zich in hoog tempo en niemand kan vooraf voorspellen wat wel en niet gaat werken. Organisaties moeten daarom sandbox-omgevingen creëren waar veilig kan worden getest, waar pilots ook mogen mislukken en waar de nadruk ligt op leren in plaats van succesrapportage. Experimenten zijn geen eindpunt, maar een iteratief leerinstrument dat inzicht oplevert voor beleid en strategie. Het helpt daarbij om vooraf criteria te formuleren: wat betekent “waardevol” voor ons? Wanneer stoppen we, en wanneer schalen we op?
Op korte termijn kan AI al waardevol zijn bij ondersteunende taken, denk daarbij aan samenvatten van documenten, analyseren van datasets of structureren van informatie. Zulke toepassingen verlichten de werkdruk en vergroten het vertrouwen bij gebruikers. Op middellange termijn is het echter essentieel te investeren in standaardisatie van data en het kritisch herontwerpen van processen. Zonder die stap blijft AI een verzameling losse toepassingen die moeilijk opschaalbaar zijn. Pas op de lange termijn ontstaat de mogelijkheid tot structurele verandering: het opnieuw inrichten van waardeketens, het verschuiven van taken tussen mens en machine en het ontwikkelen van nieuwe vormen van dienstverlening of bedrijfsmodellen. De digitale transformatie.
Een AI-strategie vraagt om adaptief leiderschap. Niet één dichtgetimmerd masterplan, maar een proces waarin ruimte is om koers bij te stellen, nieuwe mogelijkheden te verkennen en bewust te vertragen waar dat nodig is. Leiders die experiment en reflectie organiseren, die leren van mislukkingen en de moed hebben om pilots te stoppen of juist te versnellen, scheppen de voorwaarden voor echte transformatie. Hun rol is om de balans te bewaken: kansen stimuleren, maar tegelijk investeren in de basis die duurzame toepassing mogelijk maakt.
1 reactie
Zie ook mijn LinkedIn-bericht:
https://www.linkedin.com/posts/mderksen_digitaletransformatie-leiderschap-ai-activity-7367525737945260032-DSn2