Gisteren wees Ethan Mollick op LinkedIn op een interessant commentaar van Daniel Kahneman tijdens een NBER-conferentie in 2017 en later opgenomen in het boek The Economics of Artificial Intelligence: An Agenda (2019). Het is interessant om nog eens stil te staan bij de visie op AI van de vorig jaar overleden Daniel Kahneman. Belangrijk om te benadrukken is dat zijn reactie dateert uit een periode waarin de impact van de huidige large language models als GPT, Claude en Gemini nog niet kon worden voorzien.
Kahneman stelt in zijn reactie dat menselijke oordelen sterk worden beïnvloed door ruis: willekeurige variatie waardoor mensen bij dezelfde informatie toch verschillende beslissingen nemen. Deze ruis acht hij belangrijker dan bias als bron van fouten. Omdat eenvoudige statistische modellen consistenter zijn dan menselijke experts, presteren zij volgens hem vaak beter. Op basis hiervan verwacht hij dat algoritmen, en later geavanceerde AI-systemen, veel vormen van menselijk oordeel kunnen verbeteren. Hij gaat verder dan voorspellende taken en suggereert dat systemen uiteindelijk ook beter kunnen worden in emotieherkenning, ondersteuning en brede, contextgevoelige besluitvorming.
“The main limitation on human performance is not bias, it is just noise,” aldus Kahneman, die zelfs de normatieve suggestie doet: “You should replace humans by algorithms whenever possible.” Ook stelt hij: “Frankly, I don’t see any reason to set limits on what AI can do,” waarmee hij aangeeft dat menselijke exclusiviteit in veel domeinen volgens hem niet vanzelfsprekend zal blijven. Een inzicht dat ik haal uit zijn latere interview bij Intelligence Squared in 2022 is dat algoritmen bias niet erger maken, maar juist zichtbaarder doordat zij hun oordeel consequent toepassen. Waar menselijke vooroordelen door ruis verhuld blijven, toont een algoritme precies welke patronen in het verleden zijn doorgegeven en welke gecorrigeerd moeten worden.
Zijn belangrijkste conclusie is dat ruisreductie een sterke reden vormt om algoritmen in te zetten wanneer betrouwbare oordelen nodig zijn. Tegelijk laat hij zien dat ruisreductie niet in alle domeinen wenselijk is: in rechtspraak, verzekeren of selectieprocessen is consistentie van belang, maar in politiek en waardeverschillen is het juist nodig dat er ruimte blijft voor diversiteit in oordelen. Zijn optimisme over de mogelijkheden van AI roept dan ook vragen op over autonomie, afhankelijkheid en de waarde van menselijke variatie. Het is belangrijk om niet alleen te kijken naar wat AI kan verbeteren, maar ook naar hoe menselijke waarden behouden blijven wanneer systemen mogelijk betere keuzes kunnen maken dan mensen zelf.
Daniel Kahneman on Making Intelligent Decisions in a Chaotic World | Intelligence Squared
Terugkijkend op Kahnemans latere interviews is het des te interessanter dat dit vroege commentaar uit 2017 in grote lijnen vooruitliep op wat hij in de laatste jaren van zijn leven steeds nadrukkelijker zou benadrukken.
In gesprekken met onder meer Lex Fridman en Yann LeCun verfijnde hij zijn visie op AI, maar veranderde die niet wezenlijk. Steeds opnieuw kwam hij terug op hetzelfde fundament: menselijke besluitvorming is structureel inconsistent door ruis, terwijl AI daar steeds minder last van heeft en dus in toenemende mate consistenter zal opereren dan mensen. Hij zag hoe snel deep learning vooruitging, verwachtte dat AI binnen één à twee decennia beter zou beoordelen dan CEO’s, en formuleerde zijn overtuiging uiteindelijk onomwonden: “Clearly AI is going to win.” Tegelijk wees hij op de maatschappelijke en psychologische uitdagingen die daarbij horen, van weerstand bij experts en leiders tot de vraag hoe mensen zich moeten aanpassen aan een wereld waarin systemen mogelijk betere keuzes voor hen maken dan zijzelf. Het enige dat ik mij daarbij dan weer afvraag is op basis van welke waarden.
Bronnen:
- Kahneman, D. (2019). Comment. In C. Camerer, Artificial Intelligence and Behavioral Economics. In A. Agrawal, J. Gans, & A. Goldfarb (Eds.), The Economics of Artificial Intelligence: An Agenda (pp. 608–610). University of Chicago Press.
- Fridman, L. (Host). (2020, December 28). Daniel Kahneman: Thinking Fast and Slow, Deep Learning, and AI [Audio podcast episode]. Lex Fridman Podcast (Episode 65).
- Kahneman, D., Sibony, O., & Sunstein, C. R. (2021). Noise: A Flaw in Human Judgment. Little, Brown Spark.
- Adams, T. (2021, May 16). Daniel Kahneman: ‘Clearly AI is going to win. How people are going to adjust is a fascinating problem’. The Guardian.
- LeCun, Y., & Kahneman, D. (2021). Daniel Kahneman and Yann LeCun: How To Get AI To Think Like Humans [Video]. Meta AI Research.
- Sakate, M. (2022, August 15). AI Will One Day Make Better Decisions than CEOs, Nobel Laureate Kahneman Says. Bloomberg Línea.
- Intelligence Squared. (2022). Daniel Kahneman Unveils AI’s Impact: Insights from the Chaotic World [Video].
- Intelligence Squared. (2022, May). Daniel Kahneman on Making Intelligent Decisions in a Chaotic World [Full Video].