Tijdens TED2025 ging Chris Anderson in gesprek met Sam Altman, CEO van OpenAI, over de staat en toekomst van kunstmatige intelligentie. Het was geen luchtig praatje over technologie, maar een diepgravend en soms ongemakkelijk gesprek over ethiek, macht en de richting waarin onze samenleving beweegt. Altman bracht een mengeling van fascinatie, onzekerheid en openhartigheid over de ongekende invloed van AI op mens en maatschappij.
Een belangrijk deel van het interview draaide om de maatschappelijke impact van AI, met name op werk. Altman erkende dat AI sommige banen zal veranderen of overnemen, maar ziet dat vooral als een kans: “Zoals bij elke technologische revolutie wordt de mens niet overbodig, maar krijgt hij krachtigere gereedschappen.” Anderson merkte echter op dat het tempo van verandering ongekend hoog ligt en voor veel mensen ontwrichtend aanvoelt.
De discussie over auteursrecht en creatieve eigendom leverde een van de meest geladen momenten op. Anderson confronteerde Altman met het feit dat AI-modellen worden getraind op het werk van levende kunstenaars en schrijvers, vaak zonder hun expliciete toestemming. Hij verwees daarbij naar de TED-talk van journalist Carole Cadwalladr, die liet zien hoe ChatGPT een lezing in haar stijl kon genereren — zonder dat zij daar ooit toestemming voor had gegeven. Altman gaf toe dat het huidige systeem tekortschiet: “We hebben een nieuw economisch model nodig dat makers eerlijk compenseert.” Hij sprak over mogelijkheden waarbij artiesten kunnen opt-in op modellen die hun stijl gebruiken, en op basis daarvan betaald worden. Tegelijk bleef onduidelijk hoe zo’n model er concreet uit moet zien — en wie het zal afdwingen.
OpenAI plant volgens Altman ook de release van een krachtig open source-model, iets waar ze volgens hem te laat mee zijn begonnen. “We waren terughoudend vanwege veiligheidszorgen, maar open source hoort bij het AI-ecosysteem.” Tegelijk waarschuwde hij dat dergelijke modellen misbruikt kunnen worden — iets waar OpenAI mee zal moeten leren omgaan.
Een van de verrassende uitspraken betrof het gebruik van ChatGPT door 500 miljoen mensen per week, een aantal dat nog steeds exponentieel groeit. Altman beschreef het product niet langer als een simpel Q&A-model, maar als een “levenslange metgezel”, dankzij nieuwe functies zoals Memory, waarbij de AI gebruikers over langere tijd leert kennen. “Op een dag zal het je hele dag observeren en assisteren — als jij dat wilt,” aldus Altman.
Daarop volgde een discussie over zogeheten agentic AI: systemen die zelfstandig doelen kunnen nastreven. Altman bevestigde dat OpenAI werkt aan tools zoals Operator, die zelfstandig taken kunnen uitvoeren op internet. Hoewel indrukwekkend, erkende hij ook de risico’s: “We moeten agenten bouwen die je kunt vertrouwen. Als mensen bang zijn dat hun bankrekening wordt leeggehaald, gaan ze dat niet gebruiken.” Hier botsen innovatie en veiligheid.
Op de vraag of Artificial General Intelligence (AGI) al bereikt is, antwoordde Altman ontkennend. “ChatGPT is slim, maar leert niet continu. Het ontdekt geen nieuwe wetenschap uit zichzelf. AGI betekent ook: zelfstandig nieuwe kennis verwerven.” Tegelijk erkende hij dat de grens tussen slimme AI en AGI vloeiend is. Wat telt, is volgens hem niet de definitie, maar de vraag of we deze systemen veilig kunnen houden terwijl ze steeds krachtiger worden.
De meest beladen momenten in het gesprek gingen over verantwoordelijkheid en morele autoriteit. Anderson vroeg: “Wie gaf jou het recht om technologie te bouwen die het lot van de mensheid bepaalt?” Altman antwoordde dat OpenAI handelt vanuit een missie om “AGI veilig te bouwen en eerlijk te verdelen”, maar erkende ook dat de weg ernaartoe vol dilemma’s zit. Hij gaf toe dat zijn organisatie zich onderweg ontwikkelde van idealistisch non-profit naar commerciële speler, met alle bijbehorende spanningen.
Op persoonlijk vlak sprak Altman over het vaderschap en hoe dat zijn kijk op risico’s heeft veranderd. Hij kreeg de hypothetische vraag: “Als je een knop kon indrukken die je zoon een geweldig leven geeft, maar ook 10% kans op vernietiging — zou je het doen?” Zijn antwoord was helder: “In het echt, nooit. Maar ik voel me ook niet alsof mijn werk dat risico inhoudt.”
Tot slot werd besproken of AI-ontwikkeling werkelijk onvermijdelijk is. Altman betoogde dat AI inmiddels fundamentele kennis vertegenwoordigt en dus niet meer te stoppen is. “Zoals bij fundamentele natuurkunde: zodra het ontdekt is, blijft het bestaan.” Toch sloot hij niet uit dat we gezamenlijk grenzen kunnen afspreken. Maar liever dan via gesloten elites, ziet hij collectieve besluitvorming als de toekomst: “AI kan ons helpen om wijzer te worden — om als samenleving betere beslissingen te nemen.”
Samenvattend: het interview was rauw, echt en confronterend. Sam Altman balanceerde tussen fascinatie voor wat AI kan betekenen en respect voor de maatschappelijke onrust die het veroorzaakt. Voor zover we hem kunnen geloven. De grote vraag die bleef hangen: zijn we als samenleving voorbereid op de snelheid en diepgang van deze transformatie? Want één ding werd tijdens het gesprek zonneklaar: AI is al lang niet zomaar een tool. Het is een actor geworden. En actoren vragen om governance, niet alleen om innovatie.
2 reacties
Ik keek dit gesprek direct na het betoog van Cadwalladr. Ik vraag me af of Altman anders op het podium zou zitten als zij niet een dag eerder haar uitspraken op hetzelfde podium deed. En hem direct aansprak. Ik kreeg het idee dat hij zich nu wat terughoudend opstelde. Veel van zijn uitspraken zijn in de trant “het zou anders moeten” en “wat we nodig hebben”, zonder daar al te veel eigen invulling aan te geven. Want daarmee legt hij de toekomst van OpenAI vast. Hij lijkt zich in te dekken dat hij het wel anders zou willen, maar dat het niet aan hem zal liggen als het toch anders loopt.
Hij kan bedachtzaam zijn en op het podium balanceren tussen fascinatie van de innovatie en de maatschappelijke implicaties. Ondertussen is hij onderdeel van de broligarchy en rolt hij open en bloot een systeem uit in OpenAI dat nu alle herinneringen en gesprekken die we hebben met de AI kan gebruiken voor toekomstige gesprekken. Het Stasi-gebouw van Cadwalladr wordt op klaarlichte dag onder onze neuzen gebouwd.
Ik hou van de technologie en wat het mogelijk kan maken. Maar tegelijkertijd zijn de gevaren en de implicaties torenhoog. Zoals Altman zelf zijn verhaal afsluit, als onze (klein-)kinderen in een wereld opgroeien, waar de door mensen gemaakte omgeving vele malen slimmer is dan zij zelf, wat voor wereld is dat dan? Hoe kan dat van een dystopische cyberpunk veranderen naar een utopische solarpunk?
Dank voor je reflectie Frank en eens, hij zat daar wat ongemakkelijk op het podium en dat was waarschijnlijk anders geweest als het publiek en hij niet op de hoogte waren van Cadwalladr’s TED-talk. Er van uitgaande dat ze die ook gezien hebben 😉