Hoe realistisch is de angst voor AI?

door Marco Derksen op 30 maart 2023

Techprominenten waaronder Elon Musk, Yuval Noah Harari, Tristan Harris en Steve Wozniak, pleiten in een open brief voor een tijdelijke rem op ‘risicovolle’ ontwikkeling AI. De ontwikkelingspauze moet minstens zes maanden duren en zou moeten gelden voor alle AI die krachtiger is dan GPT-4, het taalmodel achter ChatGPT. De pauze moet volgens de ondertekenaars gebruikt worden om veiligheidsmaatregelen op te stellen voor de omgang met de steeds complexere en geavanceerdere AI.

Met verbazing volg ik het enthousiasme van ’techexperts’ over de open brief om een pauze in te lassen op AI-ontwikkelingen. Want hoe realistisch is deze oproep en wie help je hier nu echt mee? Hoe realistisch is de angst voor AI? Of is de open brief misschien bedoeld om de AI-hype aan te jagen en de werkelijke uitdagingen voor de samenleving te verbloemen?

Bill Gates, oprichter en voormalig CEO van Microsoft, benadrukte eerder deze maand dat het belangrijk is om de kansen van AI te benutten en de bedreigingen te beperken door het ontwikkelen van verantwoordelijkheidsgevoel en toezicht. Alhoewel hij wat genuanceerder is dan de ondertekenaars van de open brief, pleit ook hij op Gatesnotes.com voor het stellen van normen voor de ontwikkeling en het gebruik van AI.

Amy Webb, futurist en oprichter van het Future Today Institute, stelde tijdens SXSW in een interview met BBC dat de zorgen over AI niet overdreven moeten worden, maar dat het ook niet verstandig is om ze te negeren. Ze benadrukt dat de ontwikkeling van AI een complex en onvoorspelbaar proces is, en dat er een reële mogelijkheid bestaat dat AI-systemen onverwachte en potentieel gevaarlijke gedragingen vertonen.

Techguru Jaron Lanier stelt in een interview met The Guardian dat het gevaar niet is dat AI ons vernietigt, maar dat het ons gek maakt. Lanier waarschuwt dat AI-algoritmen ons gedrag en onze percepties kunnen manipuleren, waardoor we verstrikt raken in een eindeloze cyclus van zelfbevestigende informatie en filterbubbels. Dit kan leiden tot extreme politieke opvattingen, paranoia, angst en depressie, en kan ons vermogen om onze eigen gedachten en emoties te begrijpen en te beheersen aantasten. Lanier pleit voor meer menselijke controle over AI-systemen en meer transparantie over de manier waarop deze systemen werken en hoe ze worden ontwikkeld en gebruikt.

Het is duidelijk dat de transparantie van AI-algoritmen omhoog moet, er normen moeten komen voor de ontwikkeling en het gebruik van AI, dat er onafhankelijk toezicht op AI komt en dat er meer aandacht moet komen voor de AI-ethiek. Maar toch vind ik het opmerkelijk dat vooral belanghebbenden deze open brief hebben opgesteld. Wat proberen ze hier nu mee te bereiken?

Arvind Narayanan, een associate professor computerwetenschappen aan de Princeton University en een AI-expert, heeft op Twitter kritiek geuit op de open brief. Hij betoogt dat de brief bijdraagt aan het versterken van de AI-hype en het juist moeilijker maakt om reële AI-risico’s aan te pakken die zich al voordoen. Volgens hem kan de open brief juist in het voordeel werken van de bedrijven die het zou moeten reguleren en niet ten goede komen aan de samenleving.

Ook Emily Bender, professor Computerwetenschappen aan de Universiteit van Washington, heeft op Twitter kritiek op de open brief en betoogt dat deze is doordrenkt met AI-hype. Ze benadrukt dat de open brief de AI-hype alleen maar versterkt, terwijl de echte problemen die moeten worden aangepakt in de AI-industrie elders liggen. Ze stelt voor dat de ontwikkeling van AI-systemen zich moet richten op meer nauwkeurigheid, veiligheid, transparantie en interpretatie:

Dichter bij huis stelt Piek Visser-Knijff op LinkedIn dat er momenteel een dominante trend is van “techsaviorism”, waarbij de nadruk ligt op de technische oplossingen voor complexe maatschappelijke problemen en waarbij de rol van maatschappelijke factoren wordt geminimaliseerd. Ze onderstreept het belang van een kritische reflectie op de ontwikkeling en gebruik van AI, maar waarschuwt ook voor het narratief waar de ondertekenaars van de open brief ons in meenemen.

Ook het LinkedIn-bericht van Siri Beerends gaat over de angst voor AI en de rol van narratieven daarbij. “We gaan niet ten onder aan de intelligentie van computers, maar aan onze eigen stupiditeit en nihilisme” aldus Beerends.

Als we nu alles op een rij zetten, is dan de open brief een terrechte waarschuwing aan de samenleving of is het vooral bedoeld om een angst-narratief te creeeren en de AI hype verder aan te jagen? De open brief heeft zeker veel aandacht gekregen en draagt bij aan het debat over de risico’s en kansen van AI-technologie. Het is ook een duidelijke oproep aan de AI-gemeenschap om na te denken over de impact van hun onderzoek en de ontwikkeling van verantwoordelijke AI-systemen te bevorderen.

Sommige critici stellen dat de brief overdreven angst zaait over de ontwikkeling van AI-systemen en bijdraagt aan de AI-hype. Ze wijzen erop dat sommige van de risico’s die in de brief worden genoemd, overdreven zijn en dat er weinig bewijs is om de beweringen te ondersteunen dat AI-systemen een directe bedreiging vormen voor de mensheid.

Aan de andere kant zijn er ook critici die stellen dat de brief niet ver genoeg gaat en niet voldoende aandacht besteedt aan de bredere maatschappelijke en ethische implicaties van AI. Ze benadrukken dat er meer aandacht moet worden besteed aan de manier waarop AI-technologieën kunnen worden gebruikt om sociale ongelijkheid te versterken, privacy te schenden en andere schadelijke gevolgen te hebben.

De angst voor AI op de korte termijn lijkt onterecht, maar het is duidelijk dat er meer aandacht moet komen voor de maatschappelijke en ethische implicaties van AI-technologieën en dat er meer verantwoordelijkheid moet worden genomen door de AI-gemeenschap om deze problemen aan te pakken. De oproep voor een tijdelijke pauze van AI ontwikkelingen lijkt niet alleen onrealistisch, het is nog maar de vraag of het bijdraagt aan de aanpak van de werkelijke uitdagingen van AI!

11 reacties

Op LinkedIn inmiddels aantal verwijzingen gemaakt naar critici die ook vraagtekens stellen bij de oproep om alle onderzoek 6 maanden stil te leggen:
https://www.linkedin.com/posts/mderksen_hoe-realistisch-is-de-angst-voor-ai-koneksa-activity-7047106263217827840-LkIZ

En ook op Twitter komen enkele reacties:

Beantwoord

Wouter van Noort vroeg op LinkedIn om de beste bronnen en inzichten te delen over de open brief. Hij heeft vandaag in de nieuwsbrief Future Affairs de top-5 op een rij gezet:

Jan-Willem van Putten raadde deze podcast van Sam Harris aan met twee ondertekenaars van de brief, AI-hoogleraar Stuart Russell en AI-ondernemer Gary Marcus. De kern van hun zorg: nooit eerder werd zo’n revolutionaire technologie zo snel, zo grootschalig, en zo breed in de samenleving geïntroduceerd. Alleen daarom is een pas op de plaats al gewenst.

Kitty Leering tipte deze zeer boeiende Substack van Gary Marcus, waarin hij uitgebreid ingaat op de kritiek op de open brief. “We have a perfect storm of corporate irresponsibility, widespread adoption, lack of regulation and a huge number of unknowns.”

Alexander Mouret wees op dit interessante artikel van AI-hoogleraar Joanna Bryson. Waarom scharen de ondertekenaars zich niet gewoon achter de Europese richtlijnen voor AI, die al volop in ontwikkeling zijn. Is het een afleidingsmanoeuvre voor echte wetgeving, vraagt zij zich af.

AI-professor Stefan Leijnen raadde dit stuk van Vice aan over waarom de open brief de plank mis slaat. De focus op de futuristische risico’s is hyperig en leidt af van concrete problemen met AI op dit moment, volgens de auteurs.

Wouter’s eigen favoriet is dit goede gesprek tussen Lex Fridman en de oprichter van OpenAI, Sam Altman. Vooral veel eyeopeners over hoe de techniek nou echt werkt en wat het immense belang is van de interface tussen AI en mensen.

Beantwoord

Beantwoord

Beantwoord

De jaarlijkse AI Index van het Stanford Institute for Human-Centered Artificial Intelligence (HAI). Rapport van bijna 400 pagina’s met stand van zaken AI in relatie tot onderzoek, performance, ethiek, onderwijs, governance en publieke opinie. Ruim aandacht voor de ethiek dit keer:
https://aiindex.stanford.edu/report/

Beantwoord

Beantwoord

Beantwoord

Tristan Harris en Aza Raskin over het AI-dilemma. Over hoe bestaande AI nu al catastrofale risico’s opleveren voor een functionele samenleving, hoe AI-bedrijven gevangen zitten in een race om zo snel mogelijk AI te implementeren zonder adequate veiligheidsmaatregelen, en wat de ontwikkelingen kunnen betekenen voor een post-AI wereld.

Beantwoord

Hoi Marco
Ken je ook hun podcast? Your undivided attention. Ik vind hen een heel erg goede stem hebben in de hele discussie.

Beantwoord

Beantwoord

Nederlandse AI-petitie: Politiek, neem controle over AI

De opkomst van AI biedt kansen, maar brengt ook enorme risico’s met zich mee. Daarom hebben op initiatief van Kees Verhoeven en Mark Thiessen een groot aantal ex-kamerleden, schrijvers en wetenschappers een AI-petitie getekend waarin ze een oproep doen aan de Nederlandse politiek: neem controle over ontwikkeling van AI. Zorg dat de mens bepaalt hoe een toekomst met AI eruitziet. Niet andersom.

https://aipetitie.nl

Daar waar ik eerder kritisch was over de open brief van techprominenten als Elon Musk, Yuval Noah Harari, Tristan Harris en Steve Wozniak omdat deze teveel de nadruk legt op lange termijn existentieel risico’s, is deze Nederlandse open brief genuanceerder en richt het zich veel meer op de risico’s die nu spelen. Voor mij een reden om nu wel te tekenen.

Laurens Verhagen van de Volkskrant heeft inmiddels al een artikel geplaatst waarin het verwijst naar de AI-petitie maar ook aangeeft dat er kritiek is op het initiatief van mensen als Marleen Stikker en Frank van Harmelen.

https://lnkd.in/epVXtPz7

Beantwoord

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Laatste blogs

Bekijk alle blogs (967)
Contact