Tristan Harris en Aza Raskin over het AI-dilemma

door Marco Derksen op 9 april 2023

De afgelopen week heb ik veel gelezen, nagedacht en geschreven over de open brief waarin techprominenten pleiten voor een tijdelijke rem op ‘risicovolle’ ontwikkeling AI. Het signaal dat de techprominenten met de open brief afgeven is duidelijk, het AI-debat moet worden gevoerd. Waar ik tot nog toe moeite mee had is de AI-hype die werd gecreëerd met name door media en ’techexperts’. Merk dat ik vooral behoefte had aan het genuanceerde debat zoals ik eerder beschreef in de reflecties van Jamie Susskind en Geoffrey Hinton.

Vandaag aandacht voor Tristan Harris en Aza Raskin, mede ondertekenaars van de open brief, die in “The A.I. Dilemma” bespreken hoe bestaande AI nu al catastrofale risico’s opleveren voor een functionele samenleving. Hoe AI-bedrijven gevangen zitten in een race om zo snel mogelijk AI te implementeren zonder adequate veiligheidsmaatregelen, en wat de ontwikkelingen kunnen betekenen voor een post-AI wereld.

De presentatie is van een besloten bijeenkomst in San Francisco op 9 maart met in de zaal vooraanstaande technologen en besluitvormers die de toekomst van AI kunnen beïnvloeden. Harris en Raskin moedigen hun toehoorders aan om hun politieke vertegenwoordigers te overtuigen om hoorzittingen te houden over AI-risico’s en het creëren van adequate bescherming. En daar vooral ook niet te lang mee te wachten.

Ik raad je aan om de presentatie van ongeveer een uur in zijn geheel te bekijken. Het is absoluut belangrijk dat politici, bestuurders maar ook wij als gebruikers ons realiseren wat de huidige AI-modellen nu al kunnen en wat de potentiële risico’s zijn. Een alternatief is het luisteren van de podcast of het lezen van het transcript (pdf).

De belangrijkste conclusies uit de presentatie:

  • Half of AI researchers believe there’s a 10% or greater chance that humans will go extinct from their inability to control AI. When we invent a new technology, we uncover a new class of responsibility. If that technology confers power, it will start a race – and if we don’t coordinate, the race will end in tragedy.

  • Humanity’s ‘First Contact’ moment with AI was social media – and humanity lost. We still haven’t fixed the misalignment caused by broken business models that encourage maximum engagement. Large language models (LLM) are humanity’s ‘Second Contact’ moment, and we’re poised to make the same mistakes.

  • Guardrails you may assume exist actually don’t. AI companies are quickly deploying their work to the public instead of testing it safely over time. AI chatbots have been added to platforms children use, like Snapchat. Safety researchers are in short supply, and most of the research that’s happening is driven by for-profit interests instead of academia.
    ‍‍

  • The media hasn’t been covering AI advances in a way that allows you to truly see what’s at stake. We want to help the media better understand these issues. Cheating on your homework with AI or stealing copyrighted art for AI-generated images are just small examples of the systemic challenges that are ahead. Corporations are caught in an arms race to deploy their new technologies and get market dominance as fast as possible. In turn, the narratives they present are shaped to be more about innovation and less about potential threats. We should put the onus on the makers of AI – rather than on citizens – to prove its danger.

Bron: Center for Human Technology

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Laatste blogs

Bekijk alle blogs (1033)
Contact