Clearview AI en het einde van privacy

door Marco Derksen op 4 februari 2024

Kashmir Hill is de techjournaliste die in 2020 in een reeks artikelen in de New York Times het bestaan van Clearview AI brede bekendheid gaf. Het bedrijf, gespecialiseerd in gezichtsherkenning, beschikte op dat moment over een databank van drie miljard foto’s, gescrapet van sites als Facebook, YouTube en Twitter. Die foto’s en bijhorende data werden toen al gebruikt door enkele honderden politiediensten en privébedrijven.

Vier jaar later heeft Clearview AI zich ontwikkeld van een onbekende start-up tot een groot bedrijf met een database van tientallen miljarden foto’s. Het heeft klanten over de hele wereld en claimt dat het iedereen kan identificeren met een nauwkeurigheid van minstens 99% aan de hand van één foto. Hoewel er twijfels zijn over deze claim, is het duidelijk dat deze technologie privacy zoals we die kenden, definitief heeft veranderd.

In het vorig jaar gepubliceerde boek ‘Your Face Belongs to Us‘ beschrijft Kashmir Hill hoe de start-up zich heeft ontwikkeld tot de drijvende kracht achter een technologie die onze samenleving kan ontwrichten. Het boek is wat langdradig en de Nederlandse vertaling ‘Je gezicht is nu van ons‘ is in sommige delen van het boek tenenkrommend. Toch vind ik dat iedereen het boek zou moeten lezen en sluit me dan ook aan bij uitspraken als ‘Een belangrijke roep om verandering’ (Marietje Schaake), ‘Een niet mis te verstane wake-up call’ (Bas Heijne) en een ‘Must-read over de duistere kant van technologie’ (Huib Modderkolk).

Voor wie niet het hele boek wil lezen volgt hieronder een uitgebreide samenvatting:

Image created by DALL E (Prompt by Marco Derksen)

Deel I: De Face Race

H1: Een vreemd soort liefde
Het verhaal begint met Hoan Ton-That, een half Vietnamees, half Australische tech-ondernemer met een fascinatie voor technologie en een complexe persoonlijkheid. Ton-That, bekend om zijn flamboyante stijl en androgyne uiterlijk, verhuisde van Australië naar San Francisco om zich te mengen in de technologiewereld van Silicon Valley, gedreven door een diepe nieuwsgierigheid en een verlangen naar innovatie. Zijn reis in de tech-industrie kenmerkte zich door zowel pieken en dalen, waaronder zijn betrokkenheid bij de ontwikkeling van Facebook-apps en de ViddyHo-affaire, een project dat negatieve aandacht trok door zijn invasieve aard.

Ton-That’s pad kruiste met dat van Charles Johnson, een invloedrijke en controversiële figuur binnen de rechtse media, bekend om zijn provocatieve online gedrag en politieke standpunten. Samen woonden ze de Republikeinse Nationale Conventie van 2016 bij, waar Donald Trump werd genomineerd als presidentskandidaat. Dit evenement markeerde een keerpunt in hun carrières, waarbij ze besloten om hun krachten te bundelen voor een ambitieus project.

H2: De wortels (350 v. Chr. – de jaren 1880)
Dit hoofdstuk verkent de controversiële geschiedenis van de pogingen om menselijke eigenschappen, persoonlijkheid en potentieel te beoordelen op basis van fysieke kenmerken, een praktijk bekend als fysiognomie. Het begint met de beweringen van Aristoteles over de unieke expressiviteit van het menselijke gezicht en de suggestie dat bepaalde fysieke kenmerken, zoals de grootte van het voorhoofd of de vorm van de wenkbrauwen, inzicht kunnen geven in iemands karakter en gedrag. Deze ideeën vonden weerklank en ontwikkeling in latere perioden, met name tijdens de Victoriaanse tijd, waarin Francis Galton, een pionier op het gebied van eugenetica, probeerde menselijke eigenschappen en capaciteiten te koppelen aan erfelijkheid en fysieke verschijning.

Het hoofdstuk schetst hoe deze denkbeelden zich vermengden met de opkomst van wetenschappelijke en technologische benaderingen om mensen te classificeren en te controleren, van Bertillons antropometrische systemen tot moderne computers en databanken. Het benadrukt de gevaren van het toepassen van dergelijke theorieën in de praktijk, zoals de eugenetica-beweging en de gruwelijke toepassingen ervan in nazi-Duitsland, evenals in de Verenigde Staten, waar ongewenste sterilisaties plaatsvonden onder het mom van sociale verbetering.

Deze historische terugblik werpt een kritisch licht op de aanhoudende fascinatie voor het idee dat complexe menselijke eigenschappen en gedragingen direct kunnen worden afgeleid uit oppervlakkige fysieke kenmerken. Het roept vragen op over de ethiek en de wetenschappelijke validiteit van dergelijke benaderingen, met name in het licht van hedendaagse technologieën zoals gezichtsherkenning en data-analyse, die het potentieel hebben om deze oude en vaak weerlegde ideeën nieuw leven in te blazen in een modern jasje.

H3: Fatface bestaat echt
Na de Republikeinse conventie in Cleveland keerden Hoan Ton-That en Charles Johnson terug naar hun respectievelijke woonplaatsen, New York en Clovis, Californië, maar bleven in contact via internet. Met het doel een tool te ontwikkelen die besluitvorming over onbekenden kon ondersteunen, zochten ze naar een derde partner met autoriteit en kwamen uit bij Richard Schwartz, een ervaren politiek adviseur uit New York met een achtergrond bij de administratie van burgemeester Rudy Giuliani.

Samen exploreren ze ideeën variërend van het analyseren van digitale voetafdrukken tot het toepassen van discutabele wetenschap zoals fysiognomie, waarbij ze onderzoek deden naar de mogelijkheid om persoonlijkheidskenmerken, gedragingen of zelfs criminele neigingen te voorspellen op basis van gezichtskenmerken. Ze worden daarbij geïnspireerd door bestaande toepassingen van gezichtsherkenning en identificatietechnologieën in landen als China en Rusland, waar dergelijke systemen al werden gebruikt voor surveillance en sociale controle.

H4: Als het niet meteen lukt (1956-1991)
De ontwikkeling van computertechnologie, en specifiek de fascinatie voor kunstmatige intelligentie (AI), heeft een lange en boeiende geschiedenis die teruggaat tot de zomer van 1956, toen een groep vooraanstaande wetenschappers zich verzamelde op Dartmouth College. Hun ambitie was het scheppen van machines die menselijke capaciteiten niet alleen konden nabootsen, maar ook gezelschap konden bieden, wat leidde tot het vroege concept van AI. Dit hoofdstuk beschrijft de evolutie van de technologie vanaf deze eerste ideeën over machines die kunnen leren en denken zoals mensen, tot de concrete ontwikkelingen op het gebied van gezichtsherkenningstechnologieën in de latere jaren.

Matthew Turk’s doorbraak kwam in de vroege jaren ’90 met de ontwikkeling van de ‘eigenface’-techniek, die een nieuwe weg opende voor de computervisie door gezichten te analyseren op basis van hun afwijking van een ‘gemiddeld gezicht’. Hoewel aanvankelijk beperkt in scope en toepasbaarheid, markeerde dit werk een keerpunt en inspireerde het verdere onderzoek en ontwikkeling op het gebied van AI en gezichtsherkenning.

H5: Een verontrustend voorstel
Op de verkiezingsavond van 2016 waren Hoan Ton-That, Richard Schwartz, en Charles Johnson aanwezig op Donald Trumps exclusieve feest in het Hilton, maar zochten later vertier bij een evenement van de Proud Boys in de Gaslight Lounge. Het feest, georganiseerd door Gavin McInnes, trok aandacht met zijn extreme rechtse retoriek en bizarre vertoningen, inclusief een man verkleed als een personage uit Mad Max. De avond eindigde met Trumps onverwachte overwinning.

Na Trumps overwinning, zagen Ton-That, Schwartz, en Johnson een kans voor hun nieuwe bedrijf, SmartCheckr LLC, gericht op het identificeren van extreemlinkse individuen en hen mogelijk buitenspel te zetten. Hun eerste potentiële toepassing was het screenen van gasten voor het DeploraBall, een viering voor Trump-aanhangers voorafgaand aan zijn inauguratie. SmartCheckr claimde in staat te zijn politieke voorkeuren en andere persoonlijke informatie van individuen te analyseren, hoewel het later bleek dat veel van hun beweringen overdreven of ongegrond waren.

In een poging hun technologie internationaal te verkopen, benaderden ze de Hongaarse overheid met een voorstel om SmartCheckr te gebruiken voor grensbeveiliging en het identificeren van politieke tegenstanders, met name die verbonden aan de Open Society Foundations van George Soros.

H6: De Snooper Bowl (2001)
Tijdens de Super Bowl van 2001 tussen de New York Giants en de Baltimore Ravens in Tampa, werd zonder medeweten van het publiek gezichtsherkenningstechnologie ingezet om potentiële criminelen te identificeren. Dit experiment, uitgevoerd door technologiebedrijven zoals Raytheon en Viisage Technology in samenwerking met de lokale politie, markeerde de eerste grootschalige toepassing van gezichtsherkenning op een menigte. Hoewel de politie beweerde dat de technologie negentien personen met een crimineel verleden identificeerde, werden er geen arrestaties verricht. Dit evenement, spottend de “Snooper Bowl” genoemd, veroorzaakte publieke verontwaardiging en discussie over privacy en de opkomst van een surveillancemaatschappij.

De technologie, commercieel ontwikkeld uit het eigenface-methode van Matthew Turk, werd bekritiseerd voor het potentieel verkeerd identificeren van onschuldige mensen en het aantasten van individuele vrijheden. Ondanks deze controverse zag Viisage-directeur Tom Colatosti de publiciteit als voordelig voor het bedrijf. Plannen om gezichtsherkenning te gebruiken bij de Olympische Spelen in Salt Lake City werden echter geschrapt, en zowel de American Civil Liberties Union (ACLU) als conservatief Congreslid Dick Armey uitten bezorgdheid over de toepassing van deze technologie.

Na de aanslagen op 11 september 2001 verschoof de publieke opinie, waarbij veiligheid boven privacy werd gesteld en de vraag naar beveiligingstechnologieën, waaronder gezichtsherkenning, toenam. Ondanks twijfels over de effectiviteit van de technologie in het echt, werd het toch ingezet in verschillende domeinen, waaronder vliegvelden en door de FBI, om identiteitsfraude tegen te gaan en potentiële bedreigingen te identificeren.

Het National Institute of Standards and Technology (NIST) speelde een sleutelrol in het evalueren van de effectiviteit van gezichtsherkenningstechnologie, maar hun tests onthulden dat de technologie nog lang niet perfect was, vooral niet in het identificeren van personen in minder gecontroleerde omgevingen. Er werd ook vastgesteld dat de technologie beter presteerde bij bepaalde demografische groepen dan bij andere, wat vragen opriep over bias en eerlijkheid in de toepassing ervan.

Desondanks werd gezichtsherkenningstechnologie snel aangenomen door overheid en bedrijfsleven, ondanks voortdurende zorgen over privacy, nauwkeurigheid en de ethische implicaties van massasurveillance.

H7: De supercomputer onder het bed
In 2017 werkte Hoan Ton-That vanuit zijn kleine appartement in Manhattan aan de ontwikkeling van Smartcheckr, een gezichtsherkenningstechnologie. Zonder een officieel kantoor of team, deed Ton-That beroep op online bronnen en open-source software om zijn systeem te bouwen. Hij stuitte op OpenFace, een gezichtsherkenningstool ontwikkeld door een groep van Carnegie Mellon, die gratis beschikbaar was gesteld. Dit was een tijd waarin veel AI-onderzoekers hun werk open-source maakten, wat Ton-That enorm ten goede kwam.

Ton-That huurde Terence Z. Liu in, een getalenteerde wiskundige, om hem te helpen het gezichtsherkenningssysteem te verfijnen. Samen verbeterden ze de technologie aanzienlijk, waarbij ze gebruikmaakten van miljoenen gezichten van openbare databases zoals die van Microsoft met ‘beroemdheden’. Dit was een cruciaal moment voor Smartcheckr; het systeem kon nu in seconden miljoenen gezichten doorzoeken en matchen.

Om de database uit te breiden, scrapete Ton-That openbare profielen van sociale mediaplatforms zoals Venmo, waar gebruikers hun transacties delen met foto’s. Dit proces werd vergemakkelijkt door de openbaarheid van Venmo-transacties, waardoor Ton-That zonder veel moeite miljoenen gezichten kon verzamelen. Dit scrapen was essentieel voor het verder ontwikkelen van Smartcheckr’s technologie.

Ondanks de technologische doorbraken kampte Smartcheckr met financiële beperkingen. De doorbraak kwam toen Peter Thiel, een prominente investeerder, besloot om in het bedrijf te investeren. Dit stelde Ton-That in staat om de operationele capaciteit uit te breiden, ondanks dat hij Charles Johnson, een van de oorspronkelijke betrokkenen, buiten het bedrijf hield vanwege diens controversiële reputatie.

De ontwikkeling van Smartcheckr was een mix van innovatieve technologie, het benutten van open-source middelen, en het navigeren door de complexe dynamiek van start-up financiering en partnerschappen. Ton-That en zijn team stonden op het punt om een krachtig en potentieel controversieel hulpmiddel voor gezichtsherkenning op de markt te brengen, dat zowel fascinatie als bezorgdheid over privacy en ethiek opwekte.

H8: De enige man die het zag aankomen (2006-2008)
In 2006, toen James Ferg-Cadima, een medewerker van de ACLU in Chicago, werd geconfronteerd met de introductie van Pay By Touch – een systeem dat betalingen via vingerafdrukken mogelijk maakte bij de lokale supermarktketen Jewel-Osco – werd zijn interesse gewekt door de mogelijke privacy-implicaties. Na het bestuderen van het registratieproces en de bijbehorende privacyvoorwaarden, realiseerde hij zich dat er weinig tot geen wettelijke bescherming bestond voor biometrische gegevens zoals vingerafdrukken. Biometrische gegevens zijn biologische metingen – of lichamelijke kenmerken – die kunnen worden gebruikt om individuele personen te identificeren.

Gealarmeerd door de mogelijkheid dat dergelijke gevoelige informatie misbruikt kon worden, vooral in het licht van het onstabiele bedrijfsbeheer en financiële problemen van Pay By Touch, zag Ferg-Cadima een kans om op te komen voor de bescherming van consumenten. Dit leidde tot de ontwikkeling en uiteindelijke goedkeuring van de Illinois Biometric Information Privacy Act (BIPA) in 2008, een baanbrekende wet die strikte toestemmingseisen en opslagrichtlijnen instelde voor bedrijven die biometrische informatie verzamelen, en een recht op privaatrechtelijke actie voor individuen introduceerde.

De BIPA was opmerkelijk omdat het individuele consumenten het recht gaf om bedrijven te vervolgen die hun biometrische gegevens zonder toestemming gebruiken of delen, een kenmerk dat uniek was in vergelijking met soortgelijke wetgeving in andere staten. De wet was een reactie op de groeiende bezorgdheid over biometrische privacy en zette een standaard voor de bescherming van persoonlijke informatie in het digitale tijdperk. Ferg-Cadima’s inspanningen toonden aan dat proactieve wettelijke maatregelen mogelijk zijn in het snel evoluerende landschap van technologie en privacy.

H9: Dood aan Smartcheckr
In de aanloop naar de tussentijdse verkiezingen van 2018, overwoog Holly Lynch uit Manhattan zich kandidaat te stellen, gedreven door persoonlijke gezondheidsstrijd en de politieke schok van Trumps overwinning. Ze werd benaderd door Richard Schwartz, die haar aanbood te helpen met haar campagne via zijn bedrijf Smartcheckr, dat gespecialiseerd was in geavanceerde dataverzameling en gezichtsherkenningstechnologie. Ondanks aanvankelijke interesse, leidde de ontdekking van de achtergronden van betrokkenen en de twijfelachtige methoden van gegevensverzameling ertoe dat Lynch haar politieke ambities opschortte.

Smartcheckr probeerde tevens zijn diensten te verkopen aan extreemrechtse kandidaat Paul Nehlen, wat tot veel controverse leidde. Toen de negatieve aandacht toenam, besloten Schwartz en Hoan Ton-That, de technische kracht achter Smartcheckr, het bedrijf opnieuw te lanceren onder de naam Clearview AI. Deze stap veroorzaakte een conflict met Charles Johnson, die zichzelf zag als medeoprichter. Een overeenkomst werd bereikt waarbij Johnson een aandeel en een commissie voor potentiële klanten ontving, in ruil voor zijn stilte.

Deel II: Technisch welbehagen

H10: Een brug te ver voor Google (2009-2011)
In 2009 lanceerde Google “Goggles”, een applicatie die gebruikers in staat stelde om met hun smartphone camera een zoekopdracht uit te voeren door een foto te maken van objecten of bezienswaardigheden. Ondanks de initiële belofte, bleek de applicatie beperkt in zijn vermogen om complexe objecten zoals eten of onbekende planten te identificeren. Google’s visie was om de technologie te verbeteren zodat het uiteindelijk zelfs zou kunnen helpen bij taken zoals het identificeren van schaakzetten of plantensoorten.

In 2011 onthulde Google dat ze de mogelijkheid hadden ontwikkeld om gezichten te identificeren met Goggles, maar ze hadden besloten deze functie niet te lanceren vanwege privacyzorgen. Google was beducht voor de mogelijke negatieve gevolgen van gezichtsherkenning in de publieke sfeer, met name de angst voor misbruik van de technologie door “kwaadaardige dictators” of de risico’s voor individuele privacy, zoals het achterhalen van persoonlijke informatie via een foto genomen in een openbare ruimte.

Dit besluit van Google om gezichtsherkenning niet commercieel uit te rollen, markeerde een opmerkelijk moment waarop het bedrijf technologische vooruitgang afwoog tegen ethische en privacyoverwegingen. Ondertussen bleef Google investeren in de ontwikkeling van gezichtsherkenningstechnologie voor andere doeleinden, zoals het ontgrendelen van smartphones met het gezicht.

H11: Op zoek naar de ware
David Scalzo, oprichter van Kirenaga Partners, ontdekte Clearview AI in de zomer van 2018 en werd geïntrigeerd door het potentieel van hun gezichtsherkenningstechnologie. Na een demonstratie, waarbij zijn eigen foto’s succesvol werden geïdentificeerd uit een database van honderden miljoenen gezichten, besloot hij te investeren. Ondanks zijn enthousiasme, ondervonden de oprichters van Clearview, Richard Schwartz en Hoan Ton-That, moeilijkheden bij het aantrekken van andere investeerders, mede door zorgen over privacy en de juridische implicaties van hun technologie.

Clearview AI richtte zich aanvankelijk op commerciële klanten, zoals banken en hotels. Overheids- en politieorganisaties waren geen deel van hun oorspronkelijke marktstrategie. De technologie had echter de potentie om surveillancecapaciteiten aanzienlijk uit te breiden, gezien haar vermogen om individuen te identificeren zelfs onder moeilijke omstandigheden zoals slechte belichting of vermommingen.

Investeerders en beroemdheden die toegang kregen tot de app waren vaak onder de indruk, maar ook bezorgd over de mogelijke gevolgen. De app werd informeel gebruikt door een kleine groep van invloedrijke individuen, die het zowel fascinerend als beangstigend vonden. Ondanks de groeiende interesse, bleven potentiële investeerders terughoudend vanwege ethische en juridische zorgen.

Uiteindelijk slaagde Clearview AI erin om meer dan een miljoen dollar op te halen bij een diverse groep investeerders. Dit kapitaal stelde hen in staat om verder te gaan met de ontwikkeling van hun product, ondanks aanhoudende vragen over de implicaties voor privacy en de mogelijke misbruik van hun technologie.

Clearview vond uiteindelijk een markt bij wetshandhavingsinstanties, waaronder de New York Police Department (NYPD), wat een keerpunt betekende voor het bedrijf.

H12: De waakhond blaft (2011-2012)
Tijdens de “Face Facts” workshop, gesponsord door de Federal Trade Commission (FTC) in december 2011 in Washington DC, kwamen privacyvoorvechters, academici, techbedrijven en start-ups samen om de implicaties van gezichtsherkenningstechnologie te bespreken. De bijeenkomst, gericht op het vooruitzien van potentiële problemen voordat deze onbeheersbaar worden, kenmerkte zich door discussies over hoe de snel ontwikkelende technologie van gezichtsherkenning het concept van privacy en anonimiteit in de openbare ruimte zou kunnen veranderen.

De bijeenkomst belichtte de uiteenlopende belangen en perspectieven van de deelnemers, variërend van techgiganten zoals Facebook en Google tot start-ups en privacyvoorvechters. Een interessante demonstratie door een advocaat van Intel toonde de beperkingen van hun gezichtsherkenningstechnologie, die foutief geslacht identificeerde, wat zowel de potentie als de huidige tekortkomingen van de technologie onderstreepte.

Er was een brede consensus over de noodzaak om technologieën die de identiteit van personen in het openbaar kunnen onthullen, te reguleren. Echter, de FTC, ondanks haar waarschuwingen over de risico’s van gezichtsherkenning voor de privacy, had beperkte macht om directe actie te ondernemen buiten het aansporen van het Congres om wetgeving te ontwikkelen.

Het evenement benadrukte de zorgen over het einde van anonimiteit in de openbare ruimte en de noodzaak voor transparantie en gebruikerskeuze in de ontwikkeling van producten met gezichtsherkenning. Ondanks de roep om regelgeving, bleef concrete wetgeving uit, waardoor de vraag ontstond of de overheid zou ingrijpen voordat de technologie onomkeerbare veranderingen in de samenleving zou veroorzaken.

H13: Viraal gaan
In de loop van 2018 ontdekte Clearview AI een nieuwe richting voor hun gezichtsherkenningsapp door samenwerking met de politie, in het bijzonder met de NYPD. Dit contact, geïnitieerd door een voormalige politieagent en beveiligingshoofd van een vastgoedfirma, markeerde een keerpunt van de initiële focus op commercieel gebruik naar toepassingen binnen wetshandhaving. Ondanks weerstand tegen overheidscontracten, overtuigde een succesvolle demonstratie aan de NYPD’s speciale eenheid voor financiële delicten Clearview om hun koers te wijzigen.

De samenwerking met de NYPD leidde tot een proefperiode waarin Clearview’s technologie waardevolle aanwijzingen opleverde voor verschillende zaken. Dit succes breidde zich snel uit naar andere politiediensten en overheidsagentschappen, waaronder de FBI, door positieve mond-tot-mondreclame binnen de wetshandhavingsgemeenschap. Clearview’s app werd een cruciaal hulpmiddel in de strijd tegen misdrijven, waaronder de identificatie van verdachten en slachtoffers van kindermisbruik, door zijn vermogen om gezichten te matchen met beelden van het internet.

Desondanks ontstond er controverse rondom gezichtsherkenningstechnologie, in het bijzonder door de introductie van Amazon’s Rekognition aan wetshandhavingsinstanties, wat leidde tot publieke en politieke bezorgdheid over privacy en de nauwkeurigheid van deze technologie. Lokale overheden in sommige Amerikaanse steden reageerden door het gebruik van gezichtsherkenningstechnologie te verbieden.

Clearview AI, zich bewust van potentiële controverse en weerstand, trok Jessica Medeiros Garrison aan om de app te promoten bij hooggeplaatste overheidsfunctionarissen. Ondanks de groeiende acceptatie binnen wetshandhavingskringen, bleef de technologie van Clearview verborgen voor het publiek. De geheimhouding rondom de app en het uitblijven van publieke kennisgeving of debat over het gebruik ervan door de politie wekte bezorgdheid over transparantie en de invloed van dergelijke technologie op de maatschappij.

H14: Weet je wat pas echt angstaanjagend is? (2011-2019)
Tussen 2011 en 2019 ontvouwde zich een groeiend debat over privacy en technologie, met gezichtsherkenning als een van de meest controversiële onderwerpen. Al Franken, voormalig senator en komiek, samen met zijn juridisch adviseur Alvaro Bedoya, speelden een cruciale rol in het aansnijden van privacykwesties in de VS, met een bijzondere focus op de implicaties van gezichtsherkenningstechnologie. Franken’s interesse in privacy werd mede gedreven door zijn persoonlijke ervaringen met verlies van anonimiteit door zijn bekendheid. Hij organiseerde hoorzittingen om techgiganten zoals Facebook en Google ter verantwoording te roepen over hun verzameling en gebruik van locatie- en gezichtsgegevens.

Facebook’s implementatie van gezichtsherkenning in 2010, waardoor gebruikers automatisch werden getagd in foto’s, wekte grote zorgen over privacy. Deze zorgen werden verder aangewakkerd door de onthullingen van Edward Snowden in 2013 over de massasurveillance door de NSA (pdf). Deze gebeurtenissen leidden tot een verschuiving in de focus van wetgevers van particuliere naar overheidsinbreuken op privacy. Ondanks pogingen om gezichtsherkenningstechnologie te reguleren, slaagde het Congres er niet in om wetgeving op dit gebied vast te stellen.

Facebook’s ontwikkeling van DeepFace, een geavanceerd gezichtsherkenningssysteem, onderstreepte de technologische vooruitgang en de potentieel invasieve aard van deze technologie. Ondanks aanvankelijke beloftes om DeepFace niet te gebruiken op een manier die de privacy van gebruikers zou schenden, implementeerde Facebook uiteindelijk toch een vergelijkbaar systeem, wat de angst voor misbruik van gezichtsherkenningstechnologie verder aanwakkerde.

De juridische strijd in Illinois over het ongeoorloofd verzamelen van biometrische gegevens door bedrijven zoals Facebook, resulteerde in een schikking van 650 miljoen dollar, onderstreept de complexiteit en uitdagingen van het reguleren van gezichtsherkenningstechnologie. Dit alles weerspiegelt de spanning tussen technologische innovatie en de noodzaak om fundamentele privacyrechten te beschermen in het digitale tijdperk.

H15: Gevangen in een sleepnet
Freddy Martinez, een techmedewerker uit Chicago met een kritische blik op politiepraktijken en een achtergrond in de Occupy Wall Street-beweging, werd de die Clearview AI zou ontmaskeren. Zijn interesse in surveillance en privacy werd gevoed door persoonlijke ervaringen met politieoptreden tijdens protesten en een groeiend ongenoegen over de oneerlijke machtsverdeling in de samenleving. Na te hebben ontdekt dat de politie van Chicago geavanceerde surveillanceapparatuur zoals stingrays gebruikte, besloot hij dieper te graven in de praktijken van politieorganisaties.

In 2019, na een hoorzitting over gezichtsherkenning in Washington DC, bundelde Martinez zijn krachten met Beryl Lipton van MuckRock om het gebruik van gezichtsherkenning door politieafdelingen te onderzoeken. Hun onderzoek leidde tot een onthullende ontdekking over Clearview AI, een bedrijf dat een geavanceerde gezichtsherkenningstechnologie ontwikkelde en verkocht aan politieorganisaties.

Martinez ontving documenten van de politie van Atlanta die niet alleen het bestaan van Clearview AI en zijn controversiële technologie onthulden, maar ook de omvang van het gebruik ervan door meer dan 200 overheids- en politieorganisaties. Een juridisch memorandum van Paul Clement, gericht aan potentiële klanten, probeerde de legaliteit van Clearview’s praktijken te verdedigen, terwijl het bedrijf in werkelijkheid wetgeving in Illinois overtrad die het verzamelen en gebruiken van biometrische gegevens zonder toestemming verbiedt.

De ontdekkingen van Martinez brachten aan het licht hoe Clearview AI de grenzen van privacy en surveillance had overschreden door een enorme database van gezichtsafbeeldingen te verzamelen van sociale media en andere openbare bronnen, waardoor het fundament van individuele privacy ernstig onder druk werd gezet. Dit leidde ertoe dat Martinez contact opnam met journalisten om zijn verhaal van Clearview AI te delen.

H16: Lees het hier!
Ondanks meerdere pogingen om contact te leggen met sleutelfiguren binnen Clearview AI, waaronder oprichter Hoan Ton-That, mede-oprichter Richard Schwartz, en investeerders zoals Peter Thiel, werden deze pogingen aanvankelijk genegeerd of afgewimpeld. Clearview AI leek te hopen dat door niet te reageren, de interesse zou wegebben.

Echter, na een mislukte poging om via een gemeenschappelijke kennis meer inzicht te krijgen in de intenties van de journalist, besloot Clearview AI uiteindelijk dat het professionele hulp nodig had. Lisa Linden, een PR-consultant gespecialiseerd in crisiscommunicatie, werd ingeschakeld om Clearview AI door de aanstaande PR-crisis te loodsen.

Tijdens het interview met de New York Times werd Ton-That geconfronteerd met vragen over de ethische implicaties van de technologie van Clearview, de enorme database van gezichten die het bedrijf had verzameld en de potentiële risico’s voor de privacy van individuen. Ton-That verdedigde de technologie als een waardevol hulpmiddel voor de rechtshandhaving en minimaliseerde de privacyzorgen. Hij gaf ook geen verdere informatie over andere betrokkenen bij Clearview AI.

Na publicatie van het artikel in de New York Times kwam Clearview onder publieke en juridische druk te staan. Overheidsfunctionarissen, waaronder senatoren en de procureur-generaal van New Jersey, eisten uitleg en sommigen namen maatregelen tegen het gebruik van de app. Techbedrijven zoals Facebook en Twitter stuurden cease and desist-brieven naar Clearview, en Apple trok de toegang tot hun ontwikkelaarsaccount in. Desondanks bleef een brede juridische actie uit, deels vanwege eerdere rechtszaken die het verzamelen van openbaar beschikbare informatie op internet hadden toegestaan.

De opkomst van een pandemie lijkt uiteindelijk de aandacht van Clearview’s privacyproblemen af te leiden, waardoor het bedrijf en zijn controversiële praktijken op de achtergrond raakten.

DEEL III: Future Shock

H17: What the fuck doe ik hier? (2020)
In januari 2020 wordt Robert Williams ten onrechte gearresteerd vanwege een winkeldiefstal, na te zijn geïdentificeerd door foutieve gezichtsherkenning. De politie van Detroit handelt op basis van een match gemaakt door gezichtsherkenningssoftware, zonder afdoende bewijs. Williams’ arrestatie, in het bijzijn van zijn familie, leidt tot ongeloof en angst bij zijn echtgenote Melissa en hun twee dochters.

Ondanks de verontwaardiging van Williams over de onterechte beschuldiging, wordt hij vastgehouden en ondergaat een vernederend proces, inclusief DNA-afname en een nacht in de cel. Tijdens het verhoor worden hem foto’s getoond van de daadwerkelijke winkeldief, waarin Williams geen gelijkenis ziet met zichzelf. De politie baseerde hun arrestatie op een zwakke match van gezichtsherkenningstechnologie en het falen van een getuige om de verdachte correct te identificeren.

Williams wordt uiteindelijk vrijgelaten, maar de ervaring laat diepe sporen na bij hem en zijn familie. De American Civil Liberties Union (ACLU) grijpt in om juridische steun te bieden. Het incident leidt tot een artikel in de New York Times, dat nationale aandacht vraagt voor de problematiek rondom gezichtsherkenning en de onterechte arrestaties die het kan veroorzaken, vooral onder zwarte mannen.

Naast Williams’ zaak komen er meer gevallen van onterechte arrestaties door foutieve gezichtsherkenning aan het licht, waaronder die van Michael Oliver en anderen, allen zwart. Deze incidenten benadrukken de risico’s en ethische bezwaren van het gebruik van gezichtsherkenning door rechtshandhavingsinstanties, de noodzaak van striktere regulering en het potentieel voor discriminatie en onrecht binnen het systeem. Williams en zijn familie blijven achter met blijvende zorgen en trauma’s, een stille getuigenis van de fouten in onze technologisch voortgedreven rechtshandhaving.

H18: Nog een reden om een mondmasker te dragen
Begin 2020, tegelijk met de opkomst van COVID-19, overweegt Clearview AI de crisis te benutten door hun gezichtsherkenningstechnologie aan te bieden voor het volgen van virusdragers. Geruchten suggereren dat landen als Zuid-Korea, China, en Rusland al vergelijkbare technologieën gebruiken voor pandemiebeheersing. In de VS leidt dit tot bezorgdheid over privacy en surveillance, met kritiek van figuren als senator Edward Markey.

Desondanks ontstaat er geen concrete samenwerking tussen Clearview en overheidsinstanties voor COVID-19 gerelateerde projecten. Het bedrijf past wel zijn systemen aan om personen met mondmaskers te kunnen identificeren, waardoor het gebruik van gezichtsherkenning ook tijdens de pandemie efficiënt blijft.

Clearview AI probeert zijn imago te verbeteren door zich te richten op overheids- en politieorganisaties en het gebruik in de private sector te beperken. Dit leidt tot gemengde reacties bij investeerders. Sommigen, zoals David Scalzo, bekritiseren het bedrijf voor het niet volledig benutten van zijn potentieel, terwijl anderen de voorzichtige benadering juist waarderen.

De pandemie zorgt voor een tijdelijke verschuiving van de focus weg van de controverses rondom Clearview AI, maar het debat over privacy en het gebruik van gezichtsherkenning blijft.

H19: Ik heb een klacht
Matthias Marx, een Duitse technicus en privacyvoorvechter, maakt zich begin 2020 zorgen over Clearview AI na het lezen van het artikel in de New York. Hij besluit zijn recht op inzage onder de Europese GDPR te gebruiken en vraagt Clearview om de gegevens die ze over hem hebben. Tot zijn verbazing ontvangt hij daadwerkelijk foto’s van zichzelf uit de database van Clearview, afkomstig van een stockfotosite. Marx dient een klacht in bij de Hamburgse gegevensbeschermingsautoriteit, wat resulteert in een bevel aan Clearview om zijn gegevens te verwijderen, al beseft Marx dat zijn foto’s waarschijnlijk weer verzameld zullen worden door Clearview’s constante internetmonitoring.

Ondertussen probeert Clearview AI zich internationaal te positioneren maar loopt tegen juridische muren aan. Privacyautoriteiten in meerdere landen stellen dat Clearview AI de wet overtreedt door massasurveillance, wat leidt tot verboden en hoge boetes. Ton-That blijft de dienst verdedigen door het te vergelijken met Google, maar de opbouw van biometrische databases zonder toestemming blijft een juridisch en ethisch probleem.

H20: Duistere driften
David, een man met een obsessie voor online pornografie, ontdekt PimEyes, een gezichtsherkenningstool die het mogelijk maakt de echte identiteit van pornoactrices te achterhalen door foto’s van hen te uploaden. Deze tool biedt hem de mogelijkheid foto’s van deze vrouwen in hun dagelijks leven te vinden, inclusief hun sociale media profielen. Hoewel David geen kwaad in de zin heeft, realiseert hij zich dat deze tool potentieel gevaarlijk kan zijn voor de privacy en veiligheid van de betrokken vrouwen.

De oprichters van PimEyes, gevestigd in Polen en later overgenomen door een Georgische hoogleraar, verdedigen het gebruik van gezichtsherkenningstechnologie als onvermijdelijk en pleiten voor brede beschikbaarheid. Ze wijzen op de verantwoordelijkheid van de gebruiker om de tool alleen voor eigen gezichten te gebruiken, hoewel ze erkennen dat het systeem misbruikt kan worden.

H21: Code Rood (Floyd Abrams vs de ACLU)
De American Civil Liberties Union (ACLU), een organisatie die zich inzet voor privacyrechten, zag in Clearview AI een bedreiging voor individuele vrijheden en begon na te denken over juridische stappen tegen het bedrijf. Nathan Wessler en Vera Eidelman, advocaten van de ACLU, waren vooral bezorgd over de mogelijkheid dat Clearview gebruikt kon worden om demonstranten en andere kwetsbare groepen te volgen zonder hun toestemming. De ACLU stelde dat Clearview’s technologie een inbreuk vormde op de privacy en potentieel misbruikt kon worden door zowel de overheid als private partijen.

Clearview AI werd inmiddels geconfronteerd met verschillende rechtszaken, waaronder een aanklacht in Illinois onder de Biometric Information Privacy Act (BIPA). Deze wetgeving vereist toestemming voor het gebruik van biometrische gegevens, zoals gezichtsherkenning.

In reactie op de juridische uitdagingen schakelde Clearview AI Floyd Abrams in, een gerenommeerde advocaat gespecialiseerd in het Eerste Amendement, om zijn zaak te verdedigen op basis van de vrijheid van meningsuiting. Abrams argumenteerde dat Clearview’s activiteiten, waaronder het verzamelen en analyseren van openbare foto’s, beschermd werden door het Eerste Amendement, i.e. de bescherming van de vrijheid van meningsuiting en hoe deze vrijheid zich verhoudt tot privacyrechten en het gebruik van technologieën zoals gezichtsherkenning. Echter, de rechter in Illinois wees deze argumentatie af, stellende dat het maken van biometrische identificaties zonder toestemming gereguleerd kon worden en geen bescherming genoot onder het Eerste Amendement.

Uiteindelijk kwamen Clearview AI en de ACLU tot een schikking, waarbij Clearview ermee instemde om zijn gezichtsherkenningstechnologie niet aan Amerikaanse particulieren en ondernemingen te verkopen. Clearview mocht echter wel doorgaan met de verkoop aan overheids- en politieorganisaties. Deze schikking werd door Clearview gezien als een overwinning, aangezien het bedrijf zijn kernactiviteiten kon voortzetten.

H22: De toekomst is ongelijk verdeeld
In het Verenigd Koninkrijk werden gezichtsherkenningssystemen door de politie ingezet op openbare plaatsen zoals Oxford Circus, wat leidde tot zorgen over privacy en onjuiste identificatie. Privacyactivisten, zoals Silkie Carlo van Big Brother Watch, verzetten zich actief tegen deze surveillancepraktijken. Deze gebeurtenissen benadrukken de spanning tussen veiligheidsmaatregelen en individuele vrijheden.

Het hoofdstuk beschrijft ook hoe in Rusland, door het gebruik van gezichtsherkenningstechnologie, een zwarte markt ontstond waarop biometrische gegevens illegaal verhandeld werden, wat leidde tot zorgen over misbruik van de technologie en inbreuken op de privacy.

In China wordt gezichtsherkenning op grote schaal gebruikt, zowel voor sociale controle als voor commerciële doeleinden. Dit heeft geleid tot een samenleving waarin surveillance alomtegenwoordig is en waarin privacy voor veel burgers een abstract concept is geworden. De Chinese overheid zet de technologie in voor het monitoren en controleren van de bevolking, met name gericht op minderheidsgroepen zoals de Oeigoeren.

De impact van gezichtsherkenning strekt zich uit tot internationale spionage, waarbij de CIA waarschuwt voor de risico’s die de technologie vormt voor haar operaties en informanten wereldwijd. Dit illustreert hoe de verspreiding van gezichtsherkenningstechnologie niet alleen een bedreiging vormt voor de privacy van individuen, maar ook geopolitieke implicaties heeft.

H23: een krakkemikkige surveillancestaat
Na de bestorming van het Capitool op 6 januari 2021, waarbij aanhangers van Trump probeerden de certificering van de verkiezingsuitslag te verhinderen, werd Clearview AI ingezet om de relschoppers te identificeren. Deze gebeurtenis, een directe aanval op de Amerikaanse democratie, leidde tot een toename in het gebruik van Clearview AI door politiediensten, die een enorme hoeveelheid beeldmateriaal doorzochten om betrokkenen te identificeren. De oprichter van Clearview AI, die zichzelf als apolitiek beschouwt, zag de inzet van zijn technologie bij deze gebeurtenis als een kans om de perceptie van het publiek over gezichtsherkenning te veranderen en om extra financiering voor het bedrijf te verkrijgen.

Het Real Time Crime Center (RTCC) in Miami, dat een scala aan surveillancetechnologieën gebruikt, waaronder Clearview AI, demonstreert zowel de mogelijkheden als de beperkingen van moderne surveillancetechnologie. Terwijl sommige systemen, zoals ShotSpotter en live camerafeeds, waardevolle informatie leveren voor politiewerk, worden de beperkingen van deze technologieën ook duidelijk. Veel camera’s bieden beelden van lage kwaliteit die niet geschikt zijn voor gezichtsherkenning, en het succes van surveillancesystemen is vaak afhankelijk van de specifieke omstandigheden, zoals de locatie van camera’s en de kwaliteit van de beelden.

De afhankelijkheid van technologie in politiewerk roept vragen op over de balans tussen efficiëntie en traditionele methoden van politiewerk. Hoewel technologie een krachtig hulpmiddel kan zijn, benadrukken experts zoals Aguilar en Fussey het belang van menselijke betrokkenheid en de noodzaak van een evenwichtige benadering die niet uitsluitend op technologie vertrouwt.

De gebeurtenissen rond de bestorming van het Capitool en de dagelijkse praktijk in het RTCC in Miami illustreren de complexiteit van het gebruik van surveillancetechnologie in de moderne samenleving. Ze benadrukken de noodzaak van een kritische benadering van de implementatie van deze technologieën, met aandacht voor zowel de mogelijkheden als de ethische en privacykwesties die ermee gepaard gaan.

H24: Terugvechten
In reactie op de toenemende zorgen over privacy en ethische vraagstukken rond gezichtsherkenningstechnologie, zocht Clearview AI naar manieren om zijn technologie in een positief daglicht te stellen. Dit omvatte het gratis aanbieden van hun app aan de Oekraïense regering tijdens de Russische invasie en het aanbieden van hun diensten aan pro-Deoadvocaten om onschuldigen te helpen. Deze initiatieven werden echter met scepsis ontvangen en beschouwd als PR-acties, gezien de onderliggende zorgen over de impact van gezichtsherkenning op de privacy en burgerrechten.

Activisten en technologen voeren campagne tegen het wijdverbreide gebruik van gezichtsherkenning, met sommigen die pleiten voor een totaalverbod op de technologie vanwege de inherente risico’s voor de samenleving. Deze zorgen worden gedeeld door beleidsmakers en enkele grote technologiebedrijven, die oproepen tot strikte regelgeving rond het gebruik van gezichtsherkenning.

Ondanks deze weerstand, blijft de ontwikkeling van gezichtsherkenningstechnologie doorgaan, waarbij ontwikkelaars werken aan het verminderen van vooroordelen binnen algoritmes. Dit heeft geleid tot een debat over de toekomst van gezichtsherkenning, waarbij sommige critici waarschuwen dat de focus op het verbeteren van de nauwkeurigheid van de technologie de bredere ethische en maatschappelijke kwesties die het oproept, kan overschaduwen.

H25: Technologisch malheur
Tijdens een ontmoeting met Hoan Ton-That, de oprichter van Clearview AI, ervoer de auteur een toekomst waarin gezichtsherkenningstechnologie een alledaagse realiteit kan worden. In het appartement van een collega probeerde Ton-That een geavanceerde AR-bril te demonstreren die in staat was gezichten te herkennen en te koppelen aan online foto’s en informatie. Ton-That besprak de groei van Clearview’s database en de ontwikkeling van nieuwe functies, zoals het verscherpen van onscherpe gezichten en het identificeren van achtergronden in foto’s om locaties te bepalen.

Het gesprek ging ook over de ethische en maatschappelijke implicaties van gezichtsherkenning. Ton-That vergeleek zichzelf met Ignaz Semmelweis, een pionier die niet werd begrepen in zijn tijd, suggererend dat de wereld moet wennen aan de transformatieve maar controversiële technologie die Clearview aanbiedt. De ontmoeting benadrukte de technologische vooruitgang en de potentiële gevaren van gezichtsherkenning, evenals de strijd om publieke en juridische acceptatie van dergelijke ingrijpende technologieën.

Verder lezen:

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Laatste blogs

Bekijk alle blogs (967)
Contact