Feminisme bevrijdt mens en data
Hoe voorkom je dat data leiden tot discriminerend beleid, zoals in de toeslagenaffaire? In het boek Data Feminism tonen Catherine D’Ignazio en Lauren F. Klein aan dat in onze datagedreven wereld zelfs 'data for good' vaak kwaad doen. Ze pleiten daarom voor radicale ‘data justice’: we moeten niet alleen de onderliggende machtsstructuren begrijpen, maar ook uitdagen, ontmantelen en komen tot ‘co-liberation’ en sociale rechtvaardigheid voor iedereen.
In de satire Die Forschungsreise des Afrikaners Lukanga Mukara ins innerste Deutschland - geïnspireerd door de Perzische Brieven van Montesquieu - verhaalde de pacifist Hans Paasche al in 1912 over de Europese obsessie met tellen. En over de armzaligheid als we de werkelijkheid achter de data niet meer zien.
Google
De Europese ambtenaar die in Paasches boek de hutten telt en tot zijn genoegen vaststelt dat het aantal klopt, beseft niet wat de functie ervan is. ‘Niemand kan aan de buitenkant van een hut zien of deze wel of niet bewoond is. Als er mensen wonen, kan men aan de buitenkant niet zien of het geluk bij hen woont’.
Met een soortgelijk voorbeeld maken D’Ignazio en Klein duidelijk hoe achter ogenschijnlijk neutrale data en datavisualisaties sociale onrechtvaardigheid kan schuilgaan. Sinds 2013 brengt het Anti-Evicton Mapping Project in kaart waar mensen in San Francisco uit hun woning worden gezet. Dat gebeurt vooral binnen de vier blokken van een halte van een Google shuttle bus. Intussen is die kaart bijna helemaal bedekt met rode stipjes. Daardoor dreigde de boodschap verloren te gaan . In 2018 voegde AEMP daarom ‘Narratives of Displacement and Resistance’ toe: video-interviews met voormalige bewoners over hoe ze het verlies van hun (t)huis en buurt ervaren.
Context is noodzakelijk om datasets te begrijpen. Die context begint bij de datawetenschapper zelf. Openheid over de eigen positie hoeft geen bedreiging te zijn, maar kan een verrijking bieden als ‘situational knowledges’ zoals Donna Haraway het omschrijft. In een korte autobiografische schets in de inleiding geven D’Ignazio en Klein bijvoorbeeld aan zich bewust tonen van hun privilege als hoogopgeleide witte vrouwen. Ook pleiten ze het voor het toestaan van emoties en zintuigen (‘data visceralization’) in de datawetenschappen.
Macht
Deze radicale benadering vanuit intersectioneel feminisme doet wenkbrauwen fronsen. Echter, in zeven aanstekelijk en toegankelijk geschreven hoofdstukken vol voorbeelden en verwijzingen naar feministische theorie maken D’Ignazio en Klein korte metten met bestaande concepten van ‘wetenschappelijkheid’ en ‘objectiviteit’, die voortkomen uit een lange geschiedenis van door witte mannen gedomineerde datawetenschappen.
Data feminisme begint volgens de auteurs door het definiëren van macht als een altijd wisselende configuratie van structurele privileges enerzijds en structurele onderdrukking anderzijds. Door de verschillende niveaus waarop macht opereert (het structurele, het dominante, het administratieve en het interpersoonlijke) kan het daarom gebeuren dat Serena Williams als toptennisser macht heeft maar als zwarte vrouw bijna overleed tijdens de bevalling omdat haar medische klachten en hoger risico niet serieus werden genomen. Of dat de gedupeerden in de toeslagenaffaire aanvankelijk niet werden geloofd.
Extractie
Als we onze eigen data beschikbaar stellen, moeten we ons altijd afvragen door wie, voor wie data en met welk doel ze worden verzameld. D’Ignazio en Klein vergelijken Big Data-bedrijven met de olie-industrie en mijnbouw. Nu de aarde bijna is uitgeput, zijn het tegenwoordig Big Data bedrijven en overheden die de mens uitputten door een toxische combinatie van ‘science’, ‘surveillance’ en ‘selling’ van data.
Binnen de bestaande machtsstructuren zijn vrouwen en andere tot minderheid gemaakte groepen kwetsbaar hiervoor. Toen de Amerikaanse supermarktgigant Target uit aankoopdata kon afleiden dat vrouwen zwanger waren voordat die vrouwen dat zelf wisten en op basis daarvan aanbiedingen deed, leidde dat in 2012 tot een enorme rel. Het vrouwelijke lichaam werd namelijk niet alleen gereduceerd tot een winstgevend object, ook waren er vragen over privacy.
Ontbrekende data
Met privacy en toestemming wordt in femtech – apps en andere digitale toepassingen gericht op gezondheidszorg voor vrouwen – niet zo nauw omgegaan. Recent nog bleek dat apps die vrouwen helpen om hun cyclus te tracken zonder scrupules intieme data doorgeven aan bijvoorbeeld Chinese bedrijven. Gelukkig vermelden de auteurs ook ethische apps, zoals Irth. Irth of ‘birth zonder bias’ is een Yelp-achtige inclusieve app waar vrouwen hun ervaringen met zorgmedewerkers rond de geboorte kunnen delen.
Een andere misvatting is volgens de auteurs dat we in onze datagedreven samenleving data over haast alles zouden hebben. Ook het Target-schandaal toont hoe eenzijdig de data zijn waarover we beschikken: Target weet vanaf dag 1 of een vrouw zwanger is, maar data over risicofactoren voor perinatale sterfte van zwangere vrouwen van kleur zijn nog altijd gebrekkig.
Femicide
De manier waarop datasets – gebaseerd op historische en maatschappelijke aannames - worden verzameld én het ontbreken van data hebben beide een desastreus effect op het overheidsbeleid, aldus D’Ignazio en Klein. Zo ontbreken in België cijfers over femicide omdat het geen aparte categorie in het strafrecht is. Volgens de voormalige bevoegde minister zou dat slechts symboolpolitiek zijn, maar de cijfers (die nooit ‘rauw’ zijn, alle cijfers zijn uitkomst van ongelijke sociale relaties en ‘voorgekookt’, zo tonen D’Ignacio en Klein aan) alleen zullen nooit inzicht geven in de scheve machtsstructuren die aan de basis liggen van geweld tegen vrouwen en non-binaire personen. De nieuwe Belgische regering-De Croo heeft wel het voornemen om femicide apart in het strafwetboek op te nemen. Ook de cijfers in Nederland zijn schokkend én nog steeds gebrekkig, zoals uit recente berichtgeving van OneWorld bleek.
Surveillance
In de Verenigde Staten roept Black Lives Matters deze herfst haar achterban op om deel te nemen aan het federale bevolkingsonderzoek. Op basis hiervan wordt immers bepaald in welke wijken er het komende decennium geïnvesteerd zal worden in huisvesting, scholing, gezondheidszorg en openbaar vervoer. Door de decennialange lage deelname van minderheden, al een historische scheefgroei in de data geslopen.
Tegelijk is het niet raar dat deze groepen wantrouwig staan tegenover bevolkingsonderzoeken. Beleid wordt ook gemaakt op basis van overmatige surveillance van tot minderheid gelabelde groepen. Uit verouderde of inaccurate data over een groep worden niet zelden uitspraken gedaan over individuen. Daarbij speelt volgens de auteurs ook ‘scarcity bias’. Bij gebrek aan ambtenaren voor het oplossen van een beleidsvraagstuk wordt heil gezocht in simplistische data-oplossingen: meer (gekoppelde) data zijn beter en data zijn neutraal.
Zo ging het ook bij de toeslagenaffaire vreselijk mis. Zou de Nederlandse Belastingdienst zoveel vrouwen met een niet-westerse achtergrond hebben belaagd als de zeven principes uit Data Feminism waren toegepast? En of er ooit een onderzoek komt naar de volledige interne werking van het gebruikte algoritme of ‘reverse engineering’, is nog zeer de vraag.
Discriminatie
Het gevaar is volgens D’Ignazio en Klein immers niet dat de artificiële intelligentie gebruikt voor deze data-extractie slimmer wordt dan de mens maar dat onze vooroordelen ingebakken worden in de software. Komen we er dan met diversere teams en diversere datasets? Nee, betogen ze, want de kans is groot dat onderdrukking en vooroordelen opnieuw worden gereproduceerd.
De overgrote meerderheid van de witte mannelijke bevolking - waaronder de meeste programmeurs en data-analisten - is zich namelijk niet bewust van ‘privilige hazard’. Je gediscrimineerd voelen door bijvoorbeeld Zwarte Piet is voor hen andermans persoonlijke probleem. Hetzelfde geldt voor seksisme: omdat het mannen het niet ervaren, zien ze het niet als een breder maatschappelijk probleem.
Manipulatie
Daarbij komt nog dat geprivilegieerden hun positie vaak kunnen behouden op basis van een beperkte bewijsvoering, terwijl van de onderdrukte groepen steeds maar opnieuw (cijfermatig) bewijs wordt gevraagd, aldus D’Ignazio en Klein. Platforms als female:pressure en She.Said.So verzamelen al jaren cijfers over de structurele genderdispariteit in de muziekindustrie, maar anno 2020 is er nog maar bitter weinig veranderd. De cijfers willen maar niet voor zichzelf spreken.
Dat de Nederlandse belastingdienst de gedupeerden in de toeslagenaffaire altijd maar om nieuwe gegevens vraagt, zouden de auteurs als ‘gaslighting’ of een vorm van psychologische manipulatie bestempelen. Bovendien worden die onderdrukte groepen door zogenaamde ‘deficit narratives’ eenzijdig gepresenteerd als slachtoffers of worden groepen gereduceerd tot ‘een probleem’. Ook dit patroon kan herkend worden in de toeslagenaffaire.
‘Data ethics’ zijn momenteel het toverwoord. Hoewel het ‘do no harm’-principe cruciaal blijft, bevestigt dit concept volgens D’Ignazio en Klein de bestaande machtsstructuren omdat alle problemen uit gemakzucht worden verlegd naar het individu of een technisch systeem met een defect moreel kompas, onbewuste vooroordelen of een gebrek aan eerlijkheid, verantwoording en transparantie. Het streven naar ‘data justice’ of rechtvaardige data daarentegen kan alleen door dat de geschiedenis, de cultuur en de context waarin datasets tot stand zijn gekomen te begrijpen en te herstellen en zo ook onrecht uit het verleden te herstellen, zoals blijkt uit het recente rapport over de betrokkenheid van Amsterdam bij de slavenhandel.
Hokjes
Rechtvaardige data zijn volgens D’Ignazio en Klein onmogelijk zonder binaire en hiërarchische classificatiesystemen in vraag te stellen. Het meeste binaire denken is volgens de auteurs gebaseerd op valse veronderstellingen: aan de hand van de prachtige visualisatie uit Scientific American laten ze zien dat zelfs sekse vanaf de conceptie niet in binaire hokjes valt, maar veeleer een spectrum behelst.
Wat door binaire classificatiesystemen niet wordt geteld blijft zo onzichtbaar. Als bijvoorbeeld bij een onderzoek naar inkomen alleen de categorieën man of vrouw worden aangeboden, blijft de sociaal-economische positie van non-binaire mensen verdoken. Tegelijk zijn meer ‘hokjes’ niet altijd beter: voor non-binaire mensen in het Amerikaanse leger zou grotere zichtbaarheid juist desastreuze gevolgen kunnen hebben.
De auteurs pleiten er dan ook voor om de categorie ‘gender’ af te schaffen, behalve als het medisch noodzakelijk is. Toch is categorisering hardnekkig: als je een nieuw account aanmaakt bij Facebook wordt er niet meer naar je gender gevraagd. Daarvoor wordt het sociaal media-netwerk geprezen, maar achter de schermen verzamelt de techgigant nog steeds data om je gender te kunnen bepalen ten behoeve van adverteerders.
Poortwachters
Overigens hebben data-analisten en data-wetenschappers niet alleen een obsessie met classificeren, maar ook met het opschonen van datasets door vaak onderbetaalde ‘janitors’. In een van de vele zijsprongen leggen D’Ignazio en Klein uit hoe de wortels van deze idee-fixe terug te voeren is op de 19de-eeuwse eugenetica. Voor de auteurs passen ‘clean data’ niet in data feminisme: data zijn per definitie rommelig omdat ze diverse perspectieven laten zien.
Daarom pleiten ze ervoor om pluralisme te omarmen. In plaats van één luide, technische stem zouden mensen met diverse expertises en zeker mensen uit de gemeenschap waarvan de data komen of waarover de data gaan, moeten worden betrokken. ‘Data science’ projecten worden zo ‘community science’ projecten. En door ‘design voor co-liberation’ vindt er niet alleen kennisoverdracht plaats, maar wordt een sociale infrastructuur opgebouwd die een aanzet zou kunnen geven tot meer solidariteit, collectief handelen en verandering. Met voorbeelden tonen ze aan hoe zo’n participatief proces kan leiden tot kwalitatief hogere data. In dit proces spelen data-wetenschappers en andere professionals dan de rol van facilitators en gidsen.
Ten slotte, kost ‘data justice’ enorm veel (emotionele) arbeid, die voornamelijk wordt uitgevoerd door gemarginaliseerde groepen. Daardoor blijft deze arbeid - net als reproductieve arbeid – onderbetaald, onbetaald of zelfs onzichtbaar. Door ‘data arbeid’ zichtbaar te maken, wordt voor de lezer duidelijk dat rechtvaardige data het werk zouden moeten zijn van pluriforme gemeenschappen op basis van feministische principes. En alleen door data rechtvaardig te gebruiken of te weigeren, kunnen de bestaande machtsassymmetrieën plaats maken voor sociale rechtvaardigheid, aldus D’Ignazio en Klein.
Valkuilen
Data Feminism is een razend interessant en toegankelijk boek voor iedereen – niet alleen voor beginnende feministische datawetenschappers - dat aanzet tot nadenken over zowat alle aspecten van ons dagelijkse leven. Elk principe voor meer rechtvaardige data onderbouwen de auteurs – soms té – uitvoerig met theoretische inzichten van verschillende feministische denkers. Mislukte projecten illustreren de valkuilen; feministische en inclusieve data projecten geven inspiratie. De auteurs tonen daarbij meer affiniteit met projecten gebaseerd op sociaal werk dan met de vaak snel afgeraffelde kunstprojecten. Het boek bevat jammer genoeg ook nauwelijks voorbeelden van rechtvaardig datagebruik uit het bedrijfsleven.
De auteurs leggen veel nadruk op het bewustwordingsprocess over onze vooroordelen en ons handelen dat onrecht reproduceert. Daarbij gaan ze ervan uit dat we ten alle tijde bewust handelen, maar dat roept de vraag op hoe we dat kunnen verzoenen met het gegeven dat ons brein vaak ook functioneert als een soort verwachtingsmachine. D’Ignazio en Klein leggen ten slotte een zware verantwoordelijkheid bij historici en (data-) journalisten, die ze tegelijk wantrouwen om hun vermeende streven naar objectiviteit. Echter, in de academische wereld en in de journalistiek is het tijdperk van het solo opererende mannelijke genie die met een ‘objectieve’ blik ‘de werkelijkheid’ toont, stilaan voorbij. Vooroordelen – al dan niet op basis van data – bestrijden, blijft een werk van lange adem.
Catherine D’Ignazio & Lauren F. Klein, Data Feminism (Cambridge, MIT, 2020)
Op 22 oktober modereert WAAG-directeur Marleen Stikker een online q&a met filmmaker Shalini Kantayya. Haar film Coded Bias belicht de verhalen van mensen die zijn getroffen door schadelijke technologie en toont vrouwen die op baanbrekende manier alarm slaan over de bedreigingen van kunstmatige intelligentie voor burgerrechten. Zoals het verhaal van MIT-onderzoeker Joy Buolamwini die ontdekte dat veel gezichtsherkenning-technologie niet reageert op haar huidskleur, een verhaal dat ook uitgebreid aan bod komt in Data Feminism. Voor gratis tickets, zie deze link.
Steun LOVER!
Vond je dit een goed artikel? Wil je dat Nederlands oudste feministische tijdschrift blijft bestaan? Laat je waardering blijken door een (eenmalige) donatie en help ons. LOVER draait uitsluitend op vrijwilligers en donaties. Elke euro is welkom en wordt gewaardeerd. Meer informatie vind je hier.