Grok en de illusie van neutrale AI

Beeld door Eva Jansen2
Beeld door Eva Jansen2
Nienke Amarins Hettinga
Nienke Amarins Hettinga • 15 apr 2026

Het recente schandaal rond Elon Musks chatbot Grok heeft wereldwijd de aandacht getrokken. Binnen enkele dagen produceerde het systeem miljoenen beelden, waarvan een aanzienlijk deel vrouwen en meisjes seksualiseerde op een expliciet gewelddadige manier.

Volgens een analyse van het Center for Countering Digital Hate bevatten naar schatting 1,8 miljoen van de 4,4 miljoen afbeeldingen die Grok tussen 31 december en 8 januari genereerde, seksuele inhoud van vrouwen. Een bredere analyse door het Center for Countering Digital Hate kwam uit op een percentage van 65 procent van de beelden, inclusief seksuele inhoud over mannen, vrouwen en kinderen.

De schaal en snelheid van de verspreiding van de beelden waren ongekend. In negen dagen produceerde Grok meer materiaal dan andere deepfake-platforms in een heel jaar. Gebruikers op het platform X, waar Grok een publiek account had, konden foto’s uploaden en het systeem vragen om mensen te ontkleden, in bikini's te zetten of in seksuele posities te plaatsen. Het resultaat was een “industriële schaal van misbruik van vrouwen en meisjes,” zoals Imran Ahmed van het Center for Countering Digital Hate het samenvatte.

Grok en het systeem van seksisme
Het incident werd door Elon Musk zelf aangekaart, die op 31 december een afbeelding van zichzelf in een bikini deelde, evenals een SpaceX-raket met een vrouwelijk lichaam eroverheen gemonteerd. Vervolgens explodeerde het aantal verzoeken aan Grok om seksuele beelden te creëren tot bijna 600.000 per dag. Binnen enkele dagen had het systeem meer dan 4,4 miljoen afbeeldingen geproduceerd.

Het probleem werd nog erger door de minimale moderatie en publieke toegankelijkheid van het systeem. Pas op 8 januari beperkte X de mogelijkheid om beelden te genereren met Grok tot betalende gebruikers, en later werden prompts voor “beelden van echte mensen in onthullende kleding” geblokkeerd. Maar de schade was al aangericht: de afbeeldingen circuleerden en veroorzaakten echte, tastbare schade voor vrouwen, van influencers tot gewone gebruikers.

Het is belangrijk te benadrukken dat Grok niet zomaar een programmeerfout is. Het is een product van keuzes: een commerciële drang naar interactie, gecombineerd met een bewust loslaten van veiligheidsmechanismen om het systeem aantrekkelijk te maken. Dit is geen toevallige mislukking, maar een structureel symptoom van hoe technologie vrouwen objectiveert.

Deze problematische ontwikkeling van Grok laat een belangrijk inzicht zien: AI-platformen kunnen niet volledig vertrouwen op interne bescherming tegen schadelijk gedrag. Generatieve AI-systemen zoals Grok opereren in een systeem waarin schadelijk gedrag kan worden opgeschaald, genormaliseerd en geautomatiseerd. Dit betekent dat er meer nodig is dan achteraf filters installeren of schade rapporteren. Het vereist dat platforms systematische maatregelen implementeren om de reproductie van seksisme, objectivering en geweld tegen vrouwen actief te voorkomen.

AI is nooit neutraal
Vanuit een feministisch perspectief draait het probleem niet alleen om het feit dat Grok deze beelden maakte.  Deze gebeurtenissen zijn een voorbeeld voor hoe technologie kan worden ingezet om patriarchale normen te versterken. AI-modellen zijn immers niet neutraal. Ze leren van enorme datasets die de menselijke samenleving weerspiegelen; een samenleving die structureel seksistisch en racistisch is. Een taal- of beeldmodel zoals Grok reproduceert daarom automatisch patronen uit de wereld waarin het is getraind.

En toch, ondanks wat de publiekelijke schok en media-aandacht doen denken, is dit scenario eigenlijk niet verrassend. De kern van het probleem ligt in de verwachtingen die gebruikers van open AI hadden. Veel van de hype rond Grok ging over de belofte van een AI zonder censuur. In een wereld waarin men verwacht dat algoritmes neutraal zijn, wordt de realiteit van de menselijke bias en maatschappelijke patronen vaak vergeten.

AI is nooit neutraal. Het wordt getraind door datasets van menselijke data die politieke, culturele en gendergebonden vooroordelen bevatten zoals seksisme en racisme.

Vrijheid zonder verantwoordelijkheid treft altijd vrouwen het hardst. De verwachting dat AI neutraal kan zijn, miskent de diepgewortelde ongelijke machtsverhoudingen in onze samenleving. Het resultaat is dus geen verrassing: vrouwen worden tot seksuele objecten gemaakt.

De Grok-situatie is een logische uitkomst van een systeem ontworpen om interactie en winst te maximaliseren zonder een ethische basis. Feministisch gezien is dit een herhaling van de lange geschiedenis waarin de vrijheid van technologie vaak ten koste gaat van vrouwen en andere gemarginaliseerde groepen.

Wat hadden we dan verwacht? 
Grok laat zien dat het idee van een 'vrije AI' zonder bias een illusie is. AI is altijd een weerspiegeling van de samenleving die het heeft gemaakt; de keuzes van ontwerpers, commerciële belangen en maatschappelijke structuren bepalen.

Vanuit feministisch oogpunt is de les duidelijk: het probleem was voorspelbaar en systemisch. Het debat over bias, moderatie en verantwoordelijkheid zal blijven bestaan zolang we technologie niet benaderen als sociaal en politiek. De vraag is niet of AI fouten maakt, maar of wij bereid zijn de systemische effecten op vrouwen en andere kwetsbare groepen te erkennen.

Grok is daarmee niet slechts een incident; het is een casestudy in de limieten van technologisch optimisme en een oproep aan feministen om te waken over de sociale impact van AI. Het is geen nieuws dat vrouwen het zwaarst getroffen worden, en het is geen verrassing dat AI-systemen onze bestaande ongelijkheden reproduceren. 

Kortom: wat hadden we dan verwacht? Een AI zonder bias? Zonder moderatie? Zonder maatschappelijke impact? Dat bestaat niet. AI weerspiegelt de wereld zoals die is: seksistisch, ongelijk en politiek gekleurd. 


Steun LOVER!
LOVER draait sinds de start in 1974 volledig op vrijwilligers en donaties. Wil je dat een van Nederlands oudste feministische tijdschriften blijft bestaan? Help ons door een (eenmalige) donatie. Elke euro is welkom en wordt gewaardeerd. Meer informatie vind je hier.