columns

Waarom we af moeten van 'racistische zeepdispensers en seksistische robots'

Waarom we af moeten van 'racistische zeepdispensers en seksistische robots'

Het filmpje van een non-touch zeepdispenser die wel reageert op de hand van een witte man maar niet van een zwarte man zorgde voor ophef. Janneke Niessen legt uit waarom dat terecht is.

| Janneke Niessen

In onderstaande column kaart ze het probleem van racistische technologie aan.

Lees ook
Verbinding verbroken: dit is dé oplossing tegen het gek makende terugbel-pingpong

Weinig divers
De intentie van het bedrijf dat de zeepdispenser (hieronder te zien) heeft gemaakt, was hoop ik niet verkeerd. Toch laat het heel goed een achterliggend probleem zien in de tech-branche: een gebrek aan diversiteit. Was er een niet-witte werknemer geweest, dan hadden testen het probleem allang ontdekt.

Niet objectief
Hoewel vaak anders gedacht: technologie en algoritmes zijn niet objectief, niet neutraal en niet onbevooroordeeld. Ze worden gemaakt en geprogrammeerd door mensen en wanneer data wordt gebruikt als input, is die data vaak ook niet neutraal. Een probleem als met de zeeppomp onderstreept het belang van diverse teams qua geslacht, achtergrond, etniciteit, leeftijd etc.

Meer voorbeelden
De dispenser staat niet op zichzelf. Zo was er een digitale camera van Nikon, die bij het maken van foto’s van Aziatische mensen steeds vroeg of iemand misschien met zijn of haar ogen had geknipperd.

Seksistische software
Zo is er ook software die beeld herkent: mensen die koken, winkelen en schoonmaken labelt het programma als vrouwen en de mensen die sporten, coachen en schieten zijn man. Komt er een man achter het fornuis langs, dan wordt hij gelabeld als vrouw.

Robottraining
En dat heeft wel degelijk gevolgen: deze software wordt gebruikt om robots te trainen en zal zonder ingrijpen waarschijnlijk als een man thuis komt hem een biertje aanbieden, en de vrouw vragen of hij kan helpen met het doen van de was. Stereotypen worden hierdoor niet alleen bevestigd, maar ook uitvergroot.

Excuses
In het verleden heeft zowel Google als Flickr excuses moeten maken. Hun systemen herkenden namelijke zwarte mensen als aap, of labelden ze als gorilla.

Diverse gebruikers, diverse ontwikkelaars
Juist de tech-industrie heeft een enorm slechte reputatie ten aanzien van diversiteit; de mensen die er werken zijn voor het grote gedeelte wit en man. En dat moet, zeker als je bovenstaande voorbeelden leest, dus nodig anders. Gebruikers zijn tenslotte wél divers, dus is het beter als producten en services dat ook zijn. En niet stereotyperend, racistisch of op een andere manier discriminerend.

Janneke Niessen (40) is ondernemer, investeerder, co-founder van Inspiring Fifty en initiatiefnemer van Project Prep, een boek voor jonge meiden waarin technologie en ondernemen een belangrijke rol spelen. Ze is mentor voor startups en en zit in de board van een aantal bedrijven. Ze schrijft iedere maand een column voor ons over technologie.

SNACKS | COLUMNS | TECH

Bron: Janneke Niessen | Foto: ANP

Foutje gezien? Mail ons. We zijn je dankbaar

Reacties

Meer columns

Meest gelezen

Lees dit ook even

Please update your browser