Kijktip: Coded Bias

De documentaire Coded Bias analyseert de gevolgen en gevaren van de surveillancemaatschappij. Wij leggen uit waarom het een kijktip is!

Stel je eens voor: elke keer dat je openbare wifi wilt gebruiken, moet je je gezicht laten scannen door je telefoon. Alleen als je gebruik maakt van gezichtsherkenningstechnologie en je biometrische gegevens keer op keer aan een grote database levert, kun je op het Internet. Voor de inwoners van China is dit geen hypothetische situatie meer. Voor hen is het de realiteit. Toch is China geen uitzondering wanneer het gaat om ingrijpende staatssurveillance. De documentaire Coded Bias, geregisseerd door Shalini Kantayya, maakt duidelijk hoe dergelijke controletechnieken zich wereldwijd manifesteren.

Big Brother is watching you

Coded Bias focust op de negatieve kanten van geautomatiseerde systemen en moderne surveillance modellen. Als kijker maken we onder andere kennis met Silkie Carlow, directeur van de Big Brother Watch. Deze naam verwijst naar George Orwell’s bestseller, het dystopische ‘1984’ dat hij in 1949 publiceerde. In Orwells fictionele wereld overheerst een totalitair en almachtig regime. Elke burger wordt ten alle tijden aan hevige bewaking onderworpen. Of, zoals de befaamde woorden luiden: ‘Big Brother is watching you’.

De Big Brother Watch heeft een duidelijk objectief: aandacht vragen voor en strijden tegen moderne invasieve surveillance technologie. Zo voeren ze in Londen campagne tegen politie die daar op straat gebruik maakt van gezichtsherkenningstechnologie om voorbijgangers te identificeren. In hun strijd tegen de groeiende invloed van  bedrijfs- en staatssurveillance, zien we ook een schrijnende vraag naar boven komen. Kunnen we Orwell’s dystopische wereld nog wel fictief noemen?

Gecodeerde vooroordelen

Naast het ethische vraagstuk van de surveillancemaatschappij stuiten we op een andere kwestie. Technologie die wordt ingezet als controlemiddel is lang niet altijd betrouwbaar, accuraat en inclusief.  

De persoon die we het vaakst zien, is Joy Buolamwini. Zij is een computerwetenschapper bij het MIT Media Lab (Cambridge, Massachusetts). Buolamwini vertelt hoe ze tijdens één van haar schoolprojecten op een probleem stuit. Wanneer ze gebruik wil maken van gezichtsherkenningstechnologie, merkt ze dat deze niet goed werkt bij haar. Totdat ze een wit masker opzet: opeens wordt haar ‘gezicht’ moeiteloos herkend. Het algoritme achter de technologie blijkt niet in staat het gezicht van Joy, een zwarte vrouw, te herkennen. 

Uit wat volgt in de documentaire, leren we dat dit incident geen uitzondering is.  Gezichtsherkenningstechnologie overal ter wereld berust op vooroordelen. Dat is eigenlijk zo gek ook niet, wanneer je bedenkt dat technologie nog altijd oorsprong vindt bij menselijke kennis en ontwikkeling. En de invloedrijke mensen die deze technologie ontwikkelen, behoren grotendeels tot één demografische groep: die van de witte man. 

Mensen van kleur lopen hierdoor bijvoorbeeld een grotere kans om verkeerd geïdentificeerd te worden door gezichtsherkenningstechnologie. Dit zien we gebeuren in de documentaire. Tijdens het actievoeren van de Big Brother Watch in Londen wordt een zwarte scholier aangehouden en ondervraagd. Na een tijdje blijkt dat hij ten onrechte gematched was met een verdacht persoon. 

Kijken dus!

Coded Bias legt dus op meerdere manieren de vinger op de zere plek. Als kijker worden we gedwongen kritisch na te denken over de praktijken van surveillance in onze maatschappij. Hoe wenselijk is het dat we mogelijk op elke straathoek vastgelegd en geïdentificeerd kunnen worden? En hoeveel privacy zijn we bereid in te leveren voor onze veiligheid? Concrete antwoorden op deze vragen krijgen we niet. Wat we wel vergaren: een gevoel van urgentie en handvatten om over dergelijke vragen na te denken. 

Daarnaast belicht de documentaire het probleem van algoritmische vooroordelen en mogelijk desastreuze gevolgen hiervan goed. Buolamwini neemt ons mee in haar felle strijd voor eerlijke, inclusieve algoritmische principes. Weten waar haar strijd - en die van gelijkgestemden zoals Carlow - haar brengt? Dan zul je Coded Bias toch echt zelf eens moeten checken!

Meld je aan voor de webinar

Gerelateerde blogs

Relevante producten

Helaas zijn er op dit moment geen relevante artikelen beschikbaar.