Context / probleemstelling of aanleiding
Thema:
Als je Googled op afbeeldingen van “huidziektes” zie je een scala van aandoeningen op allerlei huiden langskomen. Allerlei? Nou niet echt, het zijn vooral huiden van witte mensen. Typ de termen ‘arts patient communicatie’ en ook daar ontstaat het beeld dat de wereld bijna alleen door witte mensen wordt bevolkt. Daar zit geen kwaardaardige racistische programmeur achter die ervoor zorgt dat er nauwelijks mensen met een niet-witte huid langskomen: het is het algoritme dat deze bias veroorzaakt. Algoritmes zijn helemaal niet zo neutraal als we altijd denken, ze kunnen onbedoeld een heel vertekend, in dit geval, wit beeld van de werkelijkheid geven. Een ander voorbeeld van ‘ racistische’ techniek zijn de kranen die een sensor bevatten om het water te laten stromen. Die reageren soms slechter naarmate je huid donkerder is. Ook webcams die iemand kunnen ‘volgen’ tijdens online bijeenkomsten zijn soms minder goed in staat om niet-witte mensen te detecteren.
Doel:
Met de deelnemers bias in technologie bespreken om ze er bewust van te maken en ze dat bewustzijn te laten toepassen in hun (onderwijs)praktijk.
Doelgroep:
Studenten, docenten, iedereen die betrokken is bij (bio)medisch onderwijs
Opzet: activiteiten en opbrengst:
Technologie is niet neutraal. Technologie kan mogelijk een deel van de werkelijkheid verbergen en op die manier discriminatie bevorderen. Voor een deel kan dat verklaard worden door het feit dat de ‘techneuten’ nog vooral witte mannen zijn, maar voor een deel komt het ook door de ongelijkheid in de wereld zelf, die vaak weer gekopieerd wordt door technologie en algoritmes. Bewustwording op dit gebied van groot belang voor goede med/tech innovaties.
Ruha Benjamin geeft in het boek ‘Race after Technology’ allerlei voorbeelden van technologie die ongelijkheid bevordert. Daarnaast geeft ze tools om ons diezelfde technologie kritisch te bekijken en te bevragen. Omdat technologie een steeds grotere rol in het (bio)medisch domein gaat spelen en daarmee in het medisch onderwijs, is het ook voor ons allen een belangrijk thema.
In deze rondetafel willen we de deelnemers eerst kort introduceren in het gedachtegoed van Benjamin. Daarna willen we met elkaar bekijken hoe we, docenten, artsen, onderzoekers, onze studenten alert kunnen laten zijn op een mogelijke racistische bias in technologie die zij (gaan) gebruiken. Daartoe dienen we eerste zelf in staat te zijn de bias in technologie te herkennen en te erkennen. Zodat in de toekomst medische technologie eerlijker wordt en niemand benadeelt of buitensluit.
Referenties:
R.Benjamin: Race after Technology. Cambridge, 2019.
Benjamin, R:
Assessing risk, automating racism; a health care algorithm reflects underlying racial bias in society. Science 25 oct 2019.
Max aantal deelnemers :
40