8.3.2 De data-mens
Steeds vaker wordt de mens binnen systemen gedefinieerd door algoritmes, vaak gebaseerd op big data en gebruikmakend van kunstmatige intelligentie (artificiële intelligentie, AI). Op deze wijze kan men ingewikkelde systemen die volgens principes van rationalisatie, standaardisatie en digitalisatie worden ontwikkeld steeds beter personaliseren op basis van individuele eisen en wensen. Vanuit het perspectief van de technologie wordt er diepgaand onderzoek gedaan naar hoe robots en kunstmatige intelligentie fysiek en mentaal steeds meer op mensen kunnen lijken. Dat is niet makkelijk, maar lukt steeds beter. Vanessa Evers, hoogleraar sociale robotica van de Universiteit Twente onderzoekt hoe je robots kunt ‘opvoeden’ tot sociale wezens met menselijk gedrag: “Robots moeten snappen dat ze functioneren in een sociale omgeving. Daarvoor moeten ze menselijk gedrag kunnen herkennen en erop kunnen anticiperen.”
Afbeelding: Vanessa Evers
Er is echter een toenemend besef dat de technologie hierachter geen objectieve wereld representeert maar is gebaseerd op dominante maatschappelijke, culturele en economische waarden en normen van zowel de ontwikkelaars als van het gehanteerde bronnenmateriaal. Een algoritme is een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leidt. Algoritmes worden meestal gebruikt in combinatie met grote hoeveelheden data ten behoeve van bijvoorbeeld het maken van individuele selecties. Algoritmes maken daarbij gebruik van informatie die zelden neutraal is (bias) met het risico dat groepen die onder- of oververtegenwoordigd zijn systematisch benadeeld kunnen worden. Zoals statistische gegevens nooit met garantie een toekomstige uitslag kunnen voorspellen, zo kunnen verzamelde data van individuele personen nooit een volledige representatie van iemand zijn. Grafisch ontwerper en artistiek onderzoeker Simone C. Niquille laat dit zien in haar werk Inflatables. Ze heeft op basis van gestandaardiseerde data over lichamen 3D-modellen gemaakt voor twee opblaasfiguren. Vervolgens stuurde ze deze datamodellen naar twee bedrijven om de opblaasfiguren te produceren: een bedrijf in Meppel en een bedrijf in Zhejiang in China. Ondanks dat de specificaties identiek waren verschilden de resultaten mede door de culturele context waarbinnen deze zijn geproduceerd.
Er ontstaat frictie rondom de niet-neutrale werking van AI wanneer systemen die noodzakelijk en wenselijk zijn om de wereld goed te organiseren algoritmen bevatten die individuen en groepen op individueel niveau kunnen vervreemden, stigmatiseren en uitsluiten. Voorbeelden hiervan zijn geautomatiseerde selectieprocedures voor bijvoorbeeld sollicitaties die zijn gebaseerd op bronnenmateriaal met een bias (bijvoorbeeld weinig vrouwelijke sollicitanten of sollicitanten met een niet-westerse naam) die door het algoritme alleen maar wordt versterkt, of van camerabeelden die (nog) geen voldoende onderscheid kunnen maken tussen bijvoorbeeld mensen en dieren of tussen een voetbal en een voetballer met een kaal hoofd. Het is de frictie tussen het generieke en collectieve versus de unieke eigenschappen en individuele voorkeuren, behoeften en gedragingen van mensen.
"Wanneer systemen op individueel niveau met de mens interacteren maar niet worden begrepen, ontstaat er een mate van vervreemding die direct raakt aan vragen over wie we zijn."
Om data te kunnen begrijpen, dienen ze verwoord of gevisualiseerd te worden. Ook deze vertaling van data naar woord of beeld is een interpretatie en representatie waarmee de feitelijke, fysieke persoon nooit volledig samenvalt. Een belangrijke vraag is dus wat de psychologische, sociale en ideologische consequenties zijn voor mensen als ze steeds vaker door kunstmatige intelligentie worden gerepresenteerd. In de roadmap The Humane Touch staat het individueel belang van de mens binnen AI centraal.
Onderzoeksvragen bij de data-mens
    1.
    Hoe kunnen op data gebaseerde algoritmes de mens zo goed en compleet mogelijk representeren zonder dat dit leidt tot ongewenste uitsluiting, profilering of stigmatisatie van individuen en groepen mensen?
    2.
    Welke KEM's kan de creatieve professional inzetten om big data en slimme systemen te gebruiken ten behoeve van het welzijn, zonder hierbij bepaalde individuen of groepen mensen ongewild uit te sluiten, te profileren of te stigmatiseren?
    3.
    Welke rol kan de creatieve industrie spelen ten behoeve van bewustwording en transparantie over de (on)mogelijkheden en consequenties van de representatie van de individuele mens door middel van data?
    4.
    Hoe kan de creatieve industrie algoritmisering en big data creatief gebruiken ten behoeve van alternatieve, gewenste toekomstbeelden?
    5.
    Hoe kunnen mensen meer inzicht krijgen in het feit dat ze door middel van het achterlaten van datasporen betalen voor hoogwaardige technologie die gratis lijkt te zijn?
Last modified 1yr ago
Export as PDF
Copy link