De opkomst van kunstmatige intelligentie (AI) kan lhbti’ers buitenspel zetten. De algoritmes kunnen hen uitsluiten en discrimineren, onder meer in de gezondheidszorg. Dat komt doordat de groep niet goed is vertegenwoordigd in de gegevens die de technologie gebruikt. Daarvoor waarschuwt kennisinstituut Movisie.
De onderzoekers keken op verzoek van het ministerie van Onderwijs naar de technologie. Ze constateren onder meer dat in landen waar homoseksualiteit een groot taboe is, informatie over lhbti-personen soms wordt gezien als porno. Die informatie wordt dan door sommige filters tegengehouden. Lhbti’ers blijven onzichtbaar en komen dus ook niet terug in de informatie waarmee de kunstmatige intelligentie wordt gevoed.
AI kan ook worden beïnvloed door vooroordelen in de samenleving. “Algoritmen hebben geen emoties. Ze doen wat hen gezegd wordt en ze voorspellen op basis van data. En daar zit de crux: de instructies worden door mensen gemaakt en de data worden door mensen verzameld”, aldus Movisie. Volgens de onderzoekers kan kunstmatige intelligentie vooroordelen overnemen en soms zelfs versterken.
Het instituut roept overheden en bedrijven op om rekening te houden met lhbti’ers. “Zeker gezien de kwetsbare positie van lhbti+-personen, is het belangrijk de waarde van kunstmatige intelligentie niet zomaar voor lief te nemen.” Hoe dat het beste kan gebeuren, laten de onderzoekers in het midden. Ze vragen betrokkenen om daar bij het ontwikkelen van AI over na te denken. (ANP)
Lees ook andere artikelen over AI
-----------------------------------------------------------------------------------------
Vind je dit interessant? Misschien is een abonnement op de gratis nieuwsbrief dan iets voor jou! GGZ Totaal verschijnt tweemaal per maand en behandelt onderwerpen over alles wat met de ggz te maken heeft, onafhankelijk en niet vooringenomen.
Abonneren kan direct via het inschrijfformulier, opgeven van je mailadres is voldoende. Of kijk eerst naar de artikelen in de vorige magazines.