Sæt bias på programmet

Del med dit netværk

På Hugging Face kan man finde en masse spændende ressourcer til det lidt mere nørdede dyk ned i kunstig intelligens. En af deres samlinger hedder Hugging Face Spaces og er en slags sandkasse hvor man kan teste en masse små eksperimenter.

Den anden dag fortalte Christoffer Lindved Dithmer om Diffusion Bias Explorer ovre på facebookgruppen Kunstig intelligens i Folkeskolen. Det er en tjeneste til at undersøge bias i billedmodellerne. Man kan vælge en af tre billedmodeller og angive en (valgfri) følelse samt en profession. Så laves der ellers en stribe eksempler. Det bliver hurtigt tydeligt at der er stor forskel på køns- og etnicitet afhængig af profession og følelse. Man kan også sammenligne de tre modeller og se på hvordan de løser den samme opgave. I det hele taget er det en virkelig illustrativ måde at gå i gang med at arbejde med hvad stereotyper og bias egentligt betyder.

Computerprogrammører er mænd og bibliotekarer er kvinder. Og næsten alle er hvide. I hvert fald i følge Stable Diffusion 2…

 

 


Del med dit netværk

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *