Grundig indføring i bias i kunstig intelligens
Bias – eller skævheder – er en af de mange risici der er ved store sprogmodeller (og andre typer af de teknologier vi kalder kunstig intelligens). På viden.ai har Claus skrevet en rigtig god og grundig artikel om dette.
Der er tale om en rigtig fin indføring i forskellige typer af bias, fra den algoritmiske, hvor det er skævheder i træningsdata, over tilgængelighedsbias og repræsentationsbias og til de mere modtagerbårne som bias i kontekst, forankring eller bekræftelsesbias, hvor vi kun hører det som understreger vores allerede eksisterende overbevisninger.
Artiklen har en fin pointe om, at finjustering af sprogmodeller med menneskelig feedback kan introducere yderligere bias afhængigt af feedbackgiverens perspektiv.
Endelig påpeges skævheder ud fra personaliserede visninger, for eksempel i søgeresultater eller køb, baseret på brugernes tidligere adfærd.
Artiklen opfordrer til en kritisk forståelse af skævheder i sprogmodeller og informationskilder generelt. Den er lang. Men den er også virkelig informativ, saglig og lærerig: