Den algoritmiska diskrimineringen och vi

Det är tjusigt att använda sig av passiv form, det brukade jag lära mina elever. Därför tänker jag också göra det nu. Det pratas. Det pratas en hel del om AI i alla dess former och utföranden. Mest pratas det om våra generativa språkmodeller och bild- och filmgeneratorer och hur de kan påverka våra liv. Därför ska jag också prata lite om detta, men kanske ur en annan vinkel. Då mycket av pratet som hörs just nu handlar om huruvida våra elever skulle kunna använda sig av dessa verktyg för att fuska eller huruvida lärare skulle kunna använda sig av dessa verktyg för att kunna effektivisera sitt arbete så skulle jag vilja prata om vad verktygen egentligen är sprungna ur för värderingar.

Alla vet att världen är och alltid har varit en fördomsfull plats. Vi har alla fördomar. Lagstiftarna i Sverige har historiskt jobbat en del med att se till så att dessa fördomar och förutfattade meningar inte ska påverka individer på arbetsmarknaden. Det är inte tillåtet att låta bli att anställa en kompetent kvinna bara för att hon är i barnafödaråldern. Du kan inte bläddra förbi ett CV från någon som har fem år kvar till pensionen bara på grund av det. Funktionsvariation, kön, religiös tillhörighet, etnicitet, sexuell läggning, könsidentitet och könsuttryck, ålder – allt detta är sådant som lagstiftarna har lyft i de sju diskrimineringsgrunderna.

Varför har det blivit just dessa grunder? Sannolikt på förekommen anledning. Det har förekommit (och förekommer) diskriminering som genomsyrat hela samhället. Dessa värderingar är djupt rotade i generationer och ingenting som vi magiskt kan trolla bort utan att jobba med det. Därför är det också viktigt att prata om detta i kontexten av den snabba utvecklingen vi ser inom AI.

När automatiserade system, som använder sig av algoritmer och maskininlärning, fattar beslut som leder till ojämlik behandling baserat på personliga irrelevanta egenskaper, då uppstår algoritmisk diskriminering.
Det är absolut farligt om Skynet får möjlighet att skicka kärnvapen på hela mänskligheten och John Connor måste träda in, men ändå något som är förutsägbart och möjligt att bygga bort. Men hur lär vi en AI, som vi så innerligt gärna ska bli som vi, att inte bli så mycket som vi?

Allt AI kan har den lärt sig av oss. Vi är förlagan. Vi står modell. Vi är inga vackra modeller. Om man får tro AI är vi otroligt vackra. Den normativa människan fullkomligt väller ut ur bildgeneratorerna.
Jag bad Copilot att skapa personer med “olika typer av kroppar”, iklädda träningskläder. Resultatet var, milt uttryckt, fascinerande.

AI-genererad bild: Personer i träningskläder står på rad.
Resultatet vid förfrågan om en bildgenerering av personer av olika kroppstyper iklädda träningskläder.

Jag försökte med Chat GPT. Jag bad om ett fotografi av en tjock kvinna som bar träningskläder och tränade. Svaret  jag fick: “Jag kan skapa en bild av en kvinna som tränar, men istället för att specificera kroppstypen, kan jag fokusera på att fånga en positiv och motiverande träningsscen. Hur låter det?” Det lät inget vidare tänkte jag och formulerade om mig och bytte ut ordet “tjock” mot “överviktig”. Då “uppstod problem”. Jag försökte på lite olika sätt, men nådde inte framgång förrän jag bad om en bild på en “smal” kvinna. Då gick det undan och jag fick min bild.

En gång till tänkte jag att jag skulle försöka med Copilot. Efter några försök till formuleringar fick jag faktiskt en bild på en kurvigare kvinna som tränade, dock ivrigt påhejad av inte färre än sju icke-kurviga kvinnor.

Det här experimentet kanske kan ses som fånigt och en liten ögonbrynshöjare som mest. Dock är det värt att titta lite på vad det står för i det större perspektivet. Dessa generativa språkmodeller som vi nu har möjlighet att testa, är matade med det som är vi, mänskligheten. De kan reproducera vår historia eller vara vägen mot framtiden. Det är upp till oss hur vi använder oss av dem och hur kritiska och vakna vi är i vårt hanterande av resultatet. 

Detta är något som det bör pratas mycket, mycket mer om.