Från mänskligt bias till AI bias

Photo by Tara Winstead on Pexels.com

Att vara mänsklig innebär ju som jag talat om tidigare många gånger att en del av vår tillvaro dessvärre byggs kring våra fördomar. Det innebär att vi fattar beslut byggda på just dessa fördomar och att vi varken är logiska eller rationella. Vi ser det inte eftersom förhållningssätten och uppfattningarna liksom är inbäddade i vår mänskliga ”kod”. Problemet är att vi sedan stöter på de här fördomarna i form av diskriminering på olika sätt.

Från början fanns inte tanken att AI skulle kunna vara fördomsfullt. Maskininlärning bidrar ju till att göra datorsystem smarta och intelligenta och hela syftet är att systemen ständigt ska anpassa sig efter nya omständigheter och på sikt bli självständiga. Tanken fanns liksom inte riktigt på kartan att partiskhet och fördomar skulle uppstå i systemet precis på samma sätt som om vi mötte en enskild individ i en specifik situation. Men AI-bias uppstår eftersom det är vi människor som väljer de data som algoritmerna använder och dessutom bestämmer hur resultaten av de algoritmerna ska tillämpas (tex skulle en biased algoritm kunna avgöra att en kvinna korrelerar dåligt med att vara styrelseledamot).
Det finns några kända exempel på AI – bias ”i historien”. 2015 visade det sig tex att företaget Google hade åstadkommit en fotoapp ”Googles Lens” som oavsiktligt klassificerade människor med mörkare hud som en viss sorts primat. Det ligger naturligtvis en stor problematik i att ett system ens kan göra en sådan missbedömning och situationen mottogs av naturliga skäl med stor misstro och många upprörda känslor. Man kan också fundera över om man ens ska ta upp ett sådant exempel här i bloggen. Men problematiken blev ett tydligt uppvaknande. Någonstans i samband med den här händelsen stod det klart att tekniken kanske inte var så säker som man först kanske trott. Plötsligt tydliggjordes det att man hade dragit den felaktiga slutsatsen att bara för att något bygger på data eller är programmerat, så innebär det att det är värdeneutrala fakta. Google fick snabbt gå ut offentligt och be om ursäkt. Man sade också att man skulle åtgärda misstaget i sitt bildkategoriseringsprogram. Tre år senare upptäcktes dock att man inte lyckats med detta utan vad man gjort var att helt blockera systemet från att identifiera några som helst primater. Tilltron till tekniken förstärktes inte direkt när det framgick att trots att Google som ansågs ha enbart de bästa anställda inom området och dessutom vara extremt framstående inom området, inte klarade av att lindra en redan befintlig fördom i systemet. Och just här ligger problemet – har en fördom väl tagit sig in i systemet är det extremt svårt att ändra på det. Exemplet ovan är ju från 2015 men fortfarande vet man inte hur man ska lyckas förhindra AI-bias. Det kan få katastrofala följder när AI tex ska användas för rekrytering (som blir alltmer vanligt) eller andra urvalsformer. Dessutom undrar man jusom individ i mötet med AI – vems fördomar är det jag möter -egentligen?

Men inte bara enskilda individer och grupper kan drabbas av diskriminering eller andra oönskade effekter på grund av AI bias. Ur ett företagsperspektiv kan varumärket få sig en rejäl törn och även andra negativa affärseffekter kan självklart uppstå. Det gäller därför att tänka efter före och sätta sina AI-modeller i produktion på ett genomtänkt sätt. Ett mycket viktigt steg i den processen är att aktivt arbeta för att identifiera och eliminera potentiella fördomar. Företagen måste också sträva efter förklarbarhet så att de människor som involveras kan förstå hur just deras AI fungerar. Dessutom behöver det finnas möjligheter att klaga om man upplever sig orättvist behandlad av AI-lösningen. Sist men inte minst är etik en nödvändig ingrediens i de lösningar som tas fram.

I takt med att AI lösningar alltmer implementeras är det också nödvändigt att föra en diskussion kring var ansvaret för AI-bias egentligen ligger – är det statens eller det enskilda företaget som ska säkerställa att inte individer diskrimineras i morgondagens AI-lösningar. Frågan kräver ett svar.

https://www.svd.se/hjarnan-sorterar-bort-verkligheten, https://insidebigdata.com/2022/02/09/7-reasons-for-bias-in-ai-and-what-to-do-about-it/

Birgitta Wildenstam, Global Disruptive Thinker

Publicerad av Birgitta Wildenstam

Global Disruptive Thinker, Future Business Consultant

Lämna en kommentar