Dette indlæg er alene udtryk for skribentens egen holdning.

Er dine data woke nok?

17. januar 2022 kl. 12:00
De danske universiteter er gået i gang med at opbygge en ‘sandkasse’ af syntetiske patientdata, som studerende kan øve sig på uden at komme i konflikt med GDPR.
Illustration: Bigstock/MchlSkhrv.
For nogle år siden gik en video med en sæbedispenser viralt. Grunden var, at den automatiske sæbedispenser tilsyneladende kun uddelte sæbe til mennesker med en lys hudfarve. En hvid hånd fik med det samme maskinen til at give sæbe, mens en hånd med en mørkere hudfarve fægtede forgæves, indtil den gav op og stak en hvid serviet ind under dispenseren – hvilket udløste en omgang sæbe.
Artiklen er ældre end 30 dage

Bias er ikke noget nyt eller noget, der er forbeholdt tech-verdenen. I bogen ‘Invisible women’ af Caroline Criado-Perez kan man eksempelvis læse, hvor mange ting i verden, der er indrettet med den gennemsnitlige mand som målestok. Alt fra medicin til sikkerhedsseler i biler er tilpasset den gennemsnitlige mand, hvilket giver kvinder langt større risiko for at blive fejlmedicinerede, og risikoen for at komme galt af sted i en bilulykke er 67 procent større for kvinder end for mænd på grund af bias i designfasen. Eksemplet med sæbedispenseren er et eksempel fra tech-verdenen, fordi den sensor, der skal udløse sæben, med al sandsynlighed er trænet på virkelige eksempler, i dette tilfælde hænder. Og alt kunne tyde på, at man har glemt, at den bør trænes på hænder af alle slags hudfarver. 

Det bør være et eksempel, der får alle, der arbejder med data, til at rette sig op i stolen. Diversitet er ikke længere en undseelig dagsorden, men en dagsorden de fleste forventer er tænkt ind i alle mulige forhold. Når videoen med sæbedispenseren gik viralt, var det ikke, fordi folk synes, den var sjov, men fordi folk rasede over, hvordan virksomheden kunne have undladt at tænke alle hudfarver ind i forhold til deres produkt. 

Noget af det interessante ved at se på bias i tech-verdenen er, at problemet kan være løsningen, forstået på den måde, at man i mange tilfælde vil kunne bruge teknologi til at undgå bias. Det klassiske eksempel er fra retssystemet i USA, hvor man trænede en robot på historiske data fra retssager og fik en algoritme, der oftere sendte sorte end hvide i fængsel for den samme forbrydelse. Nogle fordømte robotten – men i virkeligheden havde den afsløret en menneskelig bias, der har levet i bedste velgående, før robotten fik behandlet dataene og kunne afsløre mønstrene. 

Det burde efterhånden være indlysende, at vi har brug for både mangfoldighed og ligestilling for at kunne afspejle hele menneskeheden i de beslutningsprocesser, der foregår omkring udviklingen af kunstig intelligens. Problemerne er klare: Hvis vi ikke inkluderer en række perspektiver, risikerer vi at inkorporere skævhed og diskriminerende adfærd i algoritmer.

Automatiserede systemer afspejler de mennesker, der skaber dem

Vi skal huske, at AI i sig selv hverken er forudindtaget eller upartisk. Mennesker er imidlertid meget forudindtagede, både bevidst og ubevidst. Og det er mennesker, der vælger, hvad vi bruger AI til, samt hvordan vi bruger det, og hvilke data vi bruger til at træne det. Så vi er nødt til at inkludere flere forskellige perspektiver og tilgange, når vi udvikler AI-løsninger. Både for at have blik for de mulige utilsigtede konsekvenser og for at kunne identificere potentielle kilder til bias.

Artiklen fortsætter efter annoncen

Men selv når udviklere beslutter sig for at indbygge etiske overvejelser i deres algoritmer, står de stadig over for et betydeligt problem: Der er endnu ingen pålidelig juridisk standard for ‘fairness’ eller ikke-diskriminering, f.eks. i EU-lovgivningen, så det er op til den enkelte virksomhed eller organisation at vurdere, hvornår en algoritme er ‘fair nok’. Problemet for AI-udviklere er, at automatiserede systemer afspejler de mennesker, der skaber dem, inklusive deres fordomme – bevidste eller ej. Vi bygger ting og introducerer ting i et samfund med et sæt værdier, som vi tager med os.

Jeg kan sagtens forstå, at det kan være svært for den enkelte virksomhed eller organisation at blive mere opmærksom på sine egne blinde punkter. De standarder, der eksempelvis er udformet på området, består stadig primært af en række spørgsmål, man kan vælge at forholde sig til. Men hvis dem, der skal svare på spørgsmålene, alle har den samme profil, kan det være utilstrækkeligt i forhold til at have blik for bias i data og mulige utilsigtede konsekvenser heraf.

Et sted at begynde er at kigge på sine data og sin medarbejdersammensætning. Arbejder I tværfagligt, og har forskellige fagligheder og baggrunde med i jeres teams? Bliver folk hørt i jeres processer, og hvordan? Hvordan er den data, I bruger, indsamlet og registreret? Når I behandler den, sker det så i en black box, eller er der transparens omkring jeres processer? Og har I et sprog for at tale om etiske overvejelser i jeres virksomhed eller organisation? 

Den fjerde industrielle revolution er ankommet, og sammen har vi en unik mulighed for at bygge en ny, ligestillet verden. Tech-branchen har magten til at forme vores samfund lige nu, og med den magt følger også et stort ansvar. Mens vi venter på en metode til at blive certificeret etisk, er det værd at undersøge alternativerne. Man vil ikke være den virksomhed eller organisation i 2022, der laver en sæbedispenser, der ikke lader folk af bestemte køn, hudfarver eller noget helt tredje få sæbe.

Vil du bidrage til debatten med et synspunkt? Så skriv til vores debatredaktion på debat@ing.dk

Ingen kommentarer endnu.  Start debatten

Tophistorier

Debatten
Vær med til at skabe en god debat ved at følge vores debatregler.

For at deltage i debatten skal du have en profil med adgang til at læse artiklen. eller opret en bruger.
settingsDebatvisning