Top-AI-forskere vil indføre dusør for at finde bias i AI-systemer

robot fair ai bias penge
Illustration: davinci / Bigstock. Se større version
En 'bug bounty' for AI kan lede til højere sikkerhed og bedre etik i AI-systemer, mener flere end 50 AI-forskere fra ledende institutioner og selskaber. 
30. april 2020 kl. 16:37
errorÆldre end 30 dage

Der er brug for kontante belønninger til alle, der finder sikkerhedsmæssige og etiske problemer i AI-systemer. 

Det mener en stor gruppe førende AI-forskere fra selskaber som OpenAI, Google Brain og Intel, der i en fælles forskningsartikel kalder på indførelsen af en 'bias bounty' for at skabe troværdig AI. 

Løsningen bygger direkte på såkaldte bug bounties - dusører, selskaber betaler til sikkerhedsfolk, der finder huller i software. Dusører giver både et incitament til at offentliggøre sårbarheder ansvarligt og lokker mange professionelle øjne til at lede efter sikkerhedshuller. 

AI-området mangler begge dele, vurderer forskergruppen, der også tæller adskillige universiteter i USA og Europa. 

»There is too little incentive, and no formal process, for individuals unaffiliated with a particular AI developer to seek out and report problems of AI bias and safety,« skriver forskerne om problemet. 

Få fuld adgang til Tech Management

Vi skriver til direktører, strategiske ledere og projektledere. Som Danmarks teknologifokuserede ledelsesmedie hjælper Tech Management dig med at navigere i og forstå nye teknologier, implementere de nødvendige forandringer og følge vigtige trends inden for forandringsledelse, projektledelse mv. Vi har viden og råd både til dig, som netop er gået i gang med teknologi- og strategiimplementering, og til dig, som er godt i gang. Få tilsendt tilbud

Abonnementsfordele
vpn_key
Fuld adgang til Tech Management
Alt indhold på Tech Management er åbent for dig, så du kan nyde det fra din computer, tablet eller mobil.
drafts
Kuraterede nyhedsbreve
Nyheder, interviews, tendenshistorier og meget mere, leveret til din indbakke.
thumb_up
Adgang til debatten
Deltag i debatten med andre professionelle.
Debatten
Log ind for at deltage i den videnskabelige debat.