Adjunkt i sprogmodeller: Ledere skal mindske risici for bias i "generativ AI"
"Generativ AI" som ChatGPT trænes på svimlende mængder tekst. Men når data fra internettet bruges til at træne sprogmodeller, er der risiko for at racistisk, sexistisk og andet krænkende sprog ender i den data.
»Meget træningsdata, der bruges til at træne sprogmodeller, har fordomme, men det er fordi samfundet i sig selv er fordomsfuldt, «fortæller Daniel Hershcovich, en adjunkt ved Københavns Universitet som forsker i kunstig intelligens og generelle sprogmodeller.