Zar i umjetna inteligencija širi toksičnost prema osobama s invaliditetom? Ako je tome tako, onda je ta ‘inteligencija’ dozlaboga glupa
Sve veći broj organizacija koristi alate umjetne inteligencije za analizu teksta koji ih kategorizira u negativne, neutralne ili pozitivne rečenice, u rasponu od zdravstvene skrbi i javnih politika pa do marginaliziranih društvenih skupina.
Ovi alati, međutim, vođeni su postojećim asocijacijama koje često sadrže predrasude prema osobama s invaliditetom, tvrde znanstvenici s Penn State College of Information Sciences and Technology (IST).
Istraživači su detaljno opisali analizu predrasuda prema osobama s invaliditetom sadržanih u algoritmima obrade prirodnog jezika (NLP) i modela koje su testirali.
– Željeli smo ispitati jesu li priroda rasprave ili naučene asocijacije NLP modela pridonijele pristranosti prema invalidnosti – rekao je Pranav Narayanan Venkit, doktorand na rečenom koledžu.
– Ovo je važno jer organizacije iz stvarnog svijeta alate umjetne inteligencije mogu nesvjesno primijeniti u neželjene svrhe, dakle kao alate za podupiranje predrasuda.
Istraživači su definirali predrasude prema invalidnosti kao tretiranje osobe s invaliditetom manje vrijednom od nekoga bez tjelesnih ili mentalnih teškoća u sličnim okolnostima, a eksplicitnu pristranost kao namjerno povezivanje stereotipa prema Osi populaciji.
Među tim alatima su analize toksičnosti sadržaja koje organizaciji omogućuju kategorizaciju i ocjenjivanje velikih količina tekstualnih podataka u negativne, neutralne ili pozitivne rečenice. Analiza osjećaja je NLP tehnika za izvlačenje subjektivnih informacija – misli, stavova, emocija i osjećaja – iz objava na društvenim mrežama, recenzija proizvoda, političkih analiza ili istraživanja tržišta.
Modeli za otkrivanje toksičnosti traže zapaljiv ili sadržaj – poput govora mržnje ili uvredljivog jezika – koji može potkopati sve ono dobro što se do danas postiglo u razvoju inkluzivnih društava, na globalnoj razini.
Istraživači su proveli dvostupanjsko istraživanje pristranosti prema invalidnosti u NLP alatima. Prvo su proučavali objave na društvenim mrežama vezane uz osobe s invaliditetom, posebno na X-u (Twitteru) i Redditu, kako bi stekli uvid u to kako se pristranost širi u stvarnom svijetu. Pretražili su postove iz jednogodišnjeg razdoblja koji su se posebno bavili perspektivama osoba s invaliditetom ili su sadržavali izraze ili hashtagove ‘invaliditet’ ili ‘invalid’.
Rezultati su filtrirani i kategorizirani, a zatim statistički analizirani popularnim modelima analize toksičnosti kako bi se kvantificirala bilo kakva pristranost prema invalidnosti i netrpeljivost prisutna u objavama.
– Izjave koje se odnose na osobe s invaliditetom u usporedbi s drugim kontrolnim kategorijama dobile su značajno više negativnih i toksičnih rezultata nego objave iz drugih kontrolnih kategorija – rekao je koautor istraživanja Mukund Srinath, doktorand na College of IST.
– Željeli smo testirati proizlaze li ove pristranosti iz samih rasprava o osobama s invaliditetom ili iz asocijacija napravljenih unutar uvježbanih modela analize toksičnosti i otkrili smo da je glavni izvor pristranosti širen iz modela, a ne iz stvarnog konteksta razgovora. Svi postojeći modeli koje smo proučavali pokazali su značajnu pristranost prema invalidnosti.
Zar i umjetna inteligencija širi toksičnost prema osobama s invaliditetom? Ako je tome tako, onda je ta ‘inteligencija’ dozlaboga glupa.