AI演算法带有偏见! 新研究:黑人用语较易被AI视为仇恨言论
2020-08-12
AI演算法带有偏见! 新研究:黑人用语较易被AI视为仇恨言论

近几年,社群平台对言论管控需求暴增,科技巨头如Facebook和Youtube等,也逐步透过AI过滤不当言论。然而,近期有研究发现,使用AI反而会强化社会既有的偏见,黑人的言论更容易被标示为仇恨言论。

根据华盛顿大学 (University of Washington) 及康乃尔大学的联合研究,非裔美国人(即黑人)所发的Twitter贴文中,被AI侦测为仇恨言论的数量,相较其他族裔多了1.5倍。此外,使用美国黑人用语的贴文,比起一般用语更容易被标示为仇恨言论,数量多了2.2倍。

目前,AI仍难以理解人类语言背后的社会情境,无法辨别文字使用者的文化背景,以及字词背后的意义。例如,在白人社会里,「黑鬼」是禁忌词,然而却是黑人的戏谑日常用语;而异性恋使用「酷儿」词彙可能带有贬抑,但对同性恋者来说,却可能是正向意涵。

两篇论文都在计算语言学年度大会(Annual Meeting of the Association for Computational Linguistics)上发表,我们所认为客观的演算法其实会强化偏见,并证明了AI训练素材本身就带有偏见。

AI训练素材中可能带有各式各样的偏见,而Google、Facebook及Twitter等平台使用的内容审查工具,是否也带有偏见,研究者之一、电脑科学程式专家Maarten Sap表示:「我们必须正视这个情况。」