据外媒gizmodo报道称,近日,微信就其平台将“black foreigner(外国黑人)” 自动翻译成“黑鬼”进行道歉,这也引发业内思考,如何教会AI(人工智能)识别种族主义歧视问题?本周三,一位黑人戏剧总监安·詹姆斯在向同事发微信说“她迟到了”,当同事用中文回答的时候,微信自动将信息翻译成了“The nigger is late.(黑鬼迟到)”。事后,詹姆斯回忆,微信有时会自动翻译成以“n”开头的称谓。
图:微信就将“黑人”翻译成“黑鬼”致歉
注:nigger,一般指黑鬼,延伸意思为社会地位低下的人,是一个带有侮辱性质的词语,尽量不要使用。
nigger和nigro来自“黑色”的拉丁语niger(阳性)和nigra(阴性),引至英语里,意思也差不多是“黑的东西”所以是蔑称。
日前,微信对此事进行道歉:“我们非常抱歉不当的翻译,在收到用户的反馈后,我们马上解决了这个问题。”微信还指出,平台使用的是人工智能翻译软件,AI是在经过大量文本训练后给出翻译结果,并且至关重要的是,翻译软件会充分考虑其上下文,这很有可能会引发诽谤嫌疑。
据悉,识别模式是语言AI的核心,语言AI是在关联词模式下提取词语。例如,在2016年,研究人员测试了谷歌文本算法与新闻抓取工具之间的关联,出现的结果错误泛滥: “艾米莉”被翻译成“乌木”,“煎饼”对应的“炸鸡”‘更离谱的是,“男人”竟被翻译成“女人”, “医生”被称为“护士”。
“AI可以说更像人类一样思考。可悲的是,他们正在学习我们提供的最糟糕的东西。外媒指出,这在本质上是如何“教导”AI识别种族主义歧视的问题?
责任编辑:吴一波