• 合乐注册链接
    合乐注册链接

麻省理工学者揭露,脸部辨识科技有严重种族性别偏见 -合乐hl8

麻省理工学者揭露,脸部辨识科技有严重种族性别偏见  -合乐hl8

麻省理工学者揭露,脸部辨识科技有严重种族性别偏见 -合乐hl8

麻省理工学者揭露,脸部辨识科技有严重种族性别偏见  -合乐hl8

麻省理工学者揭露,脸部辨识科技有严重种族性别偏见 -合乐hl8

麻省理工学者揭露,脸部辨识科技有严重种族性别偏见  -合乐hl8

脸部辨识科技的应用範围越来越广,但美国麻省理工学院(MIT)研究人员布兰维妮发现,就算是知名科技业者开发的软体,在辨识深色人种脸部时,错误率也偏高。

布兰维妮(Joy Buolamwini)的研究发现,包括亚马逊(Amazon)等科技巨头开发的脸部辨识软体,在辨识深肤色女性的性别时,错误率较辨识浅肤色男性的性别高出许多。

布兰维妮已成功刺激微软(Microsoft)、IBM 等企业改善自家系统,但亚马逊却大为光火,公开批评她的研究方法。一群人工智慧(AI)领域专家昨天公开力挺布兰维妮,呼吁亚马逊停止销售自家脸部辨识软体给警方。

除了专业人士和企业界,布兰维妮的研究成果也引起政治人物注意,其中有些人主张,应为脸部辨识技术使用範围设限。

布兰维妮曾指出,目前相关技术多是在未受监督、甚至秘密情况下被使用,而一旦民众有所警觉,可能为时已晚。

另外有许多研究人员也指出,人工智慧系统透过大数据寻找并识别规律、模式,但在过程中却也複製了隐含在这些数据中的制度性偏见。

举例来说,若人工智慧系统的学习材料多为白人男性影像,则它最适合用来辨识白人男性脸部。

这样的差别性有时可能攸关生死。一份近期发表的研究显示,帮助自驾车「看路」的电脑视觉系统,在侦测深肤色行人方面,明显有困难。

(译者:陈韵聿;首图来源:pixabay)

未来20年,我们的责任是用好这些资源、人才、技术,让世界更加绿色,普惠、可持续发展,同时更加柔软和温暖。  7、阿里的未来,不是赚102年的钱,而是担当102年的责任。

麻省理工学者揭露,脸部辨识科技有严重种族性别偏见  -合乐hl8

麻省理工学者揭露,脸部辨识科技有严重种族性别偏见 -合乐hl8

热门文章