城市镜像.新闻汇总 2020-07-15

消息来源:新华网 美国麻省理工学院媒体实验室研究项目显示,人工智能识别浅色皮肤男性的平均错误率不超过1%,识别深色皮肤女性的平均错误率达35% 人脸识别所导致的偏见问题一直受到广泛关注 近期,一篇关于图像超分辨率的论文引发了对于产生偏见原因的新争论 网友利用论文中的开源代码进行了模型推理,在使用时发现,非白人面孔的高糊照片被还原成了一张白人面孔 在美国,人脸识别系统中白人男性的识别率最高,而黑皮肤女性的识别率则最低;在亚洲国家的人脸识别系统中黄种人的识别率相比白种人的识别率差距就会小一些 柯逍认为,可以看出偏见基本来源于数据与算法,加强对人工智能所使用的数据、算法以及模型的评估,能够在一定程度上缓解潜在的、可导致偏见与歧视的因素 同时,人工智能的偏见其实都是人类偏见的反映与放大,因此人们放下偏见才是最根本的解决方案 。