AI环境下 人脸识别的原罪与风险

2018年12月29日 科技前沿 475 views

面部识别的诱惑一直都在,但是很多科技公司们似乎并不敢真正对这块蛋糕下手……

Google 的公共事务副总裁 Kent Walker 在一篇关于在亚太地区利用 AI 支持社会公益研究网络的文章中强调了 Google 利用人工智能在抵御疾病和自然灾害方面做出的努力,他称 Google 在一些“难题”被发现并解决之前,不会通过 Google Cloud 提供“通用”的面部识别 API。

“Google 不同于其他公司,我们致力于解决重要的技术问题和有关面部识别的政策问题。“Walker 还指出,“和其他多用途的技术一样,都需要谨慎对待,首先保证这项技术的应用符合我们的原则和价值观,同时避免滥用和一切有害的结果。” Google 发出该警示时恰逢蜻蜓项目在严格审查中受阻,且于前不久刚决定不再与美国防部续签军事 AI 合同。

但这种警示反映了一些科技巨头非常担心面部识别技术的不成熟,以及这种不成熟可能造成的危害。本月早些时候,在Brookings Institution 主持的华盛顿特区的一次会议上,微软总裁 Brad Smith 提议,人们应当把面部识别结果定为“高风险场景”,特别是那些最终可能被用来限制人类行动的应用。使用面部识别的组织应当遵守关于性别、人种和种族的反歧视法案,而且应当对其 AI 限制实现“透明”公开。

Smith 称,为了遵循这些严格的限制,微软曾经拒绝了许多客户可能引发人权矛盾的面部识别技术部署需求。6月,微软还取消了一份可能需要为美国移民及海关执法局(ICE)提供 AI 处理工具的合同。

“技术可能会带来一种新的大规模监视。这种监视可能被州政府和国家政府用来监视任何地方的每个人。”Smith 强调表示,“如果我们不谨慎考虑这些问题,那么 2024 年的我们就将面临《1984》书中描述的那种生活。”

Salesforce 首席科学家 Richard Socher 也表达了同样的顾虑。他在本月于蒙特利尔举行的 NeurIPS 2018 大会上告诉 VentureBeat,这也是 Salesforce 没有在 Einstein Vision 和 Einstein Image Classification API(Salesforce用于物体检测和识别的计算机视觉服务)中提供面部识别功能的部分原因。

一、蠢上加蠢的错误

但并不是所有公司都有同样的觉悟。

今年夏天,亚马逊开发了 Rekognition,这是亚马逊的 AWS部门提供的基于云的图像分析技术,供佛罗里达州奥兰多市和俄勒冈州华盛顿县的治安办公室使用。奥兰多市后来决定更新他们的合同,并由市属警察中选出一些志愿者来引导一个面部识别计划,而华盛顿县则使用该技术建立一种应用,让警官在 30 万张面孔的数据库中搜索拍摄的照片,找出犯罪嫌疑人。

在美国公民自由联盟(ACLU)进行的一次测试中(尽管亚马逊不同意该测试的准确度),他们提供给 Rekognition 25000 张公开来源的照片,并让其与国会成员的照片比较,结果Rekognition 错误地将其中 28 人识别成了罪犯。需要警惕的是,错误识别中有很大一部分(38%)是有色人种。

6 月,AWS 总经理 Matt Wood 对此提出异议,认为 Rekognition “为社会带来了颇多好处”,它能够“阻止虐待儿童……并能为儿童建立教育应用”,还能“通过多因素认证方式增强安全,更容易地查找图片,或防止包裹盗窃”。

在 8 月的另一篇博客中,亚马逊称 AWS 客户之一 marinus Analytics 使用 Rekognition 帮助寻找人口贩卖的受害者并帮助他们家庭团聚,还有非营利组织 Thorn 也在尝试寻找并拯救遭受性虐待的儿童。

他写道,“目前还没有发现执法部门滥用亚马逊的 Rekognition。新的技术总是伴随着风险。每个使用该技术的组织必须担负起责任,否则就会受到法律的惩罚和公众的谴责。AWS 非常重视自己的责任。”

但还有许多公司并没有这种警惕性。

9 月,The Intercept 揭露了IBM 在与纽约警察局合作开发一种系统,能够让警察按照肤色、发色、性别、年龄和多种面部特征来找人。其 AI 通过纽约警察局的 50 多个摄像头提供的数千张照片,学习如何识别衣服颜色和其他形体特征。

IBM 的一位发言人说,该系统只是被用于“评测目的”,但 IBM 于 2017 年发布的产品Intelligent Video Analytics 2.0 提供了类似的人体监视功能,能够自动给人添加类似于“亚洲人”、“黑人”、“白人”的标签。

二、可能的偏见

除了 Socher 暗示的道德问题之外,许多研究者也并不信任面部识别的整体准确度。

2012 年的一份研究表明,来自 Cognitec 的面部识别算法对于非裔美国人的精确度要比对于高加索人的精确度低 5~10%,2011 年的一份研究表明,中日韩开发的面部识别模型很难区分高加索人和东亚人。2 月,MIT Media Lab 的研究者们发现,微软、IBM 等公司的面部识别对于肤色较浅的女性有最高 7% 的误判率;对于肤色较深的男性有最高 12% 的误判率;对于肤色较深的女性有最高 35% 的误判率。

算法错误的例子还远远不止这些。最近的新发现表明,伦敦大都会警察局部署的一个系统,每一个正确的判断都会伴随着 49 个错误判断。去年的一次国会听证会上,美国联邦调查局承认,他们用来鉴别犯罪嫌疑人的算法有 15% 的几率会出错。维吉尼亚大学的一项研究表明,两个研究用的图像集——ImSitu 和 COCO(后者由 Facebook、微软和创业公司 MightyAI 提供)——在描写运动、烹饪和其他活动方面都显示出了性别偏见。(例如,购物的图片被联系到女性,而教练的图片被联系到男性。)

同时还有一件可能不为很多人所知的事情,2015 年一位软件工程师报告称,Google Photo 的图像分类算法将非裔美国人分类为“大猩猩”。

即使美国最大的人体摄像头供应商之一 Axon 的 CEO RickSmith,今年夏天也说过,面部识别的准确度还不足以应用到执法方面。

他表示:“当需要在面部识别之外做出决策时,人们却没能做出反应。我们认为,在这方面我们不应该过于激进,从而放任技术故障造成灾难性的后果……一些预料之外的后果,从技术的长期应用方面来看是不可行的。”

三、进步的迹象

过去十年中许多愚蠢的错误似乎描绘出了面部识别的惨淡前景,但人们并没有放弃让面部识别更准确、更无偏见的努力。

6 月,微软与人工智能公平性方面的专家合作,改进并扩展了他们用来训练 Face API 的数据集。Face API 是微软 Azure API 提供的一项算法,用于检测、识别和分析图像中的人脸。新的数据包含了更多肤色、性别和年龄的特征,能够将算法对于深色皮肤的男性和女性的错误率降低 20 倍,将对于女性的错误率降低 9 倍。

同时,位于旧金山的短视频创业公司 Gfycat 今年也表示,他们成功地改进了面部识别算法,采用了更严格的阈值,显著提高了对于亚洲人的准确率。

同时也出现了许多降低算法偏见的工具,标志着人工智能正朝着更公正的方向前进。

5 月,Facebook 发布了Fairness Flow,该工具会在算法根据人类的种族、性别或年龄做出不公平判断时自动发出警告。埃森哲也公布了一个工具,能自动检测 AI 算法中的偏见,帮助数据科学家降低这种偏见。微软也发布了自己的解决方案。9 月,Google 发布了 What-If 工具,能在其 TensorFlow 机器学习框架的 TensorBoard 面板上检测算法的偏见。

IBM 也不甘落后,于秋季发布了 AI Fairness 360,一个云端的自动工具套件,能“自动提供”关于 AI 系统如何作决策和推荐的信息(如算法调整或不平衡数据等),有望降低算法偏见造成的影响。而 IBM 的 Watson 和云平台小组的研究也专注于如何降低 AI 模型中的偏见,特别是在面部识别方面的偏见。

但 Smith 同时也坦言,我们还有很长的路要走。他在今年早些时候的一篇博客中写道:

就算偏见完全解决,面部识别系统能对所有人做出公平的决策,我们也面临着可能的错误带来的风险。面部识别与许多其他AI技术一样,就算是毫无偏见,也会出现错误。所有工具都可以为善,也可以为恶。工具越强大,它带来的好处或伤害就越大……面部识别技术带来的问题影响到了人权保护的基础,如隐私和言论自由等。

发表评论

发表评论:

PHONE