哈喽,大家好,小圆这篇国际评论,主要来分析最近让整个欧洲都悬着心的一件事,英国在人脸识别技术上的操作,堪称走了一步没人敢试的险棋,说出来你可能不信,英国警方早就知道一款人脸识别系统对女性、年轻人和少数族裔有歧视性。
但就因为修正后的公平版本给的嫌疑人线索太少,影响了办案效率,硬是说服了当局批准继续使用,要知道欧洲对个人信息和技术伦理向来管得严,英国这波操作不仅在国内掀了热议,连隔壁欧盟国家都坐不住了,生怕这个先例开了头,后面大家都跟着突破底线。
偏见早已知晓
事情得从2024年9月说起,当时英国内政部委托国家物理实验室做的审查报告已经很明确了:这款回溯性人脸识别系统,在处理女性、黑人以及40岁以下人群的图像时,特别容易给出错误的匹配结果。
简单说,同样是模糊的监控画面,系统更倾向于把女性、黑人和年轻人当成潜在嫌疑人,警方高层拿到报告后,也确实做了点改变,全国警察局长委员会下令提高系统的匹配置信阈值,就是让系统更严谨,减少乱匹配的情况。
可这套公平版本的寿命短得可怜,只撑了一个月就被推翻了,原因很直接,各地警局纷纷抱怨:阈值提高后,能找到可能匹配的嫌疑人比例从56%直接跌到14%,办案的“线索”少了一大截,好多案子都卡住了,全国警察局长委员会一看这情况,立马开会把阈值调了回去。
理由是保障行动效能,这份调整文件里其实也承认,提高阈值确实“显著降低了种族、年龄和性别的偏见影响,但架不住警方一句以前好用的办法现在没用了,追求办案效率没错,但为了效率故意忽视技术偏见,这本身就违背了执法的公平性,也难怪欧洲邻居们会紧张。
少数群体成“牺牲品”
虽然英国内政部和警方都不肯说现在用的具体阈值是多少,但国家物理实验室后来的研究数据戳破了真相:在特定设置下,这个系统对黑人女性的误报率,几乎是白人女性的100倍,同样是无辜者,黑人女性被错误当成嫌疑人的概率,比白人女性高出整整一个数量级。
更关键的是,这种偏见不是偶然的,而是藏在技术根源里的,有业内人士透露,系统的训练数据主要是历史拘留照片,而这些照片里黑人和亚裔的比例本就偏高,相当于让算法从小就记住了深色皮肤更可能是嫌疑人的错误认知。
当系统遇到不清晰的图像时,为了给出看起来够用的匹配结果,就会下意识把少数族裔往嫌疑人列表里拉,这种情况下,警方所谓的人工复核其实很容易流于形式,面对破案压力,警员很难对每一“算法推荐”的嫌疑人都保持同等程度的审慎。
曾担任伦敦警察厅独立审查员的彼得·福西教授的疑问很到位:如果一种技术只有默许偏见存在才好用,那它到底是执法工具还是伤害公平的武器?而这种对少数群体的潜在伤害,还暴露了警方更深层的问题。
官方辩解难服众
面对铺天盖地的质疑,英国警方和政府也给出了回应,负责相关事务的布莱克曼警监说,恢复阈值是权衡后的选择,目的是保护公众安全,还强调已经加强了警员培训,能防范偏见风险,内政部则表示,已经采购了没有显著偏见的新算法,明年初就测试。
但这些辩解漏洞百出,所谓的新算法只是在小样本测试中没有显著偏见,一旦用到1900万张照片的大数据库里,隐性偏差很可能卷土重来,其次把人脸识别和DNA比对相提并论本身就站不住脚,DNA是客观的生物学证据。
而算法本质上是基于历史数据的概率游戏,少数族裔在这里成了承担高风险的“输家”,更讽刺的是,负责监督警察种族行动计划的约翰逊主席透露,这么重要的人脸识别技术,居然在反种族主义的会议上几乎没人讨论,警方的反种族主义承诺根本没落到实处。
英国这步“险棋”之所以让欧洲紧张,核心在于它开了一个糟糕的先例:为了执法效率,可以牺牲少数群体的权利,为技术偏见开绿灯,要知道技术本身是中立的,可当使用者为了“方便”刻意忽视伦理漏洞时,技术就会变成加剧不公的工具。
警方口中的平衡,本质上是把少数群体的权益当成了可以妥协的成本,这种做法不仅会让公众对执法失去信任,更可能让其他国家跟风效仿,破坏整个欧洲建立的技术伦理底线,真正的技术进步从来不是“效率优先”,而是让技术更公平地服务所有人。
就像欧盟的监管思路那样,技术应用必须建立在保护基本权利的基础上,英国所谓的新算法测试、人工复核等保障措施,如果没有公开透明的监督机制,终究是纸上谈兵,希望英国能及时刹住车,而用牺牲公平换来的效率,从来都不是真正的安全。