正文
更多细节请见下文,新智元获得澎湃新闻授权后转载发布。
去年11月,一篇“看脸识罪犯”的论文令学术界和舆论界炸开了锅。
这篇上传在预印本网站arXiv上的论文题为《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)。在实验中,上海交通大学教授武筱林及其博士生张熙选取了1856张中国成年男子的面部照片,其中730张是已经定罪的罪犯身份证照片(330张来自网上的通缉令,400张由一家签署过保密协议的派出所提供),其余1126张是在网络上抓取的普通人照片。经过机器学习,算法鉴别出犯罪嫌疑人的准确率达到89%。
此后,武筱林收到大量邮件,有些就学术问题进行了交流,有些则直接敦促他“撤稿”。而在半年之后,三名美国作者撰写万字长文,向武筱林隔空喊话,指责其研究在搞“科学种族主义”。
上述三名作者中,Blaise Agüeray Arcas是机器学习领域的著名工程师,2013年从微软跳槽到谷歌;Margaret Mitchell同样是谷歌的人工智能研究员;Alexander Todorov则是普林斯顿大学的神经科学教授。
这篇洋洋洒洒的万字长文,从提出“天生犯罪人”理论的意大利外科医生龙勃罗梭,写到对犹太人进行面相研究的纳粹教材,暗指武筱林的研究是这些“前辈”的继任者。
在文章中,三名美国作者在技术层面提出了一些质疑,譬如实验样本数据集过小,容易造成过拟合;罪犯组照片的着装更为随意,而非罪犯组的照片很多都穿着衬衫;此外,非罪犯组照片更多地在微笑。但文章最核心的担忧是,由于人类司法系统中存在一些歧视(譬如美国司法对白人和黑人存在量刑歧视),用这些带有歧视的人类数据训练机器,机器得到的结果也会是歧视性的。而若将这些内嵌歧视的算法用作司法工具,那么就会形成一个歧视性的反馈循环,让歧视在社会中更为巩固。
“基于面部特征的深度学习绝不该应用为‘加速’司法公正的工具,如果真的这么做的话,反而会让不公正长存于世。”文章这样结尾道。
5月14日,武筱林撰文向澎湃新闻(www.thepaper.com)进行了独家回应。
他指责这种隔空点名并非“我们多年来习惯的学术交流方式”,而是政治斗争上扣帽子的手法。
武筱林提到,他们在论文中明确声明“我们无意也无学术资质去讨论社会偏见问题”,却“被”解读了。三位美国作者无视声明,将论文原话断章取义,凑成主观臆断强加于他们,扣上了一顶大帽子。
在文章中,武筱林还回应了许多网友提出的“把教授自己的脸放进去试试”的问题,澄清了一种常见的“基础概率谬误”,再次强调他们的研究无意也无法用于实践。
此外,武筱林也对外界的几点技术质疑作出回应。他总结道,“我们感谢所有针对论文的提问和讨论,但坚决反对歪曲我们的初衷”,“来自谷歌的作者的含沙射影既不专业,也很傲慢。”
“仅仅使用这个词(面相学)就够格贴一个科学种族主义的标签了吗?”这是武筱林的疑问。
(原文为英文,由澎湃新闻记者翻译,并经对方修订)