首页>要闻>沸点 沸点
"看脸识罪犯"再引热议 上海交大教授回应:断章取义
结论引热议
被指样本量太小,研究不科学
结论一出,有研究者质疑武筱林的研究不科学,“样本量太小了”。部分人士表示担忧,这会加重人们对样貌有缺陷人群的歧视。
武筱林告诉南都记者,这半年来他收到了非常多的反馈邮件,“有的来信索取数据,有的想要与我们合作,还有质疑实验结论的。”有同行还要求他从arX iv上撤稿。
这些声音中,就包括谷歌研究员布莱斯等人最新发表的文章———《相面术的新外衣》。该文开头指出,武筱林的研究将人类行为中存在的偏见带入机器学习模型的开发过程中,“通过计算机算法对人类偏见的‘洗白’可能会使这些偏见看来是客观的。”
“武筱林的研究最让人不安的是,它让人群高低贵贱之分的这种说法再次复苏并且予以证明,是科学种族主义。”布莱斯等人担忧人工智能和机器学习的快速发展可能使科学种族主义进入了一个新的时代,“让机器习得人类的偏见。”
对于武的研究的实用性,布莱斯等人认为,“可能让一名人类法官将图像从微笑到皱眉来排个序,也可以很好地将‘非罪犯’与‘犯罪分子’区别开来。”
针对上述观点,武筱林在回应南都记者时表示,“对于纯粹的科学问题,我们欢迎一起讨论。”
“但谷歌研究者将我们的上下文割裂了。我们的研究设定的边界是证明机器学习的相关性。我们已经讨论过的数据的风险和采取的措施并反复核查,这也被谷歌的研究者忽略了。”武筱林称。
针对布莱斯等人的“科学种族主义”批评,武筱林表示,“他们对科学种族主义的指责毫无根据。事实上,我们在进步的社会价值观上与这些作者没有什么不同。”
武筱林告诉南都记者,近期他将尽快用英文正式回复谷歌研究员质疑。
专家观点
“该研究在法律上不具有参考意义”
人像识别在人工智能时代越来越成为社会关注重点。针对武筱林的研究是否科学与应用前景,中国政法大学刑事司法学院教授曲新久对南都记者表示,该研究成果“在法律上不具有参考的意义”。
“在刑事侦查中,公安机关早已采用图像识别技术寻找犯罪嫌疑人,但这种‘面部识别术’仅仅用于鉴定某个人的身份,在法律上,根据嫌疑人的长相特征来判定犯罪的可能性大小是不被允许的。”曲新久说。
一位不愿具名的计算机科学领域的研究人员对南都记者表示,把人脸特征作为判断犯罪的依据不具有科学性。“从论文本身的研究方式来看,这是一种单纯的数据挖掘和探索,即从数据直接关联标签,但数据与标签之间不存在有力的理论支撑。这种做法其实在数据挖掘领域已经有过很多尝试,而且一般也都是作为数据间某种关联的一种启发,不是作为最终判定依据。所以,对于这篇论文的结论的定位问题,如果只是作为数据挖掘中的一种探索,可以接受,但如果就因此认定人脸是判断犯罪的依据,无法接受。”
他表示,目前人工智能领域还做不到“看脸识别罪犯”,但即使未来技术上能做到,也不能“全看脸”。
“这种研究内容是需要考虑很多其他因素的,如社会因素、心理因素等,而不是简单地从脸推断是否为罪犯的概率。严肃点说,这种做法其实是很浅显且不负责任的。”该研究人员称。
编辑:周佳佳
关键词:"看脸识罪犯" 再引热议 断章取义