新智元报道
编辑:桃子现在,科学家们已经证明,AI能够以惊人的准确度从面部,预测一个人的政治取向。
不仅如此,即便是一个毫不「露怯」的面孔,也能精准识别。
这么说来,人类以后所有的小心思,得收敛收敛了,如果写在脸上瞬间被AI看透。
这项来自斯坦福团队的研究,已刊登在《美国心理学家》期刊上。
论文地址:https://awspntest.apa.org/fulltext/2024-65164-001.pdf
正如你所想的那样,这一发现愈加引发了严重的隐私问题,特别是在没有获得个人同意的情况下,进行面部识别。
论文作者Michal Kosinski对此表示,在铁幕(iron curtain)后成长的经历让我深刻意识到监视的风险,以及精英们出于经济或意识形态原因,选择忽视不方便的事实。
无表情面孔,AI也能看懂
提及面部识别,每个人或许再熟悉不过了。
AI通过分析基于面部特征的模式来识别和验证个人。
背后技术的核心是,算法在图像/视频中检测人脸,然后测量人脸的各个方面——比如眼睛之间的距离、颌线的形状、颧骨的轮廓。
这些测量值被转换成数学公式,或面部特征签名(facial signature)。
签名可以与已知面孔的数据库进行比对,进而找到匹配的人。
或用于各种应用,包括安全系统、手机解锁、在社交媒体平台上给朋友照片打标签等。
在斯坦福的研究中,作者专注于审查新技术,并揭露其隐私风险。
过去的研究中,他们曾展示了Meta(Facebook)出售或交换数据,如何暴露了用户的政治观点、性取向、性格特征和其他私密特征。
以及,被广泛使用的面部识别技术,可以从社交媒体的个人资料图片中,检测政治观点和性取向。
不过,作者指出以往的研究中,还没有控制可能影响其结论准确性的变量。
比如面部表情、头部方向、是否化妆或佩戴首饰。
因此,在新研究中,作者们旨在单独分析面部特征在预测政治倾向方面的影响,从而更清晰地展示面部识别技术的能力和风险。
人类与AI预测系数,不相上下
为了实现这一目标,他们从一所主要的私立大学招募了591名参与者,并仔细控制了拍摄每个参与者面部照片的环境和条件。
参与者统一穿着黑色T恤,使用面部湿巾去除任何妆容,并将头发整齐地扎起来。
他们以固定姿势就座,在光线充足的房间里对着中性背景拍摄面部照片,以确保所有图像的一致性。
拍摄完照片后,研究人员使用面部识别算法对其进行处理,具体使用的是ResNet-50-256D架构中的VGGFace2。
这个算法从图像中提取了数值向量——称为面部描述符。
这些描述符以计算机可以分析的形式编码面部特征,并被用于通过一个将这些描述符映射到政治倾向量表上的模型来预测参与者的政治倾向。
结果发现,面部识别算法可以以0.22的相关系数预测政治倾向。
这种相关性虽然不高,但具有统计学意义,表明某些稳定的面部特征可能与政治倾向有关。这种关联独立于年龄、性别和种族等其他人口统计因素。
接下来,Kosinski和同事们进行了第二项研究。
他们用1026名人类评分者取代了算法,以评估人们是否也能从中性的面部图像中预测政治倾向。
研究者向他们展示了第一项研究中收集的标准化面部图像。每个评分者都被要求评估照片中个人的政治倾向。
评分者完成了5000多项评估,并对结果进行了分析,以确定他们对政治取向的感知评分与参与者报告的实际取向之间的相关性。
与该算法一样,人类评分者能够预测政治倾向,相关系数为0.21,与算法的性能相当。
Kosinski表示,「令我惊讶的是,算法和人类都能从精心标准化的没有表情的面孔图像中预测政治取向。这表明稳定的面部特征和政治取向之间存在联系」。
在第三项研究中,研究人员让模型去识别政客的图像,将面部识别的预测能力的检验扩展到不同的情境。
样本包括来自三个国家(美国、英国和加拿大)立法机构上下两院的3,401张政治家的个人资料图像。
结果表明,面部识别模型确实能够从政治家的图像中预测政治倾向,中位数准确度的相关系数为0.13。
这种准确度虽然不高,但仍然具有统计学意义,表明在受控实验室图像中。预测政治倾向的一些稳定面部特征也可以在更多样化的真实生活图像中被识别出来。
多领域研究
其实,早在2021年的一项Nature研究中,曾指出面部识别技术可以在72%的时间内,正确预测一个人的政治取向。
论文地址:https://www.nature.com/articles/s41598-020-79310-1
实验发现,AI技术优于偶然性(50%)、人类判断(55%)或个性问卷(66%)。
另一篇2023年研究中,同样采用深度学习算法从面部识别预测一个人政治倾向,预测准确率高达61%。
不过,在网友看来,每一个声称能够从面部表情读取人们情绪或其他特征(如政治倾向)的AI系统都是一场骗局。
这里没有任何科学依据,因此也就不存在可以用来训练AI预测这些特质「优质数据」。
此前,WSJ的一篇报道中,也对这样的AI发起了质疑——用刻板的面部表情来训练算法必然会产生误导。
对此,你是怎么看的呢?
参考资料:https://www.reddit.com/r/singularity/comments/1dycnzq/ai_can_predict_political_beliefs_from/