史丹佛大学的 AI 辨识性取向研究中一个弱声明时常被忽略——在某些情况下,深度神经网络可以从交友网站异性恋用户的照片中辨认出同性恋用户的照片。我们确实不能说 AI 无法分辨同性恋,但是这样说也是不负责任的:该论文至少表明「 同性恋是可以识别的 」,以及这种技术可以被任何政府和组织轻松获取和使用。论文的高级研究员 Michael Kosinski 之前一篇引用量较多的论文——《 Private traits and attributes are predictable from digital records of human behavior 》,同样提示过这类问题。该论文至少对 Facebook 改变默认公开点赞记录的策略有部分贡献。 「 AI 辨识性取向 」研究除了受到学术界质疑,论文作者也被各种谩骂甚至收到威胁邮件。恐吓信寄件人认为作者是一个支持谋杀同性恋者的恐同**,期望有人出面杀了作者、或让他自行了断。
Oberlin College 社会学教授 Greggor Mattson,就用一句话总结这篇论文引发的问题——AI无法判断你是不是 Gay,但它可以判断你是不是一个持有刻板印象的人。
假如住在一个同性恋要被判处死刑的国家,网路用户必须面对这种可能性——你可能因为自己的社交媒体照片而受到额外的监控。假如你无法公开自己性取向,那更应该惊觉,机器学习推荐系统可能会将你标示为特定族群、并推荐适用于同性恋人群的商品。即便这项研究包含隐私风险的善意提醒,但仍然无法忽视:( 1 )模型的准确度存在疑虑( http://www.fast.ai/2017/09/13/kosinski/ )、( 2 )论文可能混淆了因果和关联性。( 3 )研究中试图把性取向结论导向「 产前激素理论( Prenatal Hormone Theory,PHT )」——即指,同性恋倾向来源于男性胎儿对决定性取向的雄性激素的暴露( Exposure )不足、或女性胎儿对雄性激素的暴露过度这样的论点。为了消除外界的质疑,论文作者亦对网上各种批评做出逐一回应:
Oberlin College 社会学教授 Greggor Mattson,就用一句话总结这篇论文引发的问题——AI无法判断你是不是 Gay,但它可以判断你是不是一个持有刻板印象的人。
假如住在一个同性恋要被判处死刑的国家,网路用户必须面对这种可能性——你可能因为自己的社交媒体照片而受到额外的监控。假如你无法公开自己性取向,那更应该惊觉,机器学习推荐系统可能会将你标示为特定族群、并推荐适用于同性恋人群的商品。即便这项研究包含隐私风险的善意提醒,但仍然无法忽视:( 1 )模型的准确度存在疑虑( http://www.fast.ai/2017/09/13/kosinski/ )、( 2 )论文可能混淆了因果和关联性。( 3 )研究中试图把性取向结论导向「 产前激素理论( Prenatal Hormone Theory,PHT )」——即指,同性恋倾向来源于男性胎儿对决定性取向的雄性激素的暴露( Exposure )不足、或女性胎儿对雄性激素的暴露过度这样的论点。为了消除外界的质疑,论文作者亦对网上各种批评做出逐一回应: