7 月 6 日消息, 英国《卫报》周六刊登了一篇关于 Facebook“情绪感染”(emotional contagion)试验的评论文章。文章认为,Facebook 的试验确实是不道德的,我们不能指望企业按照道德伦理来经营。
从 Facebook 的“情绪感染”实验中,我们可以得到两个有趣的经验教训,第一个是关于 Facebook 用户的,第二个是关于像 Facebook 这样的公司的。
如果你错过了这个新闻事件,下面是这个故事的要点。
Facebook 用户登录时首先看到的是消息推送,即一个状态更新列表,包含好友发布的消息和照片。Facebook 显示给每个用户的更新列表是不全面的,即不包括所有好友的所有可能相关的消息。
但这种消息推送也不是随机的。Facebook 在推送消息之前,已经根据专有算法进行了筛选,这个筛选过程有时被称为“策展(curation)”。没有人知道 Facebook 算法所使用的标准,它像谷歌的网页排名算法一样属于商业秘密。我们所知道的是,这个算法决定了 Facebook 用户看到的内容。
引起轩然大波的是 Facebook 在“情绪感染”(emotional contagion)试验中的一项特殊操作。根据著名的美国《国家科学院学报》(Proceedings of the National Academy of Sciences)2012 年 1 月发表的一篇论文,在 Facebook 这项为期一周的试验中,Facebook 的研究人员以 689,003 名 Facebook 用户为试验对象,每天向他们推送具有特定情绪倾向的内容。
有一些用户看到的主要是积极和快乐的内容,而另一些用户看到的主要是负面和悲哀的内容。研究表明,当实验结束时,这些被当作“小白鼠”的不知情用户的发帖行为已经发生了相应改变。也就是说,那些每天看到积极内容的用户更有可能发布积极的消息,而那些每天看到消极内容的用户更有可能发布消极的消息。
从统计学上来讲,这一实验对用户造成的影响相对较小,但它带来的影响是显而易见的。Facebook 向人们表明,它可以操纵用户的情绪。震撼!恐怖!许多人用上“令人毛骨悚然”和“骇人”等词语来描述 Facebook 的试验。有些人争论这一试验是否道德或合法。答案是:这是不道德的,但并不违法。企业不是道德模范,而且,Facebook 的用户条款要求用户接受该公司将私人数据用于“数据分析、测试和研究”。
在这场争论中,Facebook 的公关专家似乎措手不及。该公司的首席运营官谢丽尔·桑德伯格(Sheryl Sandberg)激动地说,这项试验的问题是与用户 “沟通不够”。 Facebook 曾经声称,该试验是为了“改善我们的服务,并使 Facebook 用户看到尽可能相关和感兴趣的内容。这个实验的一大动机是理解人们对不同类型的内容如何反应,无论这些内容是正面的还是负面的。”
桑德伯格说:“我们希望确保用户在 Facebook 看到的任何内容都不会降低他们继续使用 Facebook 的可能性。这个实验证实了我们的猜想:负面内容是糟糕的(这就是我们只设置了‘Like’ 按钮的原因),所以我们将配置我们的算法,以确保积极的内容继续在推送消息中占主导地位。”
未来的历史学家也许会惊奇,为什么这么多具有理智的人们会允许政府安全机构和大公司监视和操纵自己。我常想,大多数 Facebook 用户对他们在多大程度上被大公司的算法操纵应该有所了解,但这个实验引起的众怒和大惊小怪似乎说明我想错了。但我怀疑,当这些愤怒偃旗息鼓之后,大多数用户仍然将继续任凭大公司操纵他们的信息和情绪。
关于这一实验是否不道德的争论,揭示了大数据在多大程度上改变了我们的监管格局。大规模数据分析让许多公司活动成为可能,而且这些活动无疑是“合法”的,因为我们的法律远远落后于形势。我们的数据保护制度可以保护特定类型的个人信息,但数据分析使企业和政府可以通过收集我们在网络上留下的大量痕迹,建立非常具有暴露性的信息“马赛克(mosaics)”。而我们在网络上留下的痕迹,现在是不受法律保护的。
此外,那种认为企业行为应该合乎道德的想法是荒谬的,就像认为猫应该尊重老鼠的权利一样荒谬。企业的目的就是在法律许可的范围内最大限度地提高收入和股东收益。即使 Facebook 已经成为一个极端例子,那也是上述规则的一个证明。