【AI 星球(微信 ID:ai_xingqiu)】10 月 26 日报道 (编译:小白)
编者注:本文作者为 Rachel Botsman,《你能相信谁?》(Who Can You Trust?)一书作者。在选择如何保姆来照顾小宝宝时,你更相信谁?——直觉,还是算法?
我第一次意识到相信陌生人是有多危险是在 1983 年。那时候我刚刚五岁,我们家来了一个陌生女人,她叫多丽丝,来自格拉斯哥,差不多快 30 岁了,到我们家来做保姆,是我母亲从一本杂志上找到她的。
多丽丝来到我们家时,穿着军制服,外加一顶帽子。我母亲回忆说:“我记得她有很重的苏格兰口音,她告诉我,她有照顾类似年龄孩子的经验,也是救世军的一名成员,因为她乐于帮助别人。老实说,一见面我就挺喜欢她的。”
多丽丝和我们在一起生活了大概 10 个多月。绝大多数时候,她都是个不错的保姆——开朗、可靠、乐于助人。除了周末不知踪影之外,她没有任何奇怪之处。
当时,我们的邻居,卢森堡一家的保姆经常跟多丽丝在一起。有一天晚上,卢森堡先生来到我家并表示,他发现这俩人又在从事毒品活动,而且还参与了一起武装抢劫。多丽丝是逃跑时开车的司机,而用来逃跑的那辆车就是我们家的沃尔沃。
我的父母随即决定搜查多丽丝的房间。在一只藏在床底的鞋盒子里,塞满了她从我父母家庭办公室里偷来的外币。我父亲整晚守在我们家大门口,拿着棒球棍,生怕多丽丝突然回家。好在,她没回来。
“哪怕是再讲起这件事,我都觉得后怕,”我母亲说,“我竟然把你交给一个犯罪分子照顾!而且,我们竟然还用了那么长时间才发现她的底细。我真希望一开始对她多了解一点。”
我父母通常属于比较聪明且理性的那一类人。在当今的数字连接世界中,他们是否会犯同样的错误呢?可能不会。一大堆科技公司正在努力帮助我们决定,谁可以相信,谁不能相信——不管是雇佣保姆还是出租房屋或者打车。当今的技术可以深入了解我们是谁,这在以前根本实现不了。那么,算法是否真的可以在判断“谁真的可信、谁是骗子”这方面,比人类表现更好呢?
在数据面前,赤身裸体的“我”
在某个秋日上午,我拜访了 Trooly 公司位于罗斯阿尔托斯的办公室。这是一个位于硅谷北部的一个乏味的落后小城。Trooly 的首席执行官 Savi Baveja 急切地想证明这些新的信托检查有多强大,他说道:“我要是用 Trooly 的软件来检查你的话,你猜猜会出来什么结果?” 脸上的笑容仿佛在鼓励我尝试。
我老脸一红,努力回想那些我曾经做过的所有或糟糕或尴尬的事情。大量的超速和违章停车罚单、那些长时间浏览的诡异网站(当然是以研究为目的!)、还是没有 PS 过的照片?
我尴尬地笑了笑。Baveja 说:“别担心,我们可以把过程投影到大屏幕上,这样你就可以实时看到结果”。不过,我怎么觉得更糟糕了呢?
Anish Das Sarma 是 Trooly 的首席技术官,谷歌的前高级研究员。他将我的姓名输入到 Instant Trust 程序中,接着又输入了我的邮件地址,就完事了。不需要出生日期,也不需要电话号码,职业或地址。
Baveja 解释说:“Trooly 的机器学习软件现在可以挖掘三个公共许可的数据来源。首先,公共记录如出生证明、结婚证、洗钱监察名单、性犯罪者登记册等。任何公开的和数字化的全球登记表都可以为我们所用。接下来,就是对深层次网络的挖掘。它还是互联网,只不过隐藏不可见;那些页面没有被编入常用的搜索引擎索引。仇恨组织,恋童癖者,枪支等。形形色色诡异的人就活跃在那部分互联网中。”
最后的数据来源是社交媒体,比如 Facebook 和 Instagram。官方医疗记录是禁区。但是,如果你发推特说,“我刚做完了一个可怕的背部手术”,这个就可以归类为法律许可的数据且可以使用。
Baveja 和他的团队花了九个月时间来权衡哪些数据可以使用,哪些不可以。当然,未成年人的数据不可使用。他说道:“在部分国家,法律明确规定了‘隐私’和‘高度敏感隐私’信息之间的区别——后者包括医疗记录,种族、信仰、工会会员身份等。后者是我们使用数据的分界线,我们十分清楚越界的后果。”
大约 30 秒之后,我的检查结果出现在了大屏幕上。“看!你是其中之一!”Baveja 说。个人信息从1-5 分成五个等级,其中 1 最值得信赖。“仅有约 15% 的人口结果为1,他们是我们的‘超级棒人群’。”
听到这番话,我感到一阵轻松,并隐约有股自豪感。但是有多少“超级坏”人群呢?“在 Trooly 覆盖的国家中,包括英国和美国,大约有1-2% 人口结果为 5 和4。”
Baveja 曾经是咨询公司 Bain & Company 的合伙人。他最长久的客户之一是某“知名在线市场”。这使得他开始思考数字世界中信任的重要性。“我们的客户需要使用他们全部预算中的6%——也就是数亿美元——来应对他们市场上发生的意外问题。这让我开始思考,现有的典型星级评估系统根本不足以防止大量的在线欺诈事件。”
与此同时,Baveja 的妻子经营着一家小型牙科诊所,时而会到客人拒绝支付或威胁给差评,等到周末的时候,甚至还会人有需求购买毒品。“我忽然发现,相比大型公司,小型企业对他们的客户了解更少。如果有一个办法可以帮助他们根除潜在的不良客户,那不是很棒?”
Trooly 的软件在不到 30 秒的时间内,爬取了 8000 多个网站,30 多亿个网页。数据被合并成三块。最基本的是验证我的身份。我是不是我?这一步通过扫描完成,比如我的个人网站与大学信息的比对是否一致。下一步是筛查非法、危险或欺诈活动。但最令人着迷的是第三部分,在这部分我被按照一组“三元黑暗特质”进行评估。所谓三元黑暗特质,即三种经常在天才和疯子上出现的人格特质——自恋(过度渴望成为焦点的自我中心主义)、精神病(缺乏同情心或懊悔心)以及马基雅维利主义(高度操纵性,缺乏道德)。不幸的是,Baveja 没法针对这部分给出单独的分数,但至少我通过了这部分的评估。
两年前,Trooly 为其软件申请了美国专利,专门用来确定“一个人的可信度与和善程度”。软件的算法也融入了 80 年代研究人员广泛采纳的五大人格特征——“开放性、自觉性、外向性、随和性以及情绪稳定性”。
“Trooly 通过使用从个人在线浏览数据中挖缺的数百个特点,开发了复杂的模型来预测这些特质。在这些数据中,可能预测出某人是否有,比如神经质倾向或粗鲁倾向。如果你观察某人的推特账户,如果上面充斥着自我参考和骂人的言语,这个人很有可能具有反社会倾向。”
数据与人类的互动
这让我想起了 18 岁那年,我跟父亲的激烈讨论。我在 eBay 上看中了一辆品相不错的二手标致车。但是我父亲说,买家的 ID 叫“隐形巫师”(Invisible Wizard),说明这人不够诚信。因此,我们最后还是找了一家当地汽车经销商买车。
那些日子,即便谨慎如我父亲,他也开始沉迷 eBay 无法自拔。并且,随着我们所处的这个社会越来越多地使用技术进行亲密的个人互动,甚至对方往往是完全不相识的人,要么分享我们的住宅和汽车,要么在网上寻找伴侣或保姆。但是当你第一次接触某个人的时候,你又如何能够知道他们是否存在威胁?他们是否真如自己口中所说的一样?或者,跟你对话的到底是不是一个真正的人类?
这些都是诸如 UrbanSitter 等公司需要回答的问题。这个美国网站为家庭匹配保姆,网站上已经注册有 35 万名家长和 30 多万保姆。和许多在线服务一样,他们都必须通过 Facebook 或 LinkedIn 加入。结果就是,正如 43 岁的创始人 Lynn Perkins 所说,“当你打算预订时,你可以看到多少‘好友’之前也预订过这位保姆,或者或多或少跟这位保姆有某种程度的联系。”
保姆和家长们需要创建详细的个人信息。人们自愿公开的细节数量和类型十分惊人。“有一对父母长篇大论地描述了他们的宠物大肚皮猪,”Perkins 回忆道,“他们想确保新来的保姆不会对他们的宠物感到惊讶。听上去尽管十分诡异,但却体现了非常好的管理。”
最终一层的安全则由 Trooly 或其他竞争信托评级服务公司提供,比如 Checkr。这个保姆是否真的有南泰勒斯学院的保育文凭?他或她是否在网上使用不当语言?他或她是否为登记在册的性犯罪者?遗憾的是,在平台上注册的保姆中只有 25% 通过了测试,剩下的 75% 要么没通过要么拒绝测试。
在这个新世界中,糟糕的事情依然不时发生。但是想 Perkins 这样的创业者绝不会告诉你,在他们平台上发生的此类不良事故、轻微事故或严重事故的准确数据。她只会说:“这些事情肯定会发生,但非常少。”
数据识人
6 月份,Airbnb 收购了 Trooly,具体交易金额不详。此举乃是 Airbnb 决定解决问题的一部分努力,同时公司还聘请了前中情局参谋长 Nick Shapiro,担任全球信托和风险管理总监。Shapiro 提到:获得和保持信任将永远都是一个正常社会的核心部分。改变的不过是信任交换的地点和方式。与以往只要建立对大型机构的信任(如大公司、媒体或政府)不同,如今,人与人之间的信任正变得越来越重要。”
Shapiro 的一部分工作是弄清楚当问题出现时,Airbnb 该如何应对。以 David Carter 为例,2014 年 3 月份的某个周末,他预订了一个豪华纽约公寓。他告诉房东 Ari Teman 说,他需要帮自己的哥哥嫂子找个住的地方,以便他们举办婚礼。然而,事实上,Carter 口中所谓的嫂子,其实是一群大波妹,他们一起在 Teman 的公寓大开派对。直到 Teman 返回公寓取自己的行李时,他才意识自己的屋子里竟然上演着限制级“社交晚会”。
Carter 有经过验证的 Airbnb 账户,评论也多是好评。“我们有责任审视过去,从而发现哪些地方可以改进,”Shapiro 说。换句话说,就是怎样才能让 Carter 这类人彻底消失?
Baveja 表示:“其实,你很容易发现这类糟糕的事情会发生。你根本不需要深入研究 Carter 这个人的精神状态,来判断他到底是不是一个性派对的专业组织者。”在谷歌上随便搜一下他的电子邮件地址,你就会发现一堆跟色情有关的在线广告。
后来,我跟 Baveja 说了多丽丝的事情。如果多丽丝申请 UrbanSitter 的话,系统能不能发现她的问题?也许。也许我的父母会知道她其实并不属于救世军,也没有照顾小孩子的经验,以及一连串斑驳的犯罪记录。这些,多丽丝都掩饰不掉。
我们该相信算法,还是直觉?
那么,是否可以说,我们应该接受这些新的算法吗?Baveja 和 Shapiro 都承认,在尝试采取道德决策并将其转化为代码的同时,责任随之而来。我们愿意交给算法进行测试的个人数据究竟有多少?我们是否对让算法来判断谁值得信赖感到舒适?
在我的 Trooly 测试中,我发现自己十分担心自己过往的小错误小越界会被呈现在众目睽睽之下。其他公司是否会注意到这些呢?
Shapiro 强调:“没人喜欢被评判,不管是被别人还是机器。但这不是我们筛选程序的目的。我们意在寻找严重的风险,比如仇恨组织成员,有暴力犯罪记录或虚假身份的人。我们一点也不关心你是否发送过愚蠢的推特内容,还是被贴违章停车罚单。”
但是,这些事情还是很有可能会影响到雇主。逐渐地,招聘人员将会使用数字足迹和机器学习来过滤求职者。招聘工具如 Belong、Talview 还有 Social Index,正在提供收集和分析在线数据来判断某个求职者是否符合公司文化。
另外,还有其他的问题。比如,“数字幽灵”们要怎么判断?像我的丈夫,从来没有使用过推特,或 Facebook,或 LinkedIn,他的“少量信息”是否会降低他的可信度得分呢?
“有那么 10-15% 的人,我们无法给出确信的分数,”Baveja 承认,“对这些人,要么缺乏足够的线上浏览数据,要么没有足够准确的输入信息。我们寻找的是贬损信息,缺乏信息并不影响到你。”
在这个我们可以轻易从手机上找一个人来修理煤气泄漏,或者载你回家,或者约会的世界中,线上信用值势必将变得更快、更智能且更普及。当我们第一次把信用卡信息输入网站上,比如说,在 Tinder 上寻找约会对象时,人们的确感到一丝不适,甚是有点危险,但很快这种方式火遍全球。技术到底能否彻底消灭与陌生人打交道的风险吗?
UrbanSitter 的 Perkins 斩钉截铁地表示不可能。人类是复杂的道德生命。“如果一个保姆站在你面前,你感到不放心,那么不管他们是否通过了任何测试,不管他们的收到评价多高,也不管在网络上你对他们的印象,你都会听从直觉,拒绝眼前这个保姆的服务。”
如果决定信任谁的最终大权仍掌握在我们自己手中,我们倒是处于一个更好的位置,可以询问正确问题,找到正确的信息。这也意味着,把毒贩和银行抢劫犯当成保姆带回家中的可能性会大大降低。