是智能还是智障?细数这些年大公司们的「算法乌龙」事件_最新动态_新闻资讯_程序员俱乐部

中国优秀的程序员网站程序员频道CXYCLUB技术地图
热搜:
更多>>
 
您所在的位置: 程序员俱乐部 > 新闻资讯 > 最新动态 > 是智能还是智障?细数这些年大公司们的「算法乌龙」事件

是智能还是智障?细数这些年大公司们的「算法乌龙」事件

 2017/9/26 15:42:58    程序员俱乐部  我要评论(0)
  • 摘要:本文来自微信公众号“极客公园”(ID:geekpark),作者宋德上周一,英国电视台Channel4报道了一则新闻,有消费者在亚马逊网站上购买厨房用品时,在「购买此商品的消费者还购买了这些」里被推荐了一些能够帮助他组成制作炸药所需的材料。虽然这些物品在英国均属于合法商品,但经过最近的几次爆炸案,伦敦对这类事件已经非常敏感,因此这条新闻引起了不小的关注。《纽约时报》的记者跟进报道时发现在美国也有同样的情况,当他们在亚马逊上购买了镁条时
  • 标签:事件 大公司 公司 算法 智能
class="topic_img" alt=""/>

  本文来自微信公众号“极客公园”(ID:geekpark),作者宋德

  上周一英国电视台 Channel 4 报道了一则新闻,有消费者在亚马逊网站上购买厨房用品时,在「购买此商品的消费者还购买了这些」里被推荐了一些能够帮助他组成制作炸药所需的材料。

  虽然这些物品在英国均属于合法商品,但经过最近的几次爆炸案,伦敦对这类事件已经非常敏感,因此这条新闻引起了不小的关注。

original="https://pic.36krcnd.com/201709/26053345/q3ix5hpnkklbb4xc!heading" data-image-enhancer="larger than 578" />

  《纽约时报》的记者跟进报道时发现在美国也有同样的情况,当他们在亚马逊上购买了镁条时,相关推荐里同样列出了一些用于制作炸药的粉末品。

  不过也有许多人指出,按照亚马逊算法的推荐配方制作炸弹,其威力并不足以实施恐怖袭击,因此有关恐怖分子网购炸药的说法也自然站不住脚。

  但无论怎样这都是一件乍看可笑却细思极恐的事,亚马逊在上周三做出官方回应称:「亚马逊所售的所有商品必须符合公司的销售指南,并且我们只销售符合英国法律的产品。」

  「鉴于最近发生的事件,我们将会对网站进行审查,确保所有这些商品以适当的方式呈现。」同时亚马逊还将助英国警方与执法机构进行调查。

  社会对技术的批评让笔者联想起轰动一时的快播涉黄案,自快播案以来,有关「技术是否无罪」的讨论就从没有消停过。

  就在上周,人民网连发三篇文章,指出以今日头条为代表、单纯依靠算法推荐的平台存在价值观缺失、制造「信息茧房」和竞争手段屡破底线等三大问题。今日头条也在隔日回应了人民网,表示机器学习技术目前整体发展存在不足,与人工编辑保有着相辅相成的关系,基于机器学习的信息分发仍然可以为社会创造更大的价值。

  今天我们先把技术是否无罪的问题撇一边,单独来看一看这些年机器学习推荐算法的发展过程中多出现过哪些或可笑或发人深省的「乌龙事件」。

  先行者 Google 的试错

  搜索天生就具备人工智能的基因,而全球最大的搜索引擎 Google 自然也早早地开始了人工智能的实践,但同样,因为早期技术的不成熟,Google 也闹出过各种各样的糗事。

  2015 年 7 月 3 日,推特上的一位网友 Jacky Alciné曝出了一张刚发布不久的 Google Photos 应用截图,图片上他的黑人朋友被应用标记成了大猩猩,Jacky 对此表示十分气愤,「Google Photos,你太混蛋了,我的朋友不是大猩猩。」

  随后,Google 对此做出了回应,他们向该用户表示道歉,并称「图片自动标记功能显然还有很多改善空间,我们希望今后能避免此类错误再次发生。」

  误把人类识别成猩猩和动物的事不止发生在 Google 的算法上,同年 5 月推出标记功能的雅虎旗下 Flickr 也曾经出现过类似的差错。总体来说这类问题在算法不断改进、数据不断丰富之后就会得到明显的改善。

  更早的时候,Google 曾推出一款针对孩子的视频应用 YouTube Kids,但这款声称能够屏蔽成人内容的应用仍然会播出一些不当视频,这点引起了许多家长的不满,Google 再次澄清「目前算法还无法达到 100% 的精确度」。

  依旧是 15 年的 5 月,有人在 Google 地图应用上搜索「nigga house」,得到的结果却是美国首都华盛顿特区的白宫 White House,也就是美国总统居住办公的场所。

  Nigga 是一个有着种族歧视意味的词语,通常翻译成「黑鬼」,名人在公开场合开玩笑时都会选择用「N-word(N 字开头的词)」来代替。

  而令这件事性质更加严重的是,当时白宫的主人还是美国第一任黑人总统奥巴马,不禁让人感叹种族主义的猖獗。

  出现这种差错的原因是一项名为「Google Bomb」的功能,这项功能极容易被用户利用,改变一些 Google 的直接搜索结果。通过在大量的网站上链接 nigga 和白宫这两个词就有可能达到上述的效果。

  微软聊天机器人 Tay

  在美国,种族歧视是一个非常敏感的问题,不止是 Google,其他公司也遇到过类似的问题。

  去年五月,微软在推特上线聊天机器人 Tay,不到 24 小时就被网友们调教成了一个「种族主义者」,发表了多条刻薄、仇恨的言论。

  微软不得已匆忙下架了 Tay,其负责人也出面表示道歉,但究其原因,Tay 的失控兼具网友的放肆和其算法本身较为脆弱两方面原因。

  Facebook 的广告算法

  Facebook 最近也因为种族主义的问题而遭到了社会各界的批评。

  据报道,上周有人发现 Facebook 平台上的广告商可以定位到那些将自己标记为「反犹太主义者」的人群,并投放相应的广告。作为回应,Facebook 表示他们已对其广告政策进行重新评估,进一步限制了广告商的权限,并且删除了有关「反犹太主义者」的标签。

  但这次事件并不是 Facebook 广告问题最大的麻烦,他们官方上周表示,在美国总统大选期间,Facebook 向可能与俄罗斯有关的虚假账号出售了约价值 10 万美元的广告,这些广告从某种程度上影响力美国总统大选。

  算法正变得越来越可靠

  有意无意间,互联网上的智能算法每每出现问题都会影响到我们的生活,小到用户自己接触的新闻内容,大到一个国家的政治形势,在一个全面智能化的时代,算法的力量正变得越来越大。

  但我们可以看到,Google 的搜索已经很少出现上述的失误,微软重新上线的聊天机器人 Zo 也越来越「百毒不侵」,亚马逊、Facebook 和今日头条推荐算法的问题也会很快得到解决,算法在不断改进,变得越来越可靠。

  我们有理由相信,现在偶发的小乌龙,小失误不过是因为人工智能算法正处在过渡期,没有人知道未来什么时候我们才能拥有一个完美的算法,但可以肯定的是,算法正在变得越来越难以被调戏,被利用。

  你不必百分百地依赖机器,但在人工智能时代到来之际,请你一点一点地让它改变你的生活。

发表评论
用户名: 匿名