一款名为 Google Arts & Culture 的应用突然火了起来。该应用原本是谷歌文化学院(Cultural Institute)2016 年发布的产品,其中涵盖了全球 70 多个国家和地区的 1000 多家艺术博物馆藏品资料。输入你能想到的任何字眼,应用能帮你搜索到与之相关联的作品,除了对作品背景的介绍,艺术爱好者还可以选择喜爱的大师,并按照年份,浏览该大师的作品。
为了让大众“走进”这些博物馆,这款应用甚至还加入了 360 度全景模式。
尽管功能强大,但你可能没想到,发布一年后,现在因为自拍功能,这款应用在上周成为 iOS 和 Android 免费应用下载第一名。
具体来说,用户将自己的自拍照上传应用,应用自动找出与用户相像的画作,不过根据谷歌一位发言人称,该功能目前只在美国部分地区上线,还没有计划在其他地区上线。
original="https://static.cnbetacdn.com/article/2018/0122/4a6dce8efbb280a.jpg" />
来自高晓松的微博
好玩的自拍功能吸引了众多的用户,但也暴露出了问题。
一位来自 Digg News 的编辑 Benjamin Goggin 注意到,很多有色人种发现,与他们自拍相匹配的艺术作品相对有限。有的人发现,与他们匹配的作品带有固定的偏见,如有色人种常常是奴隶、仆人等,而女性则是色情小说中的角色。
谷歌发言人表示,“这种局限性是由其平台上涵盖的作品数量而导致。历史作品往往无法反映世界的多样性,我们正努力将更多元化的艺术作品导入平台上。”
与此同时,这项自拍功能所引起的种族问题得到了各大媒体的报道,如 Bustle、BuzzFeed、Marketwatch 等等。毫不奇怪,这也引起了许多隐私问题。在上传自拍钱,应用会呈现一条信息,谷歌告诉用户,它不会使用自拍数据作为他用,只用来找到匹配的艺术品,并且不会储存照片。
Google Art & Culture 在 2011 年还被成为 Google Art Project(谷歌艺术项目),当时一推出便被指责是欧洲中心主义。原先的 17 家合作博物馆多位于华盛顿特区、纽约,或是西欧,人们指责博物馆覆盖的范围太小。于是,谷歌迅速扩大博物馆的范围,正如前文提到的,如今已经涵盖了 70 个国家和地区的 1500 家文化机构。
然而,从 Google Art & Culture 收藏的地图来看,美国和欧洲仍然占据主导。谷歌正在努力呈现多样性的艺术家、艺术作品和风格,但如果不瓦解欧洲中心主义,数世纪的人种偏见便不会消失。
2015 年,梅隆基金(Mellon Foundation)在美术博物馆馆长协会和美国博物馆联盟的协助下,发布了首份针对美国博物馆人种多样性的调查。调查结果显示,博物馆 84% 的管理职位均由白人担任,博物馆初级职员中少数族裔也较少,梅隆基金表示,这说明如果博物馆希望未来领导者人种足够多样性,现在需要积极地培养年轻人才。另外,艺术院校的女生多于男生,但当代艺术展仍然是男性占据主导。
如果是上述是历史遗留的问题,那么现在算法不仅没有缓解问题,还将问题恶化了。
因为算法无法使用户免受种族的偏见,反而吸收和学习,放大并且传播偏见,同时打造出技术不受人类偏见影响的错觉。面部识别算法已经证明了其能造成的伤害,例如,两名黑人用户发现他们的照片被贴上了“大猩猩”的标签。谷歌已经为此道歉,屏蔽了程序中的“大猩猩”、“黑猩猩”、“猴子”的图片分类。
算法的准确度同基准数据集一致,而这些数据集则反映了数据收集者的偏见,不管是有意还是无意。来自 MIT 的毕业生 Joy Buolamwini 正在研究该问题,他此前曾创办了算法正义联盟(Algorithmic Justice League)防止偏见被编码植入软件中,而这将对种族定性和公民权利带来巨大的影响。去年,在 TED 演讲中,黑人 Buolamwini 讲述了当她带上白人面具时,一些带有机器视觉的机器人如何快速地识别她的经历。
人脸识别算法中的偏见与彩色电影的发展遥相呼应。20 世纪 50 年代,柯达向照片实验室发送女模特卡片,以帮助他们校准肤色。所有的模特都被称为雪莉,此后几十年所有的模特都是白色人种。这意味着,黑人形象常常被曲解,或是未能被真正描述。
如今,通过 Google Art & Culture,谷歌正在挑战种族偏见和短视思维,因为基于谷歌技术的产品可超越地理、语言和文化的局限,而这是其他媒体无法做到的。应用中的自拍功能不仅仅是愚蠢的模仿,但是要认识到其局限性,这也意味着面对艺术历史中,艺术作品收集中存在的偏见,并且告诉用户这样事实的存在。