拥有7亿活跃用户的Instagram正在过滤网络评论这个“污水池”。
去年六月的“美国网红节”VidCon上,Instagram也借机举办了私人聚会,社交媒体领域的达人汇聚一堂。在这样的场合,聊天、玩笑、自拍必不可少。每个人都想在Instagram表现自我、分享喜悦,但与此同时,原本是净土的社交平台也在承受“垃圾评论”的污染。试想在Instagram上遭到无端的嘲笑与骚扰,无异于在迪士尼乐园发现了七个小矮人正围着白雪公主嘲笑她很胖。
在私人聚会上,Instagram 的 CEO凯文·斯特罗姆( Kevin Systrom) 用Boomerang在Instagram发布了一段视频,在视频中他同20多个年轻人摇摆嬉笑,在画面的右下角,一个年轻的女孩双膝弯曲,挥舞双手,看上去像是在为蛋奶酥打鸡蛋。
起初视频之下的评论很友善,毫无征兆地,一些人将注意力转向视频右下角的女孩,随后发表了一系列充满色情与暴力暗示意味的文字与表情符号。
33岁的斯特罗姆身材高挑瘦削,为人低调且风度谦和。在他的身上看不出其他亿万富翁惯有的“标签”,他没有游艇,也不存在签了保密协议的前合伙人。在他的Instagram里更多的是宠物狗、咖啡、自行车还有一些笑容灿烂的合影。几年前,硅谷著名八卦网站Valleywag曾经形容斯特罗姆的语调听起来像是“一个人在用生硬的语气读自己的讣告”,尽管后来有所改善。如果非要在他身上挑出什么错,那就是他和另一位创始人过早地将Instagram卖给了Facebook,后者只花费了10亿美元就将潜力巨大的初创企业收入囊中,而反观同一时间拒绝Facebook收购要约的Snap,目前的估值已逾170亿美元。
一直以来,斯特罗姆以自己的“好好先生”的良好声誉感到自豪并认为和善应是构成Instagram基因的重要部分。在Instagram服务建立之初,他和另一位创始人克里格(Mike-KriegerK)曾亲自删除了一些恶意的评论。他们将此戏称为“修剪恶魔”。
因此,VidCon过后,斯特罗姆回到位于Menlo Park的总部对同事们公布了新任务:将Instagram打造成社交媒体的乌托邦。
按照惯常的逻辑来看,技术平台并非是中立的。因为技术平台就是以激励某种特定行为为目的而进行架构的,在随后投入使用的过程中,技术平台的算法会在更多的方面去约束用户的行为。就像用户荡舟河上,技术平台是河而算法则是水流。
Instagram用户量达7亿,作为CEO的斯特罗姆就像是一个国家仁慈的主宰者,而这个国家的体量是美国的两倍。斯特罗姆时常感觉自己的决定的确影响着众多用户的生活,他们之中有缺乏判断力的青少年、也有能够很好适应周围环境的成年人,还有坐拥众多“黑粉”的流行歌手。
就在2016年7月中旬,Instagram就发了“蛇灾”,流行歌手泰勒斯威夫特同前男友凯文·哈里斯及金·卡戴珊闹翻,泰勒斯威夫特由此被认为心机深重,她的Instagram评论区也充斥了各类蛇形符号,但很快这些不良言论就被清除了,泰勒的评论区回归正常。
泰勒能“一键清除”蛇形符号并非偶然,而是Instagram推出了秘密武器:一款可以自动从用户的信息流中删除特定的单词和表情符号的过滤器。而斯威夫特的“蛇形事件”成为这款产品的首个测试案例。
9月,Systrom正式推介了这一功能,用户可以点击“隐藏不当的评论”的按钮,便可弹出一个关键词列表,其中有一些带有歧视意味的字眼已经被列入其中,此外用户也可以自定义添加表情符号与关键词。
这一切都是开始,10月,Instagram又推出了一系列工具,这个功能就像是邀请学校的教导主任“住”进用户手机。比如说,如果用户输入了“自杀”一词,便会弹出一个窗口显示:“如果你遇到困难,是否需要帮助?”,用户若选择支持帮助选项,接下来就会弹出自杀预防热线的号码。随后在12月,Instagram又赋予用户关帖评论的权力。
偏激的观点会认为Instagram这样做是出于商业目的,因为广告商更喜欢把钱投放在氛围更积极的平台,公众人物也愿意在相对平和的环境中发声,青少年在这样的环境下会因为更有安全感而选择把自己的社交账号公开,他们的父母也不会像以前那样限制青少年使用手机。
不过,当你和Instagram公司的员工交流时会感觉到,在他们看来这场净网“战役”关乎心灵,而非钱袋。在Instagram的公共政策主管尼克·杰克逊·科拉科(Nicky Jackson Colaco)表示,Instagram是她的孩子与大批同龄人第一次感受到社交媒体应接不暇的信息密度的地方,“我们想要做的是创造一个不同的世界。”
但是Instagram不能用相对简单的技术修复来构建这个世界,即便在去年秋天已经发布了一系列产品,Instagram的工程师还是着手进行一些更加复杂的工作。
从互联网上删除不当言论一直是人类的工作,但是人工智能技术的应用使机器在这方面更胜一筹。
2016年6月,斯特罗姆在访问网红节VidCon的时候,Facebook推出了基于机器学习的文字理解引擎DeepText。DeepText运用了词嵌入(word embeddings)的理论,其中包含多种深度神经网络体系结构,可实现文字级别和字符级别的学习。当系统遇到新单词时,便可根据周围的其他单词推断出新词意义。分类引擎分析的数据越多便越发智能。像人类一样,可随时间的推移学习得更多;与人类不同的是机器学习不眠不休。
可以从这样一种角度理解DeepText的运作方式,它就像一颗全部记忆被清除的成年人的大脑,随时可被分配语言学习任务。Facebook就像拥有能为其工程师所用的装满大脑的冷冻室。其中一些可用来识别信息用户是否需要出租车,另一些用来指导用户如何在Marketplace上卖自行车。
了解DeepText后,斯特罗姆意识到工程师团队也可在Instagram上进行识别垃圾评论的训练。如同小孩学习语言一样,首先需要有人来教。所以斯特罗姆召集了一个团队负责分类平堆积在平台上的大量垃圾评论。
通过标注垃圾邮件与非垃圾邮件并导入DeepText,机器学习学习后很快能够分清语料内容到底是“金砖国家欲提供真正的经济合作伙伴关系”还是朋友之间的“回粉”。当系统能够足够准确地区分出垃圾信息时,Instagram才在去年11月秘密上线了这项功能。
随后,斯特罗姆产生了更大胆的想法:机器学习能够区分出字面背后的深意呢?如果一句话中没有粗鄙的字眼,但可以被歪曲出并不友好的引申含义,这样的双关语能否通过技术的手段进行分类呢? 斯特罗姆的团队仍然任重道远。
Instagram约有500名员工,相比其庞大的用户量,体量较小,用不恰当的方法计算,每名员工大约要负责150万个活跃用户。负责“训练”机器学习语言过滤的团队也很小巧,在《连线》记者6月下旬前去拜访时,办公室里只有20人, 桌椅板凳挤挤挨挨,废纸零星分散在各处。这支年轻团队人员构成也颇具多样性。他们的工作是通过评论判断用户是否遵守Instagram的“In Spirit”(注重精神)的社区准则,这项准则在2012年被首次提出,Instagram同时也出具了一版可供用户查询的1200字的准则(其想要传达的意思简言之就是:时刻保持尊重、穿好自己的衣服)。而在上述员工手中还有一份秘密的细则,用来判断用户的表现是否合规,评论评估人员至少掌握两种语言,他们已经分析了超过200万条评论,并且每条评论被评估了不止一次。
即便是处理最具侵犯性的言论时也应注意细微处的差别。“如果你用具有种族歧视意味的字眼攻击其他用户时,将会被平台禁用”Instagram的内容营销总监James Mitchell表示:“如果你是用这样的词进行自我调侃、讲述一个故事或者是自己曾经被歧视的经历时,那么就可以不被禁言。”
评估人员对数据进行分类后,将其分类的文本中的五分之四导入DeepText。机器在学习过所有数据之后会寻找合适的模块对正常言论与不当言论进行分类。此后,Instagram的工程师们与DeepText再一同提出基于帖子内容和其他因素(如作者和评论者之间的关系)来识别负面评论的规则。该公司还使用了一个指标,主要用来描述用户历史发帖内容的质量,工程师在内部称之为“因果成绩”(karma score)。未导入DeepText的五分之一的内容将用来测试上述规则,以了解机器与人类评估的匹配程度。 DeepText的打分区间在0—1,分数越高则评论越差,当超过某个阈值时,该条评论就会被删除。
用机器解决问题似乎更加纯粹,不像人类那样容易受偏见和矛盾左右,机器没有自身的情绪。尽管如此,机器依旧会在内置规则的影响下具有一定的局限性。今年早些时候,文本分析公司Luminoso的首席科学家Rob Speer基于词嵌入理论建立了一套算法,试图分析文本内容的倾向性。他用人们对于餐厅的评价作为语料进行测试却得到了意料之外的结果:人们墨西哥餐馆评价很低,而事实情况则是墨西哥餐厅颇受欢迎。后来Rob Speer通过数据挖掘找出了原因,系统是从网页上学到的墨西哥一词,而在互联网上,墨西哥一词往往与“非法”等负面词汇相关联,对于算法来说,这意味着一些不好的东西。
当《连线》杂志记者告诉斯特罗姆这个例子时,他很快就回答:“这听起来很可怕,”旋即指出,Instagram的评级不会基于这样的算法而是基于公司评估人员的判断。但是这些人也会具有自身的局限性,他们的观点将会影响过滤器的运作,进而影响到7亿用户的使用状况。
Instagram 于2017年6月下旬,发布这两款新工具:自动评论过滤器、垃圾消息过滤器。目前来看用户回应似乎相当积极。其实也有人注意到,过滤器并不完美,它在理解语言表述在文化差异与双关语方面尚存问题。比如fag一词因意指男同性恋而被禁,但在英国俚语中也可以用来代之香烟。而黑人说唱歌手Kanye West的歌词也屡屡被禁,但nigga一类词其实在黑人说唱歌词中很常见。
Instagram面临的一大风险是,过滤器会逐渐改变平台基调。 Instagram虽然以图片立足,但是如果真正的讨论和经过深思熟虑的批评因过滤器的存在而减少,对平台而言似乎也不是什么好事。就如忠言逆耳,最好的点子看起来也不全是和善友好的。比如说如果没有iPhone,Instagram将不会存在,但如果当初有“过滤器”存在,史蒂夫·乔布斯的一些观点或许有极大地可能是会被删除掉的。
看来斯特罗姆想要创造的世界似乎不仅仅是美好的,同时还是被“净化”的,就像是迪士尼乐园那样。当他在6月下旬宣布推出这款产品时也发表一条ins来解释自己的想法。评论区的反应大多是积极的,附有爱心、花朵、微笑等表情符号。但其中没有一条批评性意见,还有一些对于Instagram信息流由时间轴转向相关度推送的投诉或抱怨也未见其踪,而有些用户仅仅只是觉得这件事很奇怪而已。
对此,斯特罗姆认为言论自由不代表垃圾言论也要自由,Instagram并为公共区域而仅仅是一个社交平台,使用权与弃用权都掌握在用户手中。
“难道自由仅仅体现在可以待人刻薄口出恶言吗?”当被问及过滤器是否影响言论自由时斯特罗姆反问。对此Instagram的公共政策主管尼克·杰克逊·科拉科的回答更加尖锐:“当一个平台上充斥着不良言论,人们为自我保护而三缄其口,在某种程度上更是在挤压用户的自由表达权。”
但她的评论又引出了一个新的问题:该如何把握过滤的“度”?
不过斯特罗姆目前则将其抛之脑后,他提出Instagram的过滤器功能只是针对最恶劣的评论。 “我们考虑去过滤的,是不良言论之中最糟糕的5%,我不认为我们是在尝试游走于灰色地带。”
本文摘编自8月14日《连线》杂志文章
Nicholas Thompson/文