社交平台假新闻的算法治理:逻辑、局限与协同治理模式
张 超
摘 要:当前国内对社交平台假新闻治理的研究缺少从技术逻辑出发的思路。用算法治理假新闻是智媒时社交平台假新闻治理的新手段,如通过信源评价,对低可信度信源“降权”,降低假新闻推送概率;通过文本识别,揭示假新闻文本特征,提高辨识准确度。用技术治理技术问题存在短期内难以克服的局限:平台逻辑变相鼓励假新闻、真假新闻微妙界限难辨别。基于此,本文初步提出“算法——利益相关者”的协同治理模式,从技术圈层、社会圈层探讨不同利益相关者的协同治理行动,最大限度提升社交平台假新闻的治理效果。
关键词:假新闻,算法治理,深度造假,社交平台,协同治理
作 者:张超,山东大学文化传播学院教授,博士生导师。
基金项目:2019年度国家社科基金项目“智媒时代新闻生产算法风险及其协同治理研究”,批准号:19BXW020。
原刊发期刊:《新闻界》,2019年第11期。
随着平台媒体(Platisher)的崛起,全球新闻消费逐渐转向移动端,社交平台已经成为用户获取新闻的主要渠道。在美国,10%至15%的新闻点击量来自新闻网站,80%来自搜索和分享。[]皮尤2018年的调查显示,68%的美国成年人从社交媒体上获得新闻。社交平台正越来越实质性地成为人们接触新闻的渠道、想象世界的方式和建构价值观的来源。[]与此同时,57%的用户认为社交平台上的新闻不准确,[]原因在于假新闻(fake news)泛滥,Facebook约占虚假信息流量的五分之一。[]在中国,近六成假新闻首发于微博。[]虽然微信首发的假新闻数量不多,虽占新媒体假新闻的7%,但因其封闭式传播环境,自我纠错能力弱,辟谣难度大。[]咨询公司Gartner预测,到2022年大多数发达国家用户接触的虚假信息将多于真实信息。[]
假新闻与新闻业相伴相生,如今社交平台假新闻与以往假新闻最大的不同在于生产与传播具有“智”的特征——造假手段的智能化和传播扩散的“拟人化”:“深度伪造”(deepfakes)是基于人工智能技术对图像进行合成的方式。[]很多照片、视频经由生成式对抗网络深度学习后合成,以假乱真,成为假新闻生产的新手段;社交机器人(social bots)参与假新闻扩散,用户不知道“@”自己的是人,还是社交机器人。在散布假新闻的账户中,三分之一到三分之二是社交机器人账户。[]
假新闻最大的危害在于误导公众、导致“共享现实”(shared reality)的缺乏、群体极化和社会分裂。[]而像“深度造假”、社交机器人等新的造假手段会在后真相时代制造更多认知混乱,可能导致社会信任基础的坍塌。2016年美国大选之后,假新闻成为全球社会治理的重要议题。2018年9月,欧洲主要线上平台、社交媒体、广告主和广告经营者代表联合发布了欧盟历史上首份《反虚假信息行为准则》(Code of Practice on Disinformation)。[]由于美国宪法第一修正案的规定,政治权力很难直接伸手监管假新闻,假新闻治理只能依靠平台自身来开展。[]
国内针对社交平台假新闻治理的探讨多倾向于通过政策规制、提升平台责任意识、提高用户素养等手段进行治理,相关研究大多从社会心理、传播规律等角度研究某种类型事件或某个热点事件的假新闻传播机制。这些研究虽注意到假新闻在社交平台生成、扩散中的某些规律,却忽视了社交平台的底层逻辑——算法,也没有给予同样以算法为中介的假新闻行动者(如自动、批量传播假新闻的社交机器人)以关注。很多研究强调“政府——社交平台”的二元治理结构,缺少从利益相关者的角度去思考。
智媒时代,算法是把“双刃剑”,既可以助推假新闻,亦可阻击假新闻。本文先从技术路径出发探讨通过算法治理社交平台假新闻的行动逻辑,之后探讨“算法——利益相关者”的假新闻协同治理模式,探索治理社交平台假新闻的新的可行路径。
一、智媒时代社交平台假新闻的算法治理逻辑
算法是解题方案的准确而完整的描述,是一系列解决问题的清晰指令,能对一定规范的输入,在有限时间内获得所要求的输出。[]算法和程序密不可分,算法是抽象的,运行算法就需要程序。程序是用计算机语言表述的算法,程序是算法和数据结构的统一,二者的关系可以表述为“程序=算法+数据结构”。[]
治理是各种公共的、私人的个人和机构管理其共同事务的诸多方式的总和,是使互相冲突的或者各不相同的利益得以调和并采取联合行动的持续的过程。[]随着大数据、人工智能兴起,算法治理(algorithmic governance)应运而生,这是以算法为中介参与社会治理的方式。
在这里我们需要区分在中文翻译上可能带来混淆的概念:算法治理。在西方社会治理研究中,有两种与算法有关的治理,一种是本文说的算法治理,另一种是algorithm governance,也译为“算法治理”,但二者涵义完全不同。algorithm governance指向的是面向算法的治理,聚焦算法的责任(accountability)、透明( transparency)和技术保证(technical assurances),旨在减少算法引发的问题,[]算法扮演被治理的角色。本文的算法治理是用算法治理社会问题,算法在其中扮演的是手段、工具的角色。由于目前还没有更好的翻译方案可以解决以上问题,本文约定,行文中的算法治理是algorithmic governance。
利用算法治理假新闻,如果以社交平台为中心,可以分为内外两种算法治理。内部算法治理是指利用社交平台内部算法的优化,减少假新闻的扩散几率和程度,涉及社交平台推荐算法的“元治理”;外部算法治理是利用社交平台之外的算法对社交平台中的假新闻进行预测、识别。
(一)内部算法治理:对低可信度信源“降权”,降低假新闻推送概率
假新闻进入社交平台后,不会立刻进入病毒式传播状态,也不一定会被平台算法抓取,首先要经历冷启动。冷启动是指在推荐中如何将用户、内容从0转化为1。在推荐系统中,内容的冷启动是指一篇内容借助探索性展示完成从0到1的用户反馈积累过程。在这个过程中,如果没能得到足够的正面用户反馈(点击行为和阅读体验),系统认为该文章不受欢迎,为了控制负面影响就会逐步降低该文章推荐量。反之,有可能被推荐系统快速放大,具备成为“爆款”的可能。[]
由于假新闻能够激发恐惧、失望和惊讶等情绪,比真新闻更有吸引力。[]假新闻会在短时间完成冷启动,迅速进入平台算法推荐系统,而推荐的可能性与用户社交关系、内容偏好等密切相关,同类用户阅读越多,这类内容就会在同类用户中越推荐越多,如此反复,形成“病毒式传播”,这一切都是自动完成的。因此,阻止假新闻扩散最好在其完成冷启动前监测到,面对社交平台上的海量信息,这显然难以完成。
一个可行的逻辑就是假新闻完成冷启动被监测到后,对假新闻的来源,即低可信度信源进行“降权”处理,减少来自这个信源的推送机会,通过平台的检测和响应操作,抑制假新闻的传播。[]之所以锁定低可信度信源比较有效,一是因为假新闻虽多,但分布较为集中。10个网站的假新闻占了调查样本比重的六成,50个网站的假新闻占了近九成。[]二是信源传播过一次假新闻,通常会继续传播。社交机器人账户在假新闻病毒式传播前发挥“放大”低可信度内容(amplifying low-credibility content)的作用,遏制社交机器人账户是减少假新闻传播的有效方法。[]针对Twitter的模拟实验发现,如果将机器人内容排除在外,低可信度文章的转发总量会减少70%。[]
遵循这一原理,Twitter在2018年美国中期选举前清理了1万个自动推送虚假新闻的假账户。[]Facebook会在后台监测新闻下面的质疑性评论,由专业人员对这些新闻做出评定,将评定结果录入自动鉴别算法所用的数据库中,优化算法。[]此外,Facebook将系统鉴定出的低可信度报道自动置于推送栏底部,可将假新闻的阅读量减少约80%。[]YouTube对视频推荐规则进行调整,优先推荐权威来源的视频,而不是根据流行度。[]这也就使“分享”在推荐系统中的比重下降。
(二)外部算法治理:揭示假新闻文本特征,提高辨识准确度
假新闻与真新闻的文本特征是否可被总结?在“一切皆可量化”的数据时代,研究者认为真、假新闻被“数据化”后有各自的特征,这些特征通过人的经验难以察觉。研究者只需找出真假新闻的“数据化”特征,再设计一套有较高识别准确率的算法即可识别假新闻。
美国密歇根大学研究者用语言分析研究语法结构、词汇选择、标点符号和复杂性来解析假新闻,准确率是76%,高于人工识别准确率6个百分点。[]Facebook研究了内容与标题不符的帖子,研发辨识算法以识别这类文章,并给予降级。[]
另一种方法是不借助语义就可以辨别的方法是“数据立方体”(data cube),通过研究词与词的关系识别假新闻(见图1)。[]第一层算法通过词和词之间的空间关系[]来降维分解文章(步骤1),因为在多种情境下频繁相近出现的词具有相似性,就像互联网中人与人的关系不是单一的,词与词之间的关系也是多维的。之后用张量分解算法把张量分解成一个个相关性很高的数据块,每一个数据块代表一类,在第一层算法中抽取出一块块相关性很紧密的文章或者词语集(步骤2)。第二层的工作是在第一层的基础上再聚类,通过张量集合共聚类算法实现(步骤3)。最后运用半监督学习判断是否为假新闻(步骤4)。
图1.数据立方体方法识别假新闻
针对近年来新出现的“深度伪造”,研究者也发现了其文本上的数据特征。以人物合成视频为例,这种合成图像算法的缺陷在于在“眨眼”频率上比真人少得多。辨别真假视频的原理就是用机器学习检查视频中的“眨眼”,准确率超过95%。[]跨大西洋选举诚信委员会拟向记者推出“工具包”,帮助检测到“深度伪造”,并向公众宣传该技术。[]
还有一种方式是利用“元数据”的追溯来识别图片等的真实性。《纽约时报》和IBM Garage正在利用区块链技术研发“新闻出处追溯”(The News Provenance Project)项目,用来创建和共享新闻图片的“元数据”。这些“元数据”包含新闻图片的拍摄时间、地点、拍摄者以及所有编辑和发布信息。通过这些信息,媒体和用户可以判断出该图片是否经过PS等人为修饰,进而判断相关资讯是否是假新闻。[]
二、用算法治理社交平台假新闻的局限
社交平台假新闻的两个算法治理逻辑各不相同(见表1)。斯坦福大学、纽约大学和微软研究院的研究表明,自2016年美国大选到2018年7月,Facebook用户的假新闻参与度下降超过了50%。[]用算法治理假新闻会有一定效果。技术不是完美的人工物,用技术治理技术问题同样存在短期内难以克服的局限。
表1.社交平台假新闻的算法治理
类目 |
信源评价 |
文本识别 |
假设/认识 |
假新闻的来源是相对集中的 |
假新闻是可以用数据识别的 |
逻辑 |
降低低可信度信源的推荐权重 |
识别假新闻文本的特征 |
方式 |
事后治理 |
事后治理 |
应用情况 |
已应用 |
少量应用,研制阶段 |
目的 |
减少假新闻的瀑布式传播 |
识别并预测假新闻 |
挑战 |
如何识别新的低可信度来源 |
如何提高辨识准确度 |
(一)分享的“马太效应”:平台逻辑变相鼓励假新闻
社交平台假新闻泛滥,不在于制造假新闻的算法多么高明,而在于假新闻的传播逻辑契合了社交平台的算法逻辑和商业逻辑。社交平台的算法推荐逻辑强调社交关系、分享、点击和相关性。如Facebook强调信息与用户之间的相关性与适用性。[]这种算法逻辑会导致流量的“马太效应”:越有吸引力的文章导致越多的分享,越多的分享带来越多的流量,分享和流量到一定程度就会完成文章的冷启动,进而快速进入推荐系统,带来更多分享和流量。没有吸引力的内容,算法系统不仅降低推荐几率,甚至连冷启动阶段都完成不了。只要假新闻有足够的吸引力,在社交平台进行病毒式传播是早晚的事。平台开发者最初考虑的主要是传播速度和广度,在事实辨别方面存在设计漏洞。[]因此,社交平台假新闻屡禁不止的关键原因在于假新闻的传播与算法设计中的激励机制相一致。[]研究显示,Twitter上的假新闻比真新闻传播快和链条深:1%的假新闻会到达1000人至10万人,而真新闻很少能达到1000人。[]换而言之,无论社交平台的算法如何调整,都只能从一定程度上改善以“分享”为核心的算法推荐逻辑,但不可能完全改变。
商业逻辑是流量与广告费成正比,广告商为每次的点击付费,社交平台与账号用户/网站分成。换而言之,社交平台喜欢有分享潜力的文章。于是一些人大肆制造假新闻,他们不关心党派之争,关心的是流量和变现。而一些社交平台宣称自己不是“媒体”,而是“平台”,抽身于内容监管之外,让商业利益最大化。Facebook前产品管理副总裁萨姆莱辛曾说:“为了获得市场份额,你需要激进,理性不会帮你得分。”在社交平台上,新闻必须是可分享的,新闻越激进,社交媒体上的分享就越多。[]
在巨大的舆论压力之下,谷歌和Facebook终于相继推出了断绝假新闻“财路”的措施。2016年11月谷歌禁止假新闻网站使用其广告服务。2018年8月,Facebook表示将禁止经常分享假新闻,且反复违规的公司在其平台投放广告。由此看出,对于社交平台的这种逻辑“缺陷”,一些平台希望借用经济的方式治理以商业性为目的的假新闻生产与传播,但对以政治利益或其他非商业利益的假新闻,经济手段是无效的。
(二)算法不会思维:真假新闻微妙界限难辨别
当前人工智能还处于弱人工智能(Artificial Narrow Intelligence,ANI)阶段,只能处理特定任务,没有独立的意识。这一阶段将持续相当长一段时间。假新闻文本的内容是复杂的,需要依靠专业知识、社会经验、话题语境、语义理解等多方面的技能才能拥有极高的辨识准确度。弱人工智能显然达到不这一层面。
首先,不是所有的指标都可以“数据化”。例如“误导性”如何编码?即使是人类也难以界定,人工智能想理解这一点,还有很长的路要走。[]
其次,算法是无法理解人类语言和知识的。人类的语言是微妙的,由于算法无法理解语言,所以在算法中,分类常基于语言模式和其他简单信号,这可能会让算法将真、假新闻一并归类。[]此外,算法也无法理解人类知识。当算法面对宗教、哲学等抽象知识,是无法像人类一样会意,或辨识其可信度。[]
第三,假新闻的特征千变万化,对其模式特征的识别也需要因应变化。只要假新闻在原来的基础上发生一些改变,原识别算法的适用性就成为问题。例如用写作风格作为识别手段的算法被广泛采用,造假者也会适当改变写作手法以蒙混过关。[]
虽然研究显示算法比人类鉴定者更准确,更有效,但24%的失败率表明人类仍在捕捉恶作剧故事中发挥重要作用。[]假新闻打击平台“假新闻挑战”(Fake News Challenge)认为:除非我们已经拥有达到了人类水平的AI,能够理解微妙而复杂的人际互动,并进行调查性新闻报道,那时才有可能自动核查。[]
三、“算法—利益相关者”的社交平台假新闻协同治理模式
依照人对算法的依赖程度和算法的自主性,算法治理可以分为三类(见图2):借助算法治理(governance through algorithms)、依赖算法治理(governance by algorithms)、用算法治理(governance with algorithms)。“借助算法治理”是用算法加强既有权力关系的治理方式,“依赖算法治理”是算法更自动化、更独立自主地治理方式,“用算法进行治理”介于二者之间。[]
图2.算法治理的三种类型
资料来源:Malcolm Campbell-Verduyn, Marcel Goguen & Tony Porter (2016). Big Data and algorithmic governance: the case of financial practices[J].New Political Economy, DOI: 10.1080/13563467.2016.1216533。
目前完全依赖算法进行治理假新闻的技术手段并未出现,对于一些简单的识别任务,可以采用借助算法治理,这是一种机械的、简单的治理方式。更多的情况是需要“算法+人工”,即在治理中需要人工进行决策。如前文所说的假新闻识别,只要准确率不是100%,都需要人工去进行复核。算法治理三层次在内外部算法中的应用情况见表2。
表2.算法治理三层次在内外部算法中的应用情况
|
借助算法治理 |
利用算法治理 |
依赖算法治理 |
外部算法 |
可以实现 |
可以实现 |
还未实现 |
内部算法 |
可以实现 |
可以实现 |
还未实现 |
在复杂的人类社会中,如果就技术谈技术,技术在治理中发挥的效能有限。社交平台假新闻治理是一个持续的、动态的、复杂的治理过程,参与主体不应只局限于政府和社交平台,而是整个利益相关者(stakeholders)构织的网络,在治理模式上应当摒弃“政府——社交平台”的二元治理模式,采用协同治理(Collaborative Governance)模式。
协同治理为了解决复杂的公共问题,促使跨域、跨界、跨部门的利益相关者形成伙伴关系,以平等协商的方式参与公共决策制定的制度安排。[]利益相关者是指任何能够影响企业目标的实现,或受企业目标的实现所影响的个人或群体。[]以社交平台假新闻治理为中心,利益相关者涉及社交平台、政府、入驻社交平台的新闻媒体、用户和科研共同体。在美国等国家,非政府组织发展成熟、比较活跃,也积极参与假新闻治理,也是利益相关者。
算法不是万能的,只依靠算法解决假新闻的治理是偏颇的,但算法又是高效的,其监测、识别假新闻是批量的、自动化的。基于前文的讨论,笔者提出“算法——利益相关者”的社交平台假新闻协同治理模式,强调算法和利益相关者的协作关系。
当然,需要指出的是,假新闻层出不穷,不仅与假新闻的文本本身有关,也与社交平台传播逻辑、社会大环境等有关。因此,本文提出的协同治理模式主要还是围绕算法展开的有关治理体系的讨论。主要目的在于探讨用算法治理假新闻的思路。
在整个协同治理体系中,依照算法与其他利益相关者的关系,我们可以分为两个圈层:技术圈层和社会圈层(见图3)。技术圈层的利益相关者包括社交平台和科研共同体,重在处理技术上的治理问题;社会圈层的利益相关者包括政府、主流媒体和公众,重在弥补算法治理手段的不足。圈层内部、圈层间,不同利益相关者之间有或强或弱的单、双向关系,为了论述方便,本文重在讨论治理中较为重要的问题。
图3.社交平台假新闻算法治理的圈层
(一)技术圈层的协同治理
技术圈层的利益相关者主要是社交平台和科研共同体,社交平台是整个治理体系中除政府之外的另一强势利益相关者。技术圈层的协同治理成效如何,很大程度上取决于社交平台的态度。
当前技术圈层存在的最大问题在于社交平台提供的研究数据不充分,导致科研共同体对某些问题研究的可信度和水平存在局限,无法为社交平台提供很好的智力支持。虽然一些社交平台都有API接口,提供部分平台数据,但这些数据只能在一定程度上回答某些问题,由于数据质量的问题,一些研究得出的结论也是比较表象的,无法触及社交平台假新闻传播规律的深层规律。而平台的理由也很简单:商业机密。在研发中,社交平台应积极与外部的科研人员合作,并采取适当的合作方式,将外部的科研成果转化为平台治理的一部分。
社交平台应当意识到信任,而非信息,是当今世界的稀缺资源。[]调查显示,全球仅有41%的用户信任社交媒体。[]社交平台需要意识到高质量内容的稀释与缺乏将会是平台生存发展的最大危机。在“连接”的大潮中,有一股“反连接”的逆流,本质上是对社交平台的逃避,其中,不信任是主要原因之一。
与此同时,假新闻的生产与传播日益智能化,“道高一尺魔高一丈”,单纯依靠社交平台的技术“破解”假新闻的生成与传播规律是不现实的。以治理“深度造假”为例,任何深度伪造检测器都只能有效一小段时间。[]对于社交平台而言,要想从算法技术上治理假新闻,需要引入外部资源,其中来自高校和科研院所的以假新闻研究为旨趣的科研共同体是可以合作的重要利益相关者。
实际上,社交平台的外部已经有很多科研团体在研发与社交平台假新闻的各种技术。波兰初创企业Userfeeds运用区块链技术,创造了一个公开透明的、能被公众审查的新闻内容平台及其配套的排名算法。这种模式能够从根源上实现新闻生产和传播的过程完全透明且可追溯,促使新闻生产者和传播者对真实性负责。[]
现在,一些社交平台或平台媒体,也在开放合作商进行了有益的尝试。Facebook从全球11个国家30个机构挑选出60多名研究人员,他们有权访问经过处理的部分隐私数据,以推动关于社交媒体在选举中作用的研究。[]2018年1月,今日头条召开算法分享大会,公布了今日头条推荐算法的基本原理。与会嘉宾以阿里、腾讯、百度、美团、新浪、网易等主流科技公司的算法工程师和产品经理为主。今日头条方面称,算法原则上是机密。[]
(二)社会圈层的协同治理
社会圈层的利益相关者主要是政府、主流媒体和公众。
1.政府:改变职能定位,由监管者变为协调者
调查发现,60%的欧洲用户和63%的亚洲用户倾向于让政府直接介入假新闻治理,美国用户仅有41%赞同这一观点。[]这体现出不同国家和地区用户对于政府在假新闻治理中的角色和作用的不同认识。中国对互联网假新闻治理主要采取自上而下的治理模式,政府和平台是主要的行动者。治理的逻辑是:发现问题——整改约谈——再发现问题——再整改。这种方式能够在一定阶段、一定程度上改善或解决某些问题,但事后监管最大的弊端在于当政府发现问题时,平台存在的问题往往比较严重,较大的社会负面影响已经产生,有的甚至是重大刑事案件。
既然政府的监管能力是有限的,引入协同治理对政府而言可以有效整合社会资源,集不同利益相关者之力展开治理。当然,政府在协同治理中仍处于中心位置,但不是唯一的责任主体,参与治理的利益相关者之间为了实现共同的目标有积极的互动,包括信息、资源、优势的共享,议题和解决方案的协商,方案实施时的分工合作等。[]这也意味着政府在治理中的角色转换:由监管者转向协调者。
之所以强调政府的协调者角色,主要原因在于不同利益相关者在协同治理体系中的地位、作用、资本、责任等是不同的。强势利益相关者会在治理中主导进程,其他利益相关者与之的合作可能会沦为形式。在社交平台假新闻治理中,社交平台就属于强势利益相关者:它可以商业机密为由,不公开算法原理;它可以以保护用户隐私为由,不提供研究的原始数据……《打击假新闻的研究议程与行动方针》(Combating Fake News: An Agenda for Research and Action)认为,需要给社交平台公司施加压力以分享重要数据。[]对于这些问题,在所有的利益相关者中,只有政府有足够的能力“倒逼”社交平台采取措施,也只有政府能够最大限度地动员各利益相关者以多种形式、多种机制参与其中。
2.主流媒体:做好真相放大器,改善传播生态
本文在利益相关者中强调主流媒体,而非媒体,很重要的原因在于主流媒体是社会共享价值观重要的凝聚者、社会监测的“信托者”,同时也是假新闻的受冲击者。社交平台不具备界定真假新闻的正当性,作为职业生产内容(Occupationally Generated Content,OGC)的行动者,主流媒体是很大程度上承担着事实界定、真相发掘的职能。主流媒体应在整个信息传播系统中承担重要的社会责任。通过专业、规范、严谨的新闻生产规程生产新闻,建立与用户的信任关系,成为用户所信赖的信源。反观现实,一些假新闻其实是主流媒体生产的。
《数字新闻报告2018》的调查数据显示,75%的被调查者认为责任方应该是新闻机构,而71%认为是互联网平台,主流媒体的报道有偏见或不准确。[]美国社交平台假新闻泛滥的一个主要原因在于美国新闻业的可信度低,导致公众没有值得信赖的消息源,只能相信自己所相信的,这也是后真相的典型表现。爱德曼国际公关公司发布的“2019年全球信任度晴雨表”显示,中国公众对媒体的信任度最高,达到76%。[]在中国的语境下,主流媒体可以在治理中大有作为。
主流媒体在日常社交平台传播中的作用是高质量内容的提供者和关键时刻的“真相放大器”。做好负责任的专业报道需要主流媒体靠日常的积累,不断提升公信力,而非关键时刻发声,否则在关键时刻公众也不会相信主流媒体所言。
当主流媒体成为社会可靠的消息来源时,即便有假新闻,公众也拥有可依赖、可相信的信源,而非不知所措。目前,国内外一些社交媒体已经与主流媒体展开合作。Facebook已与《华盛顿邮报》、彭博社等多家新闻机构接洽,希望每年向它们支付300万美元的费用,获得新闻文章的授权。[]2019年,Facebook推出“新闻标签”功能,让可靠来源的新闻在平台上获得高度突出的位置。[]微博在热点事件传播中,对3万多个媒体账号、17万个政务账号的内容优先放大、推送。[]
3.用户:激活个体参与,多渠道、多方式贡献“微力”
在协同治理模式中,用户扮演了多重角色:(1)传播者:用户在假新闻传播中起到“推手”的作用。(2)被影响者:用户同时也是假新闻的“受害者”。(3)治理的参与者:一些用户是假新闻治理的积极参与者,例如举报假新闻等。一个用户可能会同时负载多个角色。
在社交平台上,用户的力量看似微小,但每一个人都是传播的节点,尤其在封闭的社交空间中(如微信),作为节点的个体在传播中的可信度、影响力和深度不容小觑。如何激活个体的力量,是政府、社交平台、用户等需要考虑的重要问题。
互联网重新塑造了公众的权利意识,个体被赋能、激活,他们不甘于做被动的“接受者”“聆听者”,而希望在公共事务中自由表达和参与行动。[]在自组织的路径中,一些用户在假新闻专业知识上、社会责任感上比普通用户要高,这部分人会自发、自觉地参与假新闻治理,比如新闻媒体人在朋友圈中看到假新闻后,可能会自觉地核实查验,在转发时进行澄清。还有的用户会利用社交平台提供的“举报”功能,对失实内容进行举报。或许还可能有对网络假新闻治理的用户自己组成虚拟社群,线上打假。当然,还有简单、有效的“不转发”,以此降低假新闻被推荐的几率。
对于更多的用户,应当采用他组织的方式:
第一种措施是,社交平台组织特定的用户参与假新闻的识别与监测。微博在治理涉黄低俗信息中采用了监督员模式,招募了2000名监督员。相较于涉黄低俗信息,假新闻的辨识更难,也需要依赖更专业的知识和背景信息。社交平台在组织时应当进行业务培训。
第二种措施是,社交平台提供用户协作“打假”的“基础设施”。这种协作打假的方式可以借鉴维基百科的模式,为用户提供一个有关假新闻的数据库,便于核查、追溯和识别。
第三个措施是,需要平台和网络意见领袖建立某种合作机制(技术上、经济上和社会效益上)。其实假新闻传播中,社交机器人很重要的一个方法是通过“@名人”拉高文章的热度,在假新闻治理中,对于辟谣文章的处理其实也可以通过这种方式。
四、结语
如今国内外社交平台已经意识到假新闻对自身平台的危害性和治理的高难度。智媒时代假新闻的生产与治理将是一场以技术(算法)为核心的“攻防战”。社交平台的去中心、裂变式传播的特征,决定了假新闻治理必须采用技术手段应对批量、自动化的假新闻。而技术的局限性又决定了单纯依靠技术进行治理并不足以有效,需要通过政府、社交平台、主流新闻媒体、科研共同体和用户等利益相关者构织的治理网络与算法技术相配合,算法虽不可能完全消除假新闻,但至少可以抑制假新闻的扩散。未来围绕假新闻算法治理的研究还可进一步深入,尤其是后真相时代对假新闻治理带来的挑战与应对。