过滤气泡(英语:filter bubble),又称为同温层、个人化资料过滤[1]、筛选小圈圈、资讯茧房、信息茧房 (information coccons)等[2][3],是一种网站针对个人化搜寻、推荐系统和算法管理筛选后内容的结果所造成的现象。搜寻结果根据用户信息,例如其位置、过去的点击行为和搜索历史记录。 [4]因此,这种结果可能会导致使用者越来越看不到他们不同意的观点或资讯,使得认知过于单向,并处于他们的文化、意识形态气泡之中,最终形成一种有限的、个人化的世界观。 [5]这些算法做出的选择只有有时是透明的。 [6]主要的例子包括Google搜索的个人化搜寻结果以及Facebook的个人化动态消息、亚马逊Netflix的过滤性推荐系统。这个词汇被网络活动家艾利·帕里泽英语Eli Pariser(英语:Eli Pariser)提出。

根据网络活动家艾利·帕里泽(Eli Pariser)的说法,社交媒体无意中将使用者隔离在各自的意识形态过滤泡泡中

然而,关于个性化过滤的发生程度以及此类活动是否有益或有害,存在相互矛盾的报告,且各项研究的结果并未得出明确结论。

“过滤气泡”一词由网络活动家艾利·帕里泽于2010年左右提出。在帕里泽于2011年出版的书籍《搜索引擎没告诉你的事》中预测 ,透过算法过滤进行的个性化定制的内容将导致智力孤立与社会分化。 [7]帕里泽认为,过滤气泡效应可能对公民讨论产生负面影响,但也有观点认为其影响有限且可解决。 [8][9]根据帕里泽的观点,使用者接触到的对立观点较少,思想被孤立在自己的过滤气泡中。 [10]他举例说明,一位使用者在Google搜索“BP”时,获得的内容是关于英国石油公司的投资新闻,而另一位搜寻者则得到了有关深水地平线漏油事件的资讯,并指出尽管使用相同关键字,两个搜寻结果页面“截然不同”。 [10] [11] [12] [8] 2016 年美国总统大选的结果与社交媒体平台如Twitter和Facebook的影响有关, 这引发了对“过滤泡泡”现象是否会影响用户接触假新闻回音室效应的质疑, 并引起了对该术语的新兴关注, [13]许多人担心这一现象可能通过加剧错误信息的影响来损害民主与福祉。 [14] [15] [13] [16] [17] [18]

概念

Thumb
“过滤气泡”一词由网络活动家艾利·帕里泽于2010年左右提出

帕里泽(Pariser)将“过滤气泡”的概念正式定义为“由这些算法所构建的个人资讯生态系统”。 [10]网络使用者的过去浏览与搜寻纪录,会随着时间累积,当他们透过“点击连结、查看朋友、将电影加入观片清单、阅读新闻报导”等行为表达对特定议题的兴趣时,这些资讯会被收集。 [19] 随后,网络公司会利用这些资料针对使用者投放目标式广告,或使某些类型的资讯在搜寻结果页面中更加突出地显示。 [19]

这个过程并非随机,而是遵循帕里泽的三个步骤进行的,他表示:“首先,你需要了解使用者是谁以及他们的兴趣。接着,你提供最适合他们的内容和服务。最后,进行调整,你需要确保适配更为精确。使用者的身份会影响他们接触到的媒体。” [20] 帕里泽报告道:

根据《华尔街日报》的一项研究,从CNN到Yahoo,再到MSN,前50大网站平均安装64个含有大量数据的Cookie和个人追踪信标。在Dictionary.com搜寻“抑郁”这个词时,该网站会在你的电脑上安装多达223个追踪Cookie和信标,让其他网站可以针对你推送抗抑郁药物的广告。若在ABC News分享一篇关于烹饪的文章,你可能会在网络上被特氟龙锅具的广告所追踪。即使只是短暂打开一个显示配偶可能作弊征兆的页面,你也可能会被DNA亲子鉴定广告困扰。 [21]

根据网站流量测量显示的连结点击数据,过滤气泡可以是集体的,也可以是个人化的。 [22]

2011年,一位工程师告诉帕里泽,Google会根据57个不同的数据项目来个性化使用者的搜寻结果,其中包括非Cookie类型的资讯,例如使用的电脑类型及使用者的实际位置。 [23]

帕里泽的过滤气泡概念在2011年5月的TED 演讲后广为流传。在演讲中,他举例说明了过滤气泡的运作方式以及其可见的地方。在一项旨在展示过滤气泡效应的实验中,帕里泽要求几位朋友在Google搜索“埃及”一词并将结果发送给他。比较其中两位朋友的搜寻结果页面时,虽然他们在新闻和旅游等主题上有重叠,但其中一位朋友的结果页面显示了有关当时进行中的2011 年埃及革命的资讯连结,而另一位朋友的结果页面则未显示这些连结。[24]

在《搜索引擎没告诉你的事》一书中,帕里泽警告过滤搜寻可能带来的负面影响,指出它使我们远离新的想法、议题和重要资讯, [25]并创造出一种错觉,让我们认为狭隘的自我利益即是唯一存在的事物。 [11]他认为,过滤气泡可能对个人及社会造成伤害。他批评 GoogleFacebook为使用者提供“过多的糖果而不足够的胡萝卜”。 [26]他还警告,“无形的算法编辑”可能会限制我们接触新资讯的机会,并缩小我们的视野。[26]根据帕里泽的观点,过滤气泡的负面影响之一是可能对社会造成危害,因为它们有可能“削弱公民话语”,并使人们更易受到“宣传与操控”的影响。 [11]他写道:

一个由熟悉事物构成的世界,是一个无法学到新知的世界……(因为)存在着无形的自动宣传,让我们被自己的思想所洗脑。

——艾利·帕里泽2011年时在《经济学人》发表的内容[27]



许多人并未察觉过滤气泡的存在。这可以从《卫报》的一篇文章中得知,文章提到“超过60%的Facebook使用者完全不知Facebook存在任何内容策展,而是认为每一则来自朋友和关注页面的故事都会出现在他们的新闻动态中。”[28] 简单来说,Facebook会决定哪些内容应该出现在使用者的新闻动态中,依赖的是一种算法,该算法会考量“使用者过去如何与类似的帖子互动”。 [28]

概念的延伸

过滤气泡被形容为加剧了一种现象,称为“网络分裂”或“网络巴尔干化”, 这种现象发生于互联网被划分为由志同道合的人组成的子群体时,这些群体在自己的线上社群中相互隔离,无法接触到不同的观点。这一担忧可追溯至互联网的早期,“网络巴尔干化”这一术语于1996年首次提出 [29] [30] [31]其他术语也被用来描述此现象,包括“意识形态框架[11]和“你在搜寻网络上时所处的比喻性领域”。 [19]

过滤气泡的概念已被扩展至其他领域,用来描述那些根据政治观点、经济、社会和文化情况而自我隔离的社会。 [32]这种现象导致了广泛社群的丧失,并创造出一种感觉,例如,孩子们似乎不适合参加社交活动,除非这些活动特别为孩子设计,且对没有孩子的成年人缺乏吸引力 [32]

奥巴马在告别演说中提到了一个与过滤气泡相似的概念,并将其视为对“美国民主的威胁”,即“我们退缩进自己的气泡中,...特别是在我们的社交媒体动态中,周围都是与我们相似的人,拥有相同的政治观点,并且从不挑战我们的假设...而且,随着时间推移,我们变得如此安于自己的气泡,以至于只接受符合我们观点的信息,无论其真伪,而不是根据现有的证据来形成我们的看法。”[33]

与回音室效应的比较

“回音室”与“过滤气泡”都描述了个体暴露于狭窄范围的观点和立场,这些观点和立场加强了他们既有的信念与偏见,但两者之间存在一些微妙的区别,特别是在社交媒体的使用方式上[34] [35]

新闻媒体中,回音室是用来比喻一种情况,其中信念在封闭系统内通过沟通和重复而被放大或强化。[36] [37]该这个术语源自社会学中的选择性接触理论,并以声音在空心回音室中反射的现象作为比喻。关于社交媒体,这种情况促进了自我选择的个性化机制,该机制指的是用户在特定平台上可以主动选择进入或退出资讯消费的过程,例如用户能够关注其他用户或加入群组。 [38]

在回音室中,人们可以寻找强化自己既有观点的信息,这可能无意中成为确认偏差的一种表现。这种反馈机制可能会加剧政治与社会的两极分化和极端主义。并促使用户在社交网络中形成同质性群体,进而加剧群体极化。 [39] “回音室”强化了个人的信念,却缺乏事实支持。个体被认同并遵循相同观点的人围绕,但他们同时也有能力突破回音室的限制。 [40]

另一方面,过滤气泡是隐性预设的个性化机制,使用者的媒体消费由个性化算法所塑造;用户看到的内容会经由人工智能驱动的算法过滤,进一步强化他们既有的信念和偏好,并可能排除相对或多元的观点。在在这种情况下,使用者扮演的是较为被动的角色,被视为技术的受害者,因为这项技术自动限制了他们接触那些可能挑战其世界观的信息。 [38]然而,部分研究者认为,因为使用者仍然透过与搜索引擎和社交媒体网络的互动,积极选择性地策划自己的新闻源和资讯来源,这使得他们实际上直接协助了由人工智能驱动的过滤过程,进而有效参与了自我隔离的过滤气泡[41]

尽管这些术语有所不同,但在学术界与平台研究中,它们的使用是密切相关的。在社交网络研究中,由于过滤算法的可存取性有限,往往难以区分这两个概念,这可能会限制研究者比较和对比这两个概念的作用 [42]随着许多社交媒体平台也开始限制学术研究所需的API存取,这类研究将变得越来越难以进行。 [43]

反应和研究

媒体反应

有关个性化过滤的发生程度以及这种行为是否有益或有害,存在相互矛盾的报告。分析师雅各布·韦斯伯格(Jacob Weisberg)于2011年6月为Slate撰文,撰文,进行了一项小型非科学实验来测试帕里泽的理论,实验中五名具有不同意识形态背景的同事进行了一系列搜寻,“约翰·博纳”、“巴尼·弗兰克”、“瑞安计划”和“ 患者保护与平价医疗法案 ”,并将他们的搜寻结果截图发送给韦斯伯格。结果显示,从人到人之间的差异仅限于些微之处,且任何差异似乎与意识形态无关,这让韦斯伯格得出结论,过滤气泡并未生效,并表示,大多数网络使用者“在每日的资讯流中喂食自己”的说法被过度夸大。 [11]韦斯伯格向Google询问回应,Google的发言人表示,该公司设有算法故意“限制个性化,并促进多样性” [11]书评人保罗·布廷(Paul Boutin)对拥有不同搜寻历史的人进行了类似的实验,结果发现不同的搜寻者几乎得到了相同的搜寻结果 [8]记者佩尔·格兰克维斯特(Per Grankvist​(瑞典语)私下访问了Google的程序员,发现用户数据对决定搜寻结果的作用较大,但经过测试,Google认为搜寻查询无疑是决定显示结果的最佳依据 [44]

有报导指出,Google 和其他网站会维护庞大的“档案”,这些档案包含用户的资讯,并且如果选择这么做,这些资讯可能会让它们进一步个性化使用者的网络体验。例如,Google 具备追踪用户历史纪录的技术,即使使用者没有 Google 账号或未登入,仍然能够实现。 [8]有报导提到,Google 收集了来自各种来源的“10 年资料”,例如GmailGoogle地图以及搜索引擎等服务, [12]美国有线电视新闻网 (CNN)分析师道格·格罗斯(Doug Gross)认为,过滤搜寻对消费者的帮助大于对公民的影响,并指出它能帮助寻找“披萨”的消费者根据个性化搜寻找到当地的外送选项,并过滤掉遥远的披萨店 [12]华盛顿邮报》、 《纽约时报》等媒体机构也曾试验创建新的个性化资讯服务,旨在量身定制搜寻结果,以符合使用者的喜好或立场[11]

平台研究

Thumb
2019年微博研究中,两个社交媒体机器人的过程和增长的可视化。根据该研究,这些图表展示了过滤气泡结构的两个方面:围绕单一主题的大量用户集群,以及影响关键信息流的单向、星状结构。

对策

个人层面

在《搜索引擎没告诉你的事》一书中,[45] 互联网活动家Eli Pariser指出,过滤气泡的普及更加凸显了个人桥接社会资本的重要性,这一概念由罗伯特·普特南(Robert Putnam)所提出。Pariser认为,过滤气泡会加强社会同质化,使得不同利益和观点之间的联系逐渐削弱。[46] 从这个角度来看,高水平的桥接资本有助于通过扩大我们接触超越个人利益的社会空间来促进社会包容。提升桥接资本,例如通过在非正式场合与更多人建立联系,可能是减少过滤气泡效应的有效途径。

用户可以采取许多行动来突破过滤气泡,例如有意识地评估自己接触到的信息,并批判性地思考自己是否正在接触各种不同的内容。[47] 用户可以有意识地避开那些无法验证或资讯薄弱的新闻来源。IAB行销副总裁Chris Glushko建议使用事实查证网站来辨别假新闻。[48] 技术也可以在对抗过滤气泡方面发挥重要作用。[49]

一些浏览器插件旨在帮助用户走出过滤气泡,并让他们意识到自己偏向的观点;这些插件会显示与他们的信仰和观点相矛盾的内容。除了插件之外,还有一些应用程序专门设计来鼓励用户打破回音室效应。例如,像《Read Across the Aisle》这样的新闻应用会提示用户阅读不同的观点,特别是当他们的阅读习惯过于偏向某一方或意识形态时。[50] 尽管这些应用程序和插件为用户提供了工具,但Eli Pariser指出:“当然,这里也有个人责任,必须主动寻找那些与自己不同的来源和人群。”[51]

由于网络广告会加剧过滤气泡的影响,通过向用户展示更多相似的内容,用户可以通过删除搜寻历史、关闭定向广告或下载浏览器扩展来屏蔽大部分广告。部分用户会选择使用匿名或非个性化的搜索引擎,例如YaCyDuckDuckGoQwantStartpage.comDisconnectSearx,以避免公司收集他们的搜寻数据。《瑞士日报》《Neue Zürcher Zeitung》正在测试一款个性化新闻应用,该应用利用机器学习推测用户的兴趣,同时“始终包含惊喜元素”;其目的是将一些用户过去不太可能关注的故事加入到他们的新闻流中。[52]

欧盟已经开始采取措施,旨在减少过滤气泡的影响。欧洲议会正在资助对过滤气泡如何影响人们获取多元新闻的调查。[53] 同时,欧盟还推出了一项计划,旨在帮助市民提高对社交媒体的认识与使用方式。[54] 在美国,CSCW小组建议媒体消费者使用新闻聚合应用程序,以拓宽他们的新闻视野。这些新闻聚合应用会扫描当前的所有新闻文章,并引导用户阅读不同观点的内容。用户也可以使用一种视觉化的新闻平衡器,显示自己在阅读新闻时是否有偏向。若偏向右派,则显示红色条形增大;若偏向左派,则显示蓝色条形增大。针对这款新闻平衡器的研究结果表明,“在看到反馈的用户中,阅读行为有了小幅但明显的变化,向更加均衡的曝光转变,相较于对照组有所不同”。[55]

媒体公司方面

由于近期对社交媒体信息过滤的关注,Facebook已经承认了过滤气泡的存在,并开始采取措施来消除这一现象。[56] 2017年1月,Facebook因为一些用户未能看到热门事件,决定从“热门话题”列表中去除个性化设定。[57] Facebook的策略是推翻2013年推出的“相关文章”功能,该功能会在用户阅读完共享的文章后,展示相关新闻。如今,改进后的策略将颠倒这一过程,展示来自不同观点的文章,而非仅仅是相同观点的报导。此外,Facebook也在进行筛选过程,保证只有来自可信来源的文章会被展示。与Craigslist创始人及其他合作伙伴一起,Facebook已经投入1400万美元,旨在“提高全球对新闻的信任,并促进更有建设性的公共对话”。[56] 其理念是,即使人们只阅读来自朋友分享的帖子,这些帖子也应该是可信的。

同样地,Google于2018年1月30日也承认其平台存在过滤气泡的问题。由于目前的Google搜索结果会根据“权威性”和“相关性”的算法排名,这使得某些搜寻结果会被隐藏或显示出来,Google正在努力解决这一问题。为了限制过滤气泡的范围,Google正在训练其搜索引擎识别搜寻查询的用户意图,而不仅仅依据字面语法。这一训练的初步阶段将于2018年第二季度推出。然而,涉及偏见或争议性意见的问题将推迟处理,这引发了目前仍然存在的一个更大问题:搜索引擎究竟应该充当真理的裁决者,还是作为一个指导决策的知识性工具?[58]

2017年4月,报导指出,Facebook、Mozilla和Craigslist共同出资1400万美元,支持CUNY的“新闻诚信计划”,该计划旨在对抗假新闻并促进更诚实的新闻媒体。[59]

随后在8月,Mozilla(Firefox浏览器的开发者)宣布成立Mozilla信息信任计划(MITI)。此计划旨在作为一项集体努力,开发产品、进行研究,并提出基于社群的解决方案,以应对过滤气泡的影响以及假新闻的蔓延。Mozilla的开放创新团队负责领导此计划,专注于对抗虚假信息,并特别关注与信息素养、研究及创意干预相关的产品。[60]

伦理影响

随着云端服务的普及,构建过滤气泡的个人化算法预期将变得更加普遍。[61] 学者已开始从伦理学角度考量过滤气泡对社群媒体使用者的影响,尤其是在个人自由、安全性和资讯偏见等方面。[62] 社群媒体与个人化搜寻网站的过滤气泡,经常透过算法决定使用者看到的特定内容,且多数情况下未经使用者的直接同意或知悉,[61]因为内容的策展是由算法自动完成的。根据行为模式生成的个人化内容可能导致部分资讯盲区。[63] 批评者认为,由于过滤气泡的普遍存在,个人可能会失去对其社群媒体体验的控制权,且其身份有可能因此被社会建构。[61]

科技专家、社群媒体工程师与电脑专家也探讨了过滤气泡的广泛存在。[64] Facebook创办人马克·祖克伯与《过滤气泡》的作者伊莱·帕里泽都曾表达对隐私风险及资讯极化的担忧。[65][66] 个人化搜索引擎与社群媒体平台的使用者资讯并非完全保密,尽管一些人认为这些资料应该受到保护。[65] 对隐私的担忧引发了讨论,即资讯技术人员是否有道德责任在不操控用户未来资讯暴露的情况下,利用用户的线上活动数据。[66]

一些学者对过滤气泡对个人和社会福祉的影响表示关切,特别是在健康资讯向大众传播以及网络搜索引擎可能改变健康相关行为方面的潜在影响。[16][17][18][67] 一本2019年的跨学科书籍探讨了过滤气泡在健康错误资讯中的角色,并提供了相关的研究与观点。[18] 这本书结合了新闻学、法律、医学与健康心理学等不同领域,探讨了各种争议性健康信念(如替代医学和伪科学)以及应对过滤气泡和回音室对健康议题负面影响的潜在解决方案。2016年一项关于过滤气泡对自杀相关搜寻结果潜在影响的研究发现,算法在是否显示帮助热线和相关搜寻结果方面起著关键作用,并讨论了该研究对健康政策的潜在启示。[17] 另一项2016年克罗地亚医学期刊的研究则提出了一些减少过滤气泡对健康资讯有害影响的策略,例如:加强公众对过滤气泡及其影响的认识,鼓励用户选择其他[非Google]搜索引擎,并更多地解释搜索引擎如何决定显示结果的过程。[16]

由于个别社群媒体用户所见的内容会受到产生过滤气泡的算法影响,因此,使用社群媒体平台的用户更容易受到确认偏误的影响,[68] 并可能接触到有偏见和误导性的资讯。[69] 社会分类和其他无意的歧视性行为也预计会由个人化过滤所引发。[70]

鉴于2016年美国总统选举,学者们同样对过滤气泡对民主和民主过程的影响表示关切,以及“意识形态媒体”的兴起。[71] 这些学者担心,随着过滤气泡创建了个人化的社交媒体动态,用户将无法“超越自己狭隘的自我利益”,从而使他们与多元观点及周围社群隔离开来。[72] 因此,越来越多的讨论开始提到,应该设计更多随机性元素的社交媒体,亦即主动推荐超出用户过滤气泡的内容,包括具有挑战性的政治信息,并最终向用户提供赋能过滤器和工具。[73][74][75] 另一项相关的关切是,过滤气泡如何促进假新闻的蔓延,并且这可能会影响政治倾向,包括用户的投票行为。[71][76][77]

2018年3月,揭露了剑桥分析公司(Cambridge Analytica)在2016年总统选举期间,为至少8700万个Facebook用户收集并利用资料的事件,这突显了过滤气泡所带来的伦理问题。[78] 剑桥分析公司的联合创始人兼吹哨人Christopher Wylie详细说明了该公司如何通过这些用户资料建立“心理档案”,并利用这些资料来影响用户的投票行为。[79] 第三方如剑桥分析公司访问用户资料,可能加剧并放大已经存在的过滤气泡,人工强化现有的偏见,进一步加深社会的分裂。

过滤气泡的危害

过滤气泡源自于媒体个性化的兴起,这种现象可能会将使用者困在其中。人工智能用于个性化推送的方式,可能会导致使用者只看到强化其既有观点的内容,而不会挑战这些观点。像是 Facebook 等社交媒体网站,也可能以使使用者难以判断内容来源的方式呈现内容,迫使他们自行决定该来源是否可靠或是否为假讯息。 [80]这可能使人们习惯听取自己想听的内容,进而在看到相对立的观点时反应更为激烈。过滤气泡可能会使个人将任何反对的观点视为错误,从而使媒体能够将观点强加于消费者。 [81] [80] [82]

研究指出,过滤气泡会加强个人已经持有的想法[83]。因此,利用提供多元观点的资源变得极为重要。 [83]

参见

  • 帕里瑟.伊莱。 《搜索引擎没告诉你的事》 ,企鹅出版社(纽约,2011 年)ISBN 978-1-59420-300-8

外部链接


参考资料

相关条目

Wikiwand in your browser!

Seamless Wikipedia browsing. On steroids.

Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.

Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.