首页 > 技术

撕裂社会的不是算法,国际学者证实:没有算法也会产生极化

2025-11-12 17:18:51      飞象网   


  信息爆炸时代,推荐算法成为人们高效获取有用信息的重要途径。伴随而来,“算法制造信息茧房”“算法导致社会极化”等论调被提出。真相果真如此吗?Science、Nature等权威期刊刊载的多项研究结果,向这些论调发起了有力挑战——撕裂社会的从来不是算法,没有算法也会产生极化。

  首先,“算法导致信息茧房”的核心前提,在实证中存在显著脆弱性。路透新闻研究所的文献综述显示,真实的“信息茧房”极为罕见,仅有约6%到8%的公众处于党派新闻的“回音室”中。多数依赖搜索引擎和社交媒体获取信息的用户,反而能接触到更广泛的信息来源,算法的“探索”机制会主动推送用户潜在感兴趣的新内容,形成“自动的机缘巧合”。

  抖音安全与信任中心公开的算法原理也印证了这一点:如果算法一味迎合用户已有的兴趣,会导致内容越来越同质化,这会使用户很快感到无聊并离开平台。因此,算法必须在“利用”和“探索”之间保持平衡,主动将用户可能感兴趣的新内容推送给用户,以保持新鲜感和用户黏性。

  更具颠覆性的发现是,打破“茧房”未必能缓解极化,反而可能适得其反。杜克大学社会学家克里斯·贝尔的实地实验极具说服力:他招募立场坚定的民主党和共和党推特用户,付钱让他们关注一个转发对立阵营言论的“机器人”账号,强行打破信息壁垒。然而一个月后,参与者非但没有变得温和,政治立场反而更加极端。

  阿姆斯特丹大学的“生成式社交模拟”研究进一步证实了这一结论:研究团队用多个平台的大语言模型生成500个带有真实选民特征的虚拟用户,构建无广告、无个性化推荐算法的极简社交平台,仅保留发帖、转发和关注功能。经过每次试验一万个周期的运行,无论使用哪个平台的大语言模型,平台都不可避免出现回音室效应、影响力集中和极端声音放大三大问题。

  为寻找解决方案,阿姆斯特丹大学的研究团队测试了六种主流干预策略,结果更令人深思。被不少人视为“解药”的“按时间顺序推送”,虽能降低关注度不平等,却显著加剧了极端内容的传播;平衡党派内容的桥接算法在提升观点多样性的同时,反而扩大了关注度差距;其他如淡化主流内容、隐藏统计数据等措施,要么效果微乎其微,要么弊大于利。这表明,即便剥离算法干预,社交媒体的极化现象依然会因人类社交的固有逻辑自发产生——情绪化的极端内容更易获得转发,转发带来的关注又进一步强化其传播优势,形成恶性循环。

  Nature刊载的2021年的一项研究则从时间维度揭示了极化的真正驱动力。多伦多大学团队分析Reddit平台14年间51亿条评论发现,2012至2015年平台政治极化程度稳定,2016年美国大选期间却突然骤升,且这一变化主要由新用户推动,老用户立场几乎未变。这证明,社会极化更多是外部政治事件和现实社会分裂的映射,与平台算法或使用时长无显著关联。

  这些研究共同指向一个结论:算法既非社会极化的“元凶”,也非解决问题的“万能药”。它只是一个中立的技术工具,映射出了人类本性中“选择性接触”的倾向和社会结构中已有的裂痕。与其将社会撕裂归咎于算法,不如正视人性的局限与现实的矛盾——这才是理解和应对社会极化的关键。

相关阅读

    无相关信息