读当我点击时,算法在想什么?05算法想控制我们(下)

1. 过滤气泡

1.1. 键盘侠在刻意制造分化

  • 1.1.1. 一种盛行的解释认为,算法是误导人们做出错误决定的罪魁祸首

  • 1.1.2. 众多媒体都报道了不少算法如何导致不同群体间产生隔阂以及观念严重分化的故事,它们听起来似乎头头是道

1.2. 媒体把枪口对准了回声室效应和过滤气泡

  • 1.2.1. 脸书和谷歌会根据我们的上网历史记录来显示相应的链接,以至于我们只看到自己想要看到的东西

  • 1.2.2. 随后媒体将焦点转向了假新闻:为了给他们的网站创造流量,以及获取广告收入,来自马其顿的少年们自动生成新闻,肆意组合有关特朗普和希拉里的无稽之谈

1.3. 我们仿佛在让算法代替我们思考和做出决定

  • 1.3.1. 真正的风险在于,我们看到的一些新闻是被带有政治偏见的“黑帽”故意扭曲或编造的

1.4. 2004年的博客圈泾渭分明地形成了两个世界

  • 1.4.1. 民主党人士的博客几乎只链接民主党派的博客

  • 1.4.2. 共和党人士的博客几乎也只链接共和党派博客

  • 1.4.3. 民主党派的博客网络和共和党派的博客网络属于两个不同的世界

  • 1.4.4. 更重要的是,无论自由主义者还是保守主义者在网上都没有对外界不闻不问

1.5. 2004年的政治类博客是回声室效应的一个原始例子

  • 1.5.1. 意见一致的博主们被联系在一起,相互支持彼此的观点、强化彼此已有的想法

  • 1.5.2. 如果你在博客之间随意浏览,并从你浏览的任一网页中随机选择一个链接,你也许会发现第二个博客与第一个博客持相同的观点

1.6. 过滤气泡则出现得更晚些,并且仍在演变中

  • 1.6.1. 过滤”和“回声”世界之间的区别在于它们是由算法还是由人创造的

  • 1.6.2. 博主们自主选择链接到不同的博客,而算法根据我们的“赞”​、网页搜索和浏览历史,选择给我们推送什么样的内容

  • 1.6.3. 与博客不同,算法的选择中没有人本身的主动参与

    • 1.6.3.1. 正是这些算法有可能创造出过滤气泡

    • 1.6.3.2. 你在浏览器中所做的每一个动作都被用来决定接下来要给你看的是什么

2. 信息茧房

2.1. 一次次的点击正在筑成你的信息茧房

2.2. 脸书的算法根据我们已经做出的行为来决定给我们看什么样的内容

  • 2.2.1. 你见到该文章的可能性=你对该报纸的兴趣×你和分享该文章的朋友的亲密度

2.3. ​“过滤器”模型

  • 2.3.1. 简化了脸书算法的实际操作

    • 2.3.1.1. 脸书用来决定向你推送动态消息的算法要比“过滤器”模型更复杂一些
  • 2.3.2. 我们越点击某事或某人,这些网站就越经常将相关内容推送给我们,而我们也越有可能继续点击他们

  • 2.3.3. “过滤器”模型需要大量的互动才能工作

    • 2.3.3.1. 在每次互动中,用户会看到来自两个信息源的帖子

    • 2.3.3.2. 模拟更多的用户之后都会产生类似的结果,经过 200 轮过滤后,大多数用户被推送的帖子将会来自这两份报纸中的一份

  • 2.3.4. “过滤器”算法由此创造了一个气泡,即便是一开始没有偏见的人也无法幸免

    • 2.3.4.1. ​“过滤器”算法会捕捉到微小的初始偏好,并将它们放大,直到与其对立的一方完全销声匿迹

    • 2.3.4.2. 用户被禁锢在自我验证的观点和与一小群朋友的互动中

3. 阴谋论

3.1. 一个人分享的阴谋论文章越多,他们就越有可能分享更多这样的内容,并且更有可能与其他对阴谋论感兴趣的人交流

  • 3.1.1. 阴谋论者不仅没有科学家那样爱吐槽,他们分享的帖子也比科学家们分享的科学新闻帖更受欢迎

  • 3.1.2. 阴谋论的吸引力远胜科学

3.2. 阴谋论的转发和这类帖子的曝光度及分享频率的提高之间存在相互反馈的关系

  • 3.2.1. 在阴谋论的“回声室”里,观点不被挑战,同一群人继续分享同样的内容

  • 3.2.2. 在已经形成的社群中,阴谋论视频往往会隐藏甚至删除含有反对意见的评论

  • 3.2.3. 大多数阴谋论都被局限在自己的气泡里,相互支持并强化彼此的观点

    • 3.2.3.1. 如果这个气泡过于膨胀,非阴谋论者就可以戳破它

    • 3.2.3.2. 回声室效应越大,给反对声音提供的空间也越大

3.3. 同样的事情也发生在科学迷身上

  • 3.3.1. 一小群意大利科学“怪才”在彼此之间分享着最近的科学新闻,而普通公众却很少或根本不关注这些新闻

3.4. 尽管科学家和阴谋论者都是发帖越多越倾向于使用较为负面的词汇,但这种规律在科学家中间更明显

4. 网络的孤岛化现象

4.1. 有权限获取足够多脸书数据以深度剖析大规模政治辩论的人,只可能是为脸书工作的科学家

  • 4.1.1. 脸书的工作让拉达得以测试与主流政治相关的过滤气泡假说

4.2. 脸书并没有平等地对待我们的好友

4.3. 国的保守主义者是一个经常被指责为思想封闭的群体,不过与自由主义者相比,他们接触到的对立观点还是会稍多一点

4.4. 脸书的信息可能会对我们的日常生活产生影响

4.5. 一个引人注目的结论,那就是操纵动态消息对用户的情绪几乎没有影响

4.6. 将网络的孤岛化现象类比为气泡是合理的

  • 4.6.1. 对大多数人来说,我们似乎总有摆脱气泡的办法

  • 4.6.2. 唯一办法就是钻进自己的网络气泡,看看是否能找到自己的出路

5. 回声室

5.1. 政治渗透到社交媒体气泡的现象,可以帮助我们具体认识人们是如何接触到不同的政治观点的

5.2. 对于那些关注报纸并不断跟进时事的人来说,推特和脸书并非坚不可摧的回声室

6. 假新闻

6.1. 曼德拉效应

  • 6.1.1. 曼德拉效应指的是你认为某件事情是真的,但并非如此

  • 6.1.2. 在YouTube上,曼德拉效应已经成为错误记忆这一现象的代名词

6.2. 假新闻是一个朝阳产业

  • 6.2.1. 假新闻才是娱乐的源泉

  • 6.2.2. YouTube上关于“曼德拉效应”的视频得到了数百万的浏览量

  • 6.2.3. 广告主付费给这些视频主人播放广告,所以在视频开始之前,我都必须观看一些广告

6.3. 假新闻是指那些可以被证实为违背事实的新闻,我们不能仅从政治角度出发,就武断地判定它是假的

  • 6.3.1. 假新闻是被Snopes和PolitiFact这类进行事实核查的网站所收集,并被证明确实错误的新闻

6.4. 检验后真相理论的唯一恰当方法是调查研究和分析数据

  • 6.4.1. 与后真相时代概念所指的状况截然不同,假新闻的收效微乎其微

  • 6.4.2. 没错,是有铺天盖地的假新闻报道充斥在我们的各种媒体中,但它们很快就会被人忘记,也很少有人相信它们

6.5. 在政治竞选中,算法创造的假新闻传播甚广

  • 6.5.1. 虚假信息和假新闻的存在已经成为所有选举的突出特点

6.6. 虚假报道只存在于社交气泡之中

  • 6.6.1. 没有确切的证据表明,假新闻的传播改变了选举的进程,或者推特机器人的增加对人们讨论政治的方式产生了负面影响

  • 6.6.2. 自由主义者比保守主义者可能更容易受回声室的影响,但这可能是因为他们对互联网的使用比保守主义者更频繁

6.7. 尽管谷歌搜索、脸书过滤算法和推特热门推荐都存在各种各样的问题,但我们也要记住,它们同时也是非常出色的工具

6.8. 谷歌、脸书和推特目前使用的算法的最大局限性在于,它们无法正确理解我们彼此分享的信息的含义

  • 6.8.1. 这就是为什么它们会继续被西蒙的网站所愚弄的原因
posted @   躺柒  阅读(2)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 【.NET】调用本地 Deepseek 模型
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
历史上的今天:
2024-02-19 读十堂极简人工智能课笔记06_自然语言处理
2023-02-19 读Java实战(第二版)笔记14_CompletableFuture及反应式编程背后的概念
点击右上角即可分享
微信分享提示