我们信仰AI? 从神明到人工智能——信任的进化

                                                    我们信仰AI? / 由作者在DALL·E上创作的视觉作品

信任的进化:

信任是我们最宝贵的资产。而现在,它正像黑色星期五促销的廉价平板电视一样,被一点点拆解。在过去,世界很简单:人们相信晚间新闻、那些满是灰尘书籍的教授,或者手持病历、眉头紧锁的医生。而如今?一个TikTok上的AI虚拟形象,用一本正经的声音讲解金融市场;聊天机器人提供医疗诊断,甚至比一些家庭医生还要靠谱。

信任是关键。但“钥匙链”在哪?

问题是什么? 信息与虚假信息的传播速度一样快。这对我们的信任意味着什么?谁来决定什么才是真相?更重要的是:我们能信任一台没有道德、没有真正判断力、只是模拟这些特质的机器吗?当然,信任是会进化的。

唯一的问题是——它会往哪个方向进化?

AI能成为启蒙者吗?

最近的两项研究——一项由Costello、Pennycook和Rand发表在《Science》期刊上,另一项由Goel等人发布的研究报告——提供了AI可以帮助人们远离错误认知的初步科学证据。

                                            《Science》 / Costello, Pennycook, Rand

• Costello等人:在一项有 2190 名参与者的研究中,与GPT-4 Turbo进行个性化对话平均减少了20%的阴谋论信仰。这一影响持续了两个月以上,表明人们的观念发生了持久变化。尤其值得注意的是:即便是那些深信阴谋论的“铁杆信徒”,他们的信念也有明显下降。

这令人震惊——同时也让人害怕。

如果一个AI聊天机器人能够减少阴谋论信仰,那它就同样可以加强这种信仰。这种影响能持续两个月?在舆论塑造的世界里,这已经是永恒。真正的问题是:谁在掌控叙事?

因为如果算法可以塑造信念,那主导世界的就不再是人类,而是机器——或是那些操控机器的人。

• Goel等人:在一项涉及 1690 名美国参与者的实验中,研究人员探讨了人们是否更信任AI生成的信息,而非人类来源的信息。结果表明,GPT-4 在纠正错误认知方面与一名普通人同样有效,但说服力比不上公认的专家。

                                                                《Science》 / Costello, Pennycook, Rand

研究结果表明,AI可以成为启蒙工具,但存在局限性。人们对信息源的信任不仅取决于事实的准确性,还取决于其可信度。

简单来说:AI能传递事实,但它不能强行建立信任。人们相信人,尤其是那些有权威的人。 GPT-4 确实很有说服力,但它缺少专家的个人魅力。

真正的问题是:当机器不仅精准,还学会了“魅力”会发生什么?

信任的心理学

人们信任“面孔”,而不是代码。

AI聊天的水平已经能与人类对话媲美,这确实很惊人。但它的能力是有上限的。研究表明,人们更愿意相信一个头发花白、拥有博士学位的专家,而不是一个匿名的信息源,即使两者讲述的内容完全相同。为什么?因为我们的大脑被编程为尊重权威。

Goel等人的研究正好印证了这一点:专家能说服,AI只能提供信息。区别就在于——信任。

信任不仅仅是逻辑问题,更是心理问题。

这就是矛盾之处:AI可以提供客观、基于事实的答案,但人们依然更愿意信任人类。 为什么?因为信任不仅仅是一个理性过程,它是情感化的、社交性的、文化嵌入式的。即便AI可以显著减少阴谋论信仰,它的影响可能永远有限。

信任不仅建立在准确性上,更建立在人际连接上。

我们需要看到眼神,听到声音,感受到故事。

真正的挑战不是AI是否讲述事实,而是我们是否愿意去听。

黑暗的一面

虽然这些研究表明,AI可以传播知识、减少误解,但它同样存在风险。

Costello等人强调,AI能否发挥积极作用,很大程度上取决于人们如何看待它。

如果AI被视为一种操纵工具,它可能反而会加深人们的不信任。

更进一步的问题是:长期接触AI,会不会让人们逐渐丧失对人类专家的信任?

信任是脆弱的。一旦被动摇,就难以修复。 这正是AI的风险所在。

没错,它可以传播知识、打击虚假信息、塑造信念。但如果人们把它视为操控者,而非助手,信任将成为最大的牺牲品。

那么,长期来看,我们还会信任教授、记者或医生吗? 还是说,我们会逐渐认为算法更懂我们?

这就是讽刺之处:一种本应增强信任的技术,却同样有可能摧毁信任。

AI到底是启蒙者,还是操纵者? 这个问题不是由机器决定的,而是由我们决定的。

                                          “阴影智能” / 由作者在DALL·E上创作的视觉作品

另一个问题是,AI不仅能用于启蒙,也可以用于制造虚假信息。深度伪造(Deepfake)、自动化假新闻生成器、算法偏见——都表明,同样的技术既能用来教育,也能用来操纵。

这让我想起 加德纳剃刀定律(Gardner’s Razor):

“如果一个系统需要所有人类行为都完美无缺才能正常运作,那它必然会失败。”

如果我们天真地认为AI只会被用于善良的目的,那不仅是天真,而是过度乐观到荒谬的程度**。

人类仍然是决定性因素

Costello等人和Goel等人的研究清楚地表明:AI可以对抗虚假信息,但它无法重塑人类的心理模式。

信任不仅仅建立在事实之上,它是由社会动态塑造的。

我们信任的不是冰冷的数据点,而是具体的人。

一个富有魅力的专家,永远会胜过一个再完美的算法。

                                                      📷 Photo by Vitor Paladini on Unsplash

真正的挑战是什么?

让AI成为盟友,而不是奥威尔式的思想警察。

如果人们感觉机器在掌控一切,最终最大的牺牲品不会是虚假信息,而是信任本身。

AI不会通过单纯的信息传递来改变我们对真相的认知,

它的影响,取决于我们如何在社会环境中解读它。

真正的问题不仅仅是——我们是否更信任机器,而不是人类?

更重要的是——在这个由科技驱动的社会中,我们如何重新定义“信任”的机制?

剩下的是什么?

信任并不是一个静态的概念,

而是一个不断演变的、由期望、经验和社会构造编织而成的网络。

在这个科技驱动的时代,问题不仅仅是我们是否更信任机器,而不信任人类,

而是:

当算法替我们做决定,透明度被复杂性取代,错误不再是“人为失误”,而是系统性缺陷时,信任的本质将如何转变?

信任的进化——从感官到工具,再到机构

人类从来都是出于必要而选择信任:

最初,我们信任自己的感官,

后来,我们信任工具,

再后来,我们信任机构。

而现在,我们正站在下一个进化阶段的门槛上:

我们是否愿意去信任,那个不以人类标准衡量自己,而是自我进化的“智能体”?

信任机器,不是盲目信仰,而是一个关于可靠性、透明度和伦理编程的计算过程。

但当信任不再与责任捆绑时,它还能持续多久?

这就是信任的悖论:

机器越完美,人们对它的错误就越无法原谅。

一个人类医生可以犯错;

但一个AI不可以——尽管两者都在基于概率运作。

最终的问题不是——我们如何信任机器?

而是——我们如何重新定义对错误和不可预测性的容忍度?

真正的挑战,不仅仅是技术,

更在于,我们是否能够在这个日益不透明的时代,塑造一种新的信任模式。

问题依然存在——

我们信仰AI吗?

posted @   果冻人工智能  阅读(34)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· 清华大学推出第四讲使用 DeepSeek + DeepResearch 让科研像聊天一样简单!
· 实操Deepseek接入个人知识库
· 易语言 —— 开山篇
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
点击右上角即可分享
微信分享提示