会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
jellyai
博客园
首页
新随笔
联系
订阅
管理
随笔 - 160
文章 - 2
评论 - 29
阅读 -
23190
2025年3月1日
使用AI后为什么思考会变得困难?
摘要:
使用AI后为什么思考会变得困难? 我总结了四篇近期的研究论文,来展示AI是如何以及为什么侵蚀我们的批判性思维能力。 作者使用AI制作的图像 前言:作者在这篇文章中,借AI技术的崛起,揭示了一场悄然发生的思想博弈。表面上,AI为我们带来了前所未有的效率与便捷,但在无形之中,我们也正在放弃一些至关重要的
阅读全文
posted @ 2025-03-01 17:24 果冻人工智能
阅读(20)
评论(0)
推荐(0)
编辑
公告
昵称:
果冻人工智能
园龄:
5个月
粉丝:
47
关注:
1
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
我的标签
#AI员工
(142)
#人工智能
(140)
#AI
(138)
#神经网络
(131)
#AI应用
(114)
#AI代理
(96)
#cnn
(58)
#ChatGPT
(31)
#豆包
(6)
#ERNIE BOT
(2)
更多
随笔档案
2025年3月(14)
2025年2月(44)
2025年1月(26)
2024年12月(34)
2024年11月(31)
2024年10月(10)
阅读排行榜
1. 只需初中数学知识就能理解人工智能大语言模型(1564)
2. 从 Windows Forms 到微服务的经验教训(1431)
3. 您的公司需要小型语言模型(1356)
4. DeepSeek R1 简明指南:架构、训练、本地部署及硬件要求(1318)
5. 全面解释人工智能LLM模型的真实工作原理(二)(772)
评论排行榜
1. 从 Windows Forms 到微服务的经验教训(8)
2. 全面解释人工智能LLM模型的真实工作原理(三)(4)
3. 全面解释人工智能LLM模型的真实工作原理(二)(4)
4. GPT-4.5 感觉有点拉胯,但其实是 OpenAI 迄今为止最大的一步赌注(3)
5. 用于自然语言处理的循环神经网络RNN(3)
推荐排行榜
1. 从 Windows Forms 到微服务的经验教训(19)
2. 只需初中数学知识就能理解人工智能大语言模型(9)
3. 全面解释人工智能LLM模型的真实工作原理(二)(7)
4. 您的公司需要小型语言模型(5)
5. 全面解释人工智能LLM模型的真实工作原理(三)(4)
最新评论
1. Re:GPT-4.5 感觉有点拉胯,但其实是 OpenAI 迄今为止最大的一步赌注
@mikuyoo 你来写吧...
--Rest探路者
2. Re:GPT-4.5 感觉有点拉胯,但其实是 OpenAI 迄今为止最大的一步赌注
不知道你是自己写的还是什么,感觉就是无脑在吹chatgpt。不是说不能吹,但你的文章居然没有任何支撑自己论点的东西,所谓gpt4.5在通用性更好,底子更厚,完全都是看他们官方发言的,没有任何实际测试能...
--mikuyoo
3. Re:GPT-4.5 感觉有点拉胯,但其实是 OpenAI 迄今为止最大的一步赌注
已经收到openai的推送,用了一下,感觉和4o拉不开明显的差距,可能最多就是表达更细腻一些?可能解释笑话的能力要比4o强,但是整体感觉上差不多就这样。当然类STEM问题基本不用测了,有o3-mini...
--a1010
4. Re:如何训练LLM“思考”(像o1和DeepSeek-R1一样, 高级推理模型解析
关于您提到的‘纳米AI’每次回答思考较长时间的问题,可能有多个原因。首先,推理时间的长短与模型的架构、硬件、优化程度以及任务复杂度有很大关系。其次,缺乏丰富的混合数据或不足的SFT确实可能影响模型的推...
--果冻人工智能
5. Re:如何训练LLM“思考”(像o1和DeepSeek-R1一样, 高级推理模型解析
大佬厉害,虽然很多部分看不懂,但明白了基本的逻辑。 有个问题:现有的一些实现了满血deepseek的第三方,例如:纳米AI,它的每次回答都会思考很长时间,是不是也就是意味着它的模型缺少较多的混合数据 ...
--适龄请结婚
点击右上角即可分享