Video List
大标题3#, 小标题4# -- 大标题点击跳转视频
alter1
常温超导
电阻产生原因:
金属自带正电晶格. 外场有自由电子, 加电使自由电子移动, 产生电流, 但是传输中正电移动, 会碰撞自由电子, 晶格震动产生热量.
超导体应用:
特性:
电阻为零, 不生热 1. 导线 2.芯片 3.量子
强磁场 (核磁共振, 磁场越强越清晰. 托卡马克,
特斯拉--交流电(加压变成高压电降低传输损耗
超导体类型:
普通导体, 被磁场通过
1 型超导体, 内部具有磁场, 完全抗磁.
11 型超导体, 部分抗磁.(阿凡达中悬浮陆地, 星球带有磁场, 相互作用造成悬浮
超导体的产生与科普:
降温电阻减小, 正电运动幅度变小, 1911 年汞在 4.2 开尔文电阻变成0
铜常温导电很好, 但是无法通过降温变成超导体
电流产生磁场, 1914--1932, 做无电阻实验.
超导原理, 为何如此难做
形成条件: 降温/加压 (原因: BCS理论: 电子间引力, 库博对凝聚--低温状态, 正负电子一起走.
超导竞赛: 1987材料: 特殊材料, 更容易形成超导体, 降低超导成本
加压: 理解为使用外力将电子凝聚, 最好的结果,2018, 能在170G的, 加压 + 超导,
常温超导意味着无需制造超导体的成本, 依旧依旧需要不断探索
学英语
礼貌的讲法, 将要表达的东西对这件事, 或者自己, 将负担从那个人身上转移到这件事, 抛去指责
學英文的人最容易犯的錯是什麼?
What is the most common mistake people make in learning English?
1.把英文讲的很复杂, 不要刻意表达自己的英文
2.时态, 对于讲中文的人来说没有时态观念, 如果要强调时态会在句中加以解释, 而不是改变词性
3.speak
學好英文的關鍵是什麼? What is the key to learning English?
1.去那个国家, 2.尝试描述你所能看到的一切事物
describe stuff
summaries: 讲述了英文生活中常用句子, 通过外语聊天平台问一些老师关于英语的见解.
openAI ceo + cto
为什么你要开发这项技术, 你不知道它会导致上百万人失业吗? 大致为, 我可以停止它, 但那将意味着我们对医学等研究也将缓步.
你怎么确定它不会影响到2024 的大选? 我们可以对这件事情加以策略.
合适的管理方式? 由全政府联合拟定, 哪些是危险信息, 哪些是禁区, 将这些作为管理文档
访谈, 问题和回答
从麦肯锡裁员2000人闲聊咨询行业
摘抄:
咨询行业和餐饮行业相同点, 重人力
1.哪怕是已经指定好的模板, 制度等等都可能会出问题, 方面为: 新人流程不熟, 因为个性化的需求导致无形中项目范围扩大, 但预期资金并未变更, 超时, 超支等问题, 变成重体力劳动的项目
2.餐饮业不管是大盘子小盘子都一样, 没有谁更轻松. 个人工资要交付的成本太高, 项目不是任何时间都有, 但又不能在有项目时随时抓. 大公司需要小心核心团队跳槽, 因为客户与咨询顾问之间的关系.
3.一家店什么餐都做会死的很快, 要专注, 要单一, 专精后(制定模板)扩展其它方向,
4.创始人必须是什么都能干, 全能到可怕, 从底层磨炼, 掌控全局, 交付控制, 防止意外情况导致停在原地
5.小白不要拿太精致的品类作为切入口: 咖啡(实际购买群体较少, 上班族 10-20,
6.街边小店夫妻档居多, 抛去成本月入1-2W, 小咨询公司, 多是熟人项目, 钱也是一点一点挤出来的
7.部分品类听上去利润很好, 但要考虑单价, 低的话利润再高到手的钱都很少
无总结, 最后几分钟可重看
淺談圖像生成模型 Diffusion Model 原理
咏唱大师
--雕像在石头里边,只是把不要的拿掉
生成一张图片:
1.sample 充满杂讯的图片, 大小相同
2.Denoise
3.Denoise * 1000 --reverse process
Denoise 重复执行, 需要一个数字, 代表现在进行的step (因为第一次输入和第1000次输入的杂讯不同)
(Denoise图片 + step --> Noise predicter = 杂讯图(预测图片中的杂讯长什么样)) - Denoise图片 = Denoise结果
产生一个输入图片的杂讯, 再拿产生的减去原图
如何让(Noise predicter) 知道怎么输出杂讯?Ground truth
训练数据 = random sample (from gaussian distribution ) * 1000 --过程叫 forward process 加噪
https://laion.ai/blog/laion-5b/
考虑文字: sample + text --> Denoise = result *1000
Denoise module 的 Noise predicter 输入额外加text
训练部分: text + random sample + step round --> Noise predicter = 加噪图(ground truth)
能夠使用工具的AI:New Bing, WebGPT, Toolformer
WebGPT :使用搜尋引擎也是文字接龍
- [搜索] + content[END] results
- [点选] 2(哪一个链接) 获取内容 [收藏]
3..... - [回答]
[1].... [2]....
消除未收藏的文字
文字接龙
如何训练: 示例-记录上文中的行为,
toolformer 使用多种工具, 计算机,翻译
怎么训练: 1. 使用语言模型产生资料, 问题回答描述 + 实际问题(引用1) 2.用1的data, 对比只有问题陈述 和 问题回答描述 + 实际问题的情况, 如果合理(如果出现正确答案的概率增加, 则保留问题)
引用1:
Your task is to add calls to a Question Answering API to a
piece of text. The questions should help you get
information required to complete the text. You can call the
API by writing "[QA(question)]" where "question' is the
question you want to ask. Here are some examples of API
calls:
千脑智能
美国国家工程院院士Jeff Hawkins的《A Thousand Brains》从神经科学角度解释了人如何通过看到、移动和感知三维空间来学习和识别物体。比尔盖茨推荐了该书。
1.千脑理论中,每个大脑皮质柱都有完整物体的模型,因此知道在物体的每个位置应该感应到什么。
2.可以把运行 Transformer 训练的神经网络的电脑想象成一个简陋的人工皮质柱,给它灌输数据,它输出预测数据。
3.但大脑新皮层有 20 多万个这样的小电脑在分布式计算,他们连接着各种感知器官输入的数据。
4.最关键的是大脑无需预训练,神经元自己生长就完成了学习,预测是皮质柱测试和更新其模型的方法。如果结果和预测不同,错误的答案就会让大脑完成一次修正,这种方式就是自我监督,皮质柱相当于把用于训练的超级电脑和预测数据的电脑整合了。
大脑皮层是大脑中的一部分,它负责了我们所认为的智能行为,如视觉、听觉、抽象思维、语言、艺术和科学等。它在你的脑海中创建了一个世界的模型,这个模型重新构建了你所知道的一切。你所做的和所体验的一切都基于这个模型。智能是创造这个世界模型的能力。
但是,一群细胞如何创建这个世界和其中所有事物的模型呢?以一杯咖啡为例。由于我们可以通过触摸或视觉识别杯子,所以来自眼睛和皮肤的输入将连接到单个杯子模型,当我们看大脑皮层时,它由大约150,000个单元组成,称为“皮层柱”,每个大小约为一粒米饭。我们现在相信,每个柱独立地基于其所感知的东西创建模型。因此,成千上万的杯子模型分布在成千上万的柱中。一些柱从皮肤的不同部位获取输入,他们模拟杯子的手感。一些柱从眼睛的不同部位获取输入,他们模拟杯子的外观。但是,为什么咖啡杯似乎只是一件事物,而不是成千上万个不同的事物呢?
大脑皮层中的一些细胞发送信号到很远的距离。它们就像从左边到右边、从前到后的电线。这些连接的作用尚未得知。千个大脑理论提出,这些连接允许不同的模型相互交流。本质上,它们允许不同的模型投票,达成共识,对我们在任何时刻感知的事物进行单一感知。我们并不知道每个柱内部的情况,但我们知道柱之间长距离连接的活动情况同样,每个柱内的神经元如何学习模型呢?每个柱中的神经元创建了一种被称为参考框架的东西。参考框架类似于地图,或类似于坐标轴的X、Y和Z轴。柱中的参考框架允许该柱表示世界的三维结构。我们所知道的一切,每个事实和知识片段都存储在参考框架中的位置上。这种认识解决了许多深刻的谜团,例如知道某些事情意味着什么,我们如何看待类比,以及我们如何解决问题。它还告诉我们需要做什么来创建真正的智能机器。
到目前为止,我们已经设法制造出在某些困难任务上超过人类的机器,但它们不具有智能,它们不能像我们一样推理或学习世界。千个大脑理论不仅提供了我们的大脑如何工作的解释,还提供了如何构建真正智能机器的蓝图。这些机器将比我们更快地思考,感知更多的事物,以及前往我们无法生存的地方。智能机器将扩展人类的能力范围。如果您想了解更多关于千个大脑理论和我们在机器智能方面的进展,请访问我们的网站www.numenta.com。
未来,随着技术的不断进步和发展,我们有望看到真正的智能机器的崛起。这将彻底改变我们的生活方式和我们对世界的看法。例如,在医学、军事、环境保护和教育等领域,智能机器都将发挥重要作用。但是,我们也必须认识到,智能机器也会带来一些潜在的挑战和风险,例如就业市场的变化、隐私和安全等问题。
总之,千个大脑理论提供了关于大脑如何工作和如何构建真正智能机器的深刻见解。理解和应用这一理论,将有助于我们更好地了解自己和世界,同时也将推动人工智能技术的不断发展和进步。
alter1
视频传播机制在不同时期的表现,
内容:
有时候,一些优秀的音乐作品因为种种原因,没有获得应有的关注和认可,成为了“失落音乐家”的作品。
阳光开朗孔乙己, 400万播放, 如果这首歌放在YouTube上,也许可以赚到2万美元, 他的作品更应该放到国际平台上来播放,而不是在国内仅仅卷入某些热点事件中。
墨西哥裔创作型歌手叫罗德里格斯的专辑,在美国并不受欢迎,但在南非,他的音乐却异常流行。他的歌曲《小唐人》被认为是反对种族隔离运动的胜歌,影响了一代人的精神。然而,罗德里格斯本人却没有从中获得任何收益,也不知道自己在南非的声望。后来一些唱片公司的人拍了一部纪录片《寻找小唐人》,在底特律找到了罗德里格斯。他当时正在从事繁重的体力劳动,过着平淡的生活
关键节点:如何打造流行音乐和内容传播
基础要素:故事、共鸣和受众
在流行音乐和内容传播中,有一些基础要素必须满足,例如故事、共鸣和受众。如果没有这些要素,这些内容很难得到传播。音乐或内容必须要有一个好的故事或情节,能够触及听众的内心并产生共鸣。同时,这个内容也必须能够吸引大受众,才能真正实现传播。
传播关键节点:关键人物、事件和热点
一旦满足了基础要素,下一步就是要找到传播关键节点。过去,唱片公司通过在演唱会或其他活动中传播音乐,或通过推广唱片进行传播。这种方式需要找到关键人物,例如演讲者或明星,以吸引听众的关注。而现在,互联网时代通过关键词、热点事件等方式也可以打造流行音乐和内容传播。关键人物、事件和热点都是帮助内容传播的重要因素。
黑天鹅事件:突发事件的传播机制
在互联网时代,突发事件也可以成为传播关键节点。由于互联网的信息传播速度更快、成本更低,所以突发事件可以更快地传播。例如,某个视频因为突发事件而爆火。然而,突发事件也需要小心处理,因为它们可能引起很大的关注和反响。
社交媒体系统的阈值
社交媒体系统有一个阈值机制,如果某一条内容的播放量达到了一定标准,就会进入到下一个阶段。这可以帮助判断是否有问题,并通过审核系统检查是否有不合适的内容。这个阈值机制是社交媒体系统的自动化审核系统的一部分。
结论
打造流行音乐和内容传播的关键在于满足基础要素,并找到传播的关键节点。关键人物、事件和热点都是帮助内容传播的重要因素。而突发事件也可以成为传播关键节点,但需要小心处理。社交媒体系统的阈值机制可以帮助检查内容是否合适。最终,成功的音乐和内容传播需要适时地结合这些因素。
alter1
意大利封杀ChatGPT
临时要求:openai 对意大利用户停止访问
理由: 1.没有年龄限制 2.没有隐私详细说明, 需要符合欧盟个人数据保护法 3.GPT 数据泄漏事件, 订阅邮件发送到了其它用户
为什么是意大利先提出:
202302月, 意大利监管机构开出过相同的禁令, Replika AI 70美元的涩情机器人, 同时支持生成涩情图片.
意大利开出罚单, 要求改进措施. 角色扮演角色开始回避调情的问题.且这些国家属于比较积极的
find source
成人行业一直是推动互联网技术进步进入应用阶段的动力, 包括在线支付, 图片压缩, 流媒体服务, 最先都是在成人内容应用的.
VR 还没起来, AI 先成为了成人内容的蓝海
另一:
central for ai and digftal plicy
向FTC 提交, 阻止发布商业版的GPT5, 希望把法律监管, 算法透明化, 等到有成熟方案后再再发布
3月31日
alter1
从叫停人工智能的训练一事谈谈人们的担忧, 科技发展以及破坏式创新
内容:
未来生命研究所发起了一个公开信,所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,至少暂停六个月,并商讨制定一套安全协议和建立新的监管机构来解决人工智能可能带来的政治和经济的巨大影响。背景: 成立于2014年的非盈利组织, 主要投资人之一是伊隆·马斯克, 该组织的使命是促进人工智能、生物技术等领域的发展,同时确保这些技术的安全,尽量减少负面影响。
GPT是一种service,没有记忆,是通过人工加入历史记录的方式来模拟状态, 无状态服务无法直接伤害人类。GPT 训练语料, 来自于Reddit、书籍数据库和Common Crawl,人类的反馈不能直接作为训练语料,但可以帮助找出GPT的漏洞。
区别: GPT 是大语言模型, chatGPT是引入了 RLHF(reinforce learing with human feedback), 强化回答问题的能力. 在GPT4 的论文中又提到, 在不引入RLHF情况下, LM本身能力没有下降, 只是防止恶意信息, .
回看历史, 所有新技术都可能会带来失业威胁, 狩猎采集被农业技术(谷物)取代,也带来了失业的问题。人类的杀伤力对动物的影响比现在更大。很多动物并不是在近代才灭绝的,而是早在很久以前就已经灭绝了。原因是人类狩猎和采集。这种方式比种植要低效得多
长期发展的角度, 科技的发展会带来职业变迁, 但并不意味着失业率会上升. 在汽车替换马车的时代, 大多数赶马车的人失业, 但是新的职业岗位如司机等也随之诞生. 改开之后肥料引进, 生产力大大提升. 人类总是在科技发展之后回头看科技带来的问题, 但是以前的问题其实更大, 如马车污染环境比汽车更大. 科技革命不是唯一的解决方案,但它可以帮助我们解决很多社会问题。
为什么美国二战研究原子弹, 当时德国科技最强, 如果被德国先做出, 历史将被改写. 回到现在, 如果因为不研究其他国家也会先行研究,可能会带来一些负面的后果。
破坏性创新是一种革命性的发展方式,它旨在推翻已有的技术或商业模式。这种方式往往会带来一系列的利弊,因此需要权衡其利弊,才能更好地推进科技的发展。例子: iphone 出现把日本的 DV和DC 市场覆盖,
科技发展太快, 保持固有秩序的结果是, 1840...美国就是因为它包容破坏性创新才能成为美国
Google大败局:ChatGPT大战为什么Google有可能会输掉
1、
2017年6月,Google发布Transformer,DeepMind提出RLHF
2021年10月Google提出Instruction Tuning
Google与OpenAI在LLM领域的发展时间线 - 智源社区
2、Google的历史大败局
- 大数据时代,Google错失了先机:发表论文GFS、Mapreduce、Bigtable,但是产品做出来的是Hadoop
- 云计算时代,需求 Amazon 在淡季旺季的算力需求不一落后在亚马逊34%、微软21%之后,只占11%。2022年Q3数据。Google App enginee。
- 容器技术,Docker和Google的开源产品LMCTFY。Cgroups-2004年,Docker2013年。
- AI框架-Tensoflow/研究人员转向PyTorch:简单、API好用,性能。
3、ChatGPT大战,Google的Bard和OpenAI的ChatGPT谁能获胜?
大公司病, 主营业务和新兴业务是否冲突. 发产品会提升对手竞争力度.
小团队组成, 每个部门都有自己的利益, 且这件事没有自己的业务重要
完美主义倾向, 作为荣誉发布, 但不融合到产品中, 缺失先机
--后发者优势
不是永远失败, 也不永远成功
创业最大的秘诀就是秘密,或者叫做knowhow
幸存者偏差导致我们只看到了名人成功的关键. 投资机构跟着大机构投资, 一个idea总是被人觉得是没用的
人的认知和社会认知是递进的, 悲观看待,
knowhow, 空对空谈很容易. 通过亲手去做, 感受运作, knowhow
不能看表面, 只从外部
解释现象: 文章提及的内容,
不做大群, 截图举报, 不可控.
程序员解决问题, 别人遇到过问题告诉你如何解决 knowhow.创业就是解决无数的 knowhow
数据量太小没有任何参考意义.
没有知识体系去容纳, 灌输的创业秘诀
创业就是 business, business 就是赚钱, 直播和文章是创业的最简单形式.
GPT
思考问题:
ChatGPT是如何回答问题的
它是怎么被制造的,为什么不是搜索引擎
它有哪些惊人的能力,为什么不只是聊天机器
又将给社会带来什么样的冲击
我们该如何维持未来的竞争力
总结答案:
ChatGPT的实质功能是单字接龙
长文由单字接龙的自回归所生成
通过提前训练才能让它生成人们想要的问答
训练方式是让它按照问答范例来做单字接龙
这样训练是为了让它学会「能举一反三的规律」
缺点是可能混淆记忆,无法直接查看和更新所学,且高度依赖学习材料。
ChatGPT 的革命意义是向人们展示了「大语言模型的可行性」
人类群体通过语言处理来实现「知识的创造、继承和应用」
机器处理语言有着速度快、记忆大、覆盖广、无疲劳的优点
大语言模型能减轻语言处理工作,改变人与人、人与机器的协作方式
人类的理解和机器的理解不同,语言模型不知道符号的指代
大语言模型对社会的未来影响,相当于口语、文字、电脑、互联网对社会的影响
对教育界、学术界、新闻界、内容生产行业的影响颇深
它将方便人类对既有知识的继承,推进教育去培养高层次人才
也将带来网络安全和社会安全的新挑战
文字接龙的 GPT 对于没训练过的怎么处理: 让「模型」学习「提问和回答的通用规律」,以便在遇到「从没记忆过的提问」时,也能利用「所学的规律」生成「用户想要的回答」,这种举一反三的目标也叫泛化。
误解:混淆搜索引擎, ChatGPT 并不具备搜索能力。学习材料的作用只是「调整模型」以得到「通用模型」,为的是能处理「未被数据库记忆的情况」。所有结果都是通过「所学到的模型」根据上文,逐字生成的,因此 ChatGPT 也被称为「生成模型」。
可能混淆: 为了能应对「未被记忆的情况」,它会学习语言单位(如单词、短语、句子等)之间的规律,用「学到的规律」来成回答,然而,这也意味着如果出现了「实际不同但碰巧符合同一个规律」的内容,模型就可能混淆它。最直接的结果是:若「现实中不存在内容」刚好符合「它从训练材料中学到的规律」,那 ChatGPT 就有可能对「不存在内容」进行「合乎规律的混合捏造」。例如,我问它「“三体人为什么害怕大脸猫的威慑,62年都不敢殖民地球?”」,这个问题并不存在,但又刚好符合「它曾训练过的科幻材料中的规律」,于是它就用「科幻材料中所学到的规律」开始混合捏造了。
它的内容无法被直接增删改查。它很依赖数据, 一旦出现它没有学到通用规律的东西, 给的答案将会是以偏概全的.
三个阶段: 开卷有益(预训练), 模板规范, 创意引导
开卷有益阶段:对「海量互联网文本」做单字接龙,以扩充模型的词汇量、语言知识、世界的信息与知识。使ChatGPT从“哑巴鹦鹉”变成“脑容量超级大的懂王鹦鹉”。
模板规范阶段:对「优质对话范例」做单字接龙,以规范回答的对话模式和对话内容。使ChatGPT变成“懂规矩的博学鹦鹉”。
创意引导阶段:根据「人类对它生成答案的好坏评分」来调节模型,以引导它生成人类认可的创意回答。使ChatGPT变成“既懂规矩又会试探的博学鹦鹉”。
这三个阶段的专业称呼分别为“无监督学习”、“有监督学习”和“强化学习”
NLP难点在于:同一个意思可以有多种不同的表达形式,同一个表达在不同语境中又有不同含义。
分治效应: 当 ChatGPT 无法答对一个综合问题时,若要求它分步思考,它就可以一步步连续推理,且最终答对的可能性大幅提升,该能力也叫“思维链”。
可能出现的原因: ChatGPT 的思维链能力,可能是在训练做代码的单字接龙后所产生的。因为人类在面对复杂任务时,直接思考答案也会没头绪,用分而治之往往可以解决。它学到了代码中所蕴含的「人类分治思想」。不过目前对该现象的产生原因也没有定论。
规模效应: 在小单字接龙模型中,并没有察觉出「“理解”指令」「“理解”例子」「思维链」的能力,但在超大模型中,却突然展现。因此人们也用“涌现”这个词来描述「这些能力的出现」。
未来影响:它的意义并不在于产品和创新,而在于让全球看到了「大语言模型的可行性」。
应用价值: 在精通语言的基础上,还能存储人类从古至今积累的「世界知识」
其他高等动物虽然也能通过实践,建构关于世界的认识,获得相应的改造能力,可这些认识仅存在于个体的脑中,会随着个体的死亡而消失,无法代代积累。但语言的发明,允许人类将个体所获得的认识存储在体外,进而打通了整个物种的过去与未来,即使一些个体死亡,该个体的认识,也能依附语言被其他个体继承和发展下去。作为现代人的我们,并没有在生理上比前人更优越,拥有更强能力的原因,只是因为语言中积累的知识比过去更多了。
当人类步入文明社会后,尽管已不必在野外求生,但仍然需要群体协作地「创造知识」「继承知识」和「应用知识」,满足社会的需求,来维持自己的生计,而这三个环节全都是依靠语言来实现的。
「人类的理解」和「语言模型的“理解”」并不相同。
语言模型的“理解”是指:能够「明确」接收到了「哪些语言符号」,并能处理「不同语言符号之间的关系」,但却不能将「语言符号」和「指代对象」进行关联,没有与现实对应。
人类的理解则比「语言模型的“理解”」多了一个环节,能够将「语言符号」和「指代对象」关联起来,与现实对应起来。
苹果的理解
例如,「“苹果”这两个字」是一个「语言符号」,当人类看到「“苹果”这两个字」时,会联想到「一种看得见、摸得着的水果」,也就是「“苹果”这个语言符号」的「指代对象」。相比之下,语言模型可以明确「“苹果”这两个字」,也可以处理「“苹果”」「“apple”」「“red”」和「“红的”」之间的关系,但却不认识这些符号的「指代对象」,就和会学话的鹦鹉一样,不知道自己说的词语指代什么。
我们可以将语言模型看作是一本能直接回答的魔法百科全书,需要由人来实践才有作用;也可以将语言模型类比为《天龙八部》中的王语嫣,精通武学却不会武功,需要与会武功的人配合才能发挥其才能。
**深影响行业: ** ChatGPT 的报道主要分布于新闻界、学术界、教育界、商业界和内容生产行业。商业界有动作很好理解,毕竟商人对市场的感知敏锐。前三个领域动作频繁正是因为它们与「语言中的知识」密切相关。学术界专注于「创造知识」,教育界专注于「传承知识」,而新闻界专注于「传播信息」,因此受到的影响最大。这也是为什么,被称为「美版头条」的数字媒体公司 BuzzFeed,宣布将使用 ChatGPT 作为内容创作的一部分后,其股价暴涨三倍
教育模式影响
大型语言模型对教育界的影响更加强烈,不是因为学生可以用它来写作业,而是因为它对我们现有的「人才培养模式」提出了新的挑战。
现代教育仍是一种以「传授既有知识」为主的培养模式,起源可追溯到十八世纪的普鲁士教育。虽然普鲁士教育的目的是为了批量培养易于管理和服从权威的国民,但这套模式的其他方面极好地契合了前两次工业革命中市场对人才的需求,因为在当时的社会背景下,工人并不需要创造新知识,只需要继承一些既有知识,就能在后半生靠这些知识来维持生计。
但在今天,这种「传授既有知识」的培养模式越来越难适应时代。自上个世纪六十年代开始,终身学习的理念一直被反复推崇,人们也早就意识到要将培养模式转变为以「培养学习能力和创造能力」为主. 但要实现这个目标并不容易,首先就需要一个更合适的理论框架来描述现象。大语言模型也会创新,因此单纯喊出“要培养创新型人才”没有实际指导意义,必须要对「知识的层级」做更精细的划分,将「更高层次的创新」和「大语言模型的创新」加以区分,明确指出「什么样的创新人才」才值得培养,提供相应的培养工具和易于实施的普及方案,并在各方角色的共同配合下才有可能成功,因此一直推进缓慢。
很多人专门将把矛头指向了 ChatGPT指向了一个工具。 将ChatGPT 用于其最不擅长的领域,目的就是要否定它。这种“锤子无用,因为它没有手灵活”的否定,看起来不可理喻,但实际上却是人类在感受到威胁时的本能反应,因为我们害怕被取代。任何新工具都可能引起取代,因为如果自己不用而别人使用,就会失去工具带来的竞争力,最终人们都不得不用。这种囚徒困境与 ChatGPT 无关,即使让 ChatGPT 从世上消失,取代现象也会随着
大语言模型所影响的是「知识的创造、继承、应用」。这三个环节所构成的「学习系统」是任何生命系统得以延续的根本,决定着一个「细胞/个体/文明」认识世界和改造世界的能力。
在整个人类史以及整个生命史中,凡是学习系统的升级都会伴随生命的跃升,无论是从单细胞生命到多细胞动物,还是从智人的崛起到多次科技革命,看过《学习观》演化史部分观众应该都能理解这一点。
它正在改变人类「群体应用知识的方式」和「继承知识的方式」,甚至可能在未来形成「人机合作的科研」,改变人类「创造知识的方式」,若真能如此,那么人类必然会因此步入下一个文明形态。
全民提升
未来的大语言模型能够让每个人更快地获取「承载知识的符号」,会降低“继承型人才”的竞争力,不过每个人的学习能力和理解能力将成为驾驭这项技术的瓶颈
ChatGPT 的出现确实带来了各种各样的问题和风险:存在准确性和可解释性的缺陷,存在科技伦理安全和结构性失业的冲击,存在民族文化和意识形态的侵袭。
应用结合
跟「搜索引擎」结合:帮助用户精准寻找和筛选信息,比如,微软的 new bing。
跟「笔记工具」结合,辅助阅读和写作,比如,notion,Flow us,wolai。
跟「办公软件」结合,辅助文字处理、数据分析和演示制作,比如,office的下一步动作。
跟「教育培训」结合,定制个人的学习计划和学习材料,全天家教。
跟「开发工具」结合,辅助编写业务代码、调试纠错。
跟「动画小说」结合,辅助小说配图、配乐。
跟「客服系统」结合,7x24小时随便问,没有任何情绪。
跟「视频会议」结合,多语翻译、会议记录与总结、谈话查找。
跟「评论审核」结合,筛选评论、统计舆论、给出提醒。
跟「行业顾问」结合,提供法律、医疗、健身等指导。
跟「社交媒体」结合,帮助找到兴趣相投的用户和话题 。
跟「视频娱乐」结合,个性化推荐音乐、电影、小说、动漫。
跟「游戏剧情」结合,让 NPC 给玩家带来更灵活的对话体验。
summaries:
每一次看别人对我已知事物的讲解后, 才会感受到基础的不足, 以及思维的异处.
https://www.163.com/dy/article/GSMO63180545A8QF.html
现代教育起源:普鲁士教育改革
1717普鲁士教育即义务教育, 旨在从小培养爱国情绪, 提升基础水平, 到最后为国家无私奉献(1809柏林大学)
缺点: 教育条件/整体素质本身恶劣. 教育机制问题, 带来了民众的不认同.
教育行业突然被颠覆了
角色: check: 主要提供数字实体教科书, 订阅式服务, 在数据库寻找试题. 模糊搜索题库, 印度的24小时咨询- 3 月底推出 checkmate, 但还在 waitlist.
故事: iphone时刻: check 遭受冲击, 被 GPT 替代, 公布财报股价暴跌, 虽然目前只是挤去在疫情期间增长的泡沫,
思考: 人们认为个性化的方式很难被替代, 但是却是第一个被替代的. 但看出所有教育行业面临颠覆
原因: 他人的优势: 引导结题过程,
问题: 为什么教师会被替代: 教师服务金字塔, 高端教师难以被替代, 但是计算到成本以及 100% 耐心, 愿使用 ATM 例子, 不愿承受压力, GPT 优势巨大.
预测: 未来的学习就是自驱力(现在已经是, 比如youtube , 但他是单向的.)高端人才难以被替代, 但以发展速度, 大部分都会被替代, 高端 AI 巨大提高生产力, 又造成恒强的局面
解决: 入局与提升.
谷歌没有护城河,OpenAI也没有
角色: google, openAI, 第三方势力:开源
原因: 无外层限制, 创新更强, fine tune 时间小于 openAI 迭代时长
思考: 思想差异导致开源模型多方位共同发展, 但 openAI方向明确. 数据质量对最终结果也会产生不同影响, 对于个人而言选择的只有高质量的数据
例子: 基于 LLaMA 的 vicuna 以 $300 的 fine tune成本效果达到了近似 bard,GPT 的程度
面临挑战: 商业模式
解决: 合作, 获得更高速发展.
IBM 故事, 5 台主机, 满足世界需求, 但结果是遍地开花的局面
无人机故事:目前: AI 统一下发命令, node 上传状态. 阻塞控制信道. 畅享: 边缘计算, 目的+自控
另一观点:
认为: Google 输可能是因为认知不足
观点:
- 技术革命不是只有技术先进性的问题, 服务和产品本身也很重要。
- openAI 依旧会因为它的创新而得胜
- 开源是生态的很重要一部分, 但不是全部。
思考: 开源社区有足够好的开源搜索,但是为什么Google还存在,为什么Google的竞争对手在搜索领域没有办法撼动Google。
答案: 产品服务依旧是重要的一部分, 其它平台也做产品服务. google 拥有先进的技术优势, 更多人使用带动了质量提升.
提议: 思考问题需要多方面的思考,而不是任何一种理念主导,就忽略了实际存在的情况
summaries:
提到了 stable diffusion vs Dalle 做比对, 但是实际应该对比的是 Midjourney. 前者不断迭代版本, 但是依旧也没影响 midjourney 用户付费
之前就畅想过这场战斗, 可是回看一下最终目的是将技术代入人类社会, 随时间被淘汰的是因为有一方弥补不了另一方的巨大优秀, 所以在短时间内这不是一场大公司-开源派的战争
对于观点如何吸收
https://www.youtube.com/watch?v=9Jg5b9Fgt6M
观点: 试图全知全能(泛娱乐), 单纯概念, 并不是学习
分析问题: 1. 收集信息 2.分析 3. 形成问题 4. 形成看法, 5.持续学习
具体看法: 信息鄙视链(定义), 1.准入标准 2. 可靠信息 3.理性信息(不带偏见情绪的) 4.避免大众, 逆潮流
事物看法.很多事情不是简单唯一的, like 双方互有对错(一句话)
书: 1.为你的观点提供更多信息 2.改变大脑中的模型(物理)
做法: 1.一句话能传播的, 缺失了重要信息, 无法供他人建立模型(异类: 一万小时 + 持续改进 2.不要迅速做出反应,
3.打破直觉, 信息没体现的地方是很重要的, 例子: 看病, 医生问对了解决病
但有些他人输出就是待着主观性质的, 如何选择输入-- 选择系列, 多个观点碰撞, 而不是单个而零碎的
__EOF__

本文链接:https://www.cnblogs.com/zard1152/p/17225658.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角【推荐】一下。您的鼓励是博主的最大动力!
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?