摘要: 作者:迈克尔·海因 作者提供的图片 AI 市场如同一个过度拥挤的俱乐部,数不清的 DJ 同时打碟,舞池里则像一袋注射了兴奋剂的跳蚤。经过一小时的时事通讯“探险”、电子邮件整理,随后又进行了一次 YouTube 探索,我的精力已经有些耗尽。在 AI 丛林中保持清醒和追踪进展,绝对是一项极具挑战的工作。 阅读全文
posted @ 2024-12-22 09:06 果冻人工智能 阅读(2) 评论(0) 推荐(0) 编辑
摘要: Google发布了它所称的“推理”AI模型——但这还处于实验阶段,根据我们简短的测试,显然仍有改进空间。 这个新模型名为Gemini 2.0 Flash Thinking Experimental(名字有点长,确实),可以在Google的AI原型平台AI Studio中使用。模型卡片描述它是“最适合 阅读全文
posted @ 2024-12-21 10:55 果冻人工智能 阅读(9) 评论(0) 推荐(0) 编辑
摘要: 上一篇:《用人工智能模型预测股市和加密货币的K线图》 序言:预测时间序列,乍听之下似乎离我们普通人很遥远,甚至有些晦涩难懂。其实该技术早已渗透进了我们的日常生活。天气预报每天提醒你是否带伞、股市的波动影响你的投资决策、电力公司的负荷管理让你享受稳定的电网服务……这些无不依赖时间序列分析的强大力量。本 阅读全文
posted @ 2024-12-19 11:29 果冻人工智能 阅读(55) 评论(0) 推荐(0) 编辑
摘要: 人类是骄傲的生物。最近,关于AI是否具备推理能力的争论愈演愈烈。几个月前发布的OpenAI的o1模型引发了各种反应,有人认为它“不过是些障眼法”,也有人称之为“AI的新范式”。 AI的推理能力(或者缺乏推理能力)似乎触动了我们许多人敏感的神经。我怀疑,承认AI会“推理”被视为对人类自尊的打击,因为推 阅读全文
posted @ 2024-12-18 09:12 果冻人工智能 阅读(16) 评论(0) 推荐(0) 编辑
摘要: 上一篇:《人工智能规模法则的起源、分析、内幕以及对齐方法》 (18)《人工智能的宪法:用AI的反馈来确保AI的无害性》(2022年),作者:Yuntao、Saurav、Sandipan、Amanda、Jackson、Jones、Chen、Anna、Mirhoseini、McKinnon、Chen、O 阅读全文
posted @ 2024-12-17 09:28 果冻人工智能 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 人工智能规模法则的起源、分析、内幕以及对齐方法 上一篇:《人工智能大语言模型起源篇,低秩微调(LoRA)》 (14)Rae 和同事(包括78位合著者!)于2022年发表的《Scaling Language Models: Methods, Analysis & Insights from Training Gopher》,https://arxi 阅读全文
posted @ 2024-12-16 09:27 果冻人工智能 阅读(111) 评论(0) 推荐(0) 编辑
摘要: 上一篇: 《规模法则(Scaling Law)与参数效率的提高》 序言:您在找工作时会不会经常听到LoRA微调,这项技术的来源就是这里了。 (12)Hu、Shen、Wallis、Allen-Zhu、Li、L Wang、S Wang 和 Chen 于2021年发表的《LoRA: Low-Rank Ad 阅读全文
posted @ 2024-12-15 10:37 果冻人工智能 阅读(49) 评论(0) 推荐(0) 编辑
摘要: 上一篇:《人工智能大语言模型起源篇(三),模型规模与参数效率》 规模法则与效率提高 如果你想了解更多关于提高变换器效率的各种技术,我推荐阅读2020年的《Efficient Transformers: A Survey》https://arxiv.org/abs/2009.06732论文,接着是20 阅读全文
posted @ 2024-12-14 10:12 果冻人工智能 阅读(40) 评论(0) 推荐(0) 编辑
摘要: 上一篇:《人工智能大语言模型起源篇(一),从哪里开始》 (5)Howard 和 Ruder 于2018年发表的《Universal Language Model Fine-tuning for Text Classification》,https://arxiv.org/abs/1801.06146 阅读全文
posted @ 2024-12-13 10:16 果冻人工智能 阅读(198) 评论(0) 推荐(1) 编辑
摘要: 序言:许多人最初接触人工智能都是在ChatGPT火热之际,并且大多停留在应用层面。对于希望了解其技术根源的人来说,往往难以找到方向。因此,我们编写了《人工智能大语言模型起源篇》,旨在帮助读者找到正确的学习路径,了解大型语言模型的大致起源。本文将分为三个部分,介绍当前主流的大型语言模型架构Transf 阅读全文
posted @ 2024-12-12 09:33 果冻人工智能 阅读(311) 评论(0) 推荐(1) 编辑
摘要: 前一篇:《从爱尔兰歌曲到莎士比亚:LSTM文本生成模型的优化之旅》 前言:加密货币市场昨日大幅下跌,一天内市值蒸发逾70亿 人民币。有人可能会问,如果使用人工智能模型预测市场的涨跌,是否能避免损失?作者在此指出,加密货币市场和股市具有高度的主观性,受人为因素、情绪波动和外界干预的显著影响,而非单纯依 阅读全文
posted @ 2024-12-11 10:28 果冻人工智能 阅读(77) 评论(0) 推荐(0) 编辑
摘要: 上一篇:《搭建人工智能多模态大语言模型的通用方法》 在今天的文章中,我将回顾2024年有关多模态大语言模型(LLM)的文献资料,主要关注过去几个月发布的工作,以确保范围合理。 因此,这并不是一个关于多模态LLM的历史性概述或全面回顾,而是对最新进展的简要探讨。同时,我会尽量保持总结简洁,不加太多无关 阅读全文
posted @ 2024-12-10 10:27 果冻人工智能 阅读(345) 评论(0) 推荐(0) 编辑
摘要: 上一篇:《理解多模态大语言模型,主流技术与最新模型简介》 序言:动手搭建建多模态LLM的两大通用主流方法是:统一嵌入-解码器架构和跨模态注意力架构,它们都是通过利用图像嵌入与投影、跨注意力机制等技术来实现的。 构建多模态 LLM 的常见方法 构建多模态 LLM(大型语言模型)主要有两种方法: 方法 阅读全文
posted @ 2024-12-08 09:57 果冻人工智能 阅读(296) 评论(0) 推荐(0) 编辑
摘要: 上一篇:《用谷歌经典ML方法方法来设计生成式人工智能语言模型》 序言:市场上所谓的开源大语言模型并不完全开源,通常只提供权重和少量工具,而架构、训练数据集、训练方法及代码等关键内容并未公开。因此,要真正掌握人工智能模型,仍需从基础出发。本篇文章将通过传统方法重新构建一个语言模型,以帮助大家理解语言模 阅读全文
posted @ 2024-12-07 09:23 果冻人工智能 阅读(43) 评论(0) 推荐(0) 编辑
摘要: 人工智能代理(AI Agents)的演变经历了从简单的起步阶段到如今系统化的进展,这些系统结合了内部控制机制、外部语境基础以及认知输入,从而实现了更复杂和动态的交互。 大型语言模型(LLMs)在知识和推理能力方面存在固有限制。具备语言能力的人工智能代理通过将LLMs与内部记忆和外部环境连接起来,利用 阅读全文
posted @ 2024-12-06 15:16 果冻人工智能 阅读(28) 评论(0) 推荐(0) 编辑
摘要: 序言:近几个月非常精彩。AI研究领域又有了许多新进展,其中包括两个诺贝尔奖授予了AI领域,以及几篇有趣的研究论文发表。 其中,Meta AI 发布了最新的 Llama 3.2 模型,包括 1B 和 3B 规模的大语言模型的开源版本,以及两个多模态模型。 在接下来的4个篇章中,我将解释多模态大语言模型 阅读全文
posted @ 2024-12-06 08:44 果冻人工智能 阅读(113) 评论(0) 推荐(0) 编辑
摘要: 序言:新技术的普及往往并非一帆风顺。每当生产力发展遇到瓶颈,人类社会总需要一种新的技术来推动经济进步。对陌生事物的怀疑和不信任是正常的,反而如果每个人都一致认为某项技术完美无缺,那可能就需要警惕了。以英特尔为代表的企业对AI的谨慎态度,恰恰反映了大多数企业的真实想法。 AI将在未来几年自动化或辅助我 阅读全文
posted @ 2024-12-05 10:08 果冻人工智能 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 上一篇:《人工智能模型学习到的知识是怎样的一种存在?》 序言:在接下来的几篇中,我们将学习如何利用 TensorFlow 来生成文本。需要注意的是,我们这里并不使用当前最热门的 Transformer 模型,而是探讨传统的机器学习方法。这么做的目的,是让你对当前主流的生成式人工智能模型有一个对比性的 阅读全文
posted @ 2024-12-04 09:19 果冻人工智能 阅读(228) 评论(1) 推荐(0) 编辑
摘要: 前言:AI是核级威胁吗?本文讨论了美国关于人工智能(AI)的“曼哈顿计划”提议,并分析了其对美国未来可能带来的影响,尤其是是否能维持美国在全球的霸主地位。以下是文章的中文口语化网络翻译: 震惊。 这就是大多数人在读完《美中经济安全审查委员会》的2024年度报告后,感受到的情绪。他们得出的结论是,人工 阅读全文
posted @ 2024-12-03 17:20 果冻人工智能 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 序言:重新训练人工智能大型模型是一项复杂且高成本的任务,尤其对于当前的LLM(大型语言模型)来说,全球99.99%的企业难以承担。这是因为模型训练需要巨大的资源投入、复杂的技术流程以及大量的人力支持。因此,无论在科学研究还是实际应用中,人们通常依赖开源的预训练模型及其已经学习到的各种特征信息,就像使 阅读全文
posted @ 2024-12-02 09:51 果冻人工智能 阅读(148) 评论(0) 推荐(0) 编辑
摘要: Dario Amodei(Anthropic 首席执行官)最近与 Lex Fridman 进行了播客。 Anthropic 是 Claude 背后的公司,Claude 是目前领先且最有效的商业大语言模型之一。 他谈到了几个话题,但今天我们将重点讨论一个——AI的未来会是什么样子? 我们将首先探讨我们 阅读全文
posted @ 2024-12-20 09:04 果冻人工智能 阅读(8) 评论(0) 推荐(0) 编辑