AI
刷新
读十堂极简人工智能课笔记02_选对路径与犯错

博主头像 1. 符号人工智能 1.1. 在符号处理中,单词被当成遵循一套规则、互相关联的符号 1.2. 符号人工智能让计算机能用单词来思考 1.3. 符号人工智能是最早、最成功的人工智能形式之一 1.4. 20世纪初的时候,伯特兰·罗素、库尔特·哥德尔和大卫·希尔伯特等数学家就已经在探索数学的极限,试图弄清楚 ...

离线AI聊天清华大模型(ChatGLM3)本地搭建指南

博主头像 随着人工智能技术的飞速发展,聊天机器人成为了一个热门的研究领域。清华大学研发的ChatGLM3模型,作为其中的佼佼者,为开发者提供了强大的自然语言处理能力。本文将指导您如何在本地搭建ChatGLM3模型,实现离线AI聊天功能。 一、前置准备 在开始搭建之前,您需要准备以下物品: 一台性能良好的计算机 ...

【译】Lumiere,谷歌令人惊叹的视频突破

博主头像 原作:伊格纳西奥·德格雷戈里奥 引言:文本到视频的新境界 著名商学教授斯科特·加洛韦 (Scott Galloway) 打赌,2024 年将是谷歌的人工智能年。 现在看起来似乎正在成为现实。 今天,谷歌推出了 Lumiere,这是文本到视频领域的巨大突破,是当今生成人工智能中最艰巨的任务之一。而且就 ...

读十堂极简人工智能课笔记01_人工智能简史

博主头像 1. 2400年前 1.1. 希腊罗德岛 1.1.1. 是个神奇的岛屿,以机械发明著称,包括真人大小的、大理石制成的自动机 1.1.2. 早在罗马帝国诞生之前,公元前400多年的希腊就有这样的机器人技术,似乎不可思议 2. 公元前970到前931年 2.1. 所罗门王 2.1.1. 身边曾有一头金狮 ...

读千脑智能笔记12_阻止人类灭绝

博主头像 1. 阻止人类灭绝 1.1. 宇宙中唯一知道这些的物体,唯一知道宇宙存在的物体,是我们的大脑 1.2. 如果没有关于某个事物的知识,我们能说这个事物就一定存在吗? 1.2.1. 我们的大脑扮演着这样一个独特的角色,这很令人着迷 1.3. 30%的大脑,即旧脑,是由许多不同部分组成的 1.3.1. 旧 ...

读千脑智能笔记11_保存人类遗产

博主头像 1. 智能生物通常能延续多久 1.1. SETI和METI计划的可行性在很大程度上取决于智能生物通常能延续多久 1.1.1. 搜寻地外文明(以下简称SETI)计划的目标 1.1.1.1. 这是一个力图寻找宇宙其他地方智能生物存在证据的研究项目 1.1.1.2. SETI计划旨在寻找含有某种模式的无线 ...

读千脑智能笔记10_人类智能存在的风险

博主头像 1. 人类智能存在的风险 1.1. “末日时钟” 1.1.1. 核战争引发的大火列为地球毁灭的主要原因 1.1.2. 气候变化列为人类自我毁灭的第二大潜在原因 1.2. 除非我们刻意加入自私的驱动力、动机或情感,否则智能机器并不会威胁到人类的生存 1.2.1. 人类在不远的将来会创造出更多的威胁 1 ...

【译】生成式人工智能,废话即服务

博主头像 原作:阿尔贝托·罗梅罗 引言:AI令人惊叹,然而人类正在将其用于垃圾邮件、虚假和作弊行为 本文选自《算法之桥》,这是一个旨在弥合人工智能与人类之间差距的教育项目。 人工智能并不是将情报成本归零,而是将废话成本归零。 Sam Altman喜欢声称OpenAI以及生成式AI的目标是将智慧的成本降至零。他 ...

读千脑智能笔记09_大脑的错误信念

博主头像 1. 人类智能的未来 1.1. 气候变化如此剧烈,在下一个百年里,一些城市很可能会不再适合人类居住,大面积的农业区或将变得更加贫瘠 1.1.1. 气候并非唯一需要关注的问题 1.1.2. 人类的一些技术,如核武器和基因编辑,为少数人提供了杀死数十亿人的可能 1.2. 物种将以极快的速度走向灭绝,一些 ...

听说有 Hugging Face 陪伴的春节,是这样的…

博主头像 辞旧迎新春节到,家家户户好热闹。Hugging Face 中国团队成员祝各位社区成员们新春快乐,万事如意! 过去的一年我们持续看到 AI 技术的腾飞和发展,以及诸多机构为开源 AI 作出巨大的贡献。非常感谢将模型、数据集和应用 Demo 发布在 Hugging Face 上的团队,新的一年,我们也会 ...

读千脑智能笔记08_人工智能的未来(下)

博主头像 1. 机器智能存在的风险 1.1. “人工智能”这个名字应用到几乎所有涉及机器学习的领域 1.2. 技术专家对人工智能的态度也从“人工智能可能永远不会实现”快速转变为“人工智能可能在不久的将来毁灭所有人类” 1.3. 每一项新技术都可能会被滥用,从而造成伤害 1.3.1. 有不足之处的人工智能也被用 ...

【译】关于推理、可解释性和 LLMs

博主头像 原作: 邓肯·安德森 引言:以下文章的主题我已经思考了很久,我希望能我的话能引起你的思考,并于一些更悲观的AI评论相均衡。推理和可解释性是充满细微差别的主题——我希望这篇文章能体现这一点。 去年 GPT-4 发布时,我注意到出现了一个特殊的议论:“可解释的人工智能”。 GPT-4 是第一个在推理领域 ...

扩展说明: 指令微调 Llama 2

博主头像 这篇博客是一篇来自 Meta AI,关于指令微调 Llama 2 的扩展说明。旨在聚焦构建指令数据集,有了它,我们则可以使用自己的指令来微调 Llama 2 基础模型。 目标是构建一个能够基于输入内容来生成指令的模型。这么做背后的逻辑是,模型如此就可以由其他人生成自己的指令数据集。这在当想开发私人个 ...

【scikit-learn基础】--模型持久化

博主头像 模型持久化(模型保存与加载)是机器学习完成的最后一步。因为,在实际情况中,训练一个模型可能会非常耗时,如果每次需要使用模型时都要重新训练,这无疑会浪费大量的计算资源和时间。 通过将训练好的模型持久化到磁盘,我们可以在需要使用模型时直接从磁盘加载到内存,而无需重新训练。这样不仅可以节省时间,还可以提高 ...

读千脑智能笔记07_人工智能的未来(中)

博主头像 1. 机器智能的未来 1.1. 没有任何技术原因阻止我们创造智能机器 1.1.1. 障碍在于我们缺乏对智能的理解,也不知道产生智能所需的机制 1.2. 历史表明,我们无法预测将推动机器智能向前发展的技术进步 1.2.1. 1950年,没有人能够预测那些推动计算机加速发展的创新和进步 1.2.1.1. ...

Transformer训练机制

博主头像 前言 关于Transformer原理与论文的介绍:详细了解Transformer:Attention Is All You Need PyTorch中实现Transformer模型 前面介绍了,Transformer 模型结构的实现,这里介绍下论文中提到的训练策略与设置。 设置文件名为trainin ...

<1···454647···50>