会员
周边
新闻
博问
闪存
赞助商
YouClaw
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
好好学习,天天向上
读无字之书,品惊人妙句,会难通之解,参最上禅机
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
3
4
5
6
7
8
下一页
2024年1月29日
【译】生成式人工智能简介
摘要: 原作:瑞安·奥康纳 引言:生成式AI最近取得了巨大进步,从Stable Diffusion到 ChatGPT。本文通过简单易懂的介绍,向你呈现生成式AI的最新进展。 在过去的几个月里,“生成式AI”一词似乎凭空出现。从 Google 关键字趋势来看,过去12个月一直快速增长,直至今日,人们兴趣依然不
阅读全文
posted @ 2024-01-29 01:03 白鹿原老张
阅读(165)
评论(0)
推荐(0)
2024年1月27日
【译】作为一名软件工程师,我如何从被拒绝中恢复过来
摘要: 原作:大卫·古德 一篇短文,正如我意 2021 年 4 月,在拥有 11 年以上的编程经验后,我被一份高级开发人员的工作邀请拒绝了……然后又被另一份、另一份、再两次拒绝。 失败是预料之中的。企业家并不期望总是成功,这是他们成功的一个特征,因为当他们失败时......他们有这种惊人的反弹因素,不像其他
阅读全文
posted @ 2024-01-27 02:07 白鹿原老张
阅读(38)
评论(0)
推荐(0)
2024年1月26日
【译】生成考古学:AI 创建古代世界的真实图像
摘要: 原作:Ming 引子:历史令人着迷,但很难想象几千年前的世界是什么样子。 许多方面造成了这一困难。部分原因是古代人有不同的审美观。在 1400 年代之前,画家很少考虑透视,使得事物的比例在现代人看来相当奇怪。部分原因是时间已经腐蚀掉了文物中的很多细节。陶器、雕塑和建筑物随着时间的推移而褪色。例如,您
阅读全文
posted @ 2024-01-26 13:14 白鹿原老张
阅读(330)
评论(0)
推荐(0)
【译】从零到“LLMs领域十大新兴领导者”——初创公司的经验教训
摘要: 原作:奥尔登·多·罗萨里奥 引子:我想分享一些我在前线的经验教训,这些都是来自现实世界的残酷打击 第 1 课:BC == Before ChatGPT(在ChatGPT之前) 任何来自 BC的思维方式和思维过程——都应该被扔到窗外。 对于你自己的思维方式或与你一起工作的人的思维方式来说都是如此。合作
阅读全文
posted @ 2024-01-26 00:32 白鹿原老张
阅读(35)
评论(0)
推荐(0)
2024年1月23日
【译】为什么在记忆成为核心组件之前我们无法实现 AGI
摘要: 原作:史蒂夫·纽曼 引子:思考的难点在于知道要思考什么 上次,我描述了像 ChatGPT 这样的大型语言模型所面临的严峻挑战:它们是在完成的文本上进行训练的,而对创建复杂的文章所必需的概述、充实、修改和迭代过程没有任何见解、设计、代码、战略计划或其他复杂工件。为了实现人类水平的通用智能,我们需要解决
阅读全文
posted @ 2024-01-23 22:37 白鹿原老张
阅读(71)
评论(0)
推荐(0)
2024年1月22日
【译】为什么我们还没有处于AGI的风口浪尖
摘要: 原作:史蒂夫·纽曼 引子:你无法通过观察目的地来了解旅程 ChatGPT、Anthropic 的 Claude 或其他 AI 模型要多久才能实现人类水平的通用智能? 在此之前,我认为需要解决几个重大挑战。 我将在一系列简短的文章中描述这些挑战,最后对实现时间提出一些想法。 在第一篇文章中,我将认为当
阅读全文
posted @ 2024-01-22 18:14 白鹿原老张
阅读(61)
评论(0)
推荐(0)
【译】AI在短期内将为我们做什么
摘要: 原作:史蒂夫·纽曼 引子:我写这篇文章的时间越多,我就越乐观 我已经用大量的笔墨谈论了人工智能开发的潜在缺点,而且我还会写更多。今天,我将回顾一下优点。 我还没有写太多关于人工智能潜在好处的文章。 无数致力于人工智能平台和应用程序的商业企业在这方面做得相当不错。 另外,坦率地说,我很难对这个话题感到
阅读全文
posted @ 2024-01-22 00:17 白鹿原老张
阅读(72)
评论(0)
推荐(0)
2024年1月21日
【译】为AI在一切方面超越我们做好准备
摘要: 原作:史蒂夫·纽曼 引子:我们有时间准备; 第一步是确认我们正在准备做什么 在前几部分中,我重点关注了人工智能的现状。我现在要转向未来,从以下问题开始:我们应该期望人工智能能力进步到什么程度?这些东西会变得多聪明? 俗话说,“我们倾向于高估一项技术的短期效果,而低估长期效果。” 目前围绕 ChatG
阅读全文
posted @ 2024-01-21 22:10 白鹿原老张
阅读(59)
评论(0)
推荐(0)
【译】大型语言模型的直观解释
摘要: 原作:史蒂夫·纽曼 引子:我没有深入研究数学,而是解释了“为什么”它们被构建为“预测下一个单词”引擎,并提出了为什么它们会出现概念性错误的理论。 有很多文章解释了 ChatGPT 等大型语言模型 (LLMs) 的工作原理。然而,他们往往会深入研究那些与大多数用户无关的细枝末叶。了解“token em
阅读全文
posted @ 2024-01-21 17:55 白鹿原老张
阅读(203)
评论(0)
推荐(0)
【译】AI需要什么才能完成编程工作
摘要: 原作:史蒂夫·纽曼 引子:探索当前LLMs与真正的通用智能之间的差距 当今最重要的问题之一是人工智能的发展轨迹。这些系统的能力将如何?时间表是什么?我们是否会因电子产品而黯然失色,还是又陷入了另一个炒作泡沫? 人们对于如何衡量进展存在分歧,更不用说预测进展了。我认为一个好的衡量标准是计算机能够在工作
阅读全文
posted @ 2024-01-21 01:38 白鹿原老张
阅读(49)
评论(0)
推荐(0)
上一页
1
···
3
4
5
6
7
8
下一页