随笔 - 934, 文章 - 0, 评论 - 247, 阅读 - 344万

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8

07 2024 档案

摘要:真正做过 LLM 开发的都知道,虽然理论上 LLM 可以生成结构化的数据,但是真正生成的时候经常出错。怎么稳定的让 LLM 返回结构化的数据? LinkedIn 的做法如下: https://www.linkedin.com/blog/engineering/generative-ai/musing 阅读全文

posted @ 2024-07-29 08:00 蝈蝈俊 阅读(155) 评论(1) 推荐(0) 编辑

摘要:PaliGemma 是 Google 开发的轻量级的具有多模态功能的视觉语言模型 (VLM)。 https://ai.google.dev/gemma/docs/paligemma?hl=zh-cn 它将图片和文本作为输入,可以回答有关图片的问题并提供详细信息和上下文。 这意味着 PaliGemma 阅读全文

posted @ 2024-07-24 08:42 蝈蝈俊 阅读(111) 评论(0) 推荐(0) 编辑

摘要:PaliGemma 是 Google 开发的轻量级的具有多模态功能的视觉语言模型 (VLM)。 https://ai.google.dev/gemma/docs/paligemma?hl=zh-cn Google 提供了三种可下载的模型类型: PT checkpoints 预训练模型; Mix ch 阅读全文

posted @ 2024-07-23 09:10 蝈蝈俊 阅读(135) 评论(0) 推荐(0) 编辑

摘要:埃隆·马斯克(Elon Musk)以其独特的思维方式和高效的工作方法而闻名,他的成功不仅在于卓越的技术和商业眼光,还在于他对问题的深刻理解和解决问题的系统方法。其中,他的“第一性原理五步工作法”被广泛认为是他取得巨大成功的关键之一。 一、提问(Questioning) 这一步骤要求我们回到基本原理, 阅读全文

posted @ 2024-07-20 16:06 蝈蝈俊 阅读(401) 评论(0) 推荐(0) 编辑

摘要:使用 Windows 的“磁盘管理”工具中的“扩展卷”功能可以帮助解决 C 盘空间不足的问题。以下是具体操作步骤: 准备工作: 备份数据:在进行任何磁盘操作之前,建议先备份重要数据,以防万一。 磁盘分区:确保有临近的,未分配的磁盘空间可以用于扩展 C 盘。 操作步骤: 打开磁盘管理: 在桌面上右键点 阅读全文

posted @ 2024-07-16 07:46 蝈蝈俊 阅读(228) 评论(0) 推荐(0) 编辑

摘要:进入工厂模式:在通电情况下,将摇杆按键向左拨动并保持住。 退出工厂模式:在通电情况下,将摇杆按键向右拨动并保持住。 阅读全文

posted @ 2024-07-15 16:05 蝈蝈俊 阅读(168) 评论(0) 推荐(0) 编辑

摘要:今天看到宝玉的这个观点,非常赞同: 未来编程需求会更大; 但初中级程序员需求可能逐步减少; 这部分人才要求会由纯粹编程技能转变成借助AI解决业务需求的技能; 前期替代速度会比较慢,但后面会越来越快; https://weibo.com/1727858283/Ons6MtOpl 一、编程需求会更大 企 阅读全文

posted @ 2024-07-14 19:16 蝈蝈俊 阅读(34) 评论(0) 推荐(0) 编辑

摘要:OpenAI本周在全体员工会议上提出了一套五级分级标准,用于追踪其在打造能够超越人类的人工智能软件方面的进展。 按照标准,1至5级分别为: 聊天机器人,具有对话能力; 推理者,人类水平的问题解决; 代理人,可以采取行动的系统; 创新者,能够帮助发明的AI; 组织,拥有组织管理能力、可独立运作的"组织 阅读全文

posted @ 2024-07-12 15:52 蝈蝈俊 阅读(724) 评论(0) 推荐(1) 编辑

摘要:在1986年,David E. Rumelhart、Geoffrey E. Hinton(即大名鼎鼎的杰弗里·辛顿)和Ronald J. Williams发表了一篇题为“通过反向传播误差来学习”(Learning representations by back-propagating errors) 阅读全文

posted @ 2024-07-11 17:07 蝈蝈俊 阅读(109) 评论(0) 推荐(0) 编辑

摘要:要深入理解大语言模型(LLM)的内部工作机制,不妨先从GPT-1模型开始。 我们主要从发展历程、意义、论文中的架构图来展开。 一、发展历程 2017年,Google推出了Transformer模型,这一架构因其在性能上的显著优势迅速吸引了OpenAI团队的注意。 《Attention Is All 阅读全文

posted @ 2024-07-03 20:50 蝈蝈俊 阅读(75) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示