随笔分类 - 大模型
1
摘要:这篇文章会带你从零开始,把 OpenClaw 装进你的电脑。 读完你将拥有一个 24/7 在线的 AI 助手——能聊天,更能干活。 🎯 先搞清楚三件事 第一件:OpenClaw 是什么? 当大家还在把 AI 当成 “聊天工具” 时,一种能真正帮你干活的智能体,已经来了。 普通的 AI 更像一个问答
阅读全文
摘要:为什么你需要Claude Code 2025年,Anthropic推出了Claude Code。这不是一个普通的代码补全工具,而是一个能真正"干活"的AI Agent。 说起来,以前的AI编程助手大多是"被动建议者"。你问它怎么写,它给你一段代码,然后你自己复制粘贴。但Claude Code不一样。
阅读全文
摘要:这几天,相信大家肯定都被一个产品名给刷屏了。 Clawdbot。 就是这个胖逼小龙虾🦞。 只不过现在改名叫Moltbot了,原因很简单,被Anthropic告了。。。 因为Anthropic认为Clawdbot这个名字太容易被市场误解为Claude Code的延展产品,所以要求创始人改名。 真的,
阅读全文
摘要:连 OpenAI CEO Sam Altman 和马斯克都在点赞的大模型,是谁有这么大的排面? 没错,就是 Gemini 3。 昨天谷歌正式发布 Gemini 3,我写了一篇拆解文章,然后评论区炸了。 很多小可爱都在问:怎么用?在哪用?免费吗? 我连夜整理了 7 种官方渠道(不得不说,谷歌的产品线,
阅读全文
摘要:让模型听话,按照要求思考,关键就在Prompt。 前言 你在写prompt时候,是不是总觉得大模型它不听话。要么答非所问、要么一堆废话。扒开思考过程仔细阅读时而觉得它聪明绝顶,时而又觉得它愚蠢至极。明明已经对了怎么又推理到错的地方去了,明明在提示词中提醒过了不要这么思考它怎么就瞎想了。这也许就是每一
阅读全文
摘要:你的 RAG 还在“垃圾进,垃圾出”?我用这套流程,把“废料”文档变成了黄金知识库 最近大家关注Dify的进展的话,应该知道它的版本更新直接从1.8.0 >2.0.1了。跨越了一个大的版本。它本次的主要更新就在于知识库构建的知识流水线。 我认为Dify2.0以后的知识流水线会极大地降低了构建知识库的
阅读全文
摘要:随着人工智能技术的迅速发展,AI Coding 工具已经成为我日常开发中提升效率的重要手段。前阵子参加了一个算法技术的 Hackathon 活动,全程使用 AI 进行写文档、出设计图、写代码,这次经历让我深刻体会到 AI 在加速开发流程中的巨大潜力。因此,我想分享一些自己在实际业务场景中使用 AI
阅读全文
摘要:目录 MCP 协议简介 MCP 主要架构 MCP 开发踩坑经历 关于 AI 的感想 最近 Model Context Protocol ( MCP ) 概念大火,刚好它可以用 Node 或 Python 来编写,作为一名 web 前端程序猿,怎么可以错过这个工具的探索。文章是记录本人做 MCP Se
阅读全文
摘要:随着人工智能的浪潮席卷全球,大语言模型(LLM)的应用正变得无处不在。在垂直领域的SFT微调(Supervised Fine-Tuning)作为提升模型专业能力的关键技术,吸引了无数目光。但你是否注意到一个奇怪的现象:相比经验丰富的专家,新手似乎对尝试SFT微调表现出了更大的热情?这究竟是为什么?是
阅读全文
摘要:随着人工智能的飞速发展,大语言模型(LLM)正在革命性地重塑用户与软件的交互范式。 想象一下这样的场景:用户无需钻研复杂的API文档或者在繁琐的表单间来回切换,只需通过自然语言直接与系统对话——“帮我查找所有2023年出版的图书”、“创建一个新用户叫张三,邮箱是zhangsan@example.co
阅读全文
摘要:本文主要介绍了 Anthropic 推出的开源协议 MCP(Model Context Protocol,模型上下文协议),能让你快速上手该协议,实现大型语言模型与外部数据源和工具的无缝集成。如果想要了解 MCP 协议可以收藏阅读! 1 基本概念 2 目标及优势 3 示例 - 工具 基本概念 MCP
阅读全文
摘要:Ollama 是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离线的方式使用 LLM 能力,并确保私有数据的隐私和安全性。 1 Ollama 安装 Ollama 支持多种操作系统,包括 macOS、Windows
阅读全文
摘要:智能总结: 这篇文章深入探讨了如何通过微调技术来优化大语言模型(如 DeepSeek)的表现,使其在特定领域或任务中更具优势。文章首先解释了微调的必要性及其在特定领域中的应用场景,并将微调与长文本处理、知识库的使用进行对比,帮助读者理解何时选择微调。接着,文章详细介绍了微调的基本流程,包括选择预训练
阅读全文
摘要:概述 Unsloth是一个支持Llama系列、DeepSeek R1系列更快速,更少占用内存的微调库。最近提供了DeepSeek-R1模型的复现与GRPO算法的高效实现,而GRPO算法是DeepSeek模型中最关键的RL算法,而Unsloth增强优化了GRPO算法,使其使用更少的huggingfac
阅读全文
摘要:最近国产AI大模型DeepSeek爆火出圈,登顶中美App Store下载榜,还在性能、性价比上碾压了ChatGPT和Google Gemini等硅谷巨头,直接杀入科技圈C位,成为现象级应用! 然而,不少小伙伴在使用的时候,经常会出现响应迟缓甚至宕机的情况👇 这可怎么办? 万幸的是,DeepSee
阅读全文
摘要:引言 大语言模型(LLM)正在重塑软件开发的范式。随着 ChatGPT、Claude 等产品的广泛应用,如何将 LLM 有效地集成到生产系统中已成为工程师们面临的重要挑战。今天咱们基于 Maxime Labonne(Liquid AI 训练后优化负责人)开发的顶尖 LLM 工程课程,系统性地介绍从模
阅读全文
摘要:1. ChatGLM-6B ChatGLM-6B仓库地址:https://github.com/THUDM/ChatGLM-6B ChatGLM-6B/P-Tuning仓库地址:https://github.com/THUDM/ChatGLM-6B/tree/main/ptuning 2、运行环境
阅读全文
摘要:ChatGLM-6B 介绍 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM
阅读全文
摘要:探索如何将LLM转变成一个更加强大的信息提取工具 LLM不仅能够处理复杂的非结构化原始文本,还能将这些文本转化为结构化且易于查询的事实。在回顾一些关键概念之后,我们将重点介绍如何使用 OpenAI 的 GPT-3.5 Turbo 从原始文本数据(电商产品标题)中构建知识图谱。 毕竟大多数公司的数据中
阅读全文
摘要:1、为什么要进行大模型微调 微调的定义 大模型微调是利用特定领域的数据集对已预训练的大模型进行进一步训练的过程。它旨在优化模型在特定任务上的性能,使模型能够更好地适应和完成特定领域的任务。 微调的核心原因 定制化功能:微调的核心原因是赋予大模型更加定制化的功能。通用大模型虽然强大,但在特定领域可能表
阅读全文
1

浙公网安备 33010602011771号