上一页 1 2 3 4 5 6 7 ··· 228 下一页

2025年2月27日

ollama与vllm的区别

摘要: ‌Ollama和vLLM在多个方面存在显著差异,主要包括应用场景、性能、硬件要求、安装难度和用户友好性等‌‌12。 应用场景 ‌Ollama‌:适合个人开发者、小型项目或需要快速部署的场景。它是一个轻量级且易于使用的框架,旨在简化大型语言模型的本地部署和运行。Ollama特别适合资源有限的设备和个人 阅读全文

posted @ 2025-02-27 17:12 ExplorerMan 阅读(561) 评论(0) 推荐(0) 编辑

LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发

摘要: LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发1. Ollama 部署的本地模型(🔺)Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是 Ollama 的官网地址:ollama.co 阅读全文

posted @ 2025-02-27 17:10 ExplorerMan 阅读(137) 评论(0) 推荐(0) 编辑

RAG实战:本地部署ragflow+ollama(linux)

摘要: 1.部署ragflow1.1安装配置docker因为ragflow需要诸如elasticsearch、mysql、redis等一系列三方依赖,所以用docker是最简便的方法。 docker安装可参考Linux安装Docker完整教程,安装后修改docker配置如下: vim /etc/docker 阅读全文

posted @ 2025-02-27 17:05 ExplorerMan 阅读(346) 评论(0) 推荐(0) 编辑

RagFlow本地部署使用

摘要: 文章目录前言一、RAGFlow的安装和部署1.安装2.注册登录二、添加模型1.配置 Ollama 连接大模型2.配置Xinference连接大模型三、知识库使用1.创建知识库2.上传文件解析四、聊天前言开源RAGFlow引擎:打造无幻觉、高精度的文档理解与生成体验 RAGflow,这个新兴的开源RA 阅读全文

posted @ 2025-02-27 17:03 ExplorerMan 阅读(908) 评论(0) 推荐(0) 编辑

2025年2月26日

自动写提示词:DSPy.MIPROv2的介绍与实践(附代码)

摘要: 引言 此前,笔者曾分享过自动写prompt的论文,本文则开展实践工作,用DSPy.MIPROv2来自动写提示词。 本文包含两部分内容: 介绍DSPy.MIPROv2优化器的原理和主要参数; 在AI生成文本检测任务上实践。 本文的所有代码已上传git: https://github.com/duany 阅读全文

posted @ 2025-02-26 22:49 ExplorerMan 阅读(29) 评论(0) 推荐(0) 编辑

新RAG架构范式!DSPy将革命性改变RAG系统架构方式!!

摘要: 什么是 DSPy? DSPy(Declarative Self-improving Language Programs (in Python))是斯坦福大学 NLP 研究人员开发的 "基础模型编程 "框架。它强调编程而非提示词,旨在简化复杂语言模型应用的构建过程。DSPy 允许开发者专注于应用程序的 阅读全文

posted @ 2025-02-26 22:42 ExplorerMan 阅读(17) 评论(0) 推荐(0) 编辑

dspy自动化提示词工程

摘要: https://github.com/stanfordnlp/dspy?continueFlag=3b3f055409304bc40206fc4b23fa5648 阅读全文

posted @ 2025-02-26 22:42 ExplorerMan 阅读(5) 评论(0) 推荐(0) 编辑

还在人工炼丹?自动提示工程指南来了,还带从头实现

摘要: 机器之心报道 编辑:Panda 人工设计提示词太麻烦了!想过让 LLM 帮你设计用于 LLM 的提示词吗? 近日,自称生成式 AI 黑带选手的谷歌研究者 Heiko Hotz 发布了一篇长文,详细介绍了自动提示词工程的概念、原理和工作流程,并通过代码从头实现了这一方法。 自动提示词工程是什么? 自动 阅读全文

posted @ 2025-02-26 22:30 ExplorerMan 阅读(20) 评论(0) 推荐(0) 编辑

大模型微调新思路:LoRA技术解析

摘要: 大模型微调新思路:LoRA技术解析LoRA,全称Low-Rank Adaptation,是一种用于大模型微调的新方法。它通过低秩分解来模拟参数的改变量,从而以极小的参数量实现大模型的间接训练。简单来说,LoRA就是在原模型旁边增加一个旁路,通过低秩分解来模拟参数的更新量。训练时,原模型保持固定,只训 阅读全文

posted @ 2025-02-26 22:01 ExplorerMan 阅读(22) 评论(0) 推荐(0) 编辑

Elasticsearch 8 RAG 技术分享

摘要: 转:https://mp.weixin.qq.com/s?__biz=Mzg4MzgxNDk2OA==&mid=2247495959&idx=1&sn=b516e46d808ed0ed195297c4c79d4ea8&chksm=cf431640f8349f56e9301ae6b364f9627eb 阅读全文

posted @ 2025-02-26 21:56 ExplorerMan 阅读(10) 评论(0) 推荐(0) 编辑

上一页 1 2 3 4 5 6 7 ··· 228 下一页

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示