2025年2月27日

ragflow功能简介

摘要: RAGFlow 是一款开源的检索增强生成(RAG)引擎,结合了数据检索与生成式模型,旨在提升生成式 AI 系统的效率和性能。以下是其主要功能和特点: 1. 深度文档理解 RAGFlow 能够处理多种复杂格式的非结构化数据,如 PDF、Word 文档、PPT、Excel 表格、图片、扫描件、结构化数据 阅读全文

posted @ 2025-02-27 17:20 ExplorerMan 阅读(62) 评论(0) 推荐(0) 编辑

ollama与vllm的区别

摘要: ‌Ollama和vLLM在多个方面存在显著差异,主要包括应用场景、性能、硬件要求、安装难度和用户友好性等‌‌12。 应用场景 ‌Ollama‌:适合个人开发者、小型项目或需要快速部署的场景。它是一个轻量级且易于使用的框架,旨在简化大型语言模型的本地部署和运行。Ollama特别适合资源有限的设备和个人 阅读全文

posted @ 2025-02-27 17:12 ExplorerMan 阅读(240) 评论(0) 推荐(0) 编辑

LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发

摘要: LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发1. Ollama 部署的本地模型(🔺)Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。,这是 Ollama 的官网地址:ollama.co 阅读全文

posted @ 2025-02-27 17:10 ExplorerMan 阅读(58) 评论(0) 推荐(0) 编辑

RAG实战:本地部署ragflow+ollama(linux)

摘要: 1.部署ragflow1.1安装配置docker因为ragflow需要诸如elasticsearch、mysql、redis等一系列三方依赖,所以用docker是最简便的方法。 docker安装可参考Linux安装Docker完整教程,安装后修改docker配置如下: vim /etc/docker 阅读全文

posted @ 2025-02-27 17:05 ExplorerMan 阅读(153) 评论(0) 推荐(0) 编辑

RagFlow本地部署使用

摘要: 文章目录前言一、RAGFlow的安装和部署1.安装2.注册登录二、添加模型1.配置 Ollama 连接大模型2.配置Xinference连接大模型三、知识库使用1.创建知识库2.上传文件解析四、聊天前言开源RAGFlow引擎:打造无幻觉、高精度的文档理解与生成体验 RAGflow,这个新兴的开源RA 阅读全文

posted @ 2025-02-27 17:03 ExplorerMan 阅读(576) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示