随笔分类 -  云运维&&云架构

上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 185 下一页

litellm 配置embedding 模型
摘要:litellm 对于embedding模型的配置实际与普通模式的配置是一样的,embedding 有特定的,同时chat 模型也都有embedding 能力 参考配置 通过proxy 模式 model_list: - model_name: text-embedding-ada-002 litell 阅读全文

posted @ 2024-08-24 07:34 荣锋亮 阅读(50) 评论(0) 推荐(0) 编辑

通过litellm + ollma 试用autolabel
摘要:ollama 当前版本对于openai api 的兼容实际上部分是有问题的(目前官方在进行修改,但是暂时还没发布),我们可以通过litelmm 的proxy 模式提供openaia 兼容的api,同时可以进行灵活的改写(比如openai 的gpt-3.5-turbo 实际使用的是michaelbor 阅读全文

posted @ 2024-08-23 08:00 荣锋亮 阅读(120) 评论(0) 推荐(0) 编辑

faster-whisper通过CTranslate2 转换的快速whisper推理服务
摘要:faster-whisper 通过CTranslate2 对于openai/whisper的tranformer 模型进行了转换,可以提示推理速度,同时还可以进行不同精度的配置 官方目前的测试是有4倍左右的提升,同时可以更好的支持使用cpu 进行推理,同时faster-whisper 可以兼容dis 阅读全文

posted @ 2024-08-22 07:47 荣锋亮 阅读(159) 评论(0) 推荐(0) 编辑

llm-axe ollama 函数调用试用
摘要:以前简单介绍了llm-axe是支持函数调用的,以下是对于ollama 函数调用的简单试用 参考使用 me.py from llm_axe.agents import FunctionCaller from llm_axe.models import OllamaChat import time de 阅读全文

posted @ 2024-08-21 07:43 荣锋亮 阅读(24) 评论(0) 推荐(0) 编辑

llm-axe LLM 应用开发一些方便的工具类
摘要:llm-axe 提供了不少工具类,可以方便进行llm 应用开发 提供的一个能力 自定义agent 函数调用 在线agent pdf 内容读取 数据提取 对象检测(视觉模型) 支持ollama 说明 对于基于ollama 开发应用的场景,llm-axe 提供的一些功能还是很方便的,很值得使用下 参考资 阅读全文

posted @ 2024-08-20 08:00 荣锋亮 阅读(9) 评论(0) 推荐(0) 编辑

outlines 结构化文本生成框架
摘要:outlines 结构化文本生成框架 包含的特性 多模型集成,openai,transformers,llama.cpp, exllama2,mamba 基于jinja 模版引擎简单强大的提示词 类型约束,多选择支持 快速正则结构生成 基于json schema 以及pydantic 模型的快速js 阅读全文

posted @ 2024-08-19 08:00 荣锋亮 阅读(87) 评论(0) 推荐(0) 编辑

huggingface_hub cli 使用以及国内加速配置
摘要:主要是一个简单记录,方便后续使用 安装 pip install -U huggingface_hub 使用 下载模型 huggingface-cli download --resume-download gpt2 --local-dir gpt2 下载数据 huggingface-cli downl 阅读全文

posted @ 2024-08-18 06:19 荣锋亮 阅读(105) 评论(0) 推荐(0) 编辑

miniconda 安装简单说明
摘要:miniconda 是一个快速安装conda 以及python 环境的工具,很值得使用 安装说明 下载 wget https://repo.anaconda.com/miniconda/Miniconda3-py312_24.5.0-0-Linux-x86_64.sh 安装 sh ./Minicon 阅读全文

posted @ 2024-08-17 07:53 荣锋亮 阅读(49) 评论(0) 推荐(0) 编辑

cloudflared tunnel 简单使用
摘要:cloudflared tunnel 提供了免费的可以快速将本地服务暴露到互联网的能力,可以方便我们测试,很值得试用下,以下是一个简单测试 简单使用 安装 基于mac 系统 brew install cloudflared 登陆注册 按照提示操作就行,不用付费 cloudflared tunnel 阅读全文

posted @ 2024-08-16 00:13 荣锋亮 阅读(66) 评论(0) 推荐(0) 编辑

maven 通过cli 执行plugin 命令
摘要:实际可能会碰到一种场景我们希望进行maven 的打包(比如shade)但是目前项目pom.xml 没有包含plugin 的配置,实际上maven 是可以直接通过maven 坐标模式,使用完整名称进行插件的加载以及执行的 参考使用 命令 以下是对于项目打一个fat jar mvn clean comp 阅读全文

posted @ 2024-08-15 07:13 荣锋亮 阅读(46) 评论(0) 推荐(0) 编辑

omniparse 面向文档以及多媒体资源的数据处理解析以及优化的工具
摘要:omniparse 面向文档以及 多媒体资源的数据处理解析以及优化的工具 包含的特性 本地运行 支持10+ 文件类型 转换文旦分多媒体,web 为高质量结构化的markdown 表格提取,图片提取,音视频字幕,web 爬虫 快速部署 提供了api 访问 使用到的一些开源工具 如下,主要是orc ,音 阅读全文

posted @ 2024-08-14 08:00 荣锋亮 阅读(210) 评论(0) 推荐(0) 编辑

snowflake polaris iceberg rest catalog 代码发布到github 了
摘要:就在7月低snowflake 的 polaris 代码以及发布到github 了,以下是一些资料可以参考 说明 从介绍上polaris 实际上包含了不少nessie 的能力,后续如果与dremio 的集成,还是值得期待的,在今年dremio 的发布会上,说是会包含一个基于rest catalog 的 阅读全文

posted @ 2024-08-13 00:32 荣锋亮 阅读(21) 评论(0) 推荐(0) 编辑

instructor 进行PII 数据处理
摘要:内容来自官方文档,记录下 参考使用 代码 from typing import List from pydantic import BaseModel from openai import OpenAI import instructor class Data(BaseModel): index: 阅读全文

posted @ 2024-08-13 00:04 荣锋亮 阅读(6) 评论(0) 推荐(0) 编辑

chainlit stream 模式简单说明
摘要:chatapp stream 模式还是很重要的,现在的llm api 基本都支持stream模式了chainlit 也提供了stream 模式的支持 参考处理 import chainlit as cl from openai import AsyncOpenAI client = AsyncOpe 阅读全文

posted @ 2024-08-12 00:06 荣锋亮 阅读(43) 评论(0) 推荐(0) 编辑

ollama+ fastapi + litellm proxy + chainlit 进行chatapp 快速开发
摘要:以前简单介绍过chainlit 以及litellm 以下是fastapi 集成chainlit ,使用litellm proxy 包装的标准openai 能力(同时还能实现计费) 参考玩法 环境准备 包含了litellm proxy 以及ollama 的比较简单,我就不多介绍了,具体可以通过静态配置 阅读全文

posted @ 2024-08-11 01:04 荣锋亮 阅读(133) 评论(0) 推荐(0) 编辑

chainlit 快速ai 聊天开发框架
摘要:chainlit 快速ai 聊天开发框架,使用简单 包含的特性 快速开发类似chatgpt 的应用 嵌入chatbot 数据持久化 slack & discord 集成 自动前端界面 api 接口 与其他框架的集成,比如fastapi,langchain,llamaindex, haystack,e 阅读全文

posted @ 2024-08-10 00:22 荣锋亮 阅读(110) 评论(0) 推荐(0) 编辑

litellm ollama 通过proxy api 进行模型创建以及自定义计费
摘要:关于计费我以前简单介绍过,可以通过ui 配置,同时对于计费费用可以使用api 获取,实际上我们可以直接通过api 创建模型的时候进行自定义计费配置,以下是一个简单说明 参考api 定义 使用 通过curl 模式,注意此数据实际会存储到db 中,注意配置文件中关于db 信息的添加 curl -X 'P 阅读全文

posted @ 2024-08-09 08:00 荣锋亮 阅读(86) 评论(0) 推荐(0) 编辑

fastapi socketio 简单使用
摘要:fastapi 集成python-socketio的简单说明 参考使用 安装依赖 pip install fastapi uvicorn python-socketio backend 代码 from fastapi import FastAPI,Body from fastapi.middlewa 阅读全文

posted @ 2024-08-08 00:13 荣锋亮 阅读(40) 评论(0) 推荐(0) 编辑

litellm 计费模型处理
摘要:以下简单说明下litellm 对于计费的处理(使用了内置模式,当然litellm 也是可以通过callback 集成外部系统进行计费的) 参考日志信息 (默认配置) 比如集成internlm2 的日志信息 18:05:05 - LiteLLM:ERROR: litellm_logging.py:12 阅读全文

posted @ 2024-08-07 06:37 荣锋亮 阅读(85) 评论(0) 推荐(0) 编辑

flagsmith 开源特性开关以及远程配置服务
摘要:flagsmith 开源特性开关以及远程配置服务 包含的特性 特性开关 远程配置 a/b 多变量测试 组织管理,项目,角色,团队成员 方便集成 参考资料 https://github.com/Flagsmith/flagsmithhttps://www.flagsmith.com/https://d 阅读全文

posted @ 2024-08-06 08:00 荣锋亮 阅读(12) 评论(0) 推荐(0) 编辑

上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 185 下一页

导航