随笔分类 - AI大模型
摘要:什么百度,腾讯,阿里让一个杭州100多人的小团队DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司干翻了。 在大厂带过200人都知道,非常理解为什么大厂的创新能力不行。这和人才组织方式、绩效考核方式都有很大关系。 大厂里乐意创新的,有两类人。第一类是公司中还有斗志的部分元老,他们虽然有
阅读全文
摘要:在使用LangChain中的Tongyi模型进行流式输出时,按照官方的代码直接运行会报一个类型错误: TypeError: Additional kwargs key output_tokens already exists in left dict and value has unsupporte
阅读全文
摘要:模块掉调研中
阅读全文
摘要:实现对话机器人。 记忆对话很明显。 接下来有很好的商业产产品项目,我就不公开了。我要赚点生活费。
阅读全文
摘要:1的时候-使用Python实现问答机器人,掌握OpenAl(zhipuai)接口使用 前面章节一步一实现,还需要自定义 两天历史数组等。 https://www.cnblogs.com/edeny/p/18628319 MessagesPlaceholder 是跟promt 先关的一个组件 在 pr
阅读全文
摘要:大多数基于大型语言模型(LLM)的应用都有会话界面。会话中的一个重要组成部分是能够引用之前对话中引入的信息。在最基本的层面上,会话系统应该能够直接访问一些过去的消息。 我们将这种存储过去交互信息的能力称为“记忆(memory)”。LangChain提供了许多工具来为系统添加记忆功能。这些工具可以单独
阅读全文
摘要:LLMS 大型语言模型(Large Language Models,LLMs)是LangChain的核心组件。LangChain并不提供自己的LLMs,而是提供了一个标准接口,用于与许多不同的LLMs进行交互。 具体来说,这个接口接受一个字符串作为输入,并返回一个字符串。 LLMs Models f
阅读全文
摘要:使用LLMBashChain查询系统状态 功能1 bash_chain -亚查询操作系统的所有磁盘使用情况 from langchain_community.llms.tongyi import Tongyi from langchain_experimental.llm_bash.base imp
阅读全文
摘要:search-api 国内不能使用 使用zhipu 的 web-search-pro 进行搜索 import os from typing import List from pydantic import BaseModel from langchain.prompts import PromptT
阅读全文
摘要:基于文档内容回答用户问题 1.每个人喜欢的颜色 2.最喜欢某种颜色的人是谁 create_stuff_documents_chain 它接受一个文档列表,并将它们全部格式化为一个提示,然后将该提示传递给LLM(大型语言模型)它会传递所有文档,因此您应该确保这些文档长度适合您所使用的LLM的上下文窗口
阅读全文
摘要:Chains指的是将一系列的调用组装成序列--包括大语言模型(LLM),工具tool,还有数据预处理步骤的调用等等。目前最新的实现是通过LangChain Expression Language(LCEL)实现的Chains。 LCEL非常适合构建您自己的Chains,也有一些已经封装好的Chain
阅读全文
摘要:由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。 但是具体到个人,只能说是: “最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
阅读全文
摘要:https://www.processon.com/view/link/6777a65d38625f07c0f3297c 分享地址 adlereden
阅读全文
摘要:了解Prompt template,和大模型交互就靠它了 提示板(PromptTemplate)是与大型语言模型(LLMs)交互时用来生成结构化提示的工具。它使用Python的 str.format 方法来构建带有占位符的模板字符串,允许开发者插入特定主题或其他变量以生成定制化的提示。这种方式简化了
阅读全文
摘要:上干货,鲜货。 from langchain.prompts import PromptTemplate from langchain.prompts import FewShotPromptTemplate from langchain.prompts.example_selector impor
阅读全文
摘要:fake 大模型本地化测试,条件不允许的情况下,再没有真实大模型做测试用。 from langchain_community.llms.fake import FakeListLLM # FakeListLLM 返回列表 from langchain.prompts import PromptTem
阅读全文
摘要:LLMS 大型语言模型(Large Language Models,LLMs)是LangChain的核心组件。LangChain并不提供自己的LLMs,而是提供了一个标准接口,用于与许多不同的LLMs进行交互。 具体来说,这个接口接受一个字符串作为输入,并返回一个字符串。 from langchai
阅读全文
摘要:输出解析器(0utput parsers)负责接收大型语言模型(LLM)的输出,并将其转换为更适合的格式。当你使用LLM生成任何形式的结构化数据时,这一点非常有用。 除了拥有大量不同类型的输出解析器之外,LangChain输出解析器的一个显著优势是许多解析器支持流式处理。 简单来说就是:模型输出 >
阅读全文
摘要:在本教程中,我们将学习如何创建一个使用少量示例的提示模板(Prompt template)。少量示例的提示模板可以从一组示例(examples)或一个示例选择器( Exampleselector)对象构建。 使用示例集 首先,创建一个少量示例的列表。每个示例应该是一个字典,键是输入变量,值是这些输入
阅读全文
摘要:了解Prompt template 提示模板是为大模型生成提示的预定义模版。 一个模板可能包括指令、少量示例,以及适合给定任务的特定上下文和问题。 PromptTemplate 使用 PromptTemplate 创建一个字符串提示的模板。 默认情况下,PromptTemplate使用 Python
阅读全文