摘要:
记忆封装 - Memory (langchain memory) Memory:这里不是物理内存,从文本的角度,可以理解为“上文”、“历史记录”或者说“记忆力”的管理 ConversationBufferMemory可也用来保留会话信息 In [ ]: from langchain.memory i 阅读全文
摘要:
部分内容参考:https://zhuanlan.zhihu.com/p/164502624 近年来,NLP自然语言处理、推荐系统,以及计算机视觉已成为目前工业界算法岗的主流方向,无论在哪个领域,对“Embedding”这个词概念的理解都是每个庞大知识体系的基石。 “Embedding”直译是嵌入式、 阅读全文
摘要:
环境:Python 3.11.4, LangChain 0.0.270, Jupyter Models模型简介 官方地址:LangChian - Models Langchain所封装的模型分为两类: 大语言模型 (LLM) 聊天模型 (Chat Models) Langchain的支持众多模型供应 阅读全文
摘要:
环境:Python 3.11.4, LangChain 0.0.270 1.Langchain 简介 1.1 Python Langchain官方文档 大型语言模型(LLM)正在成为一种具有变革性的技术,使开发人员能够构建以前无法实现的应用程序。然而,仅仅依靠LLM还不足以创建一个真正强大的应用程序 阅读全文
摘要:
1. Plugins 是什么 1.1 Plugins 的工作原理 1.2 Plugin开发 官方开发文档:https://platform.openai.com/docs/plugins/introduction 可能是史上最容易开发的 plugin。只需要定义两个文件: 1. `yourdomai 阅读全文
摘要:
1. 什么是提示工程(Prompt Engineering) 提示工程也叫指令工程。 Prompt就是你发给ChatGPT的指令,比如写个会议纪要、用Python编个一个博客网站、纪念日给另一半写个俏皮的情书等。貌似简单,但意义非凡 Prompt是AGI时代的编程语言,Prompt工程是AGI时代的 阅读全文
摘要:
原文:What Are Transformer Models and How Do They Work? Transformer模型是机器学习中最令人兴奋的新发展之一。它们在论文Attention is All You Need中被介绍。Transformer可以用于写故事、文章、诗歌,回答问题,翻 阅读全文
摘要:
1.什么是深度学习(神经网络)? 深度学习(Deep Learning, DL)或阶层学习(hierarchical learning)是机器学习的技术和研究领域之一,通过建立具有阶层结构的人工神经网络(Artifitial Neural Networks, ANNs),在计算系统中实现人工智能 。 阅读全文
摘要:
1.什么是机器学习? 机器学习 (ML) 是人工智能 (AI) 的一部分,属于计算科学领域,专门分析和解释数据的模式及结构,以实现无需人工交互即可完成学习、推理和决策等行为的目的。机器学习在没有明确指令的情况下,依靠既有模式和推理来执行任务。计算机系统使用机器学习算法来处理大量历史数据,并识别数据模 阅读全文
摘要:
联网查询原理很简单1.对搜索内容分词 2.将分词后的内容用yahoo搜索 3.将搜索返回的内容交给ChatGPT整理提炼 代码地址:https://github.com/showkawa/brian-search/blob/main/brian_js/chat_with_yahoo/search.j 阅读全文