刷新
基于LangChain的LLM应用开发3——记忆

此情可待成追忆,只是当时已惘然。我们人类会有很多或美好或痛苦的回忆,有的回忆会渐渐模糊,有的回忆午夜梦醒,会浮上心头。 然而现在的大语言模型都是没有记忆的,都是无状态的,大语言模型自身不会记住和你对话之间的历史消息。根本用不着“时时勤拂拭”,天然就是“本来无一物”。每一次的请求交互、api调用都是独 ...

Java对接科大讯飞星火大模型V2.0实战

博主头像 Java对接讯飞认知大模型教程,先注册账号领取免费测试额度 获取个人免费额度 个人免费 购买 星火认知大模型V2.0 获取秘钥 平台地址: 讯飞开放平台 pom.xml 文件 <dependencies> <dependency> <groupId>org.springframework.boot< ...

筑牢国云智算底座,繁荣大模型创新生态!

博主头像 9月27日,以“国云筑基 智算引擎——人工智能大模型 推动贵州数字经济新跨越”为主题的天翼云中国行·贵州站活动顺利召开。会上举行了天翼云算力创新服务及天翼云政务大模型“慧泽”发布暨中国电信天翼云大模型训练中心揭牌、人工智能大模型应用推广行动启动仪式。天翼云科技有限公司党委书记、董事长、总经理胡志强出... ...

模型参数以及内存的计算方法

博主头像 前言 本篇笔记是分析transformer模型的参数量、计算量、中间激活、KV cache - 知乎 (zhihu.com)的学习记录。大部分内容都是来自那篇文字。 符号表 本文的示例模型是decoder-only模型,即若干个相同的层,有的人称之为block,每个block包含:self-atte ...

Transformer详解

博主头像 前言 在17年,自然语言处理领域还在被RNN统治,当时的seq2seq任务还是用带encoder-decoder结构的RNN。然而RNN天然具有一个缺点:计算效率低。 随后的transformer也是encoder-decoder结构,但是其中信息关联采用了attention机制,而不是RNN的循环 ...

如何高效使用ChatGPT(上)开胃菜

#1 ChatGPT能做什么? - 产生潜在客户 ChatGPT可以帮助您实现个性化沟通,减少在各种情况下创建和使用电子邮件模板的过程,让您接触到更多潜在客户,增加转化机会。 - 提高在线知名度 ChatGPT可以即时格式化您的内容,以便进行搜索引擎优化,让您以最小的投入创建有效的电子邮件和社交营销 ...

chatglm2-6b在P40上做LORA微调

博主头像 目前,大模型的技术应用已经遍地开花。最快的应用方式无非是利用自有垂直领域的数据进行模型微调。chatglm2-6b在国内开源的大模型上,效果比较突出。本文章分享的内容是用chatglm2-6b模型在集团EA的P40机器上进行垂直领域的LORA微调。 ...

聊聊HuggingFace Transformer

博主头像 ## 概述 参见:[聊聊HuggingFace](https://www.cnblogs.com/zhiyong-ITNote/p/17640835.html) ## 项目组件 一个完整的transformer模型主要包含三部分:Config、Tokenizer、Model。 ### Config ...

报错ValueError: Can't find 'adapter_config.json'

博主头像 # 前言 在做组内2030项目时,我具体做的一个工作是对大模型进行LoRA微调,在整个过程中有许多坑,其中有些值得记录的问题,于是便产生了这篇博客。 # 问题 我在得到微调好的模型后,需要对模型进行性能测评。在加载模型时,遇到如下报错 ``` ValueError: Can't find 'adap ...

<1···111213>