02 2025 档案

摘要:1. KV 缓存是什么? KV 缓存(KV Cache)是一种优化大语言模型(LLM, Large Language Models)推理速度的关键技术。最近爆火的DeepSeek,其首创的MLA技术,使得KV Cache降低了93%,在大语言模型的训练和推理上有效降低了对高性能GPU的性能要求(比如 阅读全文
posted @ 2025-02-15 02:18 LexLuc 阅读(116) 评论(0) 推荐(0) 编辑
摘要:1. 引言 在室内设计领域,将专业知识和设计规范系统化是一个重要课题。本文将以衣柜设计规范为例,展示如何将行业规则转化为结构化的知识图谱,并最终实现在图数据库中的存储和查询。这一过程不仅适用于室内设计,也可以推广到其他领域的知识工程实践。 2. 从文本规则到结构化数据 2.1 规则梳理与分类 首先, 阅读全文
posted @ 2025-02-08 20:47 LexLuc 阅读(14) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示