上一页 1 2 3 4 5 6 7 8 9 10 ··· 76 下一页
摘要: 目录一、总起一句(非常关键)二、第一类问题:数据层面的挑战(最重要)1️⃣ 标注一致性和任务边界不清2️⃣ 多意图输入导致 label 表达困难三、第二类问题:模型与 LoRA 本身的限制3️⃣ LoRA 对“分类能力”提升有限4️⃣ 过拟合与泛化问题四、第三类问题:上线与推理阶段的问题(工程面)5 阅读全文
posted @ 2026-01-23 20:09 向着朝阳 阅读(10) 评论(0) 推荐(0)
摘要: 目录一、先给一个“安全开场白”(非常重要)二、LoRA 微调的核心挑战(面试官真正想听的)1️⃣ 数据质量远比数量重要(最大挑战)2️⃣ 过拟合和灾难性遗忘的平衡3️⃣ LoRA 注入位置选择困难4️⃣ 评估困难:loss 不等于效果5️⃣ 推理与部署复杂度被低估(生产级痛点)三、你“看过教程 + 阅读全文
posted @ 2026-01-22 16:46 向着朝阳 阅读(7) 评论(0) 推荐(0)
摘要: 目录先拆解这个岗位的核心要求,帮你看清「门槛在哪、你的优势在哪、补什么就行」关键结论:这个岗位的「门槛」是AI技术+短剧行业认知,而非「创作能力」,对你是低适配成本快速适配的3个核心动作(1-2周就能落地,能直接写进简历/面试展示)1. 选准多模态工具,深耕「技术落地」而非创作(不用全学,精2个就够 阅读全文
posted @ 2026-01-22 11:15 向着朝阳 阅读(35) 评论(0) 推荐(0)
摘要: 目录 大 batch token + seq → 模型一次计算更多 token GPU kernel / tensor parallel 高效运行 → 单条请求的等待时间被 amortized(摊薄) 因此 单条请求 TTFT 中位反而下降 📊 Benchmark 测试 max-num-seqs 阅读全文
posted @ 2026-01-21 17:57 向着朝阳 阅读(12) 评论(0) 推荐(0)
摘要: 目录1️⃣ 参数本质回顾2️⃣ 理论计算方法3️⃣ 一般范围seq计算1️⃣ KV cache 本质2️⃣ 假设参数3️⃣ 代入公式4️⃣ 面试说明点 明白,你想深入了解 --max-num-batched-tokens 的范围和计算方法,不仅是经验值,也要能理性说明。我们分步骤分析。 1️⃣ 参数 阅读全文
posted @ 2026-01-21 17:07 向着朝阳 阅读(47) 评论(0) 推荐(0)
摘要: 目录一、vLLM + Ray 的能力二、vLLM + Ray 的局限性三、SGLang 提供的额外价值四、总结 你的问题很实际,我来系统说明一下:为什么 vLLM + Ray 对大部分场景已经够用,但有些场景仍然会考虑 SGLang。 一、vLLM + Ray 的能力 vLLM 高效单机 / 多 G 阅读全文
posted @ 2026-01-20 18:55 向着朝阳 阅读(51) 评论(0) 推荐(0)
摘要: 目录一、核心关系二、MLA 在 vLLM 中的应用点三、使用方式四、总结 MLA(Memory & Latency Aware / Memory Layout Aware)是 大模型推理的高级优化策略,主要针对高 QPS 或长上下文、超大模型部署的场景。它不是入门级开发必须掌握的内容。 明白,你想知 阅读全文
posted @ 2026-01-20 18:46 向着朝阳 阅读(24) 评论(0) 推荐(0)
摘要: 目录一、vLLM 的本职功能二、如何在 vLLM 上实现 Speculative Decoding三、工程可行性四、总结 答案是 支持扩展,但不是开箱就有,需要自己做一些集成和改造。详细分析如下: 一、vLLM 的本职功能 vLLM 主要提供: 高效推理: KV Cache 管理 FlashAtte 阅读全文
posted @ 2026-01-20 18:40 向着朝阳 阅读(8) 评论(0) 推荐(0)
摘要: 目录参数设置实践一、vLLM 显存占用与 OOM 的关系二、如何在压测时发现潜在 OOM1️⃣ 观察指标2️⃣ “危险显存占比”参考三、调节策略1️⃣ 调整 --gpu-memory-utilization2️⃣ 调整 batch_token / seq3️⃣ 压测建议四、工程实践经验查看显存使用情 阅读全文
posted @ 2026-01-20 16:35 向着朝阳 阅读(180) 评论(0) 推荐(0)
摘要: 目录一、先给结论:推荐的生产级调优顺序(修正版)✅ 推荐顺序(你可以直接照这个跑)Step 1:确定业务级 max-model-len(你这一步是对的)Step 2:单参数扫 max-num-batched-tokens(不是 seq)为什么优先 batch_token?Step 3:在 batch 阅读全文
posted @ 2026-01-20 16:00 向着朝阳 阅读(16) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 9 10 ··· 76 下一页