2024年4月24日

摘要: vLLM 是一个快速且易于使用的库,用于进行大型语言模型(LLM)的推理和服务。这里通过运行实际的例子,来和传统原始方法进行比较。初步结论是vllm没有体现出明显优势。 阅读全文
posted @ 2024-04-24 14:18 jsxyhelu 阅读(2409) 评论(0) 推荐(0) 编辑

导航