摘要: KAN: Kolmogorov–Arnold Networks 学术论文全译 来源 https://zhuanlan.zhihu.com/p/696001648 KAN: Kolmogorov–Arnold Networks https://arxiv.org/pdf/2404.19756 讨论Ap 阅读全文
posted @ 2024-05-12 09:54 lsgxeva 阅读(1158) 评论(0) 推荐(0) 编辑
摘要: 经典译文:Transformer--Attention Is All You Need 来源 https://zhuanlan.zhihu.com/p/689083488 本文为Transformer经典论文《Attention Is All You Need》的中文翻译: https://arxi 阅读全文
posted @ 2024-05-12 09:52 lsgxeva 阅读(154) 评论(0) 推荐(0) 编辑
摘要: Berkeley vLLM:算力减半、吞吐增十倍 来源 https://zhuanlan.zhihu.com/p/697142422 随着大语言模型(LLM)的不断发展,这些模型在很大程度上改变了人类使用 AI 的方式。然而,实际上为这些模型提供服务仍然存在挑战,即使在昂贵的硬件上也可能慢得惊人。 阅读全文
posted @ 2024-05-12 09:45 lsgxeva 阅读(318) 评论(0) 推荐(0) 编辑