摘要:
KAN: Kolmogorov–Arnold Networks 学术论文全译 来源 https://zhuanlan.zhihu.com/p/696001648 KAN: Kolmogorov–Arnold Networks https://arxiv.org/pdf/2404.19756 讨论Ap 阅读全文
摘要:
经典译文:Transformer--Attention Is All You Need 来源 https://zhuanlan.zhihu.com/p/689083488 本文为Transformer经典论文《Attention Is All You Need》的中文翻译: https://arxi 阅读全文
摘要:
Berkeley vLLM:算力减半、吞吐增十倍 来源 https://zhuanlan.zhihu.com/p/697142422 随着大语言模型(LLM)的不断发展,这些模型在很大程度上改变了人类使用 AI 的方式。然而,实际上为这些模型提供服务仍然存在挑战,即使在昂贵的硬件上也可能慢得惊人。 阅读全文