03 2025 档案

摘要:关于Transformer模型的Encoder-Decoder模块网上介绍的文章非常多,写的非常详尽,可谓汗牛充栋,尤其关于注意力计算这块,不仅给出了公式而且还有具体的计算步骤。关于Transformer模型我觉得大部分文章语焉不详的有两块(可能是我的理解力比较差): 一是关于FNN层的,就是FNN 阅读全文
posted @ 2025-03-24 14:33 一只会铲史的猫 阅读(172) 评论(0) 推荐(0) 编辑
摘要:大部分程序员在学习大语言模型的时候都比较痛苦,感觉AI是如此之近又如此之远,仿佛能搞明白一点,又好像什么也没明白。就像我们在很远的地方看珠穆拉玛峰,感觉它就像一个不大的山包,感觉只要自己做足准备咬咬牙还是能登顶的。但当你越走越近,试图接近它并翻越它时就会发现它的庞大和自己的渺小,以至于你每走一步都无 阅读全文
posted @ 2025-03-19 10:59 一只会铲史的猫 阅读(1022) 评论(1) 推荐(3) 编辑
摘要:Markdown格式不仅对写博客的人非常友好和方便,对AI也是如此。 目前AI大语言模型的输出基本都是Markdown格式,这就意味着AI是能充分理解Markdown格式的,这一点非常重要。 Markdown格式输出的另一个好处是可以方便的转换为HTML格式。比如AI服务器按流输出token时,我们 阅读全文
posted @ 2025-03-18 11:13 一只会铲史的猫 阅读(509) 评论(1) 推荐(0) 编辑

点击右上角即可分享
微信分享提示