上一页 1 2 3 4 5 6 7 ··· 48 下一页
摘要: https://blog.csdn.net/Scenery0519/article/details/128081062 nccl-test的测试:https://blog.csdn.net/MrKingloveyou/article/details/136074767 nccl2的调用案例:http 阅读全文
posted @ 2024-07-03 14:13 小丑_jk 阅读(101) 评论(0) 推荐(0) 编辑
摘要: Layer Normalization(层归一化)和 Batch Normalization(批量归一化)都是深度学习中常用的归一化技术,用于加速训练过程和改善模型性能。它们的主要区别在于归一化的方式和应用的场景。 Batch Normalization(批量归一化): 归一化方式:Batch No 阅读全文
posted @ 2024-07-01 17:55 小丑_jk 阅读(597) 评论(0) 推荐(0) 编辑
摘要: llm的接入: https://blog.csdn.net/orientharp/article/details/139884688 embedding模型的接入: https://inference.readthedocs.io/zh-cn/latest/models/builtin/embedd 阅读全文
posted @ 2024-06-28 18:09 小丑_jk 阅读(159) 评论(0) 推荐(0) 编辑
摘要: https://inference.readthedocs.io/zh-cn/latest/models/builtin/llm/glm4-chat.html#model-spec-1-pytorch-9-billion 阅读全文
posted @ 2024-06-28 10:45 小丑_jk 阅读(57) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/692383624 阅读全文
posted @ 2024-06-28 00:40 小丑_jk 阅读(45) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/sinat_37574187/article/details/137842571 阅读全文
posted @ 2024-06-26 13:46 小丑_jk 阅读(159) 评论(0) 推荐(0) 编辑
摘要: import numpy as np def softmax(x, axis=-1): """Softmax函数,用于计算注意力权重""" e_x = np.exp(x - np.max(x, axis=axis, keepdims=True)) return e_x / e_x.sum(axis= 阅读全文
posted @ 2024-06-23 16:49 小丑_jk 阅读(2029) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/weixin_38314865/article/details/107568686 阅读全文
posted @ 2024-06-22 22:49 小丑_jk 阅读(8) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/atuotuo/p/9272368.html 阅读全文
posted @ 2024-06-19 15:35 小丑_jk 阅读(10) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/390510404 阅读全文
posted @ 2024-06-18 14:19 小丑_jk 阅读(16) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 48 下一页