1 2 3 4 5 ··· 47 下一页
摘要: https://zhuanlan.zhihu.com/p/115772844 阅读全文
posted @ 2024-09-02 00:05 小丑_jk 阅读(4) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/532797417 阅读全文
posted @ 2024-08-26 18:25 小丑_jk 阅读(1) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/628375255 阅读全文
posted @ 2024-08-14 18:12 小丑_jk 阅读(9) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/bicart/article/details/140530512 如果找不到库,那么如下: pyinstaller --onefile app.py --add-data "../module;./module" 由于打包之后找到的路径都是C盘tmp下面的 阅读全文
posted @ 2024-07-24 18:32 小丑_jk 阅读(3) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/35391826 阅读全文
posted @ 2024-07-17 16:10 小丑_jk 阅读(1) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/436621498 阅读全文
posted @ 2024-07-16 11:12 小丑_jk 阅读(1) 评论(0) 推荐(0) 编辑
摘要: 在Vision Transformer (ViT) 中,自注意力机制的范围是指模型在处理图像块时,每个图像块能够与其他哪些图像块进行交互。ViT的自注意力机制具有全局范围,这意味着在自注意力层中,每个图像块都可以与其他所有图像块进行交互,而不管它们在原始图像中的空间位置如何。以下是ViT自注意力机制 阅读全文
posted @ 2024-07-16 10:27 小丑_jk 阅读(13) 评论(0) 推荐(0) 编辑
摘要: https://mp.weixin.qq.com/s?__biz=MzI1MjQ2OTQ3Ng==&mid=2247617834&idx=1&sn=2b8f0f56b8b5b25e5ba1240e5705a6a8&chksm=e9e004a1de978db79be4b5d01829959efb839 阅读全文
posted @ 2024-07-11 11:40 小丑_jk 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 多头注意力机制是一种用于处理序列数据的神经网络结构,在自然语言处理领域中得到广泛应用。它可以帮助模型更好地理解和学习输入序列中的信息,提高模型在各种任务上的性能。 多头注意力机制是基于注意力机制的改进版本,它引入了多个注意力头,每个头都可以关注输入序列中不同位置的信息。通过汇总多个头的输出,模型可以 阅读全文
posted @ 2024-07-09 18:19 小丑_jk 阅读(64) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/688993851 阅读全文
posted @ 2024-07-08 15:39 小丑_jk 阅读(19) 评论(0) 推荐(0) 编辑
1 2 3 4 5 ··· 47 下一页