pytorch中的repeat和repeat_interleave

个人的简单理解:

repeat可以理解为多次复制张量后在指定维度上concate上去,即x.repeat(n,dim=k)等价成torch.cat([x for _ in range(n)],dim=k)
repeat_interleave实际上等价于repeat在高一维的基础上运算后再view,即x.repeat_interleave(n,dim=k)等价成x.repeat(n,dim=k+1).view(N0, N1, ..., n*Nk, Nk+1, ...),其中N0,N1, Nk, Nk+1分别指x的第01kk+1维的长度。当k是最后一维时自动unsqueeze(-1)

posted @   kksk43  阅读(156)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
特效
黑夜
侧边栏隐藏
点击右上角即可分享
微信分享提示