会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
梦,起飞的地方
越努力,越幸运。
博客园
首页
新随笔
联系
订阅
管理
2019年1月15日
将博客搬至CSDN
摘要: 嘻嘻哈哈嘿嘿
阅读全文
posted @ 2019-01-15 22:02 向前奔跑的少年
阅读(676)
评论(2)
推荐(0)
编辑
[NLP/Attention]关于attention机制在nlp中的应用总结
摘要: 原文链接: https://blog.csdn.net/qq_41058526/article/details/80578932 <! flowchart 箭头图标 勿删 attention 总结 参考:注意力机制(Attention Mechanism)在自然语言处理中的应用 Attention函
阅读全文
posted @ 2019-01-15 21:33 向前奔跑的少年
阅读(1962)
评论(0)
推荐(0)
编辑
2019年1月13日
马尔科夫随机场模型(MRF-Markov Random Field)
摘要: 原文: http://blog.sina.com.cn/s/blog_92c398b00102vs3q.html 马尔科夫过程 隐马尔科夫过程 与马尔科夫相比,隐马尔可夫模型则是双重随机过程,不仅状态转移之间是个随机事件,状态和输出之间也是一个随机过程。 领域系统 分阶领域系统与子团 马尔科夫
阅读全文
posted @ 2019-01-13 23:28 向前奔跑的少年
阅读(10020)
评论(0)
推荐(0)
编辑
[Pytorch]深度模型的显存计算以及优化
摘要: 原文链接:https://oldpan.me/archives/how to calculate gpu memory 前言 亲,显存炸了,你的显卡快冒烟了! torch.FatalError: cuda runtime error (2) : out of memory at /opt/conda
阅读全文
posted @ 2019-01-13 15:29 向前奔跑的少年
阅读(10262)
评论(0)
推荐(0)
编辑
2019年1月10日
[loss]Triphard loss优雅的写法
摘要: 之前一直自己手写各种triphard,triplet损失函数, 写的比较暴力,然后今天一个学长给我在github上看了一个别人的triphard的写法,一开始没看懂,用的pytorch函数没怎么见过,看懂了之后, 被惊艳到了。。因此在此记录一下,以及详细注释一下
阅读全文
posted @ 2019-01-10 21:13 向前奔跑的少年
阅读(3301)
评论(0)
推荐(1)
编辑
[Pytorch]Pytorch中tensor常用语法
摘要: 原文地址:https://zhuanlan.zhihu.com/p/31494491 上次我总结了在PyTorch中建立随机数Tensor的多种方法的区别。这次我把常用的Tensor的数学运算总结到这里,以防自己在使用PyTorch做实验时,忘记这些方法应该传什么参数。总结的方法包括:Tensor求
阅读全文
posted @ 2019-01-10 20:30 向前奔跑的少年
阅读(22254)
评论(0)
推荐(0)
编辑
2019年1月9日
[pytorch]pytorch loss function 总结
摘要: 原文: http://www.voidcn.com/article/p rtzqgqkz bpg.html <! 正文顶部广告 (adsbygoogle = window.adsbygoogle || []).push({}); 最近看了下 PyTorch 的损失函数文档,整理了下自己的理解,重新格
阅读全文
posted @ 2019-01-09 19:11 向前奔跑的少年
阅读(9462)
评论(0)
推荐(0)
编辑
[Pytorch]Pytorch的tensor变量类型转换
摘要: 原文:https://blog.csdn.net/hustchenze/article/details/79154139 Pytorch的数据类型为各式各样的Tensor,Tensor可以理解为高维矩阵。与Numpy中的Array类似。Pytorch中的tensor又包括CPU上的数据类型和GPU上
阅读全文
posted @ 2019-01-09 18:26 向前奔跑的少年
阅读(25998)
评论(0)
推荐(1)
编辑
2019年1月8日
[Pytorch]Pytorch中图像的基本操作(TenCrop)
摘要: 转自:https://www.jianshu.com/p/73686691cf13 下面是几种常写的方式 第一种方式 normalize = transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) transformLis
阅读全文
posted @ 2019-01-08 17:02 向前奔跑的少年
阅读(10463)
评论(0)
推荐(0)
编辑
2018年12月27日
caffe深度学习网络(.prototxt)在线可视化工具:Netscope Editor
摘要: http://ethereon.github.io/netscope/ /editor 网址:http://ethereon.github.io/netscope/ /editor 将.prototxt中的内容输入到文本框中,然后按shift+enter键,就会得到可视化网络
阅读全文
posted @ 2018-12-27 23:14 向前奔跑的少年
阅读(1607)
评论(0)
推荐(0)
编辑
下一页