在看这本书,把第3章看完了,第4章快了,具体知道代码是怎么回事了 Read More
posted @ 2018-10-25 21:51 足下水清 Views(187) Comments(2) Diggs(0) Edit
捣鼓一天,将tensorflow用anaconda装起来了,并应用在了pycharm里面 下面安装的经历。。。 tensorflow支持 python3.6,不支持python3.5 1. 官网下载anaconda好像只有3.7版本和2.7的,然后在安装的时候,勾选defaultpath这样不用配置 Read More
posted @ 2018-10-25 08:28 足下水清 Views(135) Comments(0) Diggs(0) Edit
代码看的💗要碎了。 1.学会了怎么去跑程序 emmmmm 跑程序:三个主要步骤 一: 预处理数据 创建新的文件夹 (1)AMR存放语料 AMRout--处理数据输出的目标地方。 AMRmodel -->创建的模型 (2) prepare.py (3)执行 bash run.sh 二:训练数据 在进 Read More
posted @ 2018-10-23 21:40 足下水清 Views(103) Comments(0) Diggs(0) Edit
1.from __future__ import division ;//python2引入新版的库,division,精确计算,没导入之前 3/2 为 1 导入以后 3/2 为1.5 2.emmmm,自己真的菜,慢慢学吧 3. pycharm 装第三方库, 4. print_function py Read More
posted @ 2018-10-22 21:48 足下水清 Views(132) Comments(0) Diggs(0) Edit
自己看篇章的时候,是可以看懂,看的速度也很快,但真正练习的时候,然后知道所掌握的并不多。故还是要多练习。。。 1. 在字典里,setdefault()方法提供了一种方式,在一行中完成这件事。传递给该方法的第一个参数,是要检查的键。第二个参数,是如果该键不存在时要设置的值。如果该键确实存在,方法就会返 Read More
posted @ 2018-10-22 14:27 足下水清 Views(89) Comments(0) Diggs(0) Edit
今天收获满满吧,竟然一天时间可以把那个论文弄得差不多了,最后晚上导师把论文过了一遍感觉也清楚了逻辑,也知道了哪里需要学习的地方。基本明天可以学python,写代码了。 1.self-attention机制,可以描述为将query和一组key-value对映射到输出,其中query、key、value Read More
posted @ 2018-10-18 21:46 足下水清 Views(170) Comments(0) Diggs(0) Edit
感觉自己看的一脸懵b; 但看懂了这篇文章要讲啥: Read More
posted @ 2018-10-17 21:51 足下水清 Views(154) Comments(0) Diggs(0) Edit
经过两天的折磨,终于把循环神经网络搞明白了. 上两张图:RNN的最好解释,在一位博主看到的。 https://zhuanlan.zhihu.com/p/36192233 双向循环神经网络图:其表示隐藏层的 不仅会收到到t-1时刻的影响,也会手打t+1时刻的影响, Read More
posted @ 2018-10-17 21:48 足下水清 Views(254) Comments(0) Diggs(0) Edit
第一天到实验室,两篇英文论文,周四要开组会说两篇论文。还要学Python. 第一篇是关于神经机器翻译,看了一下午只看了2页,悲催。但大致看懂了该论文是讲神经机器翻译可以解决传统翻译的问题-随着输入语句长度的增加翻译出现难度的问题。其次讲解了神经机器翻译主要: Read More
posted @ 2018-10-15 21:53 足下水清 Views(534) Comments(0) Diggs(0) Edit
希望自己可以坚持—— Read More
posted @ 2018-09-26 22:22 足下水清 Views(149) Comments(1) Diggs(0) Edit