摘要:
1. 构词如下图,上下两组词,上面的一组词具有下面一组词不具备的特性: 上面一组词可以构成 AABB 的结构,而下面的一组词不可以; 反反复复,高高兴兴,磨磨蹭蹭,说说笑笑,许许多多;但是请问,这有道理吗?再看一组词: 上面一组词的量词是条,一条政策,一条人命,并... 阅读全文
摘要:
液压是通过液体去压迫(比如注射用的针管),气压则是通过气体产生压力,以产生巨大的压力。最终产生的压强:P=FA" role="presentation">P=FAP=FA1. 液压 根据压强公式:P=F1A1=F2A2⇒F2=A2A1F1⇒... 阅读全文
摘要:
GRU(Gated Recurrent Unit)是LSTM的一个变体,也能克服RNN无法很好处理远距离依赖的问题。GRU的结构跟LSTM类似,不过增加了让三个门层也接收细胞状态的输入,是常用的LSTM变体之一。LSTM核心模块:这一核心模块在GRU中变为: C... 阅读全文
摘要:
1. 保温瓶保温瓶保温的秘诀在于,其内胆是双层构造的内外瓶(外瓶内瓶之间隔着空气);这样根据热力学第二定律,热量可以自发地从温度高的物体传递到温度低的物体,但不可能自发地从温度低的物体传递到温度高的物体。热量通过玻璃等物质,从温度高的一方传导到温度低的一方;热的传播方... 阅读全文
摘要:
传统DNN或者CNN无法对时间序列上的变化进行建模,即当前的预测只跟当前的输入样本相关,无法建立在时间或者先后顺序上出现在当前样本之前或者之后的样本之间的联系。实际的很多场景中,样本出现的时间顺序非常重要,例如自然语言处理、语音识别、手写体识别等应用。循环神经网络RN... 阅读全文
摘要:
MSRA(微软亚洲研究院)何凯明团队的深度残差网络(Deep Residual Network)在2015年的ImageNet上取得冠军,该网络简称为ResNet(由算法Residual命名),层数达到了152层,top-5错误率降到了3.57,而2014年冠军Goo... 阅读全文
摘要:
深度神经网络一般由卷积部分和全连接部分构成。卷积部分一般包含卷积(可以有多个不同尺寸的核级联组成)、池化、Dropout等,其中Dropout层必须放在池化之后。全连接部分一般最多包含2到3个全连接,最后通过Softmax得到分类结果,由于全连接层参数量大,现在倾向于... 阅读全文
摘要:
1. 插入图例在布局视图下,从插入中选择“图例”,我们获得以下的样式: 2. 转为单个图形选择图例,点击右键,选择“转化为图形”,再次点击右键,点击“取消分组”,获得单个图形如下: 3. 修改图例双击“Mean production of mazie residue(... 阅读全文