摘要: sigmoid会衰减输入的影响(大input,小output),层数过多的话,导致输入对cost的影响几乎为0 ReLU是Maxout的特例,Maxout比ReLU更灵活 如何训练Maxout 等价这个网络(不同的样本更新不同的参数) 优化器AdaGrad RMSProp local minima( 阅读全文
posted @ 2020-09-05 13:14 ZH奶酪 阅读(192) 评论(0) 推荐(0) 编辑
摘要: Contextual Query Understanding,根据上文补全当前Query 为了热更,只需新增一个intent cls。 对话策略配置 阅读全文
posted @ 2020-09-05 12:58 ZH奶酪 阅读(329) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2020.cnblogs.com/blog/323808/202009/323808-20200905115624930-1311074372.png) ![](https://img2020.cnblogs.com/blog/323808/202009/323808-20200905120404850-817148045.png) ![](https://img20 阅读全文
posted @ 2020-09-05 12:29 ZH奶酪 阅读(414) 评论(0) 推荐(0) 编辑
摘要: 图神经网络,强化学习,对话策略 对话状态:food=chinese 置信状态(分布):food= chinese 0.6,italian 0.4 简单的聚合函数是平均,下边是两种改进方案: 【词级别信息引入网络?】 阅读全文
posted @ 2020-09-05 11:54 ZH奶酪 阅读(370) 评论(0) 推荐(0) 编辑
摘要: ![](https://img2020.cnblogs.com/blog/323808/202009/323808-20200905105740814-2060963162.png)![](https://img2020.cnblogs.com/blog/323808/202009/323808-20200905104625543-586842972.png)![](https://img2020... 阅读全文
posted @ 2020-09-05 11:08 ZH奶酪 阅读(330) 评论(0) 推荐(0) 编辑