上一页 1 ··· 6 7 8 9 10 11 12 13 14 15 下一页
摘要: 背景 总结自己做过的《向量检索技术实现医疗文章语义召回》搜索项目 如何query向量化,title向量化 图1 在线模块query过模型,转成query_vec 图2 离线模块title过模型,转成title_vec 如何train出simnet模型 图3 训练simnet模型 如何构建title_ 阅读全文
posted @ 2020-07-07 09:21 威威后花园 阅读(909) 评论(0) 推荐(0) 编辑
摘要: 背景 学习梳理lstm和bilstm的理论知识 什么是lstm,bilstm lstm:是rnn的一种,针对有序的数据,有对数据信息长短记忆的功能 bilstm:是前向lstm和后项lstm的组合 为什么要lstm, bilstm lstm: 其可以更好的捕获较长距离的依赖关系,通过训练过程可以学到 阅读全文
posted @ 2020-07-04 10:21 威威后花园 阅读(8922) 评论(0) 推荐(0) 编辑
摘要: collections.Counter学习 阅读全文
posted @ 2020-07-02 14:28 威威后花园 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 背景 学习numpy知识 import numpy as np # 产出300个在[-1, 1]之间等分的数据,shape为 (300,1) x_data = np.linspace(-1, 1, 300)[:, np.newaxis] # 产出正太分布下的随机数,函数normal参数为(均值,标准 阅读全文
posted @ 2020-06-25 12:35 威威后花园 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 背景 了解深度学习中的梯度爆炸与消失的原因,及如何处理梯度爆炸与消失。 梯度消失 梯度消失是激活函数和权重矩阵初始化值,这两个因素决定的。 sigmoid函数,求导的最大值为0.25 根据链式求导法则:导数小于0.25,如果初始化的W值,再小于1,这样逐个相乘后,会导致偏差为0,最终导致网路中的参数 阅读全文
posted @ 2020-06-24 17:24 威威后花园 阅读(216) 评论(0) 推荐(0) 编辑
摘要: 所有代码折叠: ctrl + shift + - 所有代码展开:ctrl + shift + + 折叠某一点:ctrl + - 展开某一层:ctrl + + 阅读全文
posted @ 2020-06-24 09:10 威威后花园 阅读(7294) 评论(1) 推荐(0) 编辑
摘要: 背景 学习docker相关知识 step1: 下载安装docker https://www.docker.com/get-started https://github.com/docker/getting-started mac 安装后桌面如下图 命令行查看版本 step2 docker 下载镜像( 阅读全文
posted @ 2020-06-13 16:42 威威后花园 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 背景 io性能调优之page cache 什么是缓存 缓存,其实就是一块内存,能帮硬盘HOLD住大量的请求,有效地缓解高速的CPU和低速的硬盘之间的矛盾 磁盘缓存write_back模式流程 用户输入的数据->page cache -> 磁盘(如下图 Buffered IO) 磁盘缓存脏数据 如何定 阅读全文
posted @ 2020-06-09 16:19 威威后花园 阅读(1614) 评论(0) 推荐(0) 编辑
摘要: ll命令执行后结果分析 第一列属性 属性有10位,第一位代码文件类型【目录,文件,连接】 后9位代表不同用户,组,其他用户下的读、写、执行权限 例如 -rwx(Owner)r-x(Group)r-x(Other) -:代表文件 rwx:代表当前用户读、写、执行权限 r-x: 代表同组内有读、执行权限 阅读全文
posted @ 2020-06-08 16:43 威威后花园 阅读(273) 评论(0) 推荐(0) 编辑
摘要: 原理 boost思想,“三个臭皮匠顶一个诸葛亮” cart回归树,树的生成过程 最小化均方差,找到特征下的划分点 叶子节点的平均值,作为预测输出 一颗树迭代后的残差作为下一颗树的输入,再进行树的构造 预测时 新数据映射成特征后,经过多颗训练好的cart回归树 将叶子节点的预测值,累加起来,作为最终的 阅读全文
posted @ 2020-06-07 07:36 威威后花园 阅读(165) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 15 下一页