随笔分类 -  NLP

摘要:github: https://github.com/haibincoder/NlpSummary/tree/master/torchcode/classification 使用TextCNN实现文本分类 使用LSTM实现文本分类 使用Transformers实现文本分类 import copy f 阅读全文
posted @ 2021-02-19 15:56 致林 阅读(248) 评论(0) 推荐(0) 编辑
摘要:github: https://github.com/haibincoder/NlpSummary/tree/master/torchcode/classification 使用TextCNN实现文本分类 使用LSTM实现文本分类 使用Transformers实现文本分类 import torch 阅读全文
posted @ 2021-02-19 15:54 致林 阅读(1220) 评论(0) 推荐(0) 编辑
摘要:github: https://github.com/haibincoder/NlpSummary/tree/master/torchcode/classification 使用TextCNN实现文本分类 使用LSTM实现文本分类 使用Transformers实现文本分类 # model # cod 阅读全文
posted @ 2021-02-19 15:49 致林 阅读(673) 评论(0) 推荐(0) 编辑
摘要:问题 在清华新闻分类数据集上,使用TextCNN效果不错,使用TextLSTM/RNN学习不动,损失和acc均无变化 定位问题 CNN效果有提升,说明train代码和数据没问题; 更改RNN/LSTM结构,加损失函数还是没效果; 修改lr、embed_dim,num_laber均无效果; 本地一步步 阅读全文
posted @ 2021-02-09 10:42 致林 阅读(422) 评论(0) 推荐(0) 编辑
摘要:信息熵 信息熵也被称为熵,用来表示所有信息量的期望。 公式如下: 例如在一个三分类问题中,猫狗马的概率如下: |label|猫|狗|马| |:--|:--|:--|:--| |predict|0.7|0.2|0.1| |信息量|-log(0.7)|-log(0.2)|-log(0.1)| 信息熵为: 阅读全文
posted @ 2021-02-02 16:07 致林 阅读(860) 评论(0) 推荐(0) 编辑
摘要:预训练&搜索 背景 传统的Term字面匹配无法处理语义相关性,例如“英语辅导”、“新东方” 发展 2013 word2vec 优点:通过无监督学习获得词向量 缺点:无法处理多义词,上下文无关 2018 ELMo 结构:双层双向RNN 优点:上下文相关,动态生成词向量 2017 transformer 阅读全文
posted @ 2021-01-20 10:13 致林 阅读(302) 评论(0) 推荐(0) 编辑
摘要:背景 使用pytorch加载huggingface下载的albert-base-chinede模型出错 Exception has occurred: OSError Unable to load weights from pytorch checkpoint file. If you tried 阅读全文
posted @ 2021-01-18 14:59 致林 阅读(9201) 评论(0) 推荐(2) 编辑
摘要:背景:云物理机没安装tf相关环境,需要使用docker直接跑模型 在docker hub下载一个tensorflow gpu镜像 运行docker,直接进入bash,使用nvidia-smi正常看到现存,然后正常跑代码即可 docker run -v /data/bert:/app --runtim 阅读全文
posted @ 2020-12-25 14:44 致林 阅读(328) 评论(0) 推荐(0) 编辑
摘要:# 获取当前设备 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") 阅读全文
posted @ 2020-12-16 11:29 致林 阅读(512) 评论(0) 推荐(0) 编辑
摘要:参考: Deep Joint Entity Disambiguation with Local Neural Attention. (Ganea and Hofmann, 2017, EMNLP) DeepType: multilingual entity linking by neural typ 阅读全文
posted @ 2020-12-04 15:33 致林 阅读(1046) 评论(0) 推荐(0) 编辑
摘要:postmant请求 { "signature_name":"get_result", "inputs":{ "dropout_keep_prob": 1.0, "q1": [[3, 12, 30, 20], [3, 12, 30, 20]], "q1_len": [4, 4], "q2": [[3 阅读全文
posted @ 2020-10-30 09:52 致林 阅读(173) 评论(0) 推荐(0) 编辑
摘要:目的: L1和L2正则都可以解决过拟合 方法: L1正则:向量中各个元素绝对值的和,适用于稀疏特征。原理:直接删除异常特征,解决过拟合。 缺点:绝对值不可求导,需要特殊处理。 L2正则:向量中各元素平方和求平方根,使用场景更多,计算方便。原理:将异常特征平均化。 图像: L1是蓝色的线,L2是红色的 阅读全文
posted @ 2020-10-22 17:03 致林 阅读(290) 评论(0) 推荐(0) 编辑
摘要:![](https://img2020.cnblogs.com/blog/771778/202008/771778-20200806093411092-985705827.png) 阅读全文
posted @ 2020-08-06 09:34 致林 阅读(190) 评论(0) 推荐(0) 编辑
摘要:tfserving模型部署见:https://www.cnblogs.com/bincoding/p/13266685.html demo代码:https://github.com/haibincoder/tf_tools 对应restful入参: { "inputs": { "input": [[ 阅读全文
posted @ 2020-07-09 17:30 致林 阅读(3119) 评论(6) 推荐(0) 编辑
摘要:问题背景:python通过grpc调用tfserving报错, 提示:AttributeError: module 'tensorflow_serving.apis.prediction_service_pb2' has no attribute 'beta_create_PredictionSer 阅读全文
posted @ 2020-07-09 11:29 致林 阅读(1040) 评论(0) 推荐(0) 编辑
摘要:官网:https://tensorflow.google.cn/tfx/guide/serving 步骤1:保存pb模型 # 为模型每一个参数添加name # ner demo: https://github.com/buppt/ChineseNER self.input_x = tf.placeh 阅读全文
posted @ 2020-07-08 14:26 致林 阅读(3255) 评论(0) 推荐(0) 编辑
摘要:![](https://img2020.cnblogs.com/blog/771778/202006/771778-20200621003624587-1787216521.png) 阅读全文
posted @ 2020-06-21 00:37 致林 阅读(89) 评论(0) 推荐(0) 编辑
摘要:![](https://img2020.cnblogs.com/blog/771778/202006/771778-20200610201952574-1942805732.jpg)![](https://img2020.cnblogs.com/blog/771778/202006/771778-20200610201956725-1987781509.jpg)![](https://img202... 阅读全文
posted @ 2020-06-10 20:22 致林 阅读(330) 评论(0) 推荐(0) 编辑
摘要:train loss 不断下降,test loss不断下降,说明网络仍在学习; train loss 不断下降,test loss趋于不变,说明网络过拟合; train loss 趋于不变,test loss不断下降,说明数据集100%有问题; train loss 趋于不变,test loss趋于 阅读全文
posted @ 2020-05-12 09:10 致林 阅读(903) 评论(0) 推荐(0) 编辑
摘要:近几年来,基于神经网络的深度学习方法在计算机视觉、语音识别等领域取得了巨大成功,另外在自然语言处理领域也取得了不少进展。在NLP的关键性基础任务—命名实体识别(Named Entity Recognition,NER)的研究中,深度学习也获得了不错的效果。最近,笔者阅读了一系列基于深度学习的NER研 阅读全文
posted @ 2020-05-11 14:00 致林 阅读(10403) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示