摘要:
使用docker部署web接口的时候,遇到了docker无法启动的问题,大体可以确认是代码有问题,导致无法启动(虽然在本地的时候web端口是可以正常使用的),此时的解决方案如下: 1、在docker run 代码的最后面加上sleep infinity,先将docker启动 2、docker exe 阅读全文
摘要:
[参考] 1、https://www.cnblogs.com/Lee-yl/p/11163222.html 2、https://www.jianshu.com/p/c651287b4343 阅读全文
摘要:
当前原始bert模型的推理时间是100ms左右,缩短推理时间的方法有3种: 1、模型蒸馏 2、onnxruntime推理加速 3、查看系统的使用情况,CPU及内存是否全都用上,如果没有使用全部,可以指定部分数据或者模型使用指定的CPU来运行,达到多线程、分布式运行程序。 阅读全文
摘要:
最近尝试使用onnx来部署torch模型,发现还是有一些坑的: 1、尽量使用经典模型结构,模型的输入不要增加内容(比如bert的输入增加一个label_ids),这会导致onnx模型的输入无法识别label_ids 解决方法:如果模型魔改又需要部署,那只能自己写导出为onnx的代码了 2、使用别的包 阅读全文
摘要:
【参考资料】 1、https://zhuanlan.zhihu.com/p/102038521 阅读全文
摘要:
1、首先,在linux服务器上准备好需要的python环境(个人文件夹下只支持500m): conda create -y -n pyspark_env -c conda-forge conda-pack python=3.6 conda activate pyspark_env pip insta 阅读全文
摘要:
本文使用word2vec(100维)做聚类,训练文本中一行是一条数据(已分词),具体代码如下: from sklearn.cluster import KMeans from sklearn import preprocessing from sklearn.feature_extraction.t 阅读全文
摘要:
摘要 基于Transformer的模型由于自注意力操作不能处理长序列,自注意力操作是序列长度的二次方。为了定位这个限制,我们提出一种Longformer的方法,它使用的注意力机制能够随着序列长度线性增长,使得能够很容易的处理具有数千或者更长token的文档。Longformer的注意力机制可以使用任 阅读全文
摘要:
一、对话系统概览 对话系统包含两个部分:对话和系统。 对话是指为达到特定目的活动。 对话特点:连续性和跳跃性。连续性是指针对一个主题进行有来有往的交谈,跳跃性是指在谈论一个具体的话题时,突然插入另一个主题,比如说我们正在谈论某个电影,突然插入一个话题,某某路出车祸了,这种从一个话题跳到另一个话题,即 阅读全文
摘要:
1、ERNIE 1.0 , XLNET, RoBERTa, ALBERT 分别基于 BERT 做了哪些改进? 答:1)ERNIE 1.0的改进:①通过实体和短语mask能够学习语法和句法信息的语言模型②在很多中文自然语言处理任务上达到SOTA训练数据集:中文维基百科、百度百科、百度贴吧、百度新闻可以 阅读全文