摘要: 模型开发及训练小技巧:(1)不管什么模型,先在一个较小的训练集上train和test,看看它能不能过拟合。如果不能过拟合,可能是学习率太大,或者代码写错了。先调小学习率试一下,如果还不行就去检查代码,先看dataloader输出的数据对不对,再看模型每一步的size是否符合自己期待。 (2)看tra 阅读全文
posted @ 2023-03-06 09:54 15375357604 阅读(142) 评论(0) 推荐(0) 编辑
摘要: 数组:【1,2,2,2,3,4,5,6】 二分查找市返回2的位置, 左侧边界和右侧边界的写法: int binary_search(int[] nums, int target) { int left = 0, right = nums.length - 1; while(left <= right 阅读全文
posted @ 2023-02-28 10:10 15375357604 阅读(3) 评论(0) 推荐(0) 编辑
摘要: import numpy as np def gelu(x): return 0.5 * x * (1 + np.tanh(np.sqrt(2 / np.pi) * (x + 0.044715 * x**3))) def softmax(x): exp_x = np.exp(x - np.max(x 阅读全文
posted @ 2023-02-27 17:22 15375357604 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 原文:工业界信息抽取之负样本构造 - 知乎 (zhihu.com) 一、前言 大家在做算法应该也意识到数据的重要性,数据量和数据标注准确性都会影响你最终的模型效果。一般来说大家可能最关心标注时正样本的质量,忽视负样本的质量。很多时候负样本的涵盖量和标注准确率可以很大程度上避免模型混淆,像很多任务在标 阅读全文
posted @ 2023-02-13 09:59 15375357604 阅读(63) 评论(0) 推荐(0) 编辑
摘要: SY-个人主页 (jiangnanboy.github.io) github:GitHub - lyhue1991/eat_pytorch_in_20_days: Pytorch🍊🍉 is delicious, just eat it! 😋😋 模型部署:GitHub - lxztju/DL_ 阅读全文
posted @ 2023-01-30 10:56 15375357604 阅读(47) 评论(0) 推荐(0) 编辑
摘要: 转载:实践演练BERT Pytorch模型转ONNX模型及预测 - 知乎 (zhihu.com) 使用bRPC和ONNX Runtime把BERT模型服务化 - 知乎 (zhihu.com) 1.安装anaconda 一般有图形界面的个人电脑上装Anaconda比较好,因为有GUI,各种操作比较方便 阅读全文
posted @ 2022-12-30 15:00 15375357604 阅读(4043) 评论(0) 推荐(0) 编辑
摘要: 词命中率:我们首先需要对query侧或item侧进行单边扩词,即同义词扩展。其中,同义词挖掘可使用word2Vec等方式,通过相似度分数截断及人工review后,得到一个同义词词典。之后将query/item(待排侧)扩词后的文本分别按照词粒度/字粒度进行切分,经过unigram/bigram/tr 阅读全文
posted @ 2022-12-09 11:07 15375357604 阅读(65) 评论(0) 推荐(0) 编辑
摘要: 1.bert+crf即可,学习率bert e-5,crf e-4~e-3,差大概100倍 阅读全文
posted @ 2022-11-07 09:49 15375357604 阅读(35) 评论(0) 推荐(0) 编辑
摘要: RankNet,LambdaRank: Ranknet的模型的目标函数的缺点:以错误pair最少为优化目标的RankNet算法,容易让好的变差,坏的变好来减少损失,LambdaRank就是来解决这个问题 在上图中,每一条线表示一个文档,蓝色表示相关文档,灰色表示不相关文档。RankNet以Error 阅读全文
posted @ 2022-09-28 16:27 15375357604 阅读(21) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/qq_30868737/article/details/108629374 阅读全文
posted @ 2022-09-26 16:01 15375357604 阅读(6) 评论(0) 推荐(0) 编辑