一切过往,皆为序章,一切未知,皆为终章。
摘要: 写在前面 ​ 该系列主要事对指针网络在NER以及关系抽取系列取得的成果进行展示,并根据大佬们的笔记总结其中的优劣以及理论分析。 GlobalPointer ​ 在之前的工作中,我们NER采用传统的LSTM+CRF,在各个字段指标也取得不错的效果,简单字段类似学历这种f1值均在95以上,复杂一点的比如 阅读全文
posted @ 2022-04-08 16:11 爱吃帮帮糖 阅读(2596) 评论(0) 推荐(1) 编辑
摘要: 問題描述 ValueError: Unknown loss function: bes_loss 問題場景 訓練 margin = 0.6 theta = lambda t : (K.sign(t) + 1.) / 2 def bes_loss(y_true, y_pred): return - ( 阅读全文
posted @ 2022-04-06 16:22 爱吃帮帮糖 阅读(70) 评论(0) 推荐(0) 编辑
摘要: GPT1-GPT3 简介 ​ GPT(Generative Pre-trained Transformer)系列是由OpenAI提出的非常强大的预训练语言模型,这一系列的模型可以在生成式任务中取得非常好的效果,对于一个新的任务,GTP只需要很少的数据便可以理解任务的需求并达到或接近state-of-the-art的方法 阅读全文
posted @ 2022-04-06 16:10 爱吃帮帮糖 阅读(2162) 评论(0) 推荐(0) 编辑
摘要: 交叉熵损失函数 - Cross entropy loss function ​ 标准形式 \[ \color{blue}{C=-\frac{1}{n}\sum_x{[ylna+(1-y)ln(1-a)]} (1)} \] 其中$\color{blue}{x}\(表示样本,\)\color{blue} 阅读全文
posted @ 2022-04-06 15:57 爱吃帮帮糖 阅读(168) 评论(0) 推荐(0) 编辑
摘要: 关于seq2seq attention 讲解最好的一篇(因为我都看懂了) https://towardsdatascience.com/attn-illustrated-attention-5ec4ad276ee3 阅读全文
posted @ 2021-02-24 16:52 爱吃帮帮糖 阅读(91) 评论(0) 推荐(0) 编辑
摘要: NER 标准 LSTM+CRF 问题 标准成本昂贵 泛化迁移能力不足 可解释性不强 计算资源 JD和CV描述形式不一样 严谨性,简历内容要识别出能力词以及深层挖掘能力词(看起来并不是能力词,但是代表实际的某项能力),所以的深度挖掘词意 不依赖NER,根据词典或者特定语句形式(规则)提出实体词,最后进 阅读全文
posted @ 2020-11-20 15:17 爱吃帮帮糖 阅读(2830) 评论(0) 推荐(1) 编辑
摘要: 两个list关联排序 # 打包 zipped = zip(sen,count) # 排序 sort_zipped = sorted(zipped,key=lambda x:(x[1],x[0]),reverse=True) # 还原 result = zip(*sort_zipped) sen,co 阅读全文
posted @ 2020-11-20 15:13 爱吃帮帮糖 阅读(166) 评论(0) 推荐(0) 编辑
摘要: Word2Vec 写在前面:最近在学习word2vec,所以记录一下这方面的东西,主要包括skip gram,cbow以及公式推导及实现 提出 word2vec是Google2013年开源推出的工具包,它简单高效,迅速吸引了大量学者投身其中。对于其中的细节内容却不甚了解。据此,本文也就呼之欲出,就是 阅读全文
posted @ 2020-01-20 12:39 爱吃帮帮糖 阅读(377) 评论(0) 推荐(0) 编辑
摘要: 模型类型 参数模型 统计学中,参数模型通常假设总体服从某一个分布,该分布由一些参数确定(正太分布由均值和方差确定),在此基础上构造的模型称为参数模型 包括 逻辑回归 线性成分分析 感知机 优点 间洁:理论容易理解和解释结果 快速:参数模型学习和训练的速度都很快 数据更少:通常不需要大量的数据,在对数 阅读全文
posted @ 2020-01-07 11:51 爱吃帮帮糖 阅读(275) 评论(0) 推荐(0) 编辑
摘要: 记录一下网址 10 minutes to pandas https://pandas.pydata.org/pandas docs/stable/getting_started/10min.html typora数学符号大全 https://www.cnblogs.com/mmmqqdd/p/108 阅读全文
posted @ 2020-01-06 15:19 爱吃帮帮糖 阅读(157) 评论(0) 推荐(0) 编辑