1 2 3 4 5 ··· 24 下一页
摘要: 1 介绍下什么是Word2vec 在介绍Word2Vec之前需要先理解Word Embedding,它是将无法直接计算的、非结构化的单词转化为可计算的、结构化的数据-向量; 那么什么是Word2Vec呢? Word2vec 是 Word Embedding 的方法之一。他是 2013 年由谷歌的 M 阅读全文
posted @ 2024-02-19 08:39 wangssd 阅读(88) 评论(0) 推荐(0) 编辑
摘要: 数仓分层概念: 原始 >明细 >汇总(按汇总程度进行划分 轻度汇总、中度汇总、重度汇总) (如:按天汇总、按累计n天汇总、特征宽表) Sql查询语句 复杂,引入分层,可以方便问题定位,复杂问题简单化。 阅读全文
posted @ 2024-02-18 22:18 wangssd 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 最长递增子序列长度 给你一个整数数组 nums,找到其中最长严格递增子序列的长度。 子序列 是由数组派生而来的序列,删除(或不删除)数组中的元素而不改变其余元素的顺序。例如,[3,6,2,7] 是数组 [0,3,1,6,2,2,7] 的子序列。 解题思路:找出序列中最长子序列的长度 1.动态规划法 阅读全文
posted @ 2024-02-18 22:08 wangssd 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 序列标注,给定一个序列,找出序列中每个元素对应的标签。 中文分词、词性标注、命名实体识别都可以转化为序列标注问题。 词法分析:中文分词、词性标注、命名实体识别 中文分词:将文本分隔为有意义的词语 词性标注:确定每个词语的类别和浅层的歧义消除 命名实体识别:识别出较长的专有名词(人名、地名、机构名、股 阅读全文
posted @ 2023-09-05 11:45 wangssd 阅读(96) 评论(0) 推荐(0) 编辑
摘要: 转载:https://blog.csdn.net/kevinjin2011/article/details/113939817 序列标注(Sequence labeling)是NLP问题中的基本问题。在序列标注中,我们想对一个序列的每一个元素标注一个标签。一般来说,一个序列指的是一个句子,而一个元素 阅读全文
posted @ 2023-09-04 16:27 wangssd 阅读(129) 评论(0) 推荐(0) 编辑
摘要: BERT模型中的特殊标记(Special Tokens)。它们的含义如下: [PAD]:在batch中对齐序列长度时,用 [PAD]进行填充以使所有序列长度相同。可以通过将其添加到较短的序列末尾来实现对齐。[CLS]:在输入序列的开头添加 [CLS] 标记,以表示该序列的分类结果。[SEP]:用于分 阅读全文
posted @ 2023-08-28 15:11 wangssd 阅读(163) 评论(0) 推荐(0) 编辑
摘要: nn.LSTM模块参数 input_size :输入的维度 hidden_size:h的维度 num_layers:堆叠LSTM的层数,默认值为1 bias:偏置 ,默认值:True batch_first: 如果是True,则input为(batch, seq, input_size)。默认值为: 阅读全文
posted @ 2023-08-28 14:01 wangssd 阅读(1243) 评论(0) 推荐(0) 编辑
摘要: 赛题分析 统计信息 样本预览 建模思路 抽取模型 抽取模型的思路是先通过规则将原始的生成式语料转化为序列标注式语料。(将文本转换为文本向量) 基于深度学习的抽取式摘要,是有监督的文本摘要,可以建模为序列标注任务或句子排序任务。 建模为序列标注任务,就是为原文中的每一个句子打一个二分类标签(0 或 1 阅读全文
posted @ 2023-08-24 15:01 wangssd 阅读(54) 评论(0) 推荐(0) 编辑
摘要: RNN模型: 激活函数采用tanh() LSTM(长短期记忆网络) LSTM通过增加三个门,激活函数sigmoid输出0到1之间的数值,0表示不允许通过,1表示允许通过。 通过门来增加前后序列间的关联关系。 输入门、输出门、遗忘门(长记忆、短记忆) GRU(Gated Recurrent Unit, 阅读全文
posted @ 2023-08-24 11:45 wangssd 阅读(57) 评论(0) 推荐(0) 编辑
摘要: 原文:https://blog.csdn.net/in546/article/details/119621649 激活函数激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。引入非线性激活函数,可使深层神经网络的表达能力更加强大。 激活函数应满足: 非线性: 激活函数非线性时,多层神经网络可 阅读全文
posted @ 2023-08-24 11:39 wangssd 阅读(51) 评论(0) 推荐(0) 编辑
1 2 3 4 5 ··· 24 下一页