alex_bn_lee

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

随笔分类 -  AI Related / NLP

1 2 3 下一页

【866】TextCNN相关
摘要:ref: TextCNN文本分类(keras实现) 阅读全文

posted @ 2023-07-27 12:35 McDelfino 阅读(8) 评论(0) 推荐(0) 编辑

【844】GADI相关
该文被密码保护。

posted @ 2023-06-28 14:31 McDelfino 阅读(2) 评论(0) 推荐(0) 编辑

【835】SpaCy训练NER模型
摘要:参考:使用SpaCy构建自定义 NER 模型 参考:使用SpaCy构建自定义 NER 模型 参考:Sarcasm Text Classification using spaCy in Python 参考:在Python中使用spaCy进行NER【以药物名称作为训练数据】 对应的英文原版:Drugs 阅读全文

posted @ 2023-04-29 21:03 McDelfino 阅读(163) 评论(0) 推荐(0) 编辑

【834】GPT相关
摘要:参考:李宏毅-ELMO, BERT, GPT讲解 参考:Ai写诗 文本生成任务代码实战 基于Huggingface Pytorch 自然语言处理GPT2 阅读全文

posted @ 2023-04-23 10:40 McDelfino 阅读(35) 评论(0) 推荐(0) 编辑

【833】BERT相关(Hugging Face)
摘要:参考:BERT入门——tensorflow 参考:李宏毅-ELMO, BERT, GPT讲解 个人理解:BERT是一个语言模型,把它作为一个抽取Feature的东西,因此它已经把文本进行的加工,最终只需要把BERT接入具体的任务,来训练下游任务的参数即可! Case 1:input: single 阅读全文

posted @ 2023-04-23 10:25 McDelfino 阅读(148) 评论(0) 推荐(0) 编辑

【520】利用 TextBlob & Vader 进行情感分析
摘要:参考:Tutorial: Quickstart - TextBlob (sentiment analysis) 参考:An overview of sentiment analysis python library: TextBlob 参考:How does TextBlob calculate s 阅读全文

posted @ 2021-01-10 12:33 McDelfino 阅读(700) 评论(0) 推荐(0) 编辑

【518】1D CNN原理详细说明
摘要:参考:Convolutional Neural Networks for Text Classification 参考:【book】- Neural Network Methods for NLP 参考:自然语言处理中CNN模型几种常见的Max Pooling操作 原图: 简单说明: 个人理解: 关 阅读全文

posted @ 2021-01-03 23:36 McDelfino 阅读(7462) 评论(0) 推荐(0) 编辑

【517】keras 实现 Attention 机制(text classification)
该文被密码保护。

posted @ 2021-01-01 22:41 McDelfino 阅读(0) 评论(0) 推荐(0) 编辑

【516】keras 源码分析之 Dense
摘要:参考:keras源码分析之Layer 参考:keras源码分析之Dense 本文主要讲解一下 Dense 层的源码,Dense 层即最常用的全连接层,代码很简单,主要是重写了 build 与 call 方法,在我们自定义 Layer 时,也可以参考该层的实现。但是不需要这么复杂,只要写出必要的部分就 阅读全文

posted @ 2021-01-01 14:13 McDelfino 阅读(540) 评论(0) 推荐(0) 编辑

【515】keras 张量操作
摘要:参考:keras-team / keras - github keras 的实质就是对于张量的操作,所以对于某些函数的理解,需要自己通过张量的实操来体会。同时每一个网络层的输入和输出也都是张量的操作,可以参见下面链接进行简单张量 Tensor 的操作。 参考:【tensorflow】张量(tenso 阅读全文

posted @ 2021-01-01 10:28 McDelfino 阅读(981) 评论(0) 推荐(0) 编辑

【514】keras Dense 层操作三维数据
摘要:参考:Keras API reference / Layers API / Core layers / Dense layer 语法如下: tf.keras.layers.Dense( units, activation=None, use_bias=True, kernel_initializer 阅读全文

posted @ 2020-12-31 17:46 McDelfino 阅读(2691) 评论(0) 推荐(0) 编辑

【513】keras 后端函数说明
摘要:参考:Keras后端 Keras是一个模型级的库,提供了快速构建深度学习网络的模块。Keras并不处理如张量乘法、卷积等底层操作。这些操作依赖于某种特定的、优化良好的张量操作库。Keras依赖于处理张量的库就称为“后端引擎”。Keras提供了三种后端引擎Theano/Tensorflow/CNTK, 阅读全文

posted @ 2020-12-30 17:48 McDelfino 阅读(136) 评论(0) 推荐(0) 编辑

【512】keras 中的核心网络层
摘要:参考:Layers » 核心网络层 1. Dense 1.1 语法 keras.layers.Dense(units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zer 阅读全文

posted @ 2020-12-30 15:34 McDelfino 阅读(136) 评论(0) 推荐(0) 编辑

【511】Keras 函数式 API
摘要:参考:开始使用 Keras 函数式 API 参考:Model 类(函数式 API)说明 单一输入输出:model = Model(inputs=inputs, outputs=output) 多输入多输出:model = Model(inputs=[a1, a2], outputs=[b1, b3, 阅读全文

posted @ 2020-12-30 14:49 McDelfino 阅读(144) 评论(0) 推荐(0) 编辑

【510】Attention-based Model
摘要:参考:台湾大学 李宏毅 attention based model 参考:台湾大学 李宏毅 attention based model - PDF 文档 参考:深度学习中的注意力模型(2017版) 参考:自然语言处理中的Attention Model:是什么及为什么 参考:深度学习之Attentio 阅读全文

posted @ 2020-12-28 21:49 McDelfino 阅读(85) 评论(0) 推荐(0) 编辑

【509】NLP实战系列(九)—— 结合 CNN 和 RNN 来处理长序列
摘要:一维 CNN 分别处理每个输入序列段,所以它对时间步的顺序不敏感(这里所说的顺序的范围要大于局部尺度,即大于卷积窗口的大小),这一点与 RNN 不同。 要想结合 CNN 的速度和轻量与 RNN 的顺序敏感性,一种方法是在 RNN 前面使用一维 CNN 作为预处理步骤。对于那些非常长,以至于 RNN  阅读全文

posted @ 2020-12-28 11:47 McDelfino 阅读(209) 评论(0) 推荐(0) 编辑

【510】NLP实战系列(八)—— 使用一维CNN处理 IMDB 情感分析
摘要:参考:卷积层 —— Conv1D层 1. Conv1D 层 1.1 语法 keras.layers.convolutional.Conv1D(filters, kernel_size, strides=1, padding='valid', dilation_rate=1, activation=N 阅读全文

posted @ 2020-12-28 11:43 McDelfino 阅读(426) 评论(0) 推荐(0) 编辑

【510】NLP实战系列(七)—— 进阶版(dropout/stacking/BiLSTM)
摘要:参考:Bidirectional 层 进阶版包含以下技术: Recurrent dropout(循环 dropout), a specific, built-in way to use dropout to fight overfitting in recurrent layers. 使用 drop 阅读全文

posted @ 2020-12-28 10:27 McDelfino 阅读(336) 评论(0) 推荐(0) 编辑

【509】NLP实战系列(六)—— 通过 LSTM 来做分类
摘要:参考:LSTM层 1. 语法 keras.layers.recurrent.LSTM(units, activation='tanh', recurrent_activation='hard_sigmoid', use_bias=True, kernel_initializer='glorot_un 阅读全文

posted @ 2020-12-27 16:52 McDelfino 阅读(343) 评论(0) 推荐(0) 编辑

【508】NLP实战系列(五)—— 通过 SimpleRNN 来做分类
摘要:参考:SimpleRNN层 1. 语法 keras.layers.GRU(units, activation='tanh', recurrent_activation='hard_sigmoid', use_bias=True, kernel_initializer='glorot_uniform' 阅读全文

posted @ 2020-12-27 16:27 McDelfino 阅读(236) 评论(0) 推荐(0) 编辑

1 2 3 下一页
点击右上角即可分享
微信分享提示