摘要:
一、运行模型-会话 注意: 不管是走try或者是except,最终结果都会走finally。 二、常量与变量 注意: (1)常量不用初始化,变量必须初始化。 (2)常量小写,变量大写。 (3)常量初始化必须在session里执行一遍。 三、常量的赋值 四、占位符 五、Feed提交数据和fetch提取 阅读全文
摘要:
一、入门 二、计算图的概念 三、张量的概念 四、张量的类型 五、操作 阅读全文
摘要:
一、main.py import torch import tqdm from sklearn.metrics import roc_auc_score from torch.utils.data import DataLoader import os import numpy as np from 阅读全文
摘要:
pytorch保存模型非常简单,主要有两种方法: 只保存参数;(官方推荐) 保存整个模型 (结构+参数)。 由于保存整个模型将耗费大量的存储,故官方推荐只保存参数,然后在建好模型的基础上加载。本文介绍两种方法,但只就第一种方法进行举例详解。 一、只保存参数 1.保存 一般地,采用一条语句即可保存参数 阅读全文
摘要:
一、前言 Jupyter Notebook是一个很好用的编程环境,个人觉得甚至比MATLAB还要好用一些,主要是测试代码的时候很方便,支持历史代码的修改和执行,用起来很方便~ 不过有时候,我们会建立多个虚拟环境,如果我们想要在对应的虚拟环境下测试代码时,则需要将 Jupyter Notebook也配 阅读全文
摘要:
一、代码一 import pandas as pd import codecs from config.root_path import root import os from utils.data_process import get_label,text_preprocess import js 阅读全文
摘要:
地址:https://skimai.com/fine-tuning-bert-for-sentiment-analysis/ Tutorial: Fine tuning BERT for Sentiment Analysis Originally published by Skim AI’s Mac 阅读全文
摘要:
一、前言 文本分类不是生成式的任务,因此只使用Transformer的编码部分(Encoder)进行特征提取。如果不熟悉Transformer模型的原理请移步。 二、架构图 三、代码 1、自注意力模型 class TextSlfAttnNet(nn.Module): ''' 自注意力模型 ''' d 阅读全文
摘要:
一、架构图 二、代码实现 class TextCNN(nn.Module): def __init__(self, config:TCNNConfig, char_size = 5000, pinyin_size=5000): super(TextCNN, self).__init__() self 阅读全文
摘要:
一、架构图 二、代码 class TextBILSTM(nn.Module): def __init__(self, config:TRNNConfig, char_size = 5000, pinyin_size = 5000): super(TextBILSTM, self).__init__( 阅读全文