07 2021 档案

摘要:一、概述 数据集较小时(小于2W)建议num_works不用管默认就行,因为用了反而比没用慢。当数据集较大时建议采用,num_works一般设置为(CPU线程数+-1)为最佳,可以用以下代码找出最佳num_works(注意windows用户如果要使用多核多线程必须把训练放在if __name__ = 阅读全文
posted @ 2021-07-30 13:31 jasonzhangxianrong 阅读(4874) 评论(0) 推荐(0) 编辑
摘要:一、类别编码必须是0开始 import argparse import torch import tqdm from root_path import root import os import pandas as pd import json from sklearn.model_selectio 阅读全文
posted @ 2021-07-28 13:48 jasonzhangxianrong 阅读(1002) 评论(0) 推荐(0) 编辑
摘要:Bert是非常强化的NLP模型,在文本分类的精度非常高。本文将介绍Bert中文文本分类的基础步骤,文末有代码获取方法。 步骤1:读取数据 本文选取了头条新闻分类数据集来完成分类任务,此数据集是根据头条新闻的标题来完成分类。 101 京城最值得你来场文化之旅的博物馆_!_保利集团,马未都,中国科学技术 阅读全文
posted @ 2021-07-27 17:29 jasonzhangxianrong 阅读(5256) 评论(0) 推荐(0) 编辑
摘要:背景 BERT的问世向世人宣告了无监督预训练的语言模型在众多NLP任务中成为“巨人肩膀”的可能性,接踵而出的GPT2、XL-Net则不断将NLP从业者的期望带向了新的高度。得益于这些力作模型的开源,使得我们在了解其论文思想的基础上,可以借力其凭借强大算力预训练的模型从而快速在自己的数据集上开展实验, 阅读全文
posted @ 2021-07-27 17:26 jasonzhangxianrong 阅读(1857) 评论(0) 推荐(0) 编辑
摘要:上一篇文章中,我详细讲解了 BertModel。 在今天这篇文章,我会使用 BertForSequenceClassification,在自己的训练集上训练情感分类模型。 数据集来源于 https://github.com/bojone/bert4keras/tree/master/examples 阅读全文
posted @ 2021-07-27 17:18 jasonzhangxianrong 阅读(16679) 评论(2) 推荐(1) 编辑
摘要:0、官方pytorch版本 https://download.pytorch.org/whl/torch_stable.html https://pypi.tuna.tsinghua.edu.cn/simple/tensorflow-gpu/ 一、安装conda 二、安装CUDA 1、查看显卡型号: 阅读全文
posted @ 2021-07-26 15:52 jasonzhangxianrong 阅读(1160) 评论(0) 推荐(0) 编辑
摘要:1、nvidia-smi介绍 nvidia-sim简称NVSMI,提供监控GPU使用情况和更改GPU状态的功能,是一个跨平台工具,支持所有标准的NVIDIA驱动程序支持的Linux和WindowsServer 2008 R2 开始的64位系统。这个工具是N卡驱动附带的,只要装好驱动,就会有这个命令 阅读全文
posted @ 2021-07-22 13:58 jasonzhangxianrong 阅读(992) 评论(0) 推荐(0) 编辑
摘要:一、题目: AutoFM: an efficient factorization machine model via probabilistic auto-encoders AutoFM:通过概率自动编码器的高效分解机模型 二、摘要 Studies show that conventional fa 阅读全文
posted @ 2021-07-06 20:26 jasonzhangxianrong 阅读(363) 评论(0) 推荐(0) 编辑
摘要:一 、算法介绍 左边deep network,右边FM,所以叫deepFM 包含两个部分: Part1: FM(Factorization machines),因子分解机部分 在传统的一阶线性回归之上,加了一个二次项,可以表达两两特征的相互关系。 这里的公式可以简化,减少计算量,下图来至于网络。 P 阅读全文
posted @ 2021-07-05 11:31 jasonzhangxianrong 阅读(1757) 评论(0) 推荐(0) 编辑