摘要:
1、nvidia-smi介绍 nvidia-sim简称NVSMI,提供监控GPU使用情况和更改GPU状态的功能,是一个跨平台工具,支持所有标准的NVIDIA驱动程序支持的Linux和WindowsServer 2008 R2 开始的64位系统。这个工具是N卡驱动附带的,只要装好驱动,就会有这个命令 阅读全文
摘要:
一、题目: AutoFM: an efficient factorization machine model via probabilistic auto-encoders AutoFM:通过概率自动编码器的高效分解机模型 二、摘要 Studies show that conventional fa 阅读全文
摘要:
一 、算法介绍 左边deep network,右边FM,所以叫deepFM 包含两个部分: Part1: FM(Factorization machines),因子分解机部分 在传统的一阶线性回归之上,加了一个二次项,可以表达两两特征的相互关系。 这里的公式可以简化,减少计算量,下图来至于网络。 P 阅读全文
摘要:
一、自动编码器 1、AE.py import torch from torch import nn class AE(nn.Module): def __init__(self): super(AE, self).__init__() #[b, 784] => [b, 20] self.encode 阅读全文
摘要:
近年来,自然语言生成 (NLG) 取得了令人难以置信的进步。 2019 年初,OpenAI 发布了 GPT-2,这是一个巨大的预训练模型(1.5B 参数),能够生成类似人类质量的文本。 Generative Pretrained Transformer 2 (GPT-2) 顾名思义,基于 Trans 阅读全文
摘要:
1、官方文档 https://numpy.org/doc/stable/reference/generated/numpy.where.html 2、讲解 阅读全文
摘要:
一、入门代码 LMDB的全称是Lightning Memory-Mapped Database(快如闪电的内存映射数据库),它的文件结构简单,包含一个数据文件和一个锁文件: LMDB文件可以同时由多个进程打开,具有极高的数据存取速度,访问简单,不需要运行单独的数据库管理进程,只要在访问数据的代码里引 阅读全文
摘要:
一、Sentence_Bert代码 from sentence_transformers import SentenceTransformer, SentencesDataset, util from sentence_transformers import InputExample, evalua 阅读全文
摘要:
一、基本概念 1、为什么要因为注意力机制 在Attention诞生之前,已经有CNN和RNN及其变体模型了,那为什么还要引入attention机制?主要有两个方面的原因,如下: (1)计算能力的限制:当要记住很多“信息“,模型就要变得更复杂,然而目前计算能力依然是限制神经网络发展的瓶颈。 (2)优化 阅读全文
摘要:
一、基于gensim 1、模型类 import os import jieba import pickle import logging import numpy as np from gensim import corpora, models, similarities import utils. 阅读全文