04 2021 档案

摘要:一、什么是attention机制 Attention机制:又称为注意力机制,顾名思义,是一种能让模型对重要信息重点关注并充分学习吸收的技术.通俗的讲就是把注意力集中放在重要的点上,而忽略其他不重要的因素。其中重要程度的判断取决于应用场景,拿个现实生活中的例子,比如1000个人眼中有1000个哈姆雷特 阅读全文
posted @ 2021-04-23 14:53 光彩照人 阅读(29789) 评论(1) 推荐(3) 编辑
摘要:一、torch.cat torch的拼接函数,将2个tensor拼接起来 按列拼接 A=torch.ones(2,3) B=2*torch.ones(4,3) A B C=torch.cat((A,B),0)#0表示按行拼接,即一行行拼上,就是直接上下堆接 C Atensor([[1., 1., 1 阅读全文
posted @ 2021-04-22 14:58 光彩照人 阅读(158) 评论(0) 推荐(0) 编辑
摘要:来源:https://mp.weixin.qq.com/s/dOkXKFOwoAjsJ18vJ2rW-w 样本不均的问题大家已经很常见了,我们总是能看到某一个类目的数量远高于其他类目,举个例子,曝光转化数远低于曝光未转化数。样本不均严重影响了模型的效果,甚至影响到我们对模型好坏的判断,因为模型对占比 阅读全文
posted @ 2021-04-22 09:29 光彩照人 阅读(218) 评论(0) 推荐(0) 编辑
摘要:一、torch.nn.Linear torch.nn.Linear(in_features,out_features,bias=True) nn.linear()是用来设置网络中的全连接层的,也可以说是线性映射,这里面没有激活函数。而在全连接层中的输入与输出都是二维张量,输入输出的形状为[batch 阅读全文
posted @ 2021-04-21 15:40 光彩照人 阅读(956) 评论(0) 推荐(0) 编辑
摘要:nn.ModuleDict 是nn.module的容器,用于包装一组网络层,以索引方式调用网络层。主要方法: clear(): 清空ModuleDictitems(): 返回可迭代的键值对(key-value pairs)keys(): 返回字典的键(key)values(): 返回字典的值(val 阅读全文
posted @ 2021-04-18 21:29 光彩照人 阅读(1885) 评论(0) 推荐(0) 编辑
摘要:一、kmeans聚类 import numpy as np import pandas as pd import matplotlib.pyplot as plt import seaborn as sns import re pd.set_option('max_columns', 600) pd 阅读全文
posted @ 2021-04-03 08:53 光彩照人 阅读(3896) 评论(2) 推荐(0) 编辑

点击右上角即可分享
微信分享提示