12 2022 档案
摘要:代码地址:https://github.com/cocodataset/cocoapi 下载代码并解压用vscode打开,查询你不懂的coco的api代码即可。
阅读全文
摘要:mask_list[0] (64, 64) mask (18, 64, 64) ignored (18, 64, 64) def __call__(self, joints, sgm, ct_sgm, bg_weight=1.0): assert self.num_joints_with_cente
阅读全文
摘要:joints_list[0] 是numpy数组输出它的形状为 shapejoints_list[0] (2, 18, 3)。第一维代表人数,第二维表示17个关键点和一个中心值。3代表x,y,标记状态。状态分为被标注,未被标注,标注被遮挡。
阅读全文
摘要:他的第18个keypoint存的是平均坐标。 def get_joints(self, anno): num_people = len(anno) area = np.zeros((num_people, 1)) joints = np.zeros((num_people, self.num_joi
阅读全文
摘要:下边是我从coco2017keypoint截取的部分代码。 "categories": [{"supercategory": "person","id": 1,"name": "person","keypoints": ["nose","left_eye","right_eye","left_ear
阅读全文
摘要:第一个通道是neck是虚拟点用左肩膀和右肩膀的均值作为neck坐标,第二个通道是背景图即1-所有背景图的最大像素。 coco数据集只有17个关键点。 生成neck在transformer里。 生成背景图在cocokeypoint的heatmaps生成里。
阅读全文
摘要:paf用俩张图去表示x和y所以19对关节连接会出现38张图。 keypoint一共18个关键点之所以为19是因为有背景图。
阅读全文
摘要:def group_keypoints(all_keypoints_by_type, pafs, pose_entry_size=20, min_paf_score=0.05): pose_entries = [] all_keypoints = np.array([item for sublist
阅读全文
摘要:...代指多个:,:。 import numpy as np w1=[] for j in range(5): if j!=0: w1.append((j*1,j*1+1,0)) w1=np.array(w1) #print(w1) #print(w1[:,:-1]) e=w1[:,:-1] br=
阅读全文
摘要:np.pad就是把x的上下左右都补上维。 import numpy as np x=np.arange(12).reshape((3,4)) x=np.pad(x, [(2, 2), (2, 2)], mode='constant') print(x) [[ 0 0 0 0 0 0 0 0] [ 0
阅读全文
摘要:把维度进行压缩A*1*B就会变成A*B也可以使用torch.squeeze去压缩指定维度,如果压缩的指定维度不为1则返回原数组。 import torch import numpy as np x=np.arange(24).reshape((2,1,3,4)) x = torch.tensor(x
阅读全文
摘要:就是在指定维度前再插入一个新的维度。 import torch import numpy as np x=np.arange(24).reshape((2,3,4)) x = torch.tensor(x) print(x) y=x.permute((2, 0, 1)) print(y.shape)
阅读全文
摘要:permute进行的是置换。 permute的dim需要参数表示进行置换的维度。 import torch import numpy as np x=np.arange(24).reshape((2,3,4)) x = torch.tensor(x) print(x) y=x.permute((2,
阅读全文
摘要:import torch x = torch.randn(2, 3, 5) print(x) y=x.permute((2, 0, 1)) print(y) tensor([[[ 0.8087, -0.1916, 0.5434, 1.3274, -0.2267], [-0.3821, 0.5526,
阅读全文
摘要:通过利用print输出知道了lightweight openpose验证时是一个图片一个图片读取的。 我直接在val.py的程序上加入了print(img.shape)由此可得出图片是一个一个读取的。
阅读全文
摘要:这是lightweight openpose读代码的出来过程。 最后keypont_maps[-1]是第19个通道是用1-减去18个通道每个像素的最大值。 了解max函数。 import numpy as np a = np.arange(4).reshape((1,4)) print(a) pri
阅读全文
摘要:du -sh *不显示垃圾桶的文件。如果满了就清空下垃圾桶代码如下。 删除完垃圾桶内容输入df -lh就可以。
阅读全文
摘要:准确率并没提升太多。 import matplotlib.pyplot as plt import numpy as np import pandas as pd import seaborn as sns ep=1e-5 func_dict={'add':lambda x,y:x+y,'mins'
阅读全文
摘要:文章和代码:https://www.baidu.com/link?url=nz86RZmDqSVtQ85oRCyiQw1NLINAy4c65DoIC-uFJ7jwrM_H7qX9cQHZxltjl7RW&wd=&eqid=f8a55867001e79ac000000036394620b 直接把数据丢
阅读全文
摘要:模型在测试集的准确率为0.74提升了一些说明根据相关系数取模型是不错的选择。 import matplotlib.pyplot as plt import numpy as np import pandas as pd import seaborn as sns df = pd.read_csv('
阅读全文
摘要:import matplotlib.pyplot as plt import numpy as np import pandas as pd import seaborn as sns df = pd.read_csv('train.csv') df=df.drop(['ID'],axis=1) d
阅读全文
摘要:准确率是0.67,下一篇博客将去掉偏差大的特征。 import matplotlib.pyplot as plt import numpy as np import pandas as pd import seaborn as sns df = pd.read_csv('train.csv') df
阅读全文
摘要:from sqlite3 import Row import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from scipy import stats from sklearn.feature_selecti
阅读全文
摘要:import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from scipy import stats train_data='zhengqi_train.txt' test_data='zhengqi_te
阅读全文
摘要:import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from scipy import stats train_data='zhengqi_train.txt' test_data='zhengqi_te
阅读全文
摘要:import matplotlib.pyplot as plt import numpy as np import pandas as pd import seaborn as sns df = pd.read_csv('train.csv') df=df.drop(['ID'],axis=1) h
阅读全文
摘要:波形不要差太多,波形且覆盖验证集比较好。 import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from scipy import stats train_data='zhengqi_train.txt'
阅读全文
摘要:import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from scipy import stats train_data='zhengqi_train.txt' test_data='zhengqi_te
阅读全文
摘要:import pandas as pd import seaborn as sns import matplotlib.pyplot as plt train_data='zhengqi_train.txt' test_data='zhengqi_test.txt' train=pd.read_cs
阅读全文
摘要:今天看了本书,做数据集需要判断数据是否存在异常值。好像是用箱型图做的但是我不清楚具体的原理。附上代码: Q3+1.5IQR和Q1-1.5IQR处画两条与中位线一样的线段,这两条线段为异常值截断点,称其为内限;在Q3+3IQR和Q1-3IQR处画两条线段,称其为外限。处于内限以外位置的点表示的数据都是
阅读全文
摘要:https://www.kaggle.com/competitions/house-prices-advanced-regression-techniques/data 随便做了下去除nan和字符列只用了回归树。 import matplotlib.pyplot as plt import nump
阅读全文
摘要:准确率为0.8。感觉乱塞特征并没有多大提升。特征加了一堆换了SVM决策树,提升树,随机森林准确率都一般。自己一个人做不上于是不做了。 import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch
阅读全文
摘要:import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import torch.fft as fft from sklearn import tree df = pd.read_csv(
阅读全文
摘要:乱塞会导致模型准确率下降。 看到他的做法我就清楚了应该找一些反应物体情况的数值。 max_X=data.x.max() min_X=data.x.min() range_X=max_X-min_X var_X=data.x.var() std_X=data.x.std() mean_X=data.x
阅读全文
摘要:import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import torch.fft as fft df = pd.read_csv('train.csv') df=df.drop([
阅读全文
摘要:import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import torch.fft as fft df = pd.read_csv('train.csv') df=df.drop([
阅读全文
摘要:linear:线性核函数,是在数据线性可分的情况下使用的,运算速度快,效果好。不足在于它不能处理线性不可分的数据。(在本例中C设为100,换为这个核函数之后的准确率为:0.8595317725752508) poly:多项式核函数,多项式核函数可以将数据从低维空间映射到高维空间,但参数比较多,计算量
阅读全文
摘要:收获: (1) 学会了使用pip的参数解决包的安装问题,当用pip安装包因为网络问题导致安装失败时可用pip中的参数--default-timeout设置安装时间,也可以用-i参数设置镜像源,选择适合自己网络的镜像源去下载。 (2) 用ai解决问题时数据是基础如果数据质量较差可能导致模型出现一系列问
阅读全文
摘要:我一开始不断缩减特征(8维度)使模型的准确率达到了0.86。之前的维度(36)达到了0.87。我一开始以为需要继续缩减特征,当我看到低维数据调整模型结构后难以提升,而我看到36维还能达到0.9。于是我便感觉36维度的前景比8维度的更好。
阅读全文
摘要:我之前猜想振幅大的可能是有用的特征,因此我根据振幅筛选特征,结果获得8个维度的特征。在验证集准确率是0.865,跟36维度的效果类似。 import matplotlib.pyplot as plt import numpy as np import pandas as pd import torc
阅读全文
摘要:因为我每次初始化不同的模型表现不同,我猜测可能是过拟合,于是我决定根据第一层神经网络的权重来选择特征。效果不是很好。 代码: w1=[ 1.9525, 6.5730, 2.8011, 2.9227, 6.5043, 5.2393, -4.5891, -7.5931, -7.5758, -4.5269
阅读全文
摘要:network=nn.Sequential(nn.Linear(36,2),nn.Sigmoid(),nn.Linear(2,2),nn.Sigmoid(),nn.Linear(2,1),nn.Sigmoid()) network=nn.Sequential(nn.Linear(36,4),nn.S
阅读全文
摘要:我调了下模型, nn.Linear(36,2),nn.Sigmoid(),nn.Linear(2,2),nn.Sigmoid(),nn.Linear(2,1),nn.Sigmoid(). 原先是(36,3)(3,1)的全连接神经网络。但是容易过拟合,但是我随便调了下调成了。(36,2)(2,2)(2
阅读全文
摘要:模型是根据特征来进行划分,如果模型复杂无关特征比较多。可能模型会根据无关特征去区分数据。因此过拟合会导致模型在验证集的准确率更低。
阅读全文
摘要:取了训练集中所有频域>0.1的频率作为特征。可能是我停的比较早。 准确率为0.83的代码。 import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import torch.fft as
阅读全文
摘要:这里我只把时域转为了频域。 import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import torch.fft as fft df = pd.read_csv('train.csv'
阅读全文
摘要:因为我观察了baseline错误分类数据的频域发现,他们的振幅所处的频率相同,因此我想用振幅比较大对应的频率来分。我选择这些数据中振幅大于0.1的振幅对应的频率。需要改进的地方可能是应该采取所有训练集中大于0.1振幅的频率。 import matplotlib.pyplot as plt impor
阅读全文
摘要:import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import torch.fft as fft df = pd.read_csv('train.csv') df=df.drop([
阅读全文
摘要:答会的。实验如下可以先用cpu推理,gpu训练模型。接着关闭训练程序开启推理,推理会比训练快很多。
阅读全文
摘要:他俩都是在60频率但是不清楚每个频率的振幅分布在哪。 import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import numpy as np df = pd.read_csv('tr
阅读全文
摘要:import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import numpy as np df = pd.read_csv('train.csv') df=df.drop(['ID']
阅读全文
摘要:import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import torch.fft as fft df = pd.read_csv('train.csv') df=df.drop([
阅读全文
摘要:因为240维运动特征类似声波,因为人的运动不同步用时刻作为特征是不对的应转为频域。 模型在验证集最准是0.8 import matplotlib.pyplot as plt import numpy as np import pandas as pd import torch import torc
阅读全文