11 2022 档案

摘要:annaconda装完了却显示安装失败 bash Anaconda3-5.3.1-Linux-x86_64.sh -u 阅读全文
posted @ 2022-11-30 21:56 祥瑞哈哈哈 阅读(21) 评论(0) 推荐(0) 编辑
摘要:直接用神经网络处理原数据不对,因为我损失函数是平方损失,全连接层加sigmoid激活函数,神经网络会选择1类指定特征和尽可能大让0类数据的总和尽可能小。运动可能每个人不是同步用神经网络除非有很大的数据集而模型没有。所以不行。 代码 import matplotlib.pyplot as plt im 阅读全文
posted @ 2022-11-30 12:53 祥瑞哈哈哈 阅读(40) 评论(0) 推荐(0) 编辑
摘要:jupyter lab --ip 0.0.0.0 --port 8888 --allow-root 阅读全文
posted @ 2022-11-30 09:37 祥瑞哈哈哈 阅读(236) 评论(0) 推荐(0) 编辑
摘要:用pwd显示路径 /home/ubuntu/light unzip filename.zip -d /home/ubuntu/light d是要解压的路径名 阅读全文
posted @ 2022-11-30 09:36 祥瑞哈哈哈 阅读(41) 评论(0) 推荐(0) 编辑
摘要:nohup python trainamp.py后端运行程序。 ps -ef|grep python查看python的进程。 kill -9 进程id 1.前台实时查看nohub.out文件内容:tail -f nohup.out 2.根据关键字查看tail -f nohup.out |grep “ 阅读全文
posted @ 2022-11-29 20:18 祥瑞哈哈哈 阅读(50) 评论(0) 推荐(0) 编辑
摘要:https://docs.nvidia.com/deeplearning/nemo/user-guide/docs/en/main/core/core.html 阅读全文
posted @ 2022-11-25 17:05 祥瑞哈哈哈 阅读(24) 评论(0) 推荐(0) 编辑
摘要:import cv2 f=open('错误.txt') for i in f.readlines(): sum=sum+1 if sum>924: break i=str(i).strip('\n')#去除回车。 color_img = cv2.imread(i) #print(color_img) 阅读全文
posted @ 2022-11-24 23:39 祥瑞哈哈哈 阅读(11) 评论(0) 推荐(0) 编辑
摘要:import nemo.collections.asr as nemo_asrnemo_asr.models.EncDecCTCModel.list_available_models() 阅读全文
posted @ 2022-11-22 14:17 祥瑞哈哈哈 阅读(9) 评论(0) 推荐(0) 编辑
摘要:conda create -n name python=3.7 activate name 进入到requirements.txt文件的路径 pip install -r ./requirements.txt pip install --default-timeout=100 -r ./requir 阅读全文
posted @ 2022-11-20 20:05 祥瑞哈哈哈 阅读(113) 评论(0) 推荐(0) 编辑
摘要:同一语句一个人说俩遍在预训练模型中会出现不同结果。 第一个10轮能识别。 训练10轮后,第一个是训练集第二个是验证集 训练集中5条语句均为1个人所说,受它影响。 训练50轮后:因为里面含有果皮。 loss降到比较低就好了。 并未出现过拟合无法识别其他语句。 如果稳定的话,就说明可能多条语句比较稳定。 阅读全文
posted @ 2022-11-17 19:45 祥瑞哈哈哈 阅读(221) 评论(0) 推荐(0) 编辑
摘要:神经网络需要记录错误的情况。神经网络不能太好的拟合数据集否则会导致网络过分依赖数据集而损坏预训练模型。 阅读全文
posted @ 2022-11-16 16:21 祥瑞哈哈哈 阅读(14) 评论(0) 推荐(0) 编辑
摘要:import os import cv2 import pandas as pd files='images' label='labels' import numpy as np files1=os.listdir(files) for file in files1: photo=files+'/' 阅读全文
posted @ 2022-11-15 23:41 祥瑞哈哈哈 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2022-11-15 21:58 祥瑞哈哈哈 阅读(10) 评论(0) 推荐(0) 编辑
摘要:验证的音频的标签是瓶子瓶子瓶子瓶子 引发的原因是因为epoch较大训练的多导致过拟合 epoch:300为 输出是 ['请检测出箱子和瓶子果箱子']epoch:60为: 阅读全文
posted @ 2022-11-15 16:11 祥瑞哈哈哈 阅读(25) 评论(0) 推荐(0) 编辑
摘要:果皮的皮字拉长音会变成果皮皮 阅读全文
posted @ 2022-11-15 14:17 祥瑞哈哈哈 阅读(8) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/qq_52292165/article/details/127659513 json中存在多余空行 阅读全文
posted @ 2022-11-14 22:54 祥瑞哈哈哈 阅读(879) 评论(0) 推荐(0) 编辑
摘要:pip3 install --upgrade pip sudo apt-get install python3-dev 阅读全文
posted @ 2022-11-13 23:02 祥瑞哈哈哈 阅读(27) 评论(0) 推荐(0) 编辑
摘要:https://cloud.tencent.com/developer/article/2076348 就是添加钥匙 $ sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys '7EA0A9C3F273FCD8' Executin 阅读全文
posted @ 2022-11-13 18:40 祥瑞哈哈哈 阅读(44) 评论(0) 推荐(0) 编辑
摘要:准确率是0.98 假设:正包中可能不止一个正示例,训练网络时网络能充分考虑这些示例就会进一步提升准确率。 本文就是通过动态池化去提升准确率。 训练的体会:如果神经网络层多的话学习率小模型的loss变化的较慢。 用迭代的方式生成b其实就是让最重要的向量发挥尽量大的作用,越迭代重要的向量的b越大。 s表 阅读全文
posted @ 2022-11-10 16:13 祥瑞哈哈哈 阅读(39) 评论(0) 推荐(0) 编辑
摘要:tr=torch.Tensor([[100000,200000],[1,2]]) tr1=torch.Tensor([1,2]) tr2=torch.Tensor([1,2]) print(tr1+tr2) print(tr/2) print(torch.sum(tr*np.reshape(tr1, 阅读全文
posted @ 2022-11-10 12:34 祥瑞哈哈哈 阅读(36) 评论(0) 推荐(0) 编辑
摘要:loss变小梯度反而没有变小。 背景sigmoid(wx+b)的二分类实验,损失函数为平方损失。 实验一:直接训练发现loss减少导致梯度减少。看代码1: 实验二:在wx+b后加上BN层梯loss减少梯度减少。看代码2: 代码1: from enum import auto from scipy.i 阅读全文
posted @ 2022-11-07 11:58 祥瑞哈哈哈 阅读(73) 评论(0) 推荐(0) 编辑
摘要:背景二分类问题,最后一层的输出函数为sigmoid函数。随着训练是否会出现梯度衰减的情况。 训练时模型为了降低损失函数,会尽可能提高正类的置信度降低负类的置信度。 结果: 并未发现正常训练导致的梯度衰减。 代码: from enum import auto from scipy.io import 阅读全文
posted @ 2022-11-07 11:09 祥瑞哈哈哈 阅读(55) 评论(0) 推荐(0) 编辑
摘要:不管用。因为学习率乘以梯度是步长,而梯度衰减返回的梯度是0所以调大学习率不管用。 from enum import auto from scipy.io import loadmat import numpy as np import torch import torch.utils.data as 阅读全文
posted @ 2022-11-07 10:33 祥瑞哈哈哈 阅读(19) 评论(0) 推荐(0) 编辑
摘要:答案;不是。 import numpy as np w=np.array([100,10000,1000000]) print((w-w.mean())/np.std(w)) 输出结果: [-0.71763397 -0.69652709 1.41416106] 阅读全文
posted @ 2022-11-07 10:11 祥瑞哈哈哈 阅读(61) 评论(0) 推荐(0) 编辑
摘要:文章基于的假设固定输入层输入的分布可以加快训练,防止出现梯度衰减。 收获: 1.如果有疑问可以做简单的实验。 2.BN层只是从一定程度上解决了梯度衰减的问题但是并没有完全解决如果输入值的差距过大会导致模型加BN层后loss依旧无变化。看代码1: 3.BN层在train和eval模型对相同的数据输出值 阅读全文
posted @ 2022-11-06 16:53 祥瑞哈哈哈 阅读(27) 评论(0) 推荐(0) 编辑
摘要:论文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift In practice, the saturation problem and the resulting 阅读全文
posted @ 2022-11-05 12:21 祥瑞哈哈哈 阅读(21) 评论(0) 推荐(0) 编辑
摘要:准确率:0.8478260869565217。 原理: 从深度学习模型中选出一个输出值进行优化。即正包中选出最大值的去让网络拟合他。负包中选出最大值去近似0。 缺点: 模型自己选择最像正包的标签可能会导致模型错误识别正类。模型好像随着训练在验证集的准确率增加。并未过拟合。好像被没有受其影响。 没加B 阅读全文
posted @ 2022-11-04 13:48 祥瑞哈哈哈 阅读(32) 评论(0) 推荐(0) 编辑
摘要:准确率:0.6956521739130435。 思考 1.任何都是基于假设去处理数据。本文的假设就是出现一点在正包的交点中。假设是正包交于一点且该点距离所有的包距离最短。 遇到的问题: 1.我想找一点尽可能降低该点与正包的距离。实现。只是采用了简单的欧式距离。正包为欧式距离,负包是欧式距离加负号, 阅读全文
posted @ 2022-11-03 10:26 祥瑞哈哈哈 阅读(33) 评论(0) 推荐(0) 编辑
摘要:x = torch.ones(1, 5, requires_grad=True) optimizer = optim.Adam({x}, lr=0.004) for i in range(50): optimizer.zero_grad() x1=torch.Tensor([1,2,3,4,5]) 阅读全文
posted @ 2022-11-02 15:16 祥瑞哈哈哈 阅读(40) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示