Fork me on GitHub
摘要: 有空时候把代码上传github 阅读全文
posted @ 2021-10-18 19:09 sy- 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 启动docker时候,让其自动执行某个程序 使用start_ssh.sh脚本来做: 然后使用chmod +x start_ssh.sh 给文件增加权限 将start_ssh.sh文件添加到启动文件 vim /root/.bashrc 在.bashrc的末尾增加以下内容: 阅读全文
posted @ 2024-04-09 16:05 sy- 阅读(1) 评论(0) 推荐(0) 编辑
摘要: https://jalammar.github.io/illustrated-transformer/ X就是输入的向量 ,第一步就是创建三个输入向量qkv 第二步是计算分数:分数决定了对输入句子的其他部分的关注程度。 分数是通过查询向量与我们要评分的各个单词的键向量的点积来计算的。因此,如果我们处 阅读全文
posted @ 2024-04-06 19:37 sy- 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 语义分割: 实例分割: 全景分割: UNet Unet包括两部分,可以看右图,第一部分,特征提取,VGG类似。第二部分上采样部分。由于网络结构像U型,所以叫Unet网络。特征提取部分,每经过一个池化层就一个尺度,包括原图尺度一共有5个尺度。上采样部分,每上采样一次,就和特征提取部分对应的通道数相同尺 阅读全文
posted @ 2024-03-15 17:53 sy- 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 非极大值抑制 ** 画出框的,代表这个框内部预测出东西了,但是这些框可能是重合的,所以要把一些画的歪的框去除掉,用nms方法** 选取这些框中scores最大的哪一个,记为box_best,并保留它计算box_best与其余的box的IOU如果其IOU>0.5了,那么就舍弃这个box(由于可能这两个 阅读全文
posted @ 2024-03-11 19:47 sy- 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 上采样 在卷积神经网络中,由于输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小 而有时我们需要将图像恢复到原来的尺寸以便进行进一步的计算(如图像的语义分割),这个使图像由小分辨率映射到大分辨率的操作,叫做上采样。 上采样的几种方法:双线性插值(bilinear),反卷积(Trans 阅读全文
posted @ 2024-03-06 18:22 sy- 阅读(42) 评论(0) 推荐(0) 编辑
摘要: 点击查看代码 # 第一步 读取csv文件(循环读取) # 第二步 将数据转化为tensor形式 # 第三步 创建一个列表 将tensor逐个放入列表 # 第四步 写入标签 import csv import numpy as np import torch from torch.utils.data 阅读全文
posted @ 2023-05-06 20:31 sy- 阅读(207) 评论(0) 推荐(0) 编辑
摘要: 点击查看代码 # 第一步 读取csv文件(循环读取) # 第二步 将数据转化为tensor形式 # 第三步 创建一个列表 将tensor逐个放入列表 # 第四步 写入标签 import csv import numpy as np import torch from torch.utils.data 阅读全文
posted @ 2023-05-06 20:28 sy- 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 类似于这样的csv文件,通过全连接网络进行分类等任务。 ` 点击查看代码 # 第一步 读取csv文件(循环读取) # 第二步 将数据转化为tensor形式 # 第三步 创建一个列表 将tensor逐个放入列表 # 第四步 写入标签 import csv import numpy as np impo 阅读全文
posted @ 2023-05-06 20:25 sy- 阅读(124) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/chuxiuhong/p/6132814.html 阅读全文
posted @ 2021-11-22 20:22 sy- 阅读(83) 评论(0) 推荐(0) 编辑
摘要: 为了帮助提高Pytorch的训练效率,英伟达提供了混合精度训练工具Apex。号称能够在不降低性能的情况下,将模型训练的速度提升2-4倍,训练显存消耗减少为之前的一半。该项目开源于:https://github.com/NVIDIA/apex ,文档地址是:https://nvidia.github. 阅读全文
posted @ 2021-10-25 21:34 sy- 阅读(629) 评论(0) 推荐(0) 编辑