Fork me on GitHub

随笔分类 -  深度学习

摘要:随着研究和行业转向能够执行大量下游任务的大规模模型,理解赋予模型细微差别的多模态数据集的复杂性迅速增加。对数据集的起源、发展、意图、伦理考虑和演变的清晰和透彻的理解成为负责任和知情部署模型的必要步骤,尤其是那些在面向人的环境和高风险领域中的模型。然而,这种理解的负担往往落在文档的可理解性、简洁性和全 阅读全文
posted @ 2023-04-21 15:31 stardsd 阅读(211) 评论(0) 推荐(0) 编辑
摘要:2023 年 4 月 19 日,星期三 高级研究员 Lauren Wilcox 代表技术、人工智能、社会和文化团队发布 Google 将AI 视为一项基础和变革性技术,最近在生成 AI 技术方面取得了进展,例如LaMDA、PaLM、Imagen、Parti、MusicLM和类似的机器学习 (ML) 阅读全文
posted @ 2023-04-21 15:03 stardsd 阅读(143) 评论(0) 推荐(0) 编辑
摘要:# 导入必要的库 import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataLoader, Dataset # 定义超参数 epochs = 10 # 训练轮数 lr 阅读全文
posted @ 2023-04-13 15:56 stardsd 阅读(486) 评论(0) 推荐(0) 编辑
摘要:The Waluigi Effect (mega-post) - LessWrong Waluigi Effect(瓦路易吉效应)是一个伴随ChatGPT出现的新概念。Waluigi是Mario游戏中的反派角色,是Luigi的头号对手。Waluigi Effect则指训练AI做某件事情会增加其做完全 阅读全文
posted @ 2023-04-10 16:56 stardsd 阅读(213) 评论(0) 推荐(0) 编辑
摘要:在强化学习中,行为策略和目标策略的区别在于,行为策略是智能体在环境中实际采取的策略,而目标策略是智能体希望学习的最优策略。¹ 行为策略和目标策略的差异会影响到强化学习算法的选择和性能。¹ 行为策略和目标策略都是强化学习中的重要概念。 (1) 强化学习中,确定性策略和随机策略的区别,以及各自经典的算法 阅读全文
posted @ 2023-03-24 15:55 stardsd 阅读(800) 评论(0) 推荐(0) 编辑
摘要:A2C算法是一种强化学习算法,全称为Advantage Actor-Critic算法。它结合了演员评论算法和优势函数,用于学习策略以最大化预期奖励。在A2C算法中,有两个神经网络:一个用于演员,一个用于评论家。演员网络基于当前状态选择动作,评论家网络评估当前状态的价值。优势函数用于估计某个动作相对于 阅读全文
posted @ 2023-03-24 14:42 stardsd 阅读(558) 评论(0) 推荐(0) 编辑
摘要:什么是亚像素 亚像素(Sub Pixel): 面阵摄像机的成像面以像素为最小单位,像素中心之间的距离有几个至十几个微米不等。为了最大限度利用图像信息来提高分辨率,有人提出了亚像素概念。意思是说,在两个物理像素之间还有像素,称之为亚像素,它完全是通过计算方法得出来的。 例如某CMOS摄像芯片,其像素间 阅读全文
posted @ 2023-02-20 15:06 stardsd 阅读(847) 评论(0) 推荐(0) 编辑
摘要:The Future of Artificial Intelligence The future of artificial intelligence (AI) is one of the most captivating topics of discussion today. This is be 阅读全文
posted @ 2023-02-10 15:47 stardsd 阅读(73) 评论(0) 推荐(0) 编辑
摘要:摘要 由于生成高分辨率图像较为缓慢且复杂,基于Transformer的文本到图像模型的发展阻碍。在这项工作中,研究者提出了一种基于分层Transformer和局部并行自回归生成的解决方案。研究者预训练了一个60亿参数的transformer模型,采用简单灵活的司监督任务、跨模态通用语言模型(CogL 阅读全文
posted @ 2022-05-31 19:58 stardsd 阅读(569) 评论(0) 推荐(0) 编辑
摘要:如果说到深度学习中训练数据的记录工具,最先想到应该是TensorBoard(或者TensorBoardX)。不过,相比较TensorBoard而言,Wandb更加的强大,主要体现在以下的几个方面: 复现模型:Wandb更有利于复现模型。这是因为Wandb不仅记录指标,还会记录超参数和代码版本。 自动 阅读全文
posted @ 2022-04-07 16:12 stardsd 阅读(3514) 评论(0) 推荐(0) 编辑
摘要:目录 Linux 查看 CUDA 版本 查看 cuDNN 版本 Windows 查看 CUDA 版本 查看 cuDNN 版本 使用 PyTorch 查看 CUDA 和 cuDNN 版本 References Linux 查看 CUDA 版本 方法一: nvcc --version 或 nvcc -V 阅读全文
posted @ 2021-12-13 14:43 stardsd 阅读(3767) 评论(1) 推荐(1) 编辑
摘要:cvpods, a versatile and efficient codebase for many computer vision tasks: classification, segmentation, detection, self-supervised learning, keypoint 阅读全文
posted @ 2021-12-13 10:22 stardsd 阅读(1057) 评论(0) 推荐(0) 编辑
摘要:pytorch 0.4.1 docker地址: https://hub.docker.com/r/linkoffate/torchen https://hub.docker.com/r/airaria/pytorch0.4.1 直接上干货,CUDA9.0版本对应的pytorch是0.4.1,使用其他 阅读全文
posted @ 2021-12-01 11:04 stardsd 阅读(906) 评论(0) 推荐(0) 编辑
摘要:一、深度学习框架概述与深度学习技术的四大阵营 人工智能从学术理论研究到生产应用的产品化开发过程中通常会涉及到多个不同的步骤和工具,这使得人工智能开发依赖的环境安装、部署、测试以及不断迭代改进准确性和性能调优的工作变得非常繁琐耗时也非常复杂。为了简化、加速和优化这个过程,学界和业界都作了很多的努力,开 阅读全文
posted @ 2021-11-13 11:31 stardsd 阅读(1955) 评论(0) 推荐(2) 编辑
摘要:Pytorch图像预处理时,通常使用transforms.Normalize(mean, std)对图像按通道进行标准化,即减去均值,再除以方差。这样做可以加快模型的收敛速度。其中参数mean和std分别表示图像每个通道的均值和方差序列。 Imagenet数据集的均值和方差为:mean=(0.485 阅读全文
posted @ 2021-10-28 17:03 stardsd 阅读(5216) 评论(0) 推荐(0) 编辑
摘要:谈谈评价指标中的宏平均和微平均 今天在阅读周志华老师的《机器学习》一书时,看到性能度量这一小节,里面讲到了宏平均和微平均的计算方法,这也是我一直没有很清晰的一个概念,于是在看了之后又查阅了一些资料,但是还是存在一些问题,想和大家分享一下。 (1)召回率、准确率、F值 对于二分类问题,可将样例根据其真 阅读全文
posted @ 2021-08-23 09:31 stardsd 阅读(865) 评论(0) 推荐(0) 编辑
摘要:原文链接:https://zhuanlan.zhihu.com/p/353680367 此篇文章内容源自 Attention Is All You Need,若侵犯版权,请告知本人删帖。 原论文下载地址: https://papers.nips.cc/paper/2017/file/3f5ee243 阅读全文
posted @ 2021-08-16 11:27 stardsd 阅读(560) 评论(0) 推荐(0) 编辑
摘要:Pytroch网络模型:修改参数值,修改参数名,添加参数层,删除参数层 修改参数值 方法1 dict的类型是collecitons.OrderedDict,是一个有序字典,直接将新参数名称和初始值作为键值对插入,然后保存即可。 #修改前 dict = torch.load('./ckpt_dir// 阅读全文
posted @ 2021-06-29 14:45 stardsd 阅读(8990) 评论(0) 推荐(0) 编辑
摘要:pytorch 打印模型层的名字的多个方式,以及对应显示,删除最后多个层的两种方式 def forward(self, x, last_cont=None): x = self.model(x) if self.use_dcl: mask = self.Convmask(x) mask = self 阅读全文
posted @ 2021-06-29 10:26 stardsd 阅读(3395) 评论(0) 推荐(1) 编辑
摘要:mobilenet 中的通道数为什么要使用 _make_divisible 函数确保为 8 的整数倍? 问题 今天阅读一段 PyTorch 版的 mobilenet 时,发现了下面这个函数: def _make_divisible(v, divisor, min_value=None): """ T 阅读全文
posted @ 2021-06-21 10:16 stardsd 阅读(906) 评论(0) 推荐(0) 编辑