摘要: 由于这段时间的学习内容涉及到MAPPO算法,并且我对MAPPO算法这种多智能体算法的信息交互机制不甚了解,于是写了这个系列的笔记,目的是巩固知识,并且进行一些粗浅又滑稽的总结。 1.PPO算法的介绍 1.1.PG算法 如果要分类的话,根据学习方法的不同,可以将强化学习分为Value-based方法、 阅读全文
posted @ 2022-06-19 02:49 几块红布 阅读(3989) 评论(0) 推荐(2) 编辑
摘要: 写在前面: 在经过了漫长时间的焦头烂额之后,很多事情总算告一段落,于是便有时间继续分享自己的拙见。当然,MAPPO这一块的研究内容,甚至于MARL这一块的内容尚不完善,各位看官还请带着批判性的眼光一起学习。 在上一篇博客中,我推荐过两个MAPPO项目: 官方代码:https://github.com 阅读全文
posted @ 2024-04-01 16:52 几块红布 阅读(2561) 评论(6) 推荐(2) 编辑
摘要: 朋友们,朋友们,事情是这样的。最近心血来潮,突然想起很久以前看过的一个NLP可视化包。它的效果是下面这个样子: 在此之前,已经有一些文章从论文的角度对这个包进行了介绍,详情请见 推荐一个可交互的 Attention 可视化工具!我的Transformer可解释性有救啦? 当时我第一眼就被这个包的效果 阅读全文
posted @ 2023-04-24 17:56 几块红布 阅读(381) 评论(0) 推荐(0) 编辑
摘要: 在有了上一节一些有关PPO算法的概念作为基础后,我们就可以正式开始对于MAPPO这一算法的学习。 那么,既然要学习一个算法,就不得不去阅读提出这一算法的论文。那么本篇博客将从MAPPO的论文出发,对MAPPO这一算法进行一定的介绍。 **论文的地址在这里:**https://arxiv.org/pd 阅读全文
posted @ 2022-10-14 15:39 几块红布 阅读(3995) 评论(19) 推荐(3) 编辑
摘要: 方法参考:python - 降低python for循环的时间复杂度 - 堆栈内存溢出 (stackoom.com) 朋友们,朋友们,事情是这样的。 这几天博主在处理数据的时候遇到了这样的标注数据: 文章编号 内容 是否是摘要 1 A1 我 0 2 A1 是xx 1 .... ...... .... 阅读全文
posted @ 2022-08-19 17:05 几块红布 阅读(131) 评论(0) 推荐(0) 编辑
摘要: 1.前言 最近尝试学习使用argparse进行参数管理,顺便改善一下我那丝毫都不专业的、简单粗暴的代码习惯。 argparse模块可以让人轻松地编写用户友好地命令行接口,并且还能够自动生成帮助与使用手册,并在用户给程序传入无效参数时报出错误信息。 2.使用步骤 首先我们需要先实例化一个Argumen 阅读全文
posted @ 2022-08-17 15:31 几块红布 阅读(171) 评论(0) 推荐(0) 编辑
摘要: 1.介绍 Albert是Bert的一个变种,它在Bert的基础上减少了参数量,使整个模型更加的“轻量化”,同时也保持了Bert的性能,但值得注意的是,Albert虽然显著地减少了参数量,但并没有显著地减少计算时间复杂度,换言之,Albert的预测速度不一定比普通的更快,甚至可能会减慢训练的速度。(A 阅读全文
posted @ 2022-08-15 14:06 几块红布 阅读(1011) 评论(0) 推荐(0) 编辑
摘要: 1.Longformer的应用场景 为了理解Longformer的原理,我们最好首先从为何需要使用Longformer开始说起。(这里默认各位已经对Self Attention等基础知识有一定的了解) 我们以一个简单的场景为例: 在这个例子中,我们共有六个Token,每个Token的维度是768维, 阅读全文
posted @ 2022-08-09 17:06 几块红布 阅读(1982) 评论(0) 推荐(0) 编辑
摘要: 这篇文章是在上班摸鱼的时候随手整理的一些常用CV数据集(文末附带我处理好的数据的下载资源) 众所周知,通过使用Torchvision,可以方便快捷地加载一些较为常用的数据集。但是(敲黑板!)如果本地没有已下载好的数据集,就需要看着torchvision用堪比乌龟的速度从网上下载,甚至还有可能经常下载 阅读全文
posted @ 2022-06-17 16:49 几块红布 阅读(650) 评论(0) 推荐(0) 编辑
摘要: 。 阅读全文
posted @ 2022-06-17 10:08 几块红布 阅读(59) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示