摘要: Pipeline pipeline 模块把所有东西都封装死了,只需要传进去原始输入,就能得到输出. 例:遮掩词填空,可以看出 pipeline function 给出了 5 个备选答案 from transformers import pipeline classifier = pipeline(" 阅读全文
posted @ 2023-05-22 19:20 guangheli 阅读(136) 评论(0) 推荐(0) 编辑
摘要: safety-gym/mujoco safety-gym/mujoco 的安装还是相当繁琐的,这里记录一下如何在 linux 系统上配置 safety-gym 由于 safety-gym 是基于 mujoco 的,所以按照本文的流程走下来也等价于把 mujoco 环境赔了 1. 到 mojuco 官 阅读全文
posted @ 2023-01-04 00:17 guangheli 阅读(527) 评论(0) 推荐(0) 编辑
摘要: SSH 连接 ssh 是连接远程服务器非常方便的一种方式,可以使用本地的 XShell 与 Xftp 快速地连接。 例如,服务器租界平台提供的 ssh 指令:ssh -p 14xxx root@xxxxxxxxxxxx 其中,连接 ssh 时需要注意几个关键信息: 1. 服务器的 ip 地址,就是 阅读全文
posted @ 2022-12-25 15:00 guangheli 阅读(53) 评论(0) 推荐(0) 编辑
摘要: SVM支持向量机 简述: 给定一个特征空间上的数据集: T= { (x1,y1),(x2,y2),...(xN,yN) } 其中,xiRn,yi {+1,1 } 阅读全文
posted @ 2022-09-07 11:25 guangheli 阅读(43) 评论(0) 推荐(0) 编辑
摘要: K 近邻算法 K 近邻算法的思想非常简单:对于测试数据,在训练数据中找到 K 个与之距离最近的点并进行多数表决。 K 取值比较小时会只考虑与输入实例距离非常近的点,但是噪声对结果的影响会很大。 K 取值较大时会考虑与输入实例距离较大的点,虽然可以避免噪声的影响,但是由于距离过大还是会 阅读全文
posted @ 2022-09-07 10:10 guangheli 阅读(20) 评论(0) 推荐(0) 编辑
摘要: 集成学习 在机器学习中,只使用一个模型容易出现过拟合现象,并且发挥不出数据量大的优势。 集成学习的思路是将一堆效果一般的模型通过某种方式组合在一起,形成一个更有效的大模型。 具体地,设训练集为 D,特征集为 A,每次选择 DA 的子集 D,A 作为训练数据训练若干个小 阅读全文
posted @ 2022-09-05 14:15 guangheli 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 熵 H=i=1np(xi)logp(xi) n 是分类的数目,熵越大代表随机变量 X 的不确定性越大。 可知 0H(P)logn 条件熵 H(Y|X) 表示已知随机变量 X 的条 阅读全文
posted @ 2022-09-04 22:41 guangheli 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 参考:《统计学习方法》 相似度与距离 对于聚类算法来说,定义相似度与距离是十分关键的。 Minkowski distance 设 xi,xj 是样本集合 X 中的样本,m 为特征数量,满足 xi=(x1i,x2i,....xmi)T 则 $x_{ 阅读全文
posted @ 2022-09-04 19:45 guangheli 阅读(140) 评论(0) 推荐(0) 编辑
摘要: 在进行深度学习训练时,如果图片过大或者训练数据匮乏时可以对输入数据进行裁剪,翻转等操作。 Pytorch 官网讲解: Transforms — PyTorch Tutorials 1.12.1+cu102 documentation Transforming and augmenting image 阅读全文
posted @ 2022-08-29 13:40 guangheli 阅读(56) 评论(0) 推荐(0) 编辑
摘要: 参考: https://blog.csdn.net/m0_53653974/article/details/125753330 glob.glob() 函数 获取文件目录下符合条件的所有文件: dataset_path = glob.glob('data/*.npy') 例:获取 'data' 目录 阅读全文
posted @ 2022-08-28 23:49 guangheli 阅读(67) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示