随笔分类 -  AI、ML和Bigdata

摘要:本文主要关注输入输出的形状,通过两种标签形式探索一下其计算机制。 交叉熵损失函数 实验设置:假设采用AutoEncoder+分类器。AE负责重构图像,计算MSE。分类器通过latent vector计算23个类别的概率向量。 import torch nn as nn net = AutoEncod 阅读全文
posted @ 2024-01-12 14:53 倦鸟已归时 阅读(134) 评论(0) 推荐(0) 编辑
摘要:因为有的代码很常用,留着自己平时写代码直接copy。 阅读全文
posted @ 2023-12-29 15:07 倦鸟已归时 阅读(49) 评论(0) 推荐(0) 编辑
摘要:AutoEncoder练习,后续加个语音去噪。 阅读全文
posted @ 2023-09-26 22:05 倦鸟已归时 阅读(61) 评论(0) 推荐(0) 编辑
摘要:通过pytorch实现自定义图像算子,以此熟悉pytorch的用法 阅读全文
posted @ 2023-08-15 15:53 倦鸟已归时 阅读(248) 评论(0) 推荐(0) 编辑
摘要:关于全卷积网络搭建及其零碎的知识 阅读全文
posted @ 2023-08-06 16:36 倦鸟已归时 阅读(311) 评论(0) 推荐(0) 编辑
摘要:入门操作而已 阅读全文
posted @ 2023-07-29 00:28 倦鸟已归时 阅读(607) 评论(0) 推荐(0) 编辑
摘要:关于AI实验的一些内容。 阅读全文
posted @ 2023-07-14 00:06 倦鸟已归时 阅读(248) 评论(0) 推荐(0) 编辑
摘要:大作业实验记录 阅读全文
posted @ 2023-05-17 11:15 倦鸟已归时 阅读(370) 评论(0) 推荐(0) 编辑
摘要:共12章:基础概论、凸优化与无约束优化、最速下降法、牛顿法及其改进、共轭梯度法、拟牛顿法、约束优化、对偶定理、ML的风险与损失、梯度法及其改进、动量法及其改进、带约束的优化算法。 阅读全文
posted @ 2023-05-13 12:03 倦鸟已归时 阅读(76) 评论(0) 推荐(0) 编辑
摘要:一些笔记或xmind 阅读全文
posted @ 2023-05-11 17:25 倦鸟已归时 阅读(41) 评论(0) 推荐(0) 编辑
摘要:集成学习根据个体学习器的生成方式分为Bagging和Boosting两大类。 Bagging的个体学习器之间不存在强依赖关系,Boosting存在强依赖关系。 Bagging可以同时生成的并行化方法,Boosting必须串行化生成的序列化方法。 Bagging Bootstrap aggregati 阅读全文
posted @ 2023-04-28 14:27 倦鸟已归时 阅读(100) 评论(0) 推荐(0) 编辑
摘要:简单的线性判别函数计算 阅读全文
posted @ 2022-12-25 14:30 倦鸟已归时 阅读(178) 评论(0) 推荐(0) 编辑
摘要:计算文档的相似性,通常使用Jaccard系数,但是在大数据下Jaccard计算复杂度很高,由此出现了MinHash方法来近似计算。更高效的方法为LSH。 阅读全文
posted @ 2022-12-01 23:50 倦鸟已归时 阅读(441) 评论(0) 推荐(0) 编辑
摘要:HMM、隐马尔科夫模型、python简单实现案例 阅读全文
posted @ 2022-09-18 21:33 倦鸟已归时 阅读(68) 评论(0) 推荐(0) 编辑
摘要:最简单的方法就用SCAN加参数STARTROW和ENDROW hbase(main):024:0> scan 'score',{STARTROW=>'0005',ENDROW=>'0008'} 输出结果: ROW COLUMN+CELL 0005 column=course:Operating Sy 阅读全文
posted @ 2020-12-31 13:12 倦鸟已归时 阅读(2684) 评论(0) 推荐(1) 编辑
摘要:按值排序,MapReduce 阅读全文
posted @ 2020-07-03 21:44 倦鸟已归时 阅读(683) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示