上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 21 下一页
摘要: pytorch1.0实现GAN 阅读全文
posted @ 2019-07-25 21:18 土博姜山山 阅读(933) 评论(0) 推荐(0) 编辑
摘要: AutoEncoder (自编码器-非监督学习) 神经网络也能进行非监督学习, 只需要训练数据, 不需要标签数据. 自编码就是这样一种形式. 自编码能自动分类数据, 而且也能嵌套在半监督学习的上面, 用少量的有标签样本和大量的无标签样本学习. 阅读全文
posted @ 2019-07-17 23:00 土博姜山山 阅读(1595) 评论(0) 推荐(0) 编辑
摘要: pytorch1.0进行Optimizer 优化器对比 阅读全文
posted @ 2019-07-17 11:52 土博姜山山 阅读(1023) 评论(0) 推荐(0) 编辑
摘要: pytorch1.0批训练神经网络 阅读全文
posted @ 2019-07-17 11:36 土博姜山山 阅读(200) 评论(0) 推荐(0) 编辑
摘要: pytorch1.0神经网络保存、提取、加载 阅读全文
posted @ 2019-07-17 11:16 土博姜山山 阅读(739) 评论(0) 推荐(0) 编辑
摘要: MapReduce示例式理解 阅读全文
posted @ 2019-07-16 19:56 土博姜山山 阅读(307) 评论(0) 推荐(0) 编辑
摘要: 哈希 Hash,翻译“散列”,音译为“哈希”,把任意长度的输入,通过散列算法,变换成固定长度的输出,该输出就是散列值。这种转换是一种压缩映射,也就是散列值的空间通常远小于输入的空间,不同的输入可能会散列成相同的输出,所以不可能从散列值来唯一的确定输入值。简单的说就是一种将任意长度的消息压缩到某一固定长度的消息摘要的函数。 阅读全文
posted @ 2019-07-16 14:50 土博姜山山 阅读(471) 评论(0) 推荐(0) 编辑
摘要: CentOS7服务器查看相关配置命令 阅读全文
posted @ 2019-07-15 16:08 土博姜山山 阅读(13413) 评论(0) 推荐(0) 编辑
摘要: 用pytorch1.0快速搭建简单的神经网络 阅读全文
posted @ 2019-07-14 22:04 土博姜山山 阅读(525) 评论(0) 推荐(0) 编辑
摘要: 用pytorch1.0搭建简单的神经网络:进行多分类分析 阅读全文
posted @ 2019-07-14 21:42 土博姜山山 阅读(2922) 评论(0) 推荐(0) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 21 下一页