随笔分类 - Python
Python
摘要:前言 本文主要介绍卷积神经网络的使用的下半部分。 另外,上篇文章增加了一点代码注释,主要是解释(w-f+2p)/s+1这个公式的使用。 所以,要是这篇文章的代码看不太懂,可以翻一下上篇文章。 代码实现 之前,我们已经学习了概念,在结合我们以前学习的知识,我们可以直接阅读下面代码了。 代码里使用了,d
阅读全文
摘要:前言 本文介绍卷积神经网络的上半部分。 其实,学习还是需要老师的,因为我自己写文章的时候,就会想当然,比如下面的滑动窗口,我就会想当然的认为所有人都能理解,而实际上,我们在学习的过程中之所以卡顿的点多,就是因为学习资源中想当然的地方太多了。 概念 卷积神经网络,简称CNN, 即Convolution
阅读全文
摘要:前言 本文主要讲神经网络的下半部分。 其实就是结合之前学习的全部内容,进行一次神经网络的训练。 神经网络 下面是使用MNIST数据集进行的手写数字识别的神经网络训练和使用。 MNIST 数据集,是一个常用的手写数字识别数据集。MNIST 数据集包含 60,000 张 28x28 像素的灰度训练图像和
阅读全文
摘要:前言 本文主要讲神经网络的上半部分。 这篇文章开始有很多公式了,这些公式都很简单,但是如果是不经常在脑海里思考公式的人,那可能需要多花点时间做一下自我训练,个人感觉,也就几天时间,就能把自己感觉给调整出来。 习惯了公式看下面内容就会轻松很多,另外如果要深入学习人工智能,熟练的认知公式也是个必须的事情
阅读全文
摘要:前言 上文有一些文字打错了,已经进行了修正。 本文主要介绍训练模型和使用模型预测数据,本文使用了一些numpy与tensor的转换,忘记的可以结合第一篇文章一起看。 线性回归模型训练 结合numpy使用 首先使用datasets做一个数据X和y,然后结合之前的内容,求出y_predicted。 #
阅读全文
摘要:前言 接续上一篇的optimizer的学习。 optimizer 代码和上一篇文章的一样,如下: import torch import numpy as np import torch.nn as nn X = torch.tensor([1, 2, 3, 4], dtype=torch.floa
阅读全文
摘要:前言 这篇文章主要两个内容。 一,把上一篇关于requires_grad的内容补充一下。 二,介绍一下线性回归。 关闭张量计算 关闭张量计算。这个相对简单,阅读下面代码即可。 print(" 关闭require_grad ") x = torch.randn(3, requires_grad=Tru
阅读全文
摘要:前言 数学的学习跟数学的计算是要分开的,现在回头再去看大学的高数和线性代数,如果只是学习的话,其实一门课程3天,也就学完了。 学校的课程之所以上那么久,其实是为了考试,也就是为计算准备的。计算是有意义的,但在有计算机的情况下,计算的意义并不是很大。 所以,如果大学数学没学好,只要花一星期,就能补回来
阅读全文
摘要:前言 其实学习人工智能不难,就跟学习软件开发一样,只是会的人相对少,而一些会的人写文章,做视频又不好好讲。 比如,上来就跟你说要学习张量,或者告诉你张量是向量的多维度等等模式的讲解;目的都是让别人知道他会这个技术,但又不想让你学。 对于学习,多年的学习经验,和无数次的回顾学习过程,都证明了一件事,如
阅读全文
摘要:前言 我是一个完全没用过python的人,所以,想写机器学习,就得从语法入手。 首先上W3cSchool去学习基础语法。 基础语法都差不多,重点看一下函数,模块,面向对象。 函数的写法稍有不同,格式上类似yml的写法;模块会介绍import的相关信息;面向对象会介绍类的相关信息。 参考网站: htt
阅读全文