摘要:
0 机器学习简介 概念:多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。 学科定位:人工智能(Artificial Intelligence, AI)的核心, 阅读全文
摘要:
1. 数据结构和算法目录索引 (1)数据结构系列 ①线性表部分: 线性表(上){数组、单链表和双链表} 线性表(下){ 循环链表、约瑟夫问题} ②栈与队列部分: 栈 { LIFO、Stack<T> } 队列 { FIFO、Queue<T> } ③树与二叉树部分: 树与二叉树(上){ 数据结构之二叉树 阅读全文
摘要:
>>> import this The Zen of Python, by Tim Peters Beautiful is better than ugly. Explicit is better than implicit. Simple is better than complex. Compl 阅读全文
摘要:
1.LeNet模型 LeNet是一个早期用来识别手写数字的卷积神经网络,这个名字来源于LeNet论文的第一作者Yann LeCun。LeNet展示了通过梯度下降训练卷积神经网络可以达到手写数字识别在当时最先进的成果,这个尊基性的工作第一次将卷积神经网络推上舞台 上图就是LeNet模型,下面将对每层参 阅读全文
摘要:
需求: 从零和使用mxnet实现dropout 数据集: 使用load_digits()手写数字数据集 要求: 使用1个掩藏层n_hidden1 = 36,激活函数为relu,损失函数为softmax交叉熵损失函数 注意: drop函数的实现方法 训练和测试时drop的区别 1.从零实现dropou 阅读全文
摘要:
1.softmax从零实现 (1797, 64) (1797,) (1797, 10) epoch:50,loss: [1.9941667] ,accuracy:0.3550361713967724 epoch:100,loss: [0.37214527] ,accuracy:0.939343350 阅读全文
摘要:
1.线性回归从零实现 (1000,) epoch:1,loss:5.7996 epoch:2,loss:2.1903 epoch:3,loss:0.9078 epoch:4,loss:0.3178 epoch:5,loss:0.0795 epoch:6,loss:0.0204 epoch:7,los 阅读全文
摘要:
1. 激活函数 1.1 各激活函数曲线对比 常用激活函数: tf.sigmoid() tf.tanh() tf.nn.relu() tf.nn.softplus() tf.nn.softmax() tf.nn.dropout() tf.nn.elu() 1.2 各激活函数优缺点 sigmoid函数 阅读全文