上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 20 下一页
摘要: 这边记录了Python和Java的解法,Python是一年前的自己写的,Java是现在写的。 Python 这个问题卡了两天,自己也想到了可行的方法,但还是因为时间超出了限制。这个问题的关键在于动态规划,存储中间计算值,这样就大大节约了计算时间。 自己从全排列想到的方法,向右为0,向下为0,先排序出 阅读全文
posted @ 2018-08-19 13:50 家迪的家 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 栈的应用,很妙。 阅读全文
posted @ 2018-08-15 21:24 家迪的家 阅读(110) 评论(0) 推荐(0) 编辑
摘要: 环境搭建 官网地址:http://maven.apache.org/ 1. 确保已安装JDK,并配置JAVA_HOME,详情查看Java环境配置 2. 新增环境变量 M2_HOME, C:\Program Files\apache-maven 3. 环境变量Path新增,%M2_HOME%\bin 阅读全文
posted @ 2018-08-15 13:14 家迪的家 阅读(896) 评论(0) 推荐(0) 编辑
摘要: 给定一个没有重复数字的序列,返回其所有可能的全排列。 示例: 记录一下自己的思路总结,关于去重复的思路比较棒: 全排序一: 全排序二: 有两种方式,更好的肯定是从底层就不交换大大节约时间,无脑的则是先全排列,后集合去重。 阅读全文
posted @ 2018-08-14 16:34 家迪的家 阅读(158) 评论(0) 推荐(0) 编辑
摘要: SVM尝试寻找一个最优的决策边界 最大化margin(2d) 超参数: SVM模型有两个非常重要的参数C与gamma。其中 C是惩罚系数,即对误差的宽容度。c越高,说明越不能容忍出现误差,容易过拟合。C越小,容易欠拟合。C过大或过小,泛化能力变差 gamma是选择RBF函数作为kernel后,该函数 阅读全文
posted @ 2018-08-05 10:38 家迪的家 阅读(614) 评论(1) 推荐(0) 编辑
摘要: 什么是决策树 什么是决策树 什么是决策树 非参数学习方法 可以解决分类问题 天然可以解决多分类问题 也可以解决回归问题 非常好的可解释性 复杂度 预测:O(logm)训练: O(n*m*logm)剪枝:降低复杂度,解决过拟合 import numpy as np import matplotlib. 阅读全文
posted @ 2018-07-30 18:05 家迪的家 阅读(334) 评论(0) 推荐(0) 编辑
摘要: 浅层神经网络: 神经网络的输出 神经网络的输出 神经网络的输出 神经网络的输出 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 矩阵公式:输出=激活函数(输入x权重+偏差) 多层感知器识别手写数字: 关键点: 阅读全文
posted @ 2018-07-26 11:54 家迪的家 阅读(319) 评论(0) 推荐(0) 编辑
摘要: 多项式回归:升维 多项式回归:升维 多项式回归:升维 原有数据特征下新增维度 # 数据 import numpy as np import matplotlib.pyplot as plt ​ x = np.random.uniform(-3,3,size=100) X = x.reshape(-1 阅读全文
posted @ 2018-07-20 14:06 家迪的家 阅读(406) 评论(0) 推荐(0) 编辑
摘要: 经检测速度大幅度上升,不枉费我折腾了这么久,最坑的就是网上教程、书都没有写将cuda的bin加入全局变量,还是根据报错信息推出来的。 1.cuda9.0下载安装 https://developer.nvidia.com/cuda-90-download-archive?target_os=Windo 阅读全文
posted @ 2018-07-18 11:41 家迪的家 阅读(1545) 评论(0) 推荐(0) 编辑
摘要: 梯度下降法 在使用梯度下降法前,最好进行数据归一化 不是一个机器学习算法 是一种基于搜索的最优化方法 作用:最小化损失函数 梯度上升法,最大化一个效用函数 η称为学习率 η的值影响获得最优解的速度 η取值不合适甚至得不到最优解 η是梯度下降法的一个超参数 优势 特征越多的情况下,梯度下降相比于正规方 阅读全文
posted @ 2018-07-10 22:20 家迪的家 阅读(451) 评论(0) 推荐(0) 编辑
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 20 下一页