摘要: 如下所示: 1 >>> import numpy as np 2 >>> x = np.array([1, 2]) 3 >>> y = np.array([[1],[2]]) 4 >>> z = np.array([[1,2]]) 5 >>> print(x.shape) 6 (2,) 7 >>> 阅读全文
posted @ 2019-07-05 16:27 peterwong666 阅读(1889) 评论(0) 推荐(0) 编辑
摘要: tf.assign(A, new_number): 这个函数的功能主要是把A的值变为new_number 例如: 输出: 0.010.0 开始给A赋值为0,经过tf.assign函数后,把A的值变为10 再例如: 输出: [14.] 阅读全文
posted @ 2019-07-05 11:15 peterwong666 阅读(3093) 评论(0) 推荐(0) 编辑
摘要: arange()用于生成一维数组 reshape()将一维数组转换为多维数组 输出结果: 应用: 四个函数都是对多维数组进行降维(降至一维) 使用方法: 阅读全文
posted @ 2019-07-04 11:24 peterwong666 阅读(3346) 评论(0) 推荐(0) 编辑
摘要: 1、梯度下降算法的正确步骤,(正确步骤dcaeb)(梯度下降法其实是根据函数的梯度来确定函数的极小值),这里的问题与其说是梯度下降算法的步骤不如说类似图图像分类训练的整个流程:网络初始化-输入to输出-期望输出与实际差值-根据误差计算更新权值-迭代进行。 a.计算预测值和真实值之间的误差; b.重复 阅读全文
posted @ 2019-06-27 13:54 peterwong666 阅读(3021) 评论(0) 推荐(0) 编辑
摘要: 矩阵转置定义 设A为m×n阶矩阵(即m行n列),第i 行j 列的元素是a(i,j),即:A=a(i,j) 定义A的转置为这样一个n×m阶矩阵B,满足B=b(j,i),即 a(i,j)=b (j,i)(B的第i行第j列元素是A的第j行第i列元素),记A'=B。(有些书记为 ,这里T为A的上标) 直观来 阅读全文
posted @ 2019-06-27 10:58 peterwong666 阅读(4093) 评论(0) 推荐(0) 编辑
摘要: 求导和积分的区别 1、定义不同: 求导:当自变量的增量趋于零时,因变量的增量与自变量的增量之商的极限。 在一个函数存在导数时,称这个函数可导或者可微分。 另外,可导的函数一定连续。不连续的函数一定不可导。 积分:通常分为定积分和不定积分两种。 直观地说,对于一个给定的正实值函数,在一个实数区间上的定 阅读全文
posted @ 2019-06-27 09:26 peterwong666 阅读(26747) 评论(0) 推荐(0) 编辑
摘要: Logistic函数是一种常用的S形函数,是比利时数学家 Pierre François Ver-hulst 在1844-1845 年研究种群数量的增长模型时提出命名的,最初作为一种生态学模型。 转自:https://blog.csdn.net/fg13821267836/article/detai 阅读全文
posted @ 2019-06-26 15:02 peterwong666 阅读(1740) 评论(0) 推荐(0) 编辑
摘要: 转自:https://blog.csdn.net/javaisnotgood/article/details/78873819 Logistic回归cost函数的推导过程。算法求解使用如下的cost函数形式: 梯度下降算法 对于一个函数,我们要找它的最小值,有多种算法,这里我们选择比较容易用代码实现 阅读全文
posted @ 2019-06-26 14:50 peterwong666 阅读(1172) 评论(0) 推荐(0) 编辑
摘要: 1、打印字符串 2、打印整形 3、打印浮点型 阅读全文
posted @ 2019-06-24 16:35 peterwong666 阅读(10470) 评论(0) 推荐(0) 编辑
摘要: 1.、功能不同 Scikit-learn(sklearn)的定位是通用机器学习库(https://scikit-learn.org/),而TensorFlow(tf)的定位主要是深度学习库。一个显而易见的不同:tf并未提供sklearn那种强大的特征工程,如维度压缩、特征选择等。究其根本,我认为是因 阅读全文
posted @ 2019-06-24 16:34 peterwong666 阅读(505) 评论(0) 推荐(0) 编辑