会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
耀礼士多德
上一页
1
···
5
6
7
8
9
10
11
12
13
···
18
下一页
有关logistic(sigmoid)函数回归
摘要: 在神经网络中,经常用到sigmoid函数,y = 1 / (1+e-x) 作为下一级神经元的激活函数,x也就是WX(下文,W以θ符号代替)矩阵计算结果。 这个函数通常用在进行分类,通常分为1或0的逻辑分类,所以又叫logistic回归。 常规常规情况下,我们使用的损失函数是 j(θ) = 1 / 2
阅读全文
posted @ 2019-05-04 15:40 耀礼士多德
阅读(976)
评论(0)
推荐(0)
编辑
全站仪双棱镜测量坐标精度
摘要: 先有全站仪测量单个点坐标精度:https://www.cnblogs.com/pylblog/p/10464467.html 原理图: 假设d2、d1为已知值,求P点坐标精度 Ep = Np2 + HD * cos(A) Np = Ep2 + HD * sin(A) Zp = Zp2 - VD 参考
阅读全文
posted @ 2019-04-16 11:19 耀礼士多德
阅读(469)
评论(0)
推荐(0)
编辑
u检验粗浅理解
摘要: 假设检验是以小概率事件,在一次实验中是不可能发生为前提(事实上是有可能发生的,但不是这样说的话,就落入一个圈,不能继续玩了),来否认原假设。 u检验的定义: 已知从正态母体N(u,σ2)中抽得容量为n的子样,求得子样的均值x,而且假设母体的方差σ2 为已知值,那么可利用统计量 u = (x - μ)
阅读全文
posted @ 2019-04-01 10:31 耀礼士多德
阅读(3733)
评论(0)
推荐(0)
编辑
SVD分解
摘要: 首先,有y = AX,将A看作是对X的线性变换 但是,如果有AX = λX,也就是,A对X的线性变换,就是令X的长度为原来的λ倍数。 *说起线性变换,A肯定要是方阵,而且各列线性无关。(回想一下,A各列相当于各个坐标轴,X各个分量相当于各个坐标轴的“基本向量”长度) (同一长度的各个方向的向量,变换
阅读全文
posted @ 2019-03-16 21:29 耀礼士多德
阅读(986)
评论(0)
推荐(0)
编辑
测绘线性代数(三):伪逆解
摘要: 原来的说法: 向量V的各个分量,对A的列向量进行线性组合。 V' = x i + y j 通常,要知道V' 的大小和方向,首先是将i , j 绘制出来,然后用V各个分量对其线性组合。 如果i⊥j ,而且| i | = | j | =1, 如果以 i 和 j 为坐标轴,那么V' 就是V在以i和j为坐标
阅读全文
posted @ 2019-03-04 21:47 耀礼士多德
阅读(1078)
评论(0)
推荐(0)
编辑
测绘线性代数(二):以全站仪求坐标精度为例
摘要: 例子: 已知全站仪先验测角中误差为:e = σhar =σvar ,单位:秒。 测距中误差为:a+b*S 注:b单位: 10-6,S单位:km,也为斜距中误差σsd 水平距离计算公式:HD = SD * sin(Var), 竖直距离计算公式:VD = SD * cos(Var) 泰勒一阶展开得:(泰
阅读全文
posted @ 2019-03-03 11:34 耀礼士多德
阅读(1260)
评论(0)
推荐(0)
编辑
测绘线性代数(一):基础
摘要: 通常来说,线代开始入门,都会从线性方程组开始: 如果我们将y1到y4 整体来看,看作是列向量Y(竖着的向量)的一步分,那么A=[A1,A2,A3,A4],也就是矩阵A,有四个列向量,不难看出 Y = AX = x1A1 + x2A2 + x3A3 + x4A4 (粗体代表向量) 也就是说,列向量Y,
阅读全文
posted @ 2019-02-19 20:53 耀礼士多德
阅读(990)
评论(0)
推荐(0)
编辑
C#的asyn和await,测试、应用、原理
摘要: static void Main(string[] args) { var d = new NavDownLoader(); Task<bool> success = d.DownLoadLatestNavAsync(); Console.WriteLine("等...."); Console.Wr
阅读全文
posted @ 2019-02-19 15:55 耀礼士多德
阅读(672)
评论(0)
推荐(0)
编辑
从曲面拟合尝试理解神经网络中的激活函数
摘要: 激活函数引用:https://www.cnblogs.com/ms-uap/p/9962978.html 首先,单个神经元是长这样的: 也就是,当A=σ(Z)=Z时,不使用激活函数的话,那么,单个神经网络,输出只能是A = ΣWX + b 1. 从训练数据来理解。(参考:https://blog.c
阅读全文
posted @ 2019-02-12 12:24 耀礼士多德
阅读(824)
评论(0)
推荐(1)
编辑
使用“反向传播”迭代法求解y=√10
摘要: X=√10,求X,也就是求Y=10 =X2 , X是多少。 *重要的思想是,如何转化为可迭代求解的算法问题。 *解数学问题,第一时间画图,求导,“直线化”。 Y = X2 假如已知Y = 10 ,要求解X; 1. 令X=3,解得 y = 9 ; 那么,自然是希望,在X=3处,加上一个△X,得到 Y
阅读全文
posted @ 2019-02-01 11:33 耀礼士多德
阅读(417)
评论(0)
推荐(0)
编辑
上一页
1
···
5
6
7
8
9
10
11
12
13
···
18
下一页
导航
博客园
首页
联系
订阅
管理
公告