摘要:
展望2017 驻足博客园 2016已经过去,2017还会远吗?为着自己的一个小目标而奋斗! 关于技术 先阶段主要的学习目标是机器学习。自己在学的同时,也选修了学校的数据挖掘课。到现在也接触到了查不多一半的算法了。给我的感受就是,光学算法实在是没意思。机器学习就是用来用的。所以刚刚开始学习的园友可以结 阅读全文
随笔档案-2016年12月
线性回归与梯度下降法[二]——优化与比较
2016-12-25 21:09 by Fururur, 3252 阅读, 收藏, 编辑
摘要:
接着上文—— "机器学习基础——梯度下降法(Gradient Descent)" 往下讲。这次我们主要用matlab来实现更一般化的梯度下降法。由上文中的几个变量到多个变量。改变算法的思路,使用矩阵来进行计算。同时对算法的优化和调参进行总结。即 特征缩放 (feature scaling)问题和 学 阅读全文
matlab基础教程——根据Andrew Ng的machine learning整理
2016-12-24 21:35 by Fururur, 1813 阅读, 收藏, 编辑
摘要:
matlab基础教程——根据Andrew Ng的machine learning整理 基本运算 算数运算 逻辑运算 格式化输出 小数位全局修改 向量和矩阵运算 矩阵操作 申明一个矩阵或向量 快速建立一个矩阵或向量 随机矩阵方阵生成 magic矩阵生成(每行每列相加和相同) 获取矩阵的维度size 获 阅读全文
[转]Proxy SwitchyOmega实现shadowsocks的浏览器代理
2016-12-15 15:30 by Fururur, 35 阅读, 收藏, 编辑
摘要:
转载自 "ChromeWo » 谷歌浏览器Chrome+ShadowSocks+Proxy SwitchyOmega自动翻墻教程" Chrome+ShadowSocks+Proxy SwitchyOmega的配置 使用谷歌浏览器Chrome的朋友都知道翻墻的重要性,因为Chrome商店无法直接访问, 阅读全文
dapper-dot-net用法及其扩展系列
2016-12-13 10:58 by Fururur, 2517 阅读, 收藏, 编辑
摘要:
dapper是一个侵入性极低的简单的orm框架。这里还是简单概括下他的优点。侵入性低、易用、速度快、多数据库支持。正是由于他的低侵入性,我们可以根据自己的需要对其进行扩展,使其支持一些简单的CRUD操作。Dapper-Extensions就是一个在github上star较多的一个扩展。可以做参考,根据自己的项目需求自己封装他。
下面是之前写的几篇博客,可供初学者参考。 阅读全文
线性回归与梯度下降法[一]——原理与实现
2016-12-12 16:23 by Fururur, 13410 阅读, 收藏, 编辑
摘要:
本文主要讲了梯度下降法的两种迭代思路,随机梯度下降(Stochastic gradient descent)和批量梯度下降(Batch gradient descent)。以及他们在python中的实现。 阅读全文
在博客中使用LaTeX插入数学公式
2016-12-12 09:07 by Fururur, 30837 阅读, 收藏, 编辑
摘要:
在学习机器学习中会接触到大量的数学公式,所以在写博客是会非常的麻烦。用公式编辑器一个一个写会非常的麻烦,这时候我们可以使用LaTeX来插入公式。 阅读全文