【干货】小白的机器学习干货 (更新)

下文的这些链接都是笔者在初学机器学习时的一些资源干货,其中有大部分需要科学上网才能浏览。

  • 维基百科

机器学习 —— 维基百科

Matrix calculus(矩阵求导)—— 维基百科

最小二乘法 —— 维基百科

线性回归 —— 维基百科

多项式 —— 维基百科

Mean squared error —— 维基百科

逻辑回归 —— 维基百科

梯度下降法 —— 维基百科

KNN 算法 —— 维基百科

Kd 树 —— 维基百科

支持向量机 —— 维基百科

决策树 —— 维基百科

随机森林 —— 维基百科

Bootstrap aggregating —— 维基百科

K 平均算法 —— 维基百科

Hierarchical clustering(分层聚类)—— 维基百科

BIRCH —— 维基百科

Prim's algorithm —— 维基百科

DBSCAN —— 维基百科

Spectral clustering(谱聚类)—— 维基百科

Bellman equation(贝尔曼方程)—— 维基百科

Q - learning —— 维基百科

Sarsa —— 维基百科

蒙特卡罗方法 —— 维基百科

卷积神经网络 —— 维基百科

Trigonometric functions (三角函数)—— 维基百科

递归神经网络 —— 维基百科

Similarity measure(相似度量)—— 维基百科

  • 知乎问答

知乎问答 —— 最小二乘法的本质是什么?(1)

知乎问答 —— 最小二乘法的本质是什么?(2)

知乎问答 —— 机器学习中使用正则化来防止过拟合是什么原理?

知乎问答 —— 机器学习中常常提到的正则化到底是什么意思?

知乎问答 —— 支持向量机 (SVM) 是什么意思?

  • 官方/学术文档

scipy.optimize.leastsq ( ) 使用方法 (官方文档)

make_pipeline 使用方法(官方文档)

用反向传播训练多层神经网络的原理 —— 波兰 AGH 科技大学

Affinity Propagation 的论文、用例及源代码

Convolutional Neural Networks (LeNet)

OpenAI Gym

TensorFlow 官方安装说明

Theano 官方安装说明

CNTK 官方安装说明

Keras 官方中文文档

PyTorch Tutorials (官方教程)

  • 学术论文

Deep Residual Learning for Image Recognition(深度残留学习的图像识别)

Deep Gate Recurrent Neural Network(深门递归神经网络)

A Clockwork RNN

Recent Advances in Recurrent Neural Networks(递归神经网络的最新进展)

A Critical Review of Recurrent Neural Networks for Sequence Learning(回归神经网络在序列学习中的应用评述)

Generative Adversarial Networks (GAN 生成对抗网络)

  • 博客

sklearn 中的 Pipeline 机制 —— CSDN

Visualizing K-Means Clustering (可视化K-Means聚类)

The 5 Clustering Algorithms Data Scientists Need to Know(数据科学家需要了解的5种聚类算法)

An overview of gradient descent optimization algorithms(梯度下降优化算法概述)

PyTorch – Internal Architecture Tour(PyTorch - 内部建筑之旅)

The Unreasonable Effectiveness of Recurrent Neural Networks(回归神经网络的不合理有效性)

Understanding LSTM Networks(了解LSTM网络)

Neural Networks, Types, and Functional Programming(神经网络,类型和功能编程)

PyTorch vs TensorFlow,哪个更适合你

  • 课程资源/其他

David Silver深度强化学习课程

David Silver深度强化学习课程 (中文地址)

PyTorch 实现的 torchvision 模块 —— Github

Learning financial market data with recurrent Autoencoders and Tensorflow

posted @ 2018-10-25 18:52  laugh12321  阅读(12)  评论(0编辑  收藏  举报