深度学习资源(随时更新)

1.理论部分

主要参考高手刘建平的博客文章,他是写了一个系列,从感知机、深度学习、CNN、RNN、LSTM一路讲下来。

感知机原理小结

从感知机到神经网络

      DNN的前向传播算法

      DNN的反向传播算法

      DNN的损失函数和激活函数

      DNN的正则化

卷积神经网络(CNN)的模型结构

      CNN的前向传播算法

      CNN的反向传播算法

循环神经网络RNN与前向、反向传播算法

LSTM模型与前向、反向传播算法

 

2.实现、应用部分

tensorflow、pytorch、keras的学习资源

insightface资源和insightface操作实例

 sklearn和tensorflow的区别

keras官网

ILSVRC-2014 (ImageNet competition)競賽中獲的第一名的VGG (Visual Geometry Group, University of Oxford)網絡結構论文以及keras实现

常见深度学习框架(tensorflow、keras、pytorch、MXNet、caffe)比较

NLP过程: 分词 1 2 -----词向量化1-----后续分析

jieba分词框架作者

结巴分词系统介绍

深度学习简便教程

Time Series Prediction with LSTM Recurrent Neural Networks in Python with Keras

6种用LSTM做时间序列预测的模型结构

UFLDL Tutorial

Colah blog

张量的概念及一些简单计算

【keras】基本概念计算方法、Tensor张量、数据类型data_format、函数式模型、batch、epoch

如何在keras中定义自己的Loss Function

如何编写张量的分段函数

tensorflow中的张量运算

怎样选择训练的Batch Size以及其影响

BATCH_SIZE的主要影响到loss以及反向传播时的递度计算;在同一批次的训练中,loss及反向传播梯度为单个loss及反向传播递度的平均值。

tensorflow PlayGround

提升深度学习模型表现的20个技巧

如何用grid search的方法做keras深度学习模型超参数调优

Tensorflow 2.0 中模型构建的三种方式(三种模型的定义方式)

Google云端的colabtory跑GCN深度学习(实例)

官网也有一个colabtory跑cnn的例子

 深度学习调参技巧

 

posted on 2020-03-06 21:05  静静的白桦林_andy  阅读(134)  评论(0编辑  收藏  举报

导航