摘要: 前言 相信大家一定对 Hive 不陌生!Hive 是基于Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能(HQL)。Hive的优点是学习成本低,可以通过类似SQL语句实现快速MapReduce统计,使MapReduce变得更加简单,而不必开发专门的M 阅读全文
posted @ 2022-04-12 14:42 鸿钧道人 阅读(822) 评论(0) 推荐(0) 编辑
摘要: 链接:https://arxiv.org/abs/2009.06732 摘要 Transformer模型架构最近引起了极大的兴趣,因为它们在语言、视觉和强化学习等领域的有效性。例如,在自然语言处理领域,Transformer已经成为现代深度学习堆栈中不可缺少的主要部分。最近,提出的令人眼花缭乱的X- 阅读全文
posted @ 2022-03-28 14:49 鸿钧道人 阅读(320) 评论(0) 推荐(0) 编辑
摘要: 陆陆续续学习DNN也有一个月了,在此还是非常感谢启蒙老师http://www.dnnmix.com/的John为DNN在中国的推广作出的卓越贡献。今天我将我这期间学习DNN碰到的好的学习资源给大家做个总结,也防止我日后遗忘。 1、DNN官网:http://www.dotnetnuke.com/ . 阅读全文
posted @ 2019-07-12 09:54 鸿钧道人 阅读(419) 评论(0) 推荐(0) 编辑
摘要: Dlib是一个现代的C ++工具包,包含机器学习算法和工具,用于在C ++中创建复杂的软件来解决实际问题。它广泛应用于工业界和学术界,包括机器人,嵌入式设备,移动电话和大型高性能计算环境。Dlib的开源许可 允许您在任何应用程序中免费使用它 Dlib可以使用pip install来安装或者到官网下载 阅读全文
posted @ 2019-07-09 22:13 鸿钧道人 阅读(1429) 评论(0) 推荐(0) 编辑
摘要: 单选题 1. 某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?(A) A. 关联规则发现 B. 聚类 C. 分类 D. 自然语言处理 2. 以下两种描述分别对应哪两种对分类算法的评价标准? (A) (a)警察抓小偷,描述警察抓的人中有多少个是小偷的标准。 ( 阅读全文
posted @ 2019-07-09 12:55 鸿钧道人 阅读(3047) 评论(0) 推荐(0) 编辑
摘要: ● 神经网络为啥用交叉熵。 参考回答: 通过神经网络解决多分类问题时,最常用的一种方式就是在最后一层设置n个输出节点,无论在浅层神经网络还是在CNN中都是如此,比如,在AlexNet中最后的输出层有1000个节点,而即便是ResNet取消了全连接层,也会在最后有一个1000个节点的输出层。 一般情况 阅读全文
posted @ 2019-06-03 20:51 鸿钧道人 阅读(2926) 评论(0) 推荐(0) 编辑
摘要: ● 请你说一说推荐算法,fm,lr,embedding 参考回答: 推荐算法: 基于人口学的推荐、基于内容的推荐、基于用户的协同过滤推荐、基于项目的协同过滤推荐、基于模型的协同过滤推荐、基于关联规则的推荐 FM: LR: 逻辑回归本质上是线性回归,只是在特征到结果的映射中加入了一层逻辑函数g(z), 阅读全文
posted @ 2019-06-03 20:47 鸿钧道人 阅读(7931) 评论(0) 推荐(0) 编辑
摘要: ● 什么是DBSCAN 参考回答: DBSCAN是一种基于密度的空间聚类算法,它不需要定义簇的个数,而是将具有足够高密度的区域划分为簇,并在有噪声的数据中发现任意形状的簇,在此算法中将簇定义为密度相连的点的最大集合。 ● k-means算法流程 参考回答: 从数据集中随机选择k个聚类样本作为初始的聚 阅读全文
posted @ 2019-06-03 20:46 鸿钧道人 阅读(3321) 评论(0) 推荐(0) 编辑
摘要: ● L1和L2正则化的区别 参考回答: L1是模型各个参数的绝对值之和,L2为各个参数平方和的开方值。L1更趋向于产生少量的特征,其它特征为0,最优的参数值很大概率出现在坐标轴上,从而导致产生稀疏的权重矩阵,而L2会选择更多的矩阵,但是这些矩阵趋向于0。 ● 问题:Loss Function有哪些, 阅读全文
posted @ 2019-06-03 20:43 鸿钧道人 阅读(1696) 评论(0) 推荐(0) 编辑
摘要: 处理分类问题常用算法 阅读全文
posted @ 2019-06-03 20:37 鸿钧道人 阅读(1821) 评论(0) 推荐(0) 编辑
摘要: GoogLeNet Incepetion V1 这是GoogLeNet的最早版本,出现在2014年的《Going deeper with convolutions》。之所以名为“GoogLeNet”而非“GoogleNet”,文章说是为了向早期的LeNet致敬。 Motivation 深度学习以及神 阅读全文
posted @ 2017-12-25 19:40 鸿钧道人 阅读(4968) 评论(0) 推荐(2) 编辑
摘要: 典型卷积神经网络架构 参考资料 0 Figures First 1 LeNet5 贡献 2 Dan Ciresan Net 3 AlexNet 贡献 4 VGG19 贡献 5 Network-in-network(NiN) 6 Inception V1-V3 贡献 参考资料 Neural Netwo 阅读全文
posted @ 2017-12-19 09:40 鸿钧道人 阅读(1156) 评论(0) 推荐(0) 编辑
摘要: sebastianraschka ABOUT BOOKS DEEP LEARNING ELSEWHERE PROJECTS RESOURCES BLOGMACHINE LEARNING FAQ ABOUT BOOKS DEEP LEARNING ELSEWHERE PROJECTS RESOURCE 阅读全文
posted @ 2017-12-16 18:22 鸿钧道人 阅读(259) 评论(0) 推荐(0) 编辑
摘要: 在所有字符集中,最知名的可能要数被称为ASCII的7位字符集了。它是美国标准信息交换代码(American Standard Code for Information Interchange)的缩写, 为美国英语通信所设计。它由128个字符组成,包括大小写字母、数字0-9、标点符号、非打印字符(换行 阅读全文
posted @ 2017-12-04 20:00 鸿钧道人 阅读(9125) 评论(0) 推荐(0) 编辑
摘要: 这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/,在这篇文章中,加入了一些新的内容与一些自己的理解。 循环神经网络(Recurrent N 阅读全文
posted @ 2017-10-18 15:01 鸿钧道人 阅读(4656) 评论(0) 推荐(1) 编辑
摘要: 目录(?)[-] 前言 SGD Momentum Nesterov Adagrad Adadelta RMSprop Adam Adamax Nadam 经验之谈 引用 目录(?)[-] 前言 (标题不能再中二了)本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去 阅读全文
posted @ 2017-09-20 14:44 鸿钧道人 阅读(510) 评论(0) 推荐(0) 编辑
摘要: Deep Learning论文笔记之(二)Sparse Filtering稀疏滤波 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一方面也方便未来自己的 阅读全文
posted @ 2017-09-09 14:00 鸿钧道人 阅读(990) 评论(0) 推荐(0) 编辑
摘要: 混合高斯模型(Mixtures of Gaussians)和EM算法 这篇讨论使用期望最大化算法(Expectation-Maximization)来进行密度估计(density estimation)。 与k-means一样,给定的训练样本是,我们将隐含类别标签用表示。与k-means的硬指定不同 阅读全文
posted @ 2017-09-08 16:57 鸿钧道人 阅读(288) 评论(0) 推荐(0) 编辑
摘要: Deep Learning论文笔记之(一)K-means特征学习 自己平时看了一些论文,但老感觉看完过后就会慢慢的淡忘,某一天重新拾起来的时候又好像没有看过一样。所以想习惯地把一些感觉有用的论文中的知识点总结整理一下,一方面在整理过程中,自己的理解也会更深,另一方面也方便未来自己的勘察。更好的还可以 阅读全文
posted @ 2017-09-08 14:13 鸿钧道人 阅读(618) 评论(0) 推荐(0) 编辑
摘要: 最近看Deep Learning的论文,看到这篇论文:3D Convolutional Neural Networks for Human Action Recognition。比较感兴趣是CNN是怎么应用于行为理解的,所以就看看。这篇论文发表在TPAMI2013。它基本上没有公式的,论文倾于从论述 阅读全文
posted @ 2017-09-08 13:22 鸿钧道人 阅读(7224) 评论(0) 推荐(0) 编辑
摘要: Q 1:Python 有哪些特点和优点? 作为一门编程入门语言,Python 主要有以下特点和优点: 可解释 具有动态特性 面向对象 简明简单 开源 具有强大的社区支持 当然,实际上 Python 的优点远不止如此,可以阅读该文档,详细了解: https://data-flair.training/ 阅读全文
posted @ 2019-10-04 12:23 鸿钧道人 阅读(672) 评论(0) 推荐(0) 编辑
摘要: ● Word2Vec中skip-gram是什么,Negative Sampling怎么做 参考回答: Word2Vec通过学习文本然后用词向量的方式表征词的语义信息,然后使得语义相似的单词在嵌入式空间中的距离很近。而在Word2Vec模型中有Skip-Gram和CBOW两种模式,Skip-Gram是 阅读全文
posted @ 2019-06-03 20:52 鸿钧道人 阅读(5938) 评论(0) 推荐(0) 编辑
摘要: ● 深度学习了解多少,有看过底层代码吗?caffe,tf? ● 除了GMM-HMM,你了解深度学习在语音识别中的应用吗? 参考回答: 讲了我用的过DNN-HMM,以及与GMM-HMM的联系与区别;然后RNN+CTC,这里我只是了解,大概讲了一下CTC损失的原理;然后提了一下CNN+LSTM。 ● 用 阅读全文
posted @ 2019-06-03 20:50 鸿钧道人 阅读(2294) 评论(0) 推荐(0) 编辑
摘要: ● BatchNormalization的作用 参考回答: 神经网络在训练的时候随着网络层数的加深,激活函数的输入值的整体分布逐渐往激活函数的取值区间上下限靠近,从而导致在反向传播时低层的神经网络的梯度消失。而BatchNormalization的作用是通过规范化的手段,将越来越偏的分布拉回到标准化 阅读全文
posted @ 2019-06-03 20:49 鸿钧道人 阅读(2692) 评论(0) 推荐(0) 编辑