对于大规模机器学习的理解和认识
这篇文章,9分转载转述;很少有自己的见解;
首先先露怯:自己真正是去年开始接触机器学习当中的深度学习当中的卷积神经网络当中的前向预测部分;
不过,刚才看完了这里的讨论,(知乎,对于大规模机器学习的理解和认识),
现在的理解还是得到了强化:自己一直觉得这个领域的理论基础欠缺,目前还是处在经验验证的阶段,至少无法预测最优和最佳适用场景;
所以,刚刚接触的时候,觉得核心就是对于系统实现工作的掌握,掌握代码实现的所有细节;因为在大家都是摸瞎的情况下,对于工具的掌握往往决定了工作的效率
或者运行效率;与刚才贴出的连接的看法类似;
但是,如果对于理论背景模糊,那么唯一青霞的,我理解应该就是问题本身,即使暂时没有对于问题的形式化描述给出信服有力地证明和形式化描述,但是
这一个个的问题才是与问题直接相关联,而那些平台工具还只是停留在“术”上面,对于这个理论的推演还是贡献有限;
非常浅薄的认识;
之前笑谈DL这部分的核心竞争力是调参,调侃归调侃,如果要严肃的讨论,调参目的不过是提高预测/分类的准确率,还是需要不少trick,并对于应用场景和数据
有着深入的理解;今天看到这么一篇文章,讲述如果提高机器模型准确率的,值得一读;数据集需要为它选用适当的算法来获取最高的准确率,而选择依赖经验和不断的尝试;
“机器学习算法是由参数驱动的”; 这里还有另外一篇《Real-World Machine Learning: Model Evaluation and Optimization》 (CH-LINK),也是经验之谈,非常值得
一读;其实更需要强调的是模型的假设构建;这篇文章强调在后续的两个步骤:model-evaluation and model-optimization;文章开张主旨句:监督学习的主要任务就是用模型实现精准的预测;侧重评估,而非上一篇文章中侧重训练和建模,例如介绍了cross-validation的两种常见方法holdout和k-fold/leave-one-out;
未完待续。。。。