摘要:
python和pytorch中的类型对比: 我们可以发现pytorch中每中类型后面都有一个Tensor。 ![image](https://img2023.cnblogs.com/blog/1914163/202307/1914163-20230729211210389-1808416709.pn 阅读全文
摘要:
# 1 词嵌入和词向量 ## 1.1 什么是词嵌入: 咱们居住在各个国家的人们通过各自的语言进行交流,但机器无法直接理解人类的语言,所以需要先把人类的语言“计算机化”,那如何变成计算机可以理解的语言呢? * 首先,这个数学模型 f(比如神经网络、SVM)只接受数值型输入; * 而 NLP 里的词语, 阅读全文
摘要:
本文将使用 Tensorflow 中包含的 Fashion MNIST 数据集。该数据集在训练集中包含 60,000 张灰度图像,在测试集中包含 10,000 张图像。 每张图片代表属于 10 个类别之一的单品(“T 恤/上衣”、“裤子”、“套头衫”等)。 因此这是一个多类分类问题。 首先我们需要安 阅读全文
摘要:
# 1 贝叶斯优化的基本原理 贝叶斯优化方法是当前超参数优化领域的SOTA手段,可以被认为是当前最为先进的优化框架,它可以被应用于AutoML的各大领域,不止限于超参数搜索HPO的领域,更是可以被用于神经网络架构搜索NAS以及元学习等先进的领域。现代几乎所有在效率和效果上取得优异成果的超参数优化方法 阅读全文
摘要:
# 1 堆叠法Stacking ## 1.1 堆叠法的基本思想 堆叠法Stacking是近年来模型融合领域最为热门的方法,它不仅是竞赛冠军队最常采用的融合方法之一,也是工业中实际落地人工智能时会考虑的方案之一。作为强学习器的融合方法,Stacking集**模型效果好、可解释性强、适用复杂数据**三大 阅读全文
摘要:
# 1 认识模型融合 在机器学习竞赛界,流传着一句话:**当一切都无效的时候,选择模型融合**。这句话出自一位史上最年轻的Kaggle Master之口,无疑是彰显了模型融合这一技巧在整个机器学习世界的地位。如果说机器学习是人工智能技术中的王后,集成学习(ensemble Learning)就是王后 阅读全文
摘要:
# 1 XGBoost的基础思想与实现 ## 1.1 XGBoost pk 梯度提升树 极限提升树XGBoost(Extreme Gradient Boosting,XGB,发音/æks-g-boost/)是基于梯度提升树GBDT全面升级的新一代提升算法,也是提升家族中最富盛名、最灵活、最被机器学习 阅读全文
摘要:
上一个博客AdaBoost算法只能说是开山鼻祖,今天要说的这个GBDT才是Boosting领域里面最为强大的算法之一。XGBoost和LightGBM也是在这个算法的基础上进行改进。 # 1 梯度提升树的基本思想 梯度提升树(Gradient Boosting Decision Tree,GBDT) 阅读全文
摘要:
# 1 Boosting方法的基本思想 在集成学习的“弱分类器集成”领域,除了降低方差来降低整体泛化误差的装袋法Bagging,还有专注于**降低整体偏差**来降低泛化误差的提升法Boosting。相比起操作简单、大道至简的Bagging算法,Boosting算法在操作和原理上的难度都更大,但由于专 阅读全文
摘要:
集成学习是工业领域中应用最广泛的机器学习算法。实际工业环境下的数据量往往十分巨大,一个训练好的集成算法的复杂程度与训练数据量高度相关,因此企业在应用机器学习时通常会提供强大的计算资源作为支持,也因此当代的大部分集成算法都是支持GPU运算的(相对的,如果你发现一个算法在任何机器学习库中,都没有接入GP 阅读全文