LangChain:一个让你的LLM变得更强大的开源框架
摘要:前言 你可能听说过,最近几个月出现了很多人工智能的应用程序。你可能也在用一些这样的应用。 比如ChatPDF和CustomGPT AI这些AI工具,它们可以帮我们省去很多麻烦,我们不用再翻来覆去地看文档,就能找到想要的答案。它们让AI为我们做了很多工作。 那么,开发这些工具的人是怎么做到的呢?其实,
阅读全文
posted @
2023-07-03 15:25
知识天地
阅读(713)
推荐(0) 编辑
机器学习面试题总结(笔记)
摘要:一 面试题概述 面试的时候,面试官会结合你的回答和你的简历来询问你,所以在写简历的时候,简历上所写的所有内容在写的时候必须自己反问一下自己,这个知识点懂不懂。 面试其实是一个沟通技巧的考量,在面试的时候要“灵活”; 在有一些问题上,如果不会,那么直接说不会就可以;但是在一些比较关键的问题上,如果这个
阅读全文
posted @
2021-09-16 15:01
知识天地
阅读(1071)
推荐(0) 编辑
Tensorflow 损失函数(loss function)及自定义损失函数(三)
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/limiyudianzi/article/details/80697711 我主要分三篇文章给大家介绍tensorflow的损失函数,本篇为
阅读全文
posted @
2019-09-05 09:48
知识天地
阅读(4106)
推荐(0) 编辑
深度学习剖根问底: Adam优化算法的由来
摘要:在调整模型更新权重和偏差参数的方式时,你是否考虑过哪种优化算法能使模型产生更好且更快的效果?应该用梯度下降,随机梯度下降,还是Adam方法? 这篇文章介绍了不同优化算法之间的主要区别,以及如何选择最佳的优化方法。 什么是优化算法? 优化算法的功能,是通过改善训练方式,来最小化(或最大化)损失函数E(
阅读全文
posted @
2019-09-05 09:36
知识天地
阅读(1217)
推荐(0) 编辑
深度排序模型概述(一)Wide&Deep/xDeepFM
摘要:本文记录几个在广告和推荐里面rank阶段常用的模型。广告领域机器学习问题的输入其实很大程度了影响了模型的选择,因为输入一般维度非常高,稀疏,同时包含连续性特征和离散型特征。模型即使到现在DeepFM类的方法,其实也都很简单。模型的发展主要体现于对特征的充分挖掘上,比如利用低阶和高阶特征、尝试自动学习
阅读全文
posted @
2019-09-04 21:51
知识天地
阅读(1707)
推荐(0) 编辑
机器学习排序算法:RankNet to LambdaRank to LambdaMART
摘要:使用机器学习排序算法LambdaMART有一段时间了,但一直没有真正弄清楚算法中的所有细节。 学习过程中细读了两篇不错的博文,推荐给大家: 梯度提升树(GBDT)原理小结 徐博From RankNet to LambdaRank to LambdaMART: An Overview 但经过一番搜寻之
阅读全文
posted @
2019-08-30 08:24
知识天地
阅读(749)
推荐(0) 编辑
主题模型TopicModel:主题模型LDA的应用
摘要:http://blog.csdn.net/pipisorry/article/details/45665779 主题模型LDA的应用 拿到这些topic后继续后面的这些应用怎么做呢:除了推断出这些主题,LDA还可以推断每篇文章在主题上的分布。例如,X文章大概有60%在讨论“空间探索”,30%关于“电
阅读全文
posted @
2019-08-29 20:15
知识天地
阅读(2578)
推荐(0) 编辑
主题模型(LDA)(一)--通俗理解与简单应用
摘要:版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/qq_39422642/article/details/78730662 <!-- flowchart 箭头图标 勿删 --> 这篇文章主要
阅读全文
posted @
2019-08-29 19:55
知识天地
阅读(1342)
推荐(0) 编辑
【深度学习】深入理解Batch Normalization批标准化
摘要:这几天面试经常被问到BN层的原理,虽然回答上来了,但还是感觉答得不是很好,今天仔细研究了一下Batch Normalization的原理,以下为参考网上几篇文章总结得出。 Batch Normalization作为最近一年来DL的重要成果,已经广泛被证明其有效性和重要性。虽然有些细节处理还解释不清其
阅读全文
posted @
2019-08-26 16:19
知识天地
阅读(381)
推荐(0) 编辑
强大而精致的机器学习调参方法:贝叶斯优化
摘要:一、简介 贝叶斯优化用于机器学习调参由J. Snoek(2012)提出,主要思想是,给定优化的目标函数(广义的函数,只需指定输入和输出即可,无需知道内部结构以及数学性质),通过不断地添加样本点来更新目标函数的后验分布(高斯过程,直到后验分布基本贴合于真实分布。简单的说,就是考虑了上一次参数的信息**
阅读全文
posted @
2019-08-26 11:11
知识天地
阅读(2105)
推荐(0) 编辑
深度学习调参技巧
摘要:完整机器学习实现代码GitHub欢迎转载,转载请注明出处https://www.cnblogs.com/huangyc/p/10111234.html欢迎沟通交流: 339408769@qq.com 0. 目录 1. 前言 2. 深度学习中的主要参数 3. 自动调参 3.1 Gird Search
阅读全文
posted @
2019-08-26 10:05
知识天地
阅读(932)
推荐(0) 编辑
深度学习调参技巧总结
摘要:做dl也有一段时间了,积累了一些经验,也在网上看到一些别人的经验。 为了面试,结合知乎上面的问答,我也总结了一下,欢迎大家补充。 知乎 深度学习调参有哪些技巧? 一. 初始化 有人用normal初始化cnn的参数,最后acc只能到70%多,仅仅改成xavier,acc可以到98%。 二.从理解CNN
阅读全文
posted @
2019-08-22 12:30
知识天地
阅读(1073)
推荐(0) 编辑
如何选择神经网络的超参数
摘要:原 十、如何选择神经网络的超参数 2017年08月18日 10:33:06 独孤呆博 阅读数 21041 版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.csdn.net/dugudaibo/article
阅读全文
posted @
2019-08-22 12:28
知识天地
阅读(1320)
推荐(0) 编辑
深度学习网络调参技巧
摘要:本文转载自:https://zhuanlan.zhihu.com/p/24720954?utm_source=zhihu&utm_medium=social 转载请注明:炼丹实验室 之前曾经写过一篇文章,讲了一些深度学习训练的技巧,其中包含了部分调参心得:深度学习训练心得。不过由于一般深度学习实验,
阅读全文
posted @
2019-08-22 12:28
知识天地
阅读(1139)
推荐(1) 编辑
深度学习调参策略(二)
摘要:超参数(Hyper-Parameter)是困扰神经网络训练的问题之一,因为这些参数不可通过常规方法学习获得。 神经网络经典五大超参数: 学习率(Leraning Rate)、权值初始化(Weight Initialization)、网络层数(Layers) 单层神经元数(Units)、正则惩罚项(R
阅读全文
posted @
2019-08-22 12:25
知识天地
阅读(577)
推荐(0) 编辑
深度学习调参策略(一)
摘要:经常会被问到你用深度学习训练模型时怎么样改善你的结果呢?然后每次都懵逼了,一是自己懂的不多,二是实验的不多,三是记性不行忘记了。所以写这篇博客,记录下别人以及自己的一些经验。 Ilya Sutskever(Hinton的学生)讲述了有关深度学习的见解及实用建议: 获取数据:确保要有高质量的输入/输出
阅读全文
posted @
2019-08-22 12:23
知识天地
阅读(887)
推荐(0) 编辑
深度学习_调参经验
摘要:面对一个图像分类问题,可以有以下步骤: 1.建立一个简单的CNN模型,一方面能够快速地run一个模型,以了解这个任务的难度 卷积层1:卷积核大小3*3,卷积核移动步长1,卷积核个数64,池化大小2*2,池化步长2,池化类型为最大池化,激活函数ReLU。 卷积层2:卷积核大小3*3,卷积核移动步长1,
阅读全文
posted @
2019-08-22 12:22
知识天地
阅读(707)
推荐(0) 编辑
深度学习调参经验汇总
摘要:此篇文章是在原创教程这个栏目下,但实际上是一篇汇总整理文章。相信大家在做深度学习时对调参尤为无奈,经验不足乱调一通,或者参数太多无从下手,我也如此。希望通过此文汇总网上一些调参的经验方法,供大家参考。此文会对网上每一篇调参文章做简练的总结与提炼,以此为此文的组成单元,并附上原文的链接。如果遇到不对的
阅读全文
posted @
2019-08-22 12:19
知识天地
阅读(5108)
推荐(0) 编辑
深度学习调参经验
摘要:作者:Captain Jack链接:https://www.zhihu.com/question/25097993/answer/127472322来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 我现在的工作内容主要就是使用CNN做CV任务. 干调参这种活也有两年时间
阅读全文
posted @
2019-08-22 11:43
知识天地
阅读(217)
推荐(0) 编辑
Gated CNN 阅读笔记
摘要:之前看过TCN,稍微了解了一下语言模型,这篇论文也是对语言模型建模,但是由于对语言模型了解不深,一些常用数据处理方法,训练损失的计算包括残差都没有系统的看过,只是参考网上代码对论文做了粗浅的复现。开学以来通过看的几篇论文及复现基本掌握了tensorflow的基本使用,了解了“数据处理-模型构建-训练
阅读全文
posted @
2019-08-20 16:06
知识天地
阅读(2301)
推荐(0) 编辑