10 2019 档案

摘要:主动学习(Active Learning)介绍 我们使用一些传统的监督学习方法做分类的时候,往往是训练样本规模越大,分类的效果就越好。但是在现实生活的很多场景中,标记样本的获取是比较困难的,这需要领域内的专家来进行人工标注,所花费的时间成本和经济成本都是很大的。而且,如果训练样本的规模过于庞大,训练 阅读全文
posted @ 2019-10-31 15:22 静悟生慧 阅读(563) 评论(0) 推荐(0) 编辑
摘要:《凤翔轩》 诸葛亮 凤翱翔于千仞兮,非梧不栖 士伏处于一方兮,非主不依 乐躬耕于垄亩兮,吾爱吾庐聊寄傲于琴书兮,以待天时 鹏奋飞于北溟兮,击水千里 展经纶于天下兮,开创镃基(zi第一声,一种农具,在这里象征基业,注) 救生灵于涂炭兮,到处平夷立功名于金石兮,拂袖而归 阅读全文
posted @ 2019-10-30 20:40 静悟生慧 阅读(2502) 评论(0) 推荐(0) 编辑
摘要:参考: https://blog.csdn.net/Snoopy_Yuan/article/details/75808006 阅读全文
posted @ 2019-10-29 12:27 静悟生慧 阅读(498) 评论(0) 推荐(0) 编辑
摘要:1、时间序列基本规则法-周期因子法 提取时间序列的周期性特征进行预测,参考:时间序列规则法快速入门 计算周期因子factors 计算base 预测=base*factors 观察序列,当序列存在周期性时,可以用周期因子法做为baseline 在天池竞赛-资金流入流出预测-挑战Baseline-天池大 阅读全文
posted @ 2019-10-28 15:48 静悟生慧 阅读(2336) 评论(0) 推荐(0) 编辑
摘要:截取完整网页图片的方法:https://sspai.com/post/42193 要想使用截图功能,你需要首先确保 Chrome 已升级至 59 或更高版本。在想要截图的网页中,首先按下 ⌘Command + ⌥Option + I(Windows 为 F12)快捷键,召唤出调试界面。 按下 ⌘Co 阅读全文
posted @ 2019-10-24 12:10 静悟生慧 阅读(1025) 评论(0) 推荐(0) 编辑
摘要:LSTM和双向LSTM讲解及实践 目录 RNN的长期依赖问题LSTM原理讲解双向LSTM原理讲解Keras实现LSTM和双向LSTM 一、RNN的长期依赖问题 在上篇文章中介绍的循环神经网络RNN在训练的过程中会有长期依赖的问题,这是由于RNN模型在训练时会遇到梯度消失(大部分情况)或者梯度爆炸(很 阅读全文
posted @ 2019-10-21 12:12 静悟生慧 阅读(19742) 评论(1) 推荐(0) 编辑
摘要:比较: https://www.jianshu.com/p/3774d46b665e https://blog.csdn.net/sinat_33741547/article/details/82821782 https://www.cnblogs.com/jins-note/p/9715610.h 阅读全文
posted @ 2019-10-17 13:23 静悟生慧 阅读(926) 评论(0) 推荐(0) 编辑
摘要:如何解决消息队列的延时以及过期失效问题?消息队列满了以后该怎么处理? 思考 解决思路 由于有的消息队列有过期失效的机制,造成了大量的消息丢失。这种情况只能将丢失的那批数据,写个临时程序,一点一点的查出来,然后重新灌入mq里面去。 大量消息在mq里积压了几个小时了还没解决 几千万条数据在MQ里积压了七 阅读全文
posted @ 2019-10-17 10:01 静悟生慧 阅读(5357) 评论(0) 推荐(0) 编辑
摘要:一.互联网广告特征工程 博文《互联网广告综述之点击率系统》论述了互联网广告的点击率系统,可以看到,其中的logistic regression模型是比较简单而且实用的,其训练方法虽然有多种,但目标是一致的,训练结果对效果的影响是比较大,但是训练方法本身,对效果的影响却不是决定性的,因为训练的是每个特 阅读全文
posted @ 2019-10-16 16:51 静悟生慧 阅读(556) 评论(0) 推荐(0) 编辑
摘要:Navicat 下载地址: https://blog.csdn.net/u013600314/article/details/80605981 Navicat 连接Mysql 的方法:https://jingyan.baidu.com/article/656db9182612cbe380249c78 阅读全文
posted @ 2019-10-16 11:25 静悟生慧 阅读(762) 评论(0) 推荐(0) 编辑
摘要:使用Multi-head Self-Attention进行自动特征学习的CTR模型 https://blog.csdn.net/u012151283/article/details/85310370 nlp中的Attention注意力机制+Transformer详解 https://zhuanlan 阅读全文
posted @ 2019-10-15 16:02 静悟生慧 阅读(1190) 评论(0) 推荐(0) 编辑
摘要:multi-head attention ■ 论文 | Attention Is All You Need ■ 链接 | https://www.paperweekly.site/papers/224 ■ 源码 | https://github.com/Kyubyong/transformer ■ 阅读全文
posted @ 2019-10-15 14:43 静悟生慧 阅读(1419) 评论(0) 推荐(0) 编辑
摘要:过去的首页推荐更多的是在相关性推荐的单一数据目标上进行优化,如今天猫首页的推荐系统不仅仅考虑推荐结果的相关性,还在推荐结果的发现性、多样性等方面上做了更深度的优化,"效率和体验并重"成为天猫首页新的优化目标。Graph Embedding、Transformer、深度学习、知识图谱等新的技术已先后在 阅读全文
posted @ 2019-10-14 10:37 静悟生慧 阅读(1164) 评论(0) 推荐(0) 编辑
摘要:ReadFromJDQ3 1)消费JDQ的必要信息,通过参数传入,有6个参数 2)获取flink JDQ3的鉴权客户端 3)根据鉴权客户端获取消费属性的配置 4)构建应用环境ENV和checkpoint机制 5)构建JDQ3(基于kafka)对应的消费客户端,flink用来消费实时订单消息 6) 根 阅读全文
posted @ 2019-10-12 10:25 静悟生慧 阅读(604) 评论(0) 推荐(0) 编辑
摘要:在解决es入库问题上,之前使用过rest方式,经过一段时间的测试发现千万级别的数据会存在10至上百条数据的丢失问题, 在需要保证数据的准确性的场景下,rest方式并不能保证结果的准确性,因此采用了elasticsearch的BulkProcessor方式来进行数据入库, 实际上采用es客户端不同,r 阅读全文
posted @ 2019-10-10 21:40 静悟生慧 阅读(5666) 评论(0) 推荐(1) 编辑
摘要:1.redis是什么? redis(remote dictionary server):是一个以key-value形式存储于内存中的数据库. 提供了 String / List / Set / Sort Set /Hash 五种数据结构。 服务器在断电之后,仍然可以恢复到断电之前的状态。 简言之:R 阅读全文
posted @ 2019-10-10 17:29 静悟生慧 阅读(330) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示