上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 69 下一页
摘要: 如何解决消息队列的延时以及过期失效问题?消息队列满了以后该怎么处理? 思考 解决思路 由于有的消息队列有过期失效的机制,造成了大量的消息丢失。这种情况只能将丢失的那批数据,写个临时程序,一点一点的查出来,然后重新灌入mq里面去。 大量消息在mq里积压了几个小时了还没解决 几千万条数据在MQ里积压了七 阅读全文
posted @ 2019-10-17 10:01 静悟生慧 阅读(5340) 评论(0) 推荐(0) 编辑
摘要: 一.互联网广告特征工程 博文《互联网广告综述之点击率系统》论述了互联网广告的点击率系统,可以看到,其中的logistic regression模型是比较简单而且实用的,其训练方法虽然有多种,但目标是一致的,训练结果对效果的影响是比较大,但是训练方法本身,对效果的影响却不是决定性的,因为训练的是每个特 阅读全文
posted @ 2019-10-16 16:51 静悟生慧 阅读(546) 评论(0) 推荐(0) 编辑
摘要: Navicat 下载地址: https://blog.csdn.net/u013600314/article/details/80605981 Navicat 连接Mysql 的方法:https://jingyan.baidu.com/article/656db9182612cbe380249c78 阅读全文
posted @ 2019-10-16 11:25 静悟生慧 阅读(761) 评论(0) 推荐(0) 编辑
摘要: 使用Multi-head Self-Attention进行自动特征学习的CTR模型 https://blog.csdn.net/u012151283/article/details/85310370 nlp中的Attention注意力机制+Transformer详解 https://zhuanlan 阅读全文
posted @ 2019-10-15 16:02 静悟生慧 阅读(1154) 评论(0) 推荐(0) 编辑
摘要: multi-head attention ■ 论文 | Attention Is All You Need ■ 链接 | https://www.paperweekly.site/papers/224 ■ 源码 | https://github.com/Kyubyong/transformer ■ 阅读全文
posted @ 2019-10-15 14:43 静悟生慧 阅读(1406) 评论(0) 推荐(0) 编辑
摘要: 过去的首页推荐更多的是在相关性推荐的单一数据目标上进行优化,如今天猫首页的推荐系统不仅仅考虑推荐结果的相关性,还在推荐结果的发现性、多样性等方面上做了更深度的优化,"效率和体验并重"成为天猫首页新的优化目标。Graph Embedding、Transformer、深度学习、知识图谱等新的技术已先后在 阅读全文
posted @ 2019-10-14 10:37 静悟生慧 阅读(1142) 评论(0) 推荐(0) 编辑
摘要: ReadFromJDQ3 1)消费JDQ的必要信息,通过参数传入,有6个参数 2)获取flink JDQ3的鉴权客户端 3)根据鉴权客户端获取消费属性的配置 4)构建应用环境ENV和checkpoint机制 5)构建JDQ3(基于kafka)对应的消费客户端,flink用来消费实时订单消息 6) 根 阅读全文
posted @ 2019-10-12 10:25 静悟生慧 阅读(593) 评论(0) 推荐(0) 编辑
摘要: 在解决es入库问题上,之前使用过rest方式,经过一段时间的测试发现千万级别的数据会存在10至上百条数据的丢失问题, 在需要保证数据的准确性的场景下,rest方式并不能保证结果的准确性,因此采用了elasticsearch的BulkProcessor方式来进行数据入库, 实际上采用es客户端不同,r 阅读全文
posted @ 2019-10-10 21:40 静悟生慧 阅读(5602) 评论(0) 推荐(1) 编辑
摘要: 1.redis是什么? redis(remote dictionary server):是一个以key-value形式存储于内存中的数据库. 提供了 String / List / Set / Sort Set /Hash 五种数据结构。 服务器在断电之后,仍然可以恢复到断电之前的状态。 简言之:R 阅读全文
posted @ 2019-10-10 17:29 静悟生慧 阅读(328) 评论(0) 推荐(0) 编辑
摘要: Kafka的Topic和Partition Topic Topic是Kafka数据写入操作的基本单元,可以指定副本 Partition 每个Partition只会在一个Broker上,物理上每个Partition对应的是一个文件夹 Kafka默认使用的是hash进行分区,所以会出现不同的分区数据不一 阅读全文
posted @ 2019-09-27 15:28 静悟生慧 阅读(2962) 评论(0) 推荐(0) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 16 17 ··· 69 下一页