01 2020 档案

摘要:为了减少数据在网络中的传输量,从而减少传输时长,增加用户体验,浏览器大都是支持Gzip压缩技术的,http的请求头 Accept-Encoding:gzip, deflate 就表示这次请求可以接受Gzip压缩后的数据,图片不要进行压缩,因为图片完全可以在项目开发中使用压缩后的图片。压缩会有一定的C 阅读全文
posted @ 2020-01-20 15:33 kuroniko 阅读(12868) 评论(0) 推荐(0) 编辑
摘要:发现java的日志里面老是报错如下日志,还有kafka的消费者收不到消息,看来docker logs kafka日志如下: 原因估计是12月23日那天磁盘空间满了,导致redis和kafka异常 解决方法: 重启了redis的这个节点172.18.144.94:7006 重启了kafka就ok了 如 阅读全文
posted @ 2020-01-16 17:22 kuroniko 阅读(996) 评论(0) 推荐(0) 编辑
摘要:因为当时是跑定时任务去插入数据,大概是这样的 //简单的定时任务,30分钟执行一次@Scheduled(cron = "0 0/30 * * * ?")public void dealInsertUserInfo(){ userService.dealInsertUserInfo();}事后也没太注 阅读全文
posted @ 2020-01-15 10:43 kuroniko 阅读(565) 评论(0) 推荐(0) 编辑
摘要:我在项目中使用mycat进行分表,分了20个表,然后发现偶尔会出现分批次insert数据丢失问题。比如从日志发现一共17020条记录,分批每次1000条insert入库,最后只insert成功了13020条。看了java的日志和mycat的日志没有发现任何error。 而且我查看了mybatis 的 阅读全文
posted @ 2020-01-13 17:39 kuroniko 阅读(1323) 评论(1) 推荐(0) 编辑

点击右上角即可分享
微信分享提示