Storm ack和fail机制再论
之前对这个的理解有些问题,今天用到有仔细梳理了一遍,记录一下
首先开启storm tracker机制的前提是,
1. 在spout emit tuple的时候,要加上第3个参数messageid
2. 在配置中acker数目至少为1
3. 在bolt emit的时候,要加上第二个参数anchor tuple,以保持tracker链路
流程,
1. 当tuple具有messageid时,spout会把该tuple加到pending list里面
并发消息给acker,通知acker开始tracker这条tuple
2. 然后再后续的bolt的处理逻辑中,你必须显式的ack或fail所有处理的tuple
如果这条tuple在整个DAG图上都成功执行了,那么acker会发现该tuple的track异或值为0
于是acker会发ack_message给spout
当然如果在DAG图上任意一个节点bolt上fail,那么acker会认为该tuple fail
于是acker会发fail_message给spout
3. 当spout收到ack或fail message如何处理,
首先是从pending list里面删掉这条tuple,因为无论ack或fail,只要得到结果,这条tuple就没有继续被cache的必要了
然后做的事是调用spout.ack或spout.fail
所以系统默认是不会做任何事的,甚至是fail后的重发,你也需要在fail里面自己实现
如何实现后面看
4. 如果一条tuple没有被ack或fail,最终是会超时的
Spout会根据system tick去rotate pending list,对于每个过时的tuple,都调用spout.fail
下面的问题就是如何做fail重发,
这个必须用户通过自己处理fail来做,系统是不会自己做的,
public void fail(Object msgId)
看看系统提供的接口,只有msgId这个参数,这里的设计不合理,其实在系统里是有cache整个msg的,只给用户一个messageid,用户如何取得原来的msg
貌似需要自己cache,然后用这个msgId去查询,太坑爹了
阿里自己的Jstorm会提供
public interface IFailValueSpout { void fail(Object msgId, List<object>values); }
这样更合理一些, 可以直接取得系统cache的msg values