记Spark写数据到Elasticsearch的报错
刚开始报错
NoNodeAvailableException[None of the configured nodes are available: [{#transport#-1}{vYp6vo2qS0yskpnpqFGVDg}{node01}{192.168.81.100:9300}]]
网上查了各种资料,发现这个报错是应为netty的包冲突导致的。 在proprojectStructure中把冲突的netty的包删掉就好了(我是直接删了低版本的)
然后又报了这个错
java.lang.IllegalStateException: availableProcessors is already set to [8], rejecting [8]
在main方法里加了
System.setProperty("es.set.netty.runtime.available.processors", "false")
这样一句。 就ok了
小白一枚不知道原因,希望多年以后回来看看知道了再补充下