由于ES集群在拉取数据时可以提供过滤功能,因此在采用ES集群作为spark运算时的数据来源时,
根据过滤条件在拉取的源头就可以过滤了(ES提供过滤),就不必像从hdfs那样必须全部加载进spark的内存根据filter算子过滤,费时费力。
代码:
import org.apache.spark.{SparkConf, SparkContext} import org.elasticsearch.spark._ object Spark2Elasticsearch { def main(args: Array[String]): Unit = { val conf =new SparkConf().setAppName("Spark2ES").setMaster("local[2]") conf.set("es.nodes","hadoop1,hadoop2,hadoop3") conf.set("es.port","9200") conf.set("es.index.auto.create","true") val sc =new SparkContext(conf) val query:String =s"""{ "query" : { "match_all" : {} }, "filter" : { "term" : { "price" : 50.55 } } }""" val rdd = sc.esRDD("store", query) println(rdd.collect().toBuffer) } }
运行结果:
采坑点:
那个sc.esRDD方法其实是ES提供的jar包里的一个隐试转换,在import org.elasticsearch.spark._这个包下,
配置mavin依赖时注意spark的配套版本,本文1.6的spark依赖如下:
本文来自博客园,作者:大码王,转载请注明原文链接:https://www.cnblogs.com/huanghanyu/
分类:
离线数据仓库
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具