03 2022 档案

摘要:1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 目前,Spark生态系统已经发展成为一个可应用于大规模数据处理的统一分析引擎,它是基于内存计算的大数据并行计算框架,适用于各种各样的分布式平台的系统。在Spark生态圈中包含了Spar 阅读全文
posted @ 2022-03-10 15:11 Sjh_code 阅读(118) 评论(0) 推荐(0) 编辑
摘要:一、安装Spark 1.检查基础环境hadoop,jdk 检查JDK echo $JAVA_HOME java -version 检查Hadoop start-dfs.sh jps 2.查看spark 3.配置文件 export SPARK_HOME=/usr/local/spark export 阅读全文
posted @ 2022-03-05 21:38 Sjh_code 阅读(58) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示