spark中生成RDD时分区规则是怎样的?(只需要看getPartitions方法的逻辑就可以了)
摘要:org.apache.spark.rdd.ParallelCollectionRDD#getPartitions org.apache.spark.rdd.HadoopRDD#getPartitions 需要注意的是getPartitions方法的触发时机是在行动算子执行的时候触发:
阅读全文
posted @
2022-01-09 12:47
坚守梦想
阅读(85)
推荐(0) 编辑
MapReduce里面的分区数和Reducer的数目的关系?
摘要:分区数=reducer数 参考资料: https://www.bilibili.com/video/BV1Qp4y1n7EN?p=69&spm_id_from=pageDriver 思考: MapTask是怎么工作的? ReduceTask是怎么工作的? MapTask如何控制分区、排序? MapT
阅读全文
posted @
2021-12-22 00:20
坚守梦想
阅读(127)
推荐(1) 编辑
spark中groupByKey 和reduceByKey 的区别?
摘要:在公司第二次写spark任务的时候,跑一小时的数据,大概4000万条客户端请求,因为使用了groupby统计客户端版本分布,结果任务先后出现了time out, out of memory异常(有时候成功,有时候失败)。 学习笔记: 他们都是要经过shuffle的,groupByKey在方法shuf
阅读全文
posted @
2021-12-21 23:55
坚守梦想
阅读(92)
推荐(0) 编辑
spark web ui默认8080端口和zookeeper的admin 8080端口冲突,怎么解决?
摘要:修改Spark Web UI默认的8080端口 修改SPARK_HOME/sbin目录下start-master.sh,查找8080定位并修改成你想要的端口便可rest if [ "$SPARK_MASTER_WEBUI_PORT" = "" ]; then SPARK_MASTER_WEBUI_P
阅读全文
posted @
2021-12-18 19:07
坚守梦想
阅读(647)
推荐(0) 编辑
如何下载spark历史版本(比如spark 3.0.0)
摘要:百度spark 》进入spark官网 》Download 》Spark release archives. 百度spark 》进入spark Download网页 》Spark release archives. 点击菜单栏的Download菜单。 Spark release archives.
阅读全文
posted @
2021-12-18 11:52
坚守梦想
阅读(961)
推荐(0) 编辑
failed to launch: nice -n 0 /home/hadoop/spark-2.3.3-bin-hadoop2.7/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://namenode1:7077
摘要:spark2.3.3安装完成之后启动报错: [hadoop@namenode1 sbin]$ ./start-all.shstarting org.apache.spark.deploy.master.Master, logging to /home/hadoop/spark-2.3.3-bin-h
阅读全文
posted @
2019-04-06 09:23
坚守梦想
阅读(2869)
推荐(0) 编辑