随笔 - 107  文章 - 2  评论 - 39  阅读 - 11万
01 2015 档案
【Spark】---- 在Linux集群上安装和配置Spark
摘要:1 安装JDK1) 进入JDK官网2) 下载JDK安装包3)配置环境变量,在/etc/profile增加以下代码JAVA_HOME=/home/hadoop/jdk1.6.0_38PATH=$JAVA_HOME/bin:$PATHCLASSPATH=.:$JAVA_HOME/jre/lib/rt.j... 阅读全文
posted @ 2015-01-28 10:15 刀锋诚心 阅读(2493) 评论(6) 推荐(4) 编辑
【Spark】---- Spark 硬件配置
摘要:存储系统Spark任务需要从一些外部的存储系统加载数据(如:HDFS 或者 HBase),重要的是存储系统要接近Spark系统,我们有如下推荐:(1)如果可能,运行Spark在相同的HDFS节点,最简单的方法是建立一个引发相同的节点上的集群独立模式(http://spark.apache.org/d... 阅读全文
posted @ 2015-01-11 20:37 刀锋诚心 阅读(1738) 评论(0) 推荐(0) 编辑
【Spark】----Spark on Yarn
摘要:最近从Hadoop 1.x 转到Hadoop 2.x 同时将一些java 程序转为Scala的程序将平台上的代码减少了很多,在实施的过程中,开到一些Spark相关的YARN的部署上都是基于之前的Hadoop 1.x的部分方式,在Hadoop2.2 +版本之上 基本上就不用这么部署了。其原因就是Had... 阅读全文
posted @ 2015-01-10 00:46 刀锋诚心 阅读(1561) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示