摘要:
下载(pre build for Hadoop 2.7) http://www.alluxio.org/download` tar xvf alluxio 1.3.0 hadoop2.7 bin.tar ./bin/alluxio bootstrapConf localhost ./bin/allu 阅读全文
摘要:
1、在pom文件中增加如下内容 2、修改的代码需要重新编译, build-->Recompile 或 build-->Rebuild Project 阅读全文
摘要:
1、下载解压2、修改conf/zeppelin-env.sh,添加如下两行 3、启动 4、访问界面,http://192.168.99.129:9999 阅读全文
摘要:
环境: 两台虚拟机: 192.168.99.129 master 192.168.99.130 slave1 1、下载解压 2、编辑conf/hbase-env.sh 3、编辑conf/hbase-site.xml 1)hbase.cluster.distributed指定了Hbase的运行模式。f 阅读全文
摘要:
1、配置集群主机免登陆,参考http://www.cnblogs.com/puroc/p/5996730.html2、修改/etc/hosts文件,增加所有主机名和IP的对应关系 3、修改spark-env.sh,生命master主机的地址(需要使用主机名,使用IP时发生了莫名奇妙的错误) 4、修改 阅读全文
摘要:
1、下载spark,解压2、复制conf/spark-env.sh和conf/log4j.properties 3、编辑spark-env.sh,设置SPARK_LOCAL_IP,docker-1为主机名,对应IP为10.10.20.204 4、运行example,执行如下命令 5、启动shell 阅读全文
摘要:
【原理】 /root/.ssh/authorized_keys这个文件用来存储登录该主机的用户公钥信息,当用户采用ssh登录时,linux会用authorized_keys文件中存储的公钥和用户登录时发送的私钥进行匹配,如果匹配成功,则用户不需要输入密码即可登录。 【配置过程】 1、执行ssh-ke 阅读全文
摘要:
【问题】 解压spark的tar包后,执行bin/spark-shell,执行val lines=sc.textFile("README.md")时,抛错error: not found: value sc 【解决办法】 这是因为shell启动时没有初始化sparkContext,修改conf/sp 阅读全文
摘要:
【Emmet(zencoding)】 1、command+shift+p==>pcip==>emmet 【AngularJs代码提示】 1、command+shift+p==>pcip==>AngularJs 【JQuery代码提示】 1、command+shift+p==>pcip==>JQuer 阅读全文
摘要:
【webstorm】 1、下载模板,地址为http://code.google.com/p/zen-coding/downloads/list,下载以下文件 WebIDE and IntelliJ IDEA Zen CSS WebIDE and IntelliJ IDEA Zen HTML WebI 阅读全文