原创文章,转载请注明: 转载自www.cnblogs.com/tovin/p/3822985.html

 

一、软件下载

  maven下载安装 :http://10.100.209.243/share/soft/apache-maven-3.2.1-bin.zip
       jdk下载安装:
          http://10.100.209.243/share/soft/jdk-7u60-windows-i586.exe(32位)
          http://10.100.209.243/share/soft/jdk-7u60-windows-x64.exe(64位)
     eclipse下载安装:    

  http://www.eclipse.org/downloads/download.php?file=/technology/epp/downloads/r     elease/kepler/SR2/eclipse-jee-kepler-SR2-win32.zip(32位)
  http://www.eclipse.org/downloads/download.php?file=/technology/epp/downloads/r    elease/kepler/SR2/eclipse-jee-kepler-SR2-win32-x86_64.zip(64位)   

  scala下载安装:http://www.scala-lang.org/files/archive/scala-2.10.4.msi

  

 

二、环境变量配置

  JAVA_HOME=C:\Program Files\Java\jdk1.7.0_17
     M2_HOME=D:\soft\apache-maven-3.2.1
     SCALA_HOME=D:\soft\scala-2.10
     PATH=%PATH%;%JAVA_HOME%\bin;%M2_HOME%\bin;%SCALA_HOME%\bin   

  

三、Eclipse配置

  1、eclipse scala插件安装    
       在Eclipse中,依次选择“Help” –> “Eclipse Marketplace”,输入scala安装Scala IDE

    

 

  2、eclipse配置jdk   

    进入Window->Preferences配置jdk

    

 

  3、eclipse配置maven

       

 

四、Spark应用开发

  1、创建maven工程

    

  2、修改pom.xml添加依赖包

    

    注意:如果有依赖除hadoop、spark之外的包,打包时需要把依赖包也加进去。为了将依赖包加入,需要在pom.xml中加入如下内容  

   

  3、转成java工程(方便使用Spark Java API进行开发)

  

  4、编写代码编译、打包    
      工程点右键选择分别执行Maven clean、Maven install,至此在工程项目下target目录会有目标jar包生成

    

 

  5、运行Spark应用   

    上传编译好的jar包至spark集群client,执行以下命令运行程序   
       /usr/local/spark/bin/spark-submit  --class YourMainClass --master yarn-cluster YourJarPath
    YourMainClass:main函数类名
       YourJarPath:jar包绝对路径

 

 

原创文章,转载请注明: 转载自www.cnblogs.com/tovin/p/3822985.html

posted on 2014-07-03 18:24  tovin  阅读(10763)  评论(0编辑  收藏  举报