04_Windows平台Spark开发环境构建

Spark的开发环境,可以基于IDEA+Scala插件,最终将打包得到的jar文件放入Linux服务器上的Spark上运行

如果是Python的小伙伴,可以在Windows上部署spark+hadoop+pycharm开发环境进行本地开发和调测,最后将py文件放入Linux服务器上的Spark运行

 

#### 先挖坑,后填坑 #### 

 

posted @ 2017-12-22 11:45  shayzhang  阅读(213)  评论(0编辑  收藏  举报