scala打包jar并在Linux下运行
打开
File -> Project Structure
Artifacts -> + -> jar -> From Modules with dependisies...
选择需要打包的文件的 Main
函数所在路径文件:
Main Class -> Ok
新建一个文件夹用于存放 .MP
文件,而且新建的文件夹一定要在 src
目录下!
然后 yes
更改 jar
包的名字,然后 Apply
:
切记这里还有一个位置是存放打包完成后的 jar
存放位置 Output Directory
:
可以看到出现了新的文件夹和文件:
build -> build artifacts
第一次建立选择 build
:
下一次修改的时候就直接 rebuild
就可以了
将其传输到 Linux
目录下,运行命令删除不必要的文件:
zip -d 你的jar名字.jar META-INF/*.RSA META-INF/*.DSA META-INF/*.SF
然后输入命令运行:
bash spark-submit --class MF字段 你的jar名字.jar
其中 MF字段
为你的 MF
文件中的 Main-Class
:
如果出现错误:
请自行添加 bash
的环境变量
或者命令:
/usr/spark/spark-2.0.2-bin-hadoop2.6/bin/spark-submit --class MF字段 /jarPath/name.jar