spark-shell 执行脚本并传入参数
使用方法:
./spark-script.sh your_file.scala first_arg second_arg third_arg
脚本:
scala_file=$1 shift 1 arguments=$@ #set +o posix # to enable process substitution when not running on bash spark-shell --master yarn --deploy-mode client \ --queue default \ --driver-memory 2G --executor-memory 4G \ --num-executors 10 \ -i <(echo 'val args = "'$arguments'".split("\\s+")' ; cat $scala_file)
linux shell 重定向:
Command < filename > filename2 | Command命令以filename文件作为标准输入,以filename2文件作为标准输出 |
参考文献:
http://stackoverflow.com/questions/29928999/passing-command-line-arguments-to-spark-shell
作者:Lighting Cui
出处:http://tugeler.cnblogs.com/
本文版权归作者所,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。
出处:http://tugeler.cnblogs.com/
本文版权归作者所,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。