摘要:
pyspark环境设置及Py4JJavaError PythonRDD.collectAndServe解决!
### 最终设置环境
1. JDK: java version "1.8.0_66"
2. Python 3.7
3. spark-2.3.1-bin-hadoop2.7.tgz
4. 环境变量
* export PYSPARK_PYTHON=python3
* export PYSPARK_DRIVER_PYTHON=ipython3 阅读全文