摘要: pyspark环境设置及Py4JJavaError PythonRDD.collectAndServe解决! ### 最终设置环境 1. JDK: java version "1.8.0_66" 2. Python 3.7 3. spark-2.3.1-bin-hadoop2.7.tgz 4. 环境变量 * export PYSPARK_PYTHON=python3 * export PYSPARK_DRIVER_PYTHON=ipython3 阅读全文
posted @ 2018-09-07 11:00 ABeen 阅读(7559) 评论(0) 推荐(0) 编辑