Fork me on GitHub
摘要: PySpark环境搭建需要以下的安装包或者工具: Anaconda JDK1.8 hadoop2.6 hadooponwindows-master spark2.0 py4j pyspark扩展包 1、hadoop 这里不详细说明Anaconda、JDK的安装与配置过程,主要说明与spark相关内容 阅读全文
posted @ 2020-03-28 20:05 iveBoy 阅读(3201) 评论(0) 推荐(1) 编辑
TOP