摘要: Spark 的安装并不依赖于安装 Hadoop。 当在本地运行Spark的时候,Hadoop并不是必要条件,但依然在运行spark的时候会有一些错误,但你忽略即可,无伤大雅。 只有在集群上运行Spark的时候,才需要 Hadoop 环境:Windows 10 安装分为以下步骤: Java的安装(JD 阅读全文
posted @ 2020-07-21 16:14 何大卫 阅读(2516) 评论(0) 推荐(0) 编辑