摘要: 一、安装Spark 1. 检查基础环境hadoop,jdk 2. 配置文件 3. 配置环境变量 用 gedit ~/.bashrc 打开配置文件 插入以下代码 然后,用 source ~/.bashrc 使刚配置环境变量生效 4. 试运行Python代码 先运行spark 然后用python命令测试 阅读全文
posted @ 2022-03-02 14:53 不知道我什么名字 阅读(59) 评论(0) 推荐(0) 编辑