Windows下的PyCharm与Ubuntu下的Python的交互

实验环境:

        Windows10

  Ubuntu18.04

  Pycharm2019.1.2(专业版)

  Python3.6.5

1、在Windows下与Ubuntu下新建目录,作为两个环节之间的连接桥梁

   1.1  Windows下的D盘新建SparkProgram目录,具体的路径地址如下 D:\SparkProgram

  1.2  在Ubuntu下新建SparkProgram目录,具体的路径地址如下/home/hadoop/SparkProgram

# 新建目录
$ sudo mkdir /home/hadoop/SparkProgram

# 修改目录的所有者权限
$ sudo -R hadoop:hadoop /home/hadoop/SparkProgram

2、查看Ubuntu的网络环境以及python的版本

# 查看网络配置,获取IP地址
$ ifconfig

$ whereis python
# 查看当前的python安装情况,获得python执行目录

 网络环境

   Python安装情况

3、Pycharm的配置

  3.1、打开Pycharm,然后依次打开 File > Open ,找到 D:\SparkProgram 目录 并打开,如下

  3.2   打开Pycharm,然后依次打开 File > setting ,然后在Project:SparkProgram下找到 Project Interpreter,打开当前界面下的设置(右侧小齿轮图标),并进行添加(Add)操作,如图:

  3.3 在新增的设置上,选择 SSH Interpreter 设置 , 通过第二步获取的IP地址以及Ubuntu的用户名进行参数设置,如下图

  3.4   配置完成后进入下一步的配置,要求输入Ubuntu的密码,如下图:

  3.5  配置完成后,将进入Python编译器的配置以及映射目录的处理,在这一个过程中,依据第二步获取的python位置,以及第一步创建的映射目录进行处理,这里需要注意,在完成Python编译器的设置后,记得勾选  Execute code using this interpreter with root privileges via sudo 选项,这里关于目录映射的修改可以通过 Sysc foldres 右侧的文件图标进行

4、 修改 SSH Terminal 下的默认编码,将其设置为 UTF-8

5  在Tools下找到Deployment,打开其中的Configuration,进行mapping的设置 , 这里Local path 指的是 第一步创建的  D:\SparkProgram ; Deployment path 指的是 /home/hadoop/SparkProgram ,如图

6 测试

  在D:\SparkProgram下,新建一个demo.py 文件,输入如下内容,

import matplotlib.pyplot as plt
#创建图形对象
fig = plt.figure()
#添加子图区域,参数值表示[left, bottom, width, height ]
ax = fig.add_axes([0,0,1,1])
#准备数据
langs = ['C', 'C++', 'Java', 'Python', 'PHP']
students = [23,17,35,29,12]
#绘制柱状图
ax.bar(langs,students)
plt.show()

  选择当前创建的文件按,在Tools下找到Deployment,点击 upload to hadoop@192.168.40.128  ,进行文件上传, 然后去Ubuntu的 /home/hadoop/SparkProgram 目录下,查看当前的内容

  上传后

  在Ubuntu进行查看

# 切换目录
$ cd /home/hadoop/SparkProgram

# 查看内容
$ ls

  在PyCharm运行demo.py