导入jar包,比如导入pymysql
1 jar加载
查看源码运行脚本:%SPARK_HOME%\bin\spark-class2.cmd 关于jar包加载的说明。
1.1 将包放到文件夹路径%SPARK_HOME%\jars里
anaconda是一样的哈,不需要额外改路径。
下载地址去mysql官网下哈,下载对应mysql版本的。https://dev.mysql.com/downloads/connector/j/
解压后就是jar包。
1.2 重启jupyter后可以生效。
2 脚本里import pymysql
然后可以直接写连接串了。
df2 = spark.read \ .format("jdbc") \ .option("url", url_Mysql) \ .option("dbtable", "apps_small") \ .option("user", "spark") \ .option("password", "123456") \ .load()
IT之界浩瀚无边
只有持之恒心方可打开一窗
偷窥此中奥秘之一二
取之受益,亦珍而视之
学之留香,方不失风范
共勉 共进
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· winform 绘制太阳,地球,月球 运作规律
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人