pyspark读取hdfs 二进制文件 pickle 模型文件 model
pyspark读取hdfs 二进制文件 pickle 模型文件 model
我们在python环境训练的机器学习、深度学习模型二进制文件,比如pickle
如果需要提交到spark-submit上,需要先把文件上传到hdfs目录下,然后读取
hadoop fs -put 模型文件 hdfs目录
如
hadoop fs -put /opt/tmp/model_phone.pkl /home/你的用户名/env/
from pyspark import SparkConf, SparkContext conf = SparkConf().setAppName("My test App") sc = SparkContext(conf=conf) """ lines = sc.textFile("/tmp/tmp.txt") print lines.count() print lines.first() """ def load_model(sc, model_filename): rdd = sc.binaryFiles("/tmp/test.pkl")--你的hdfs目录 import pickle from io import BytesIO data_arr = rdd.values().map(lambda p: pickle.load(BytesIO(p))).collect() print(data_arr) load_model(sc, None)
model = load_model(sc, None)[0]
参考:https://www.cnblogs.com/bonelee/p/11172280.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· Manus爆火,是硬核还是营销?
· 一文读懂知识蒸馏
· 终于写完轮子一部分:tcp代理 了,记录一下
2019-05-09 各种算法面试简介--面试用一句话陈述