python操作Hadoop/hdfs
class HadoopCommand(object): def __init__(self, path, command=HADOOP_COMMAND_PATH): self.command = command self.path = path def remove(self): command_line = "{} fs -rm -r {}".format(self.command, self.path) print(command_line) os.system(command_line) def mkdir(self): command_line = "{} fs -mkdir -p {}".format(self.command, self.path) print(command_line) os.system(command_line) def is_path_exist(self): command_line = "{} fs -test -e {}".format(self.command, self.path) print(command_line) os.system(command_line) if os.system('echo $?') != 0: raise Exception("create hdfs failed,please retry") return True def is_file_exist(self): command_line = "%s fs -count %s |awk '{print $2}' " % (self.command, self.path) print(command_line) p = os.popen(command_line) ret = p.read() p.close() if not ret or ret == '0': return False else: return True def chmod(self): command_line = "{} fs -chmod -R 777 {}".format(self.command, self.path) print(command_line) os.system(command_line) # 更新path def set(self, path): self.path = path return self """ 通过pyhdfs命令对hdfs目录进行操作 """ class HdfsCommand(object): def __init__(self, hosts, path, user_name='hadoop'): self.fs = pyhdfs.HdfsClient( hosts=hosts, user_name=user_name) self.path = path def remove(self): self.fs.delete(self.path) def mkdir(self): self.fs.mkdirs(self.path) def is_path_exist(self): self.fs.exists(self.path) def is_file_exist(self): res = self.fs.get_content_summary(self.path) if res.spaceConsumed == 0: return False else: return True
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南