上一页 1 2 3 4 5 6 ··· 15 下一页
摘要: 1.第一步 2.第二部输入namenodeservice-id 3.第三部添加服务 4.第四步 5.第五步在对应机器节点输入以下命令 sudo su hdfs -l -c 'hdfs dfsadmin -safemode enter' sudo su hdfs -l -c 'hdfs dfsadmi 阅读全文
posted @ 2024-02-29 12:48 whiteY 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 代码demo package com.spark.wordcount import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ import org.apache.spark.SparkConf objec 阅读全文
posted @ 2024-02-20 16:29 whiteY 阅读(86) 评论(0) 推荐(0) 编辑
摘要: hive中日期格式转换 日期时间格式大致分成时间戳和日期时间格式互转,字符串转化成日期时间格式,日期格式之间的转化 1.时间戳和日期互转 unix_timestamp函数,日期转时间戳 当函数参数为空时,返回当前时间戳。 当函数参数为空时,返回当前时间戳。 select unix_timestamp 阅读全文
posted @ 2024-01-30 17:49 whiteY 阅读(3042) 评论(0) 推荐(0) 编辑
摘要: reduce的个数一般最后决定了输出文件的个数,如果想多输出文件的个数(这样文件变小,但有可能程序变慢),那么可以人为增加reduce个数。如果想减少文件个数,也可以手动较少reduce个数(同样可能程序变慢)。但实际开发中,reduce的个数一般通过程序自动推定,而不人为干涉,因为人为控制的话,如 阅读全文
posted @ 2024-01-29 11:47 whiteY 阅读(742) 评论(0) 推荐(0) 编辑
摘要: 为什么要使用分区表 默认情况下,Hive中的查询会扫描整个表来获取结果。 现在,考虑一个Hive表,它有数百万行。当一个简单的查询扫描该表时,它会消耗系统资源。而查询将花费大量时间来获取结果,这最终会影响hive应用程序的性能。 因此,在分析如此大的表时,我们需要一种技术来优化查询的性能,其中一种技 阅读全文
posted @ 2024-01-25 17:50 whiteY 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 1.什么是分区? ​ 所谓的分区就是将一个表分解成多个区块进行操作和保存,从而降低每次操作的数据,提高性能,而对应用来说是透明的,从逻辑上看就只是一个表(这里跟分库分表的访问不一样),但是物理上的这个表可能是由多个物理分区组成,每个分区都是一个独立的对象,可以进行独立处理。 2.分区目的? 1.进行 阅读全文
posted @ 2024-01-15 17:55 whiteY 阅读(59) 评论(0) 推荐(0) 编辑
摘要: 1.中止指定的Procedure任务。 当一个Procedure任务长时间未结束需要手动停止时,可以使用该命令。执行该操作可能会导致该任务对应的表,region的状态不一致,需要手动修复。如果命令执行成功则返回true,否则返回false。 在Procedure的类里有一个bypass的flag, 阅读全文
posted @ 2023-12-29 18:01 whiteY 阅读(189) 评论(0) 推荐(0) 编辑
摘要: Sftp SFTP是Secure File Transfer Protocol的缩写,安全文件传送协议。可以为传输文件提供一种安全的网络的加密方法。SFTP与FTP有着几乎一样的语法和功能。SFTP为SSH的其中一部分,是一种传输档案至Blogger伺服器的安全方式。其实在SSH软件包中,已经包含了 阅读全文
posted @ 2023-12-27 10:06 whiteY 阅读(207) 评论(0) 推荐(0) 编辑
摘要: 1.进入hbase shell 命令行 [hdfs@hadoopm106 ~]$ hbase shell SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/hdp/3. 阅读全文
posted @ 2023-12-21 18:12 whiteY 阅读(39) 评论(0) 推荐(0) 编辑
摘要: 1.创建CATALOG CREATE CATALOG paimon_hive WITH ( 'type' = 'paimon', 'metastore' = 'hive', 'uri' = 'thrift://hadoopm111:9083', 'warehouse' = 'hdfs:///apps 阅读全文
posted @ 2023-12-07 10:15 whiteY 阅读(586) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 15 下一页