02 2022 档案
【Android 逆向】手动构造dex文件
摘要:public class Hello { public static void main(String[] args) { System.out.println("hello android"); } } javac Hello.java # 生成Hello.class文件 X:\Android\s
sedona(Geospark)读取csv
摘要:package com.grady.sedona import org.apache.sedona.sql.utils.SedonaSQLRegistrator import org.apache.sedona.viz.core.Serde.SedonaVizKryoRegistrator impo
spark 读取Geomesa(Hbase)数据
摘要:package com.grady.geomesa import org.apache.hadoop.conf.Configuration import org.apache.spark.SparkConf import org.apache.spark.sql.{DataFrame, SparkS
spark 写入数据到Geomesa(Hbase)
摘要:package com.grady.geomesa import org.apache.spark.sql.jts.PointUDT import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType
Spark 读取HDFS csv文件并写入hive
摘要:package com.grady import org.apache.spark.SparkConf import org.apache.spark.sql.{Row, SaveMode, SparkSession} /** * csv 文件数据写入hive */ object CsvToHive
spark 读取hive 计算后写入hive
摘要:package com.grady import org.apache.spark.SparkConf import org.apache.spark.sql.{DataFrame, Row, SparkSession} object HiveTableToTable { def main(args
Spark 读Hive并写入HBase
摘要:package com.grady import org.apache.hadoop.hbase.HBaseConfiguration import org.apache.hadoop.hbase.client.Put import org.apache.hadoop.hbase.io.Immuta
Spark 读 Hbase
摘要:package com.grady import org.apache.hadoop.hbase.HBaseConfiguration import org.apache.hadoop.hbase.client.Result import org.apache.hadoop.hbase.io.Imm
Spark 写 Hbase
摘要:package com.grady import org.apache.hadoop.hbase.HBaseConfiguration import org.apache.hadoop.hbase.client.{Put, Result} import org.apache.hadoop.hbase
CDH6.2.0安装并使用基于HBase的Geomesa
摘要:1. 查看CDH 安装的hadoop 和 hbase 对应的版本 具体可以参考以下博客: https://www.cxyzjd.com/article/spark_Streaming/108762904 直接给出答案 hadoop 版本 3.0.0 hbase 版本 2.1.0 2. 在 githu