摘要:
Hive是基于Hadoop的开源数据仓库工具,提供了类似于SQL的HiveQL语言,使得上层的数据分析人员不用知道太多MapReduce的知识就能对存储于Hdfs中的海量数据进行分析。由于这一特性而收到广泛的欢迎。Hive的整体框架中有一个重要的模块是执行模块,这一部分是用Hadoop中MapRed... 阅读全文
2014年12月4日
2014年12月2日
摘要:
可以通过多种方式将数据导入hive表1.通过外部表导入用户在hive上建external表,建表的同时指定hdfs路径,在数据拷贝到指定hdfs路径的同时,也同时完成数据插入external表。例如:编辑文件test.txt$ cat test.txt1 hello2 world3 ... 阅读全文
2014年11月24日
摘要:
一、简介 PostgreSQL 提供了多个系统管理函数来查看表,索引,表空间及数据库的大小,下面详细介绍一下。 二、数据库对象尺寸函数 三、实例讲解 3.1 查看存储一个指定的数值需要的字节数 3.2 查看数据库大小 查看原始数据 查看david 数据库大小 查看所有数据库大小 这样查出来的结果,看 阅读全文
2014年11月21日
摘要:
执行下面命令,运行函数 执行结果: 阅读全文
2014年11月12日
摘要:
在PostgreSQL中如何用简单的几条SQL语句生成大量的测试数据呢? 此处,我简单的写一个例子,供参考(在Postgresql9.1下面做的): (1)生成一万条测试数据的表foo mydb=# create table foo(id bigint); mydb=# insert into fo 阅读全文
摘要:
转载地址:http://my.oschina.net/liuyuanyuangogo/blog/151537pg用大对象存储二进制数据的老文档:http://jdbc.postgresql.org/documentation/80/binary-data.html//VM配置:256M-512M//... 阅读全文
摘要:
PutFile.java import java.io.File; import java.io.FileInputStream; import java.sql.*; public class PutFile { public static void main(String args[]) { Connection conn = null; PreparedStateme... 阅读全文
2014年11月6日
摘要:
读取本地文件,每行为一条记录,文件大小550M,200万条数据。先将文件读取的内存中,再开启6个线程连接postgresql不同coordinator端口导入数据。代码如下: 阅读全文
2014年10月27日
摘要:
Lucene 是apache软件基金会一个开放源代码的全文检索引擎工具包,是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎。 Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。 下载 阅读全文
摘要:
如果想把整个文件或图片存储在数据表的一个字段内,该字段可以选择二进制类型,然后将文件按二进制存储起来,文本文件也可以存在text字段内。 示例如下: 二进制类型bytea的操作(在最大值内,有内存限制) 1、 创建表 2、 将文件放到coordinator目录下/mnt/postgresql/coo 阅读全文