代码改变世界

随笔档案-2013年2月28日

nodejs同步读取console输入

2013-02-28 20:41 by java20130722, 483 阅读, 收藏, 编辑
摘要: var fs = require('fs'); function readSyn() { process.stdin.pause(); var response = fs.readSync(process.stdin.fd, 1000, 0, "utf8"); process.stdin.resume(); return response[0].trim(); }nodejs中的console读入是异步的。上面的是同步读取console的代码。PS:个人觉得,如果是基于console的nodejs,异步的读console总是有点儿怪怪的。 阅读全文

Hive 中SerDe概述

2013-02-28 14:22 by java20130722, 670 阅读, 收藏, 编辑
摘要: 一、背景1、当进程在进行远程通信时,彼此可以发送各种类型的数据,无论是什么类型的数据都会以二进制序列的形式在网络上传送。发送方需要把对象转化为字节序列才可在网络上传输,称为对象序列化;接收方则需要把字节序列恢复为对象,称为对象的反序列化。2、Hive的反序列化是对key/value反序列化成hive table的每个列的值。3、Hive可以方便的将数据加载到表中而不需要对数据进行转换,这样在处理海量数据时可以节省大量的时间。二、技术细节1、SerDe是Serialize/Deserilize的简称,目的是用于序列化和反序列化。2、用户在建表时可以用自定义的SerDe或使用Hive自带的SerD 阅读全文

hive源码结构分析(编译器)

2013-02-28 11:29 by java20130722, 645 阅读, 收藏, 编辑
摘要: 本文转自:http://samuschen.iteye.com/blog/860809Hive是将SQL语句转换成hadoop的MapReduce程序,通常在客户端执行hive命令,然后输入SQL语句后,hive将SQL语句生成多个MR的job,然后将这些job提交给hadoop进行执行,完成后,再把结果放入到hdfs或者本地的临时文件中。Hive中的表结构信息都是保存在关系型数据库中,如mysql,derby等,可以通过hive-site.xml中配置数据库的URL,用户名,密码等。而表的实际数据内容保存在hadoop的hdfs文件中,行和列数据分别用特殊字符串分格开,以便能够读取数据,默认 阅读全文
点击右上角即可分享
微信分享提示