摘要: spark的序列化主要使用了hadoop的writable和java的Serializable。 说到底就是使用hadoop的writable替换了java的默认序列化实现方式。 这个有个让人疑惑的地方是使用@transient 表示该值不会被序列化,我做个一个测试是可以的,为什么呢,因为spark 阅读全文
posted @ 2015-07-01 17:51 高兴的博客 阅读(3378) 评论(0) 推荐(0) 编辑
摘要: 在Spark的优化中,提到他使用了java的序列化方案。但是在代码中我们会看到它定制了自己的序列化,java的序列化有默认实现,也可以定制@DeveloperApiclass SerializableWritable[T <: Writable](@transient var t: T) exten... 阅读全文
posted @ 2015-07-01 17:44 高兴的博客 阅读(332) 评论(0) 推荐(0) 编辑