hbase使用lsm数,所以写性能好,
但是列存储写性能比行存储差?
hbase一行只有一个时间戳,最多维持三个版本,update和delete等都是用row全参数,而不是某一行的某一列新增,而且update是把之前的row后面新加一个row。所以确定一行的增加某列操作,需要先read后手工内存加一列后再update??
spark可以直接savetoobject,savetofile,savetohadoop等保存,因此可以直接存hdfs,不需要hbase的特殊处理,然后hdfs直接用mapreduce进行处理之后,将串联好的一串再看怎么保存,例如存数据库等。
网友评论