采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
网上说随机读写是磁盘上不连续空间的一种读写方式 ,空间不连续,读写效率慢,既然这样为何要解决随机读写的问题
这个随机读写指的是文件系统上的随机读写,比如hdfs,这个就不能随机读写。
所以社区才有hbase kudu这样的框架诞生
既然随机读写效率慢,那为何还要解决这个问题
如何快速的在大数据文件中,快速定位到你所想要的数据? 如何快速的数据进行修改? 这都是在工作中常见的需求,那么就需要能直接快速读写的解决方案。
登录后可查看更多问答,登录/注册
大数据工程师干货课程 带你从入门到实战掌握SparkSQL
1.0k 15
1.0k 14
1.3k 12
1.7k 12
1.3k 11