更新時間:2021-03-11 來源:黑馬程序員 瀏覽量:
問題分析
Hadoop可以存儲多種文件格式。Sequence File這個格式需要知道。
核心答案講解
1.sequenceFile文件是Hadoop用來存儲二進制形式的[Key,Value]對而設計的一種平面文件(Flat File)。問題擴展
HDFS文件存儲格式
Hive數(shù)據(jù)表的默認格式,存儲方式:行存儲??梢允褂肎zip壓縮算法,但壓縮后的文件不支持split。在反序列化過程中,必須逐個字符判斷是不是分隔符和行結(jié)束符,因此反序列化開銷會比SequenceFile高幾十倍。
壓縮數(shù)據(jù)文件可以節(jié)省磁盤空間,但Hadoop中有些原生壓縮文件的缺點之一就是不支持分割。支持分割的文件可以并行的有多個mapper程序處理大數(shù)據(jù)文件,大多數(shù)文件不支持可分割是因為這些文件只能從頭開始讀。Sequence File是可分割的文件格式,支持Hadoop的block級壓縮。
Hadoop API提供的一種二進制文件,以key-value的形式序列化到文件中。存儲方式:行存儲。
sequencefile支持三種壓縮選擇:NONE,RECORD,BLOCK。Record壓縮率低,RECORD是默認選項,通常BLOCK會帶來較RECORD更好的壓縮性能。
優(yōu)勢是文件和hadoop api中的MapFile是相互兼容的。
存儲方式:數(shù)據(jù)按行分塊,每塊按列存儲。結(jié)合了行存儲和列存儲的優(yōu)點,RCFile 保證同一行的數(shù)據(jù)位于同一節(jié)點,因此元組重構(gòu)的開銷很低,像列存儲一樣,RCFile 能夠利用列維度的數(shù)據(jù)壓縮,并且能跳過不必要的列讀取。
數(shù)據(jù)追加:RCFile不支持任意方式的數(shù)據(jù)寫操作,僅提供一種追加接口,這是因為底層的 HDFS當前僅僅支持數(shù)據(jù)追加寫文件尾部。
行組大?。盒薪M變大有助于提高數(shù)據(jù)壓縮的效率,但是可能會損害數(shù)據(jù)的讀取性能,因為這樣增加了 Lazy 解壓性能的消耗。而且行組變大會占用更多的內(nèi)存,這會影響并發(fā)執(zhí)行的其他MR作業(yè)。 考慮到存儲空間和查詢效率兩個方面,F(xiàn)acebook 選擇 4MB 作為默認的行組大小,當然也允許用戶自行選擇參數(shù)進行配置。
存儲方式:數(shù)據(jù)按行分塊,每塊按照列存儲。壓縮快,快速列存取。效率比rcfile高,是rcfile的改良版本。
結(jié)合項目中使用
SequenceFile壓縮率最低,查詢速度一般。項目中存儲小的二進制文件,用Sequence File這個格式。
猜你喜歡: