国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

查看HBase表在HDFS中的文件結構

大數據
為了查看HBASE表在HDFS中的文件結構

在HBASE中建立一張表結構如下:

  1. {NAME => 'USER_TEST_TABLE',  
  2. MEMSTORE_FLUSHSIZE => '67108864',  
  3. MAX_FILESIZE => '1073741824',  
  4. FAMILIES => [ 
  5. {NAME => 'info', BLOOMFILTER => 'NONE', REPLICATION_SCOPE => '0',  
  6. COMPRESSION => 'NONE', VERSIONS => '1', TTL => '2147483647',  
  7. BLOCKSIZE => '65536', IN_MEMORY => 'false', BLOCKCACHE => 'true' 
  8. },  
  9. {NAME => 'info2', BLOOMFILTER => 'NONE', REPLICATION_SCOPE => '0',  
  10. COMPRESSION => 'NONE', VERSIONS => '1', TTL => '2147483647',  
  11. BLOCKSIZE => '65536', IN_MEMORY => 'false', BLOCKCACHE => 'true' 

結構圖如下, 往下表插入測試數據, 下面查看此表在HDFS中文件的存儲方式.

HBase測試表

由于在HBase服務器配置文件中指定的存儲HBase文件的HDFS地址為:

hdfs://HADOOPCLUS01:端口/hbase

登錄到namenode服務器,這里為HADOOPCLUS01, 用hadoop命令查看hbase在hdfs中此表的文件.

1. 查看Hbase根目錄. 

  1. [hadoop@HADOOPCLUS01 bin]$ hadoop fs -ls hadoop fs -ls /hbase 
  2. Found 37 items 
  3. drwxr-xr-x   - hadoop cug-admin          0 2013-03-27 09:29 /hbase/-ROOT- 
  4. drwxr-xr-x   - hadoop cug-admin          0 2013-03-27 09:29 /hbase/.META. 
  5. drwxr-xr-x   - hadoop cug-admin          0 2013-03-26 13:15 /hbase/.corrupt 
  6. drwxr-xr-x   - hadoop cug-admin          0 2013-03-27 09:48 /hbase/.logs 
  7. drwxr-xr-x   - hadoop cug-admin          0 2013-03-30 17:49 /hbase/.oldlogs 
  8. drwxr-xr-x   - hadoop cug-admin          0 2013-03-30 17:49 /hbase/splitlog 
  9. drwxr-xr-x   - hadoop cug-admin          0 2013-03-30 17:49 /hbase/USER_TEST_TABLE 

可以看到所有表的信息. 在hdfs中的建立的目錄. 一個表對應一個目錄.

-ROOT-表和.META.表也不例外, -ROOT-表和.META.表都有同樣的表結構, 關于兩表的表結構和怎么對應HBase整個環境的表的HRegion, 可以查看上篇轉載的文章.

splitlog和.corrupt目錄分別是log split進程用來存儲中間split文件的和損壞的日志文件的。

.logs和.oldlogs目錄為HLog的存儲.

.oldlogs為已經失效的HLog(Hlog對HBase數據庫寫Put已經全部完畢), 后面進行刪除.

HLog File 是一個Sequence File,HLog File 由一條條的 HLog.Entry構成。可以說Entry是HLog的基本組成部分,也是Read 和Write的基本單位。

Entry由兩個部分組成:HLogKey和WALEdit。

2. 查看建立表hdfs目錄內容:

  1. [hadoop@HADOOPCLUS01 bin]$ hadoop fs -ls /hbase/USER_TEST_TABLE 
  2. Found 2 items 
  3. drwxr-xr-x   - hadoop cug-admin          0 2013-03-28 10:18 /hbase/USER_TEST_TABLE/03d99a89a256f0e09d0222709b1d0cbe 
  4. drwxr-xr-x   - hadoop cug-admin          0 2013-03-28 10:18 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce 

有兩個目錄, 說明此表已經分裂成兩個HRegion.

3. 在查看其中一個HRegion的文件目錄.

  1. [hadoop@HADOOPCLUS01 bin]$ hadoop fs -ls /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce 
  2. Found 4 items 
  3. -rw-r--r--   3 hadoop cug-admin       1454 2013-03-28 10:18 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/.regioninfo 
  4. drwxr-xr-x   - hadoop cug-admin          0 2013-03-29 15:21 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/.tmp 
  5. drwxr-xr-x   - hadoop cug-admin          0 2013-03-29 15:21 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info 
  6. drwxr-xr-x   - hadoop cug-admin          0 2013-03-28 10:18 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info2 

 .regioninfo 此HRegion的信息. StartRowKey, EndRowKey. 記錄Region在表中的范圍信息.

info, info2, 兩個ColumnFamily.  為兩個目錄.

4. 再對.regioninfo文件用cat查看內容:

亂碼已經過濾, 存儲的信息整理:

  1. [hadoop@HADOOPCLUS01 bin]$ hadoop fs -cat /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/.regioninfo 
  2. USER_TEST_TABLE,AAA-AAA11110UC1,1364437081331.68b8ad74920040ba9f39141e908c67ce. 
  3. AA-AAA11110UC1 
  4. USER_TEST_TABLE 
  5.  
  6. IS_ROOT false 
  7. IS_META false 
  8. MAX_FILESIZE 1073741824 
  9. MEMSTORE_FLUSHSIZ 6710886 
  10.  
  11. info 
  12. BLOOMFILTER NONE  
  13. REPLICATION_SCOPEVERSIONS 1 
  14. COMPRESSION NONE 
  15. TTL 2147483647 
  16. BLOCKSIZE 65536   
  17. IN_MEMORY false 
  18. BLOCKCACHE true 
  19.  
  20. info2 
  21. BLOOMFILTER NONE  
  22. REPLICATION_SCOPEVERSIONS 1 
  23. COMPRESSION NONE 
  24. TTL 2147483647 
  25. BLOCKSIZE 65536 
  26. IN_MEMORY false 
  27. BLOCKCACHE true 
  28.  
  29. REGION => {NAME => 'USER_TEST_TABLE,\x00\x00\x00\x0A\x00\x00\x00\x09AAA-AAA11110UC1\x00\x00\x00\x00, 
  30. 1364437081331.68b8ad74920040ba9f39141e908c67ce.',  
  31. STARTKEY => '\x00\x00\x00\x0A\x00\x00\x00\x09AAA-AAA11110UC1\x00\x00\x00\x00',  
  32. ENDKEY => '',  
  33. ENCODED => 68b8ad74920040ba9f39141e908c67ce,  
  34. TABLE => {{NAME => 'USER_TEST_TABLE', MAX_FILESIZE => '1073741824',  
  35. MEMSTORE_FLUSHSIZE => '67108864',  
  36. FAMILIES => [{NAME => 'info', BLOOMFILTER => 'NONE',  
  37. REPLICATION_SCOPE => '0', VERSIONS => '1', COMPRESSION => 'NONE',  
  38. TTL => '2147483647', BLOCKSIZE => '65536', IN_MEMORY => 'false',  
  39. BLOCKCACHE => 'true'},  
  40. {NAME => 'info2', BLOOMFILTER => 'NONE',  
  41. REPLICATION_SCOPE => '0', VERSIONS => '1', COMPRESSION => 'NONE',  
  42. TTL => '2147483647', BLOCKSIZE => '65536', IN_MEMORY => 'false',  
  43. BLOCKCACHE => 'true'}]}} 
  44. VT102VT102VT102VT102VT102VT102VT102VT102 

5. 查看info ColumnFamily中信息文件和目錄:

  1. [hadoop@HADOOPCLUS01 bin]$ hadoop fs -ls /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info 
  2. Found 4 items 
  3. -rw-r--r--   3 hadoop cug-admin  547290902 2013-03-28 10:18 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info/4024386696476133625 
  4. -rw-r--r--   3 hadoop cug-admin  115507832 2013-03-29 15:20 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info/5184431447574744531 
  5. -rw-r--r--   3 hadoop cug-admin  220368457 2013-03-29 15:13 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info/6150330155463854827 
  6. -rw-r--r--   3 hadoop cug-admin   24207459 2013-03-29 15:21 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info/7480382738108050697 

6. 查看具體保存HBase數據的HDFS文件信息:

  1. [hadoop@HADOOPCLUS01 bin]$ hadoop fs -ls /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info 
  2. Found 4 items 
  3. -rw-r--r--   3 hadoop cug-admin  547290902 2013-03-28 10:18 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info/4024386696476133625 
  4. -rw-r--r--   3 hadoop cug-admin  115507832 2013-03-29 15:20 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info/5184431447574744531 
  5. -rw-r--r--   3 hadoop cug-admin  220368457 2013-03-29 15:13 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info/6150330155463854827 
  6. -rw-r--r--   3 hadoop cug-admin   24207459 2013-03-29 15:21 /hbase/USER_TEST_TABLE/68b8ad74920040ba9f39141e908c67ce/info/7480382738108050697 

 即是上面圖片中插入的其中一部分數據.

在HBase中存儲時, 對于每個Qualifer有如下5個屬性RowKey, ColumnFamily, Qualifer, TimeStamp, Value.

  1. AA-AAA11110UDFinfoCountry=1 13560596974000   

# AA-AAA11110UDH 部分對應RowKey;

   # info對應了ColumnFamily;

   # Country對應Qualifer;

   # 1對用Value;

   # 13560596974000對應TimeStamp.

 后面將分析RowKey與AA-AAA11110UDH的對應關系.

7. 使用HTTP查看文件:

在上面命令中, 也可以有Http查看Hdfs中的文件, 配置在hdfs-site.xml下面配置:

  1. <property> 
  2. <name>dfs.datanode.http.address</name> 
  3. <value>0.0.0.0:62075</value> 
  4. </property> 

所以訪問HDFS的HTTP的URL為:

  1. http://HADOOPCLUS02:62075/browseDirectory.jsp?namenodeInfoPort=62070&dir=/   

原文鏈接:http://greatwqs.iteye.com/blog/1839232

 

 

責任編輯:彭凡 來源: ITEYE
相關推薦

2010-10-15 10:29:25

Mysql表結構

2010-03-16 14:15:37

Linux系統

2021-01-19 08:07:50

Linux日期文件

2017-05-22 08:05:46

HBase阿里搜索實踐

2017-01-17 09:38:52

ZooKeeperHadoopHBase

2013-01-09 10:16:09

HDFS

2010-10-13 10:27:35

MySQL修改表結構

2021-01-04 08:24:44

Class字段表方法表

2021-04-29 08:11:11

SQL優化作用

2009-11-25 10:52:22

PHP函數contin

2019-03-18 09:40:44

Linux命令編程語言

2011-03-21 15:40:31

Oracle

2010-10-28 16:17:22

2013-01-08 10:01:56

HDFS

2023-03-15 10:34:47

Linux文件數

2020-06-23 14:21:35

Linux系統功能

2019-02-27 09:24:48

命令行文件Linux

2010-05-24 13:14:19

創建MySQL

2009-03-13 13:58:10

Javascript哈希表偽哈希表

2011-03-03 16:08:33

VSFTPD文件結構
點贊
收藏

51CTO技術棧公眾號

午夜精品一区二区在线观看| 国产精品免费视频网站| 69精品人人人人| 裸体大乳女做爰69| 日韩av在线播放网址| 日韩av影视综合网| 黄黄视频在线观看| 亚洲人成网77777色在线播放| 欧美性色xo影院| 国产91视频一区| 欧美一区二区三区久久精品茉莉花| 中文字幕亚洲二区| 国产鲁鲁视频在线观看免费| 91丨porny丨在线| 色阁综合av| 国产欧美短视频| 欧美一性一乱一交一视频| sm在线观看| 色猫猫国产区一区二在线视频| 亚洲色成人一区二区三区小说| 国产精品呻吟| 成人免费视频网址| 国产精品三p一区二区| 精品91自产拍在线观看一区| 在线国产91| 日韩欧美在线一区| а√天堂www在线а√天堂视频| 中文字幕第一区第二区| 国产伦精品一区二区三区四区视频_| 亚洲综合不卡| 亚洲美女搞黄| 国产在线看一区| 杨幂一区欧美专区| 国产在线视频一区二区三区| 麻豆精品视频| 久久精品国产一区二区| 亚洲欧美精品| 国产福利一区二区三区视频在线| 欧美极品日韩| 粉嫩av亚洲一区二区图片| 国产免费观看高清视频| 国产欧美精品区一区二区三区| 黄色成人免费观看| 在线观看日韩一区| 3d性欧美动漫精品xxxx软件| 欧美另类交人妖| 国精品一区二区三区| 精品久久免费观看| 久久九九久久九九| 日本男女交配视频| 亚洲国产aⅴ天堂久久| 在线天堂资源www在线污| 欧美大片免费看| 国产欧美一级| 欧美成年人视频在线观看| 狠狠色狠色综合曰曰| 青春草在线免费视频| 性色av一区二区三区| 在线伊人免费视频| 日韩在线免费视频观看| 欧美+亚洲+精品+三区| 久久久久99精品成人片| 日韩精品乱码免费| 九九久久九九久久| 亚洲欧美日韩国产中文专区| 91在线视频在线| 色婷婷av一区二区三区丝袜美腿| 永久在线免费观看| 日韩在线电影一区| 欧美大片欧美激情性色a∨久久| 亚洲色图在线视频| 日本v片在线高清不卡在线观看| 日韩av福利| 在线观看理论片| 少妇免费毛片久久久久久久久| 久久久久久久av| 丝袜情趣国产精品| 国产三级一区二区| 激情91久久| 精品一区二区三区亚洲| 天堂a√中文在线| 国产手机免费视频| 动漫3d精品一区二区三区 | 成年人网站国产| 7m第一福利500精品视频| 日韩欧美福利视频| 99精品视频一区| 亚洲一区黄色| 婷婷在线播放| 中文欧美在线视频| 欧美性猛交xxxx乱大交| 26uuu亚洲| 看电视剧不卡顿的网站| 成人精品亚洲| 精品国产鲁一鲁****| 国产鲁鲁视频在线观看特色| 免费观看视频www| 视频在线一区二区三区| 91福利视频导航| 久久久久久久久综合| 亚洲视频一区二区| 欧美另类videos死尸| 亚洲一区精品在线| 蜜臀久久99精品久久久画质超高清| 日韩影视在线观看| 成人污污视频| 日本在线观看高清完整版| 中国在线观看免费国语版电影| 快播日韩欧美| 精品九九九九| 高清国产在线一区| …久久精品99久久香蕉国产| 亚洲美女喷白浆| 欧美欧美午夜aⅴ在线观看| 亚洲成av人片www| 亚洲福利视频一区| 亚洲国产乱码最新视频| 亚洲一区二区三区在线看| 亚洲成a人片综合在线| 在线视频欧美精品| 日韩欧美第一区| 日韩中文字幕在线| 都市激情亚洲色图| 国产婷婷精品av在线| 奇米精品一区二区三区四区| 玖玖玖视频精品| 欧美aa免费在线| 经典三级在线| 国产网站观看9久| 在线观看高清免费视频| 欧美 日韩 亚洲 一区| 只有这里有精品| 美女精品国产| 国产精品一码二码三码在线| 亚洲免费在线播放| 中文字幕制服丝袜一区二区三区| 久久久综合精品| 久久婷婷国产综合精品青草| 国产 日韩 欧美大片| 国产欧美88| 最新国产露脸在线观看| 成人黄色激情网站| 久草在线国产| 视频在线国产| 超碰97在线免费| siro系绝美精品系列| 精品一区二区中文字幕| 成人在线免费观看视频网站| 蜜桃网站成人| 国产精品对白刺激久久久| 国产成人精品午夜| 不卡av在线播放| 丝袜美腿亚洲一区二区| 日韩精品一二三四区| 91精品免费观看| 欧美揉bbbbb揉bbbbb| 91精品国产91综合久久蜜臀| 欧美日韩国产综合视频在线观看中文| 午夜久久电影网| 欧美一二三在线| 欧美日韩亚洲国产综合| 欧美一区永久视频免费观看| 亚洲高清久久网| 久久男人的天堂| 91精品视频专区| 欧美日韩亚洲一区二区三区四区| 亚洲欧美日韩精品在线| 男人添女荫道口图片| 日韩美女一级视频| 亚洲男同gay网站| 久久国产精品免费精品3p| 成人高清电影网站| 国产福利不卡视频| 黄色91在线观看| 在线亚洲国产精品网| 国产在线播放91| 日本成年人网址| jizz在线免费观看| 懂色av一区二区| 视频一区二区三区入口| 亚洲国产精品一区二区www在线| 亚洲精品一区二区在线观看| 欧美国产在线视频| 91精品免费视频| 欧美大片免费播放| avtt亚洲| 精品亚洲成人| 久久精品人人爽人人爽| 亚洲激情成人网| 欧美黑人巨大精品一区二区| 日韩美女一区| av女优在线| 午夜欧洲一区| 久久综合久久综合九色| 欧美夫妻性生活| 91久久精品国产91久久性色tv| 国产1区2区在线| 日韩区一区二| 国产在线播放一区| 色av中文字幕一区|