国产精品电影_久久视频免费_欧美日韩国产激情_成年人视频免费在线播放_日本久久亚洲电影_久久都是精品_66av99_九色精品美女在线_蜜臀a∨国产成人精品_冲田杏梨av在线_欧美精品在线一区二区三区_麻豆mv在线看

Hadoop 數(shù)據(jù)遷移用法詳解

大數(shù)據(jù) Hadoop
需要將數(shù)據(jù)源集群的/etc/hosts中的hadoop節(jié)點(diǎn)拷貝到目標(biāo)集群所有節(jié)點(diǎn)的/etc/hosts中,保證新集群所有節(jié)點(diǎn)可以ping同老集群所有節(jié)點(diǎn);

[[404804]]

目錄

  • 一般用法
  • hive數(shù)據(jù)遷移
  • Export/Import方式
  • 同步元數(shù)據(jù)
  • 總結(jié)

數(shù)據(jù)遷移使用場(chǎng)景

  • 冷熱集群數(shù)據(jù)分類(lèi)存儲(chǔ),詳見(jiàn)上述描述.
  • 集群數(shù)據(jù)整體搬遷.當(dāng)公司的業(yè)務(wù)迅速的發(fā)展,導(dǎo)致當(dāng)前的服務(wù)器數(shù)量資源出現(xiàn)臨時(shí)緊張的時(shí)候,為了更高效的利用資源,會(huì)將原A機(jī)房數(shù)據(jù)整體遷移到B機(jī)房的,原因可能是B機(jī)房機(jī)器多,而且B機(jī)房本身開(kāi)銷(xiāo)較A機(jī)房成本低些等.
  • 數(shù)據(jù)的準(zhǔn)實(shí)時(shí)同步.數(shù)據(jù)的準(zhǔn)實(shí)時(shí)同步與上一點(diǎn)的不同在于第二點(diǎn)可以一次性操作解決,而準(zhǔn)實(shí)時(shí)同步需要定期同步,而且要做到周期內(nèi)數(shù)據(jù)基本完全一致.數(shù)據(jù)準(zhǔn)實(shí)時(shí)同步的目的在于數(shù)據(jù)的雙備份可用,比如某天A集群突然宣告不允許再使用了,此時(shí)可以將線上使用集群直接切向B的同步集群,因?yàn)锽集群實(shí)時(shí)同步A集群數(shù)據(jù),擁有完全一致的真實(shí)數(shù)據(jù)和元數(shù)據(jù)信息,所以對(duì)于業(yè)務(wù)方使用而言是不會(huì)受到任何影響的.

hadoop 集群間拷貝數(shù)據(jù):

需要將數(shù)據(jù)源集群的/etc/hosts中的hadoop節(jié)點(diǎn)拷貝到目標(biāo)集群所有節(jié)點(diǎn)的/etc/hosts中,保證新集群所有節(jié)點(diǎn)可以ping同老集群所有節(jié)點(diǎn);

  1. hadoop distcp hdfs://qcloud-hadoop02:9000/hive/warehouse/hm2.db/helper/dt=2018-10-17 /data 

說(shuō)明:我們這里是apache hadoop 到cdh數(shù)據(jù)遷移,這個(gè)命令仍然是可以用的。

一般用法

1、遷移之前需要把兩個(gè)集群的所有節(jié)點(diǎn)都互通/etc/hosts文件(重要,包括各個(gè)數(shù)據(jù)節(jié)點(diǎn))

2、配置當(dāng)前集群主節(jié)點(diǎn)到老集群各個(gè)節(jié)點(diǎn)的ssh免密登陸(可選)

3、由于老集群是HDP2.7.1,新集群是cdh5.8.5,版本不同,不能用hdfs協(xié)議直接拷貝,需要用http協(xié)議 即不能用:distcp hdfs://src:50070/foo /user而要用:distcp hftp://src:50070/foo /user最終的命令為:

  1. hadoop distcp hftp://192.168.57.73:50070/hive3/20171008 /hive3/ 

4、如果兩個(gè)集群的版本相同,則可以使用hdfs協(xié)議,命令如下:

  1. hadoop distcp hdfs://namenodeip:9000/foo hdfs://namenodeip:9000/foo 

5、由于遷移數(shù)據(jù)運(yùn)行了mr任務(wù),對(duì)集群資源有一定的消耗

DistCp優(yōu)勢(shì)特性

1 帶寬限流

DistCp是支持帶寬限流的,使用者可以通過(guò)命令參數(shù)bandwidth來(lái)為程序進(jìn)行限流,原理類(lèi)似于HDFS中數(shù)據(jù)Balance程序的限流.

2 增量數(shù)據(jù)同步

對(duì)于增量數(shù)據(jù)同步的需求,在DistCp中也得到了很好的實(shí)現(xiàn).通過(guò)update,append和diff2個(gè)參數(shù)能很好的解決.官方的參數(shù)使用說(shuō)明:

  • Update: Update target, copying only missing files or directories
  • Append: Reuse existing data in target files and append new data to them if possible.
  • Diff: Use snapshot diff report to identify the difference between source and target.

第一個(gè)參數(shù),解決了新增文件目錄的同步;第二參數(shù),解決已存在文件的增量更新同步;第三個(gè)參數(shù)解決刪除或重命名文件的同步.

這里需要額外解釋一下diff的使用需要設(shè)置2個(gè)不同時(shí)間的snapshot進(jìn)行對(duì)比,產(chǎn)生相應(yīng)的DiffInfo.在獲取快照文件的變化時(shí),只會(huì)選擇出DELETE和RENAME這2種類(lèi)型的變化信息.

相同hadoop版本同步數(shù)據(jù)

  1. hadoop distcp -skipcrccheck -update -m 20 hdfs://dchadoop002.dx:8020/user/dc/warehouse/test /user/dc/warehouse/test 

不同hadoop版本同步數(shù)據(jù)

  1. hadoop distcp -skipcrccheck -update -m 20 hftp://ns1/user/test /user/dc/test 

參數(shù):

  1. -m 表示并發(fā)數(shù) 
  2.  
  3. -skipcrccheck 跳過(guò)hdfs校驗(yàn) 
  4.  
  5. -update 更新文件 

理源路徑的方式與默認(rèn)值不同,有些細(xì)節(jié)需要注意。這里給出一些 -update和 -overwrite的例子。考慮從/source/first/ 和 /source/second/ 到 /target/的拷貝,源路徑包括:

  1. hdfs://nn1:8020/source/first/1 
  2. hdfs://nn1:8020/source/first/2 
  3. hdfs://nn1:8020/source/second/10 
  4. hdfs://nn1:8020/source/second/20 

當(dāng)不使用-update或-overwrite選項(xiàng)時(shí),DistCp默認(rèn)會(huì)在/target下創(chuàng)建/first和/second目錄。因此將在/target之前先創(chuàng)建目錄。

從而:

  1. hadoop distcp hdfs://nn1:8020/source/first hdfs://nn1:8020/source/second hdfs://nn2:8020/target 

上述命令將在/target中生成以下內(nèi)容:

  1. hdfs://nn2:8020/target/first/1 
  2. hdfs://nn2:8020/target/first/2 
  3. hdfs://nn2:8020/target/second/10 
  4. hdfs://nn2:8020/target/second/20 

當(dāng)指定-update或-overwrite時(shí),源目錄的內(nèi)容將復(fù)制到目標(biāo),而不是源目錄本身。

從而:

  1. distcp -update hdfs://nn1:8020/source/first hdfs://nn1:8020/source/second hdfs://nn2:8020/target 

上述命令將在/ target中生成以下內(nèi)容:

  1. hdfs://nn2:8020/target/1 
  2. hdfs://nn2:8020/target/2 
  3. hdfs://nn2:8020/target/10 
  4. hdfs://nn2:8020/target/20 

如果設(shè)置了這兩個(gè)選項(xiàng),每個(gè)源目錄的內(nèi)容都會(huì)和目標(biāo)目錄的內(nèi)容做比較。如果兩個(gè)源文件夾都包含一個(gè)具有相同名稱(chēng)的文件(例如“0”),那么這兩個(gè)源文件將在目的地映射到同一個(gè)目錄:/target/0。DistCp碰到這類(lèi)沖突的情況會(huì)終止操作并退出?,F(xiàn)在,請(qǐng)考慮以下復(fù)制操作:

  1. distcp hdfs://nn1:8020/source/first hdfs://nn1:8020/source/second hdfs://nn2:8020/target 

其中源路徑/大小:

  1. hdfs://nn1:8020/source/first/1 32 
  2.  
  3. hdfs://nn1:8020/source/first/2 32 
  4.  
  5. hdfs://nn1:8020/source/second/10 64 
  6.  
  7. hdfs://nn1:8020/source/second/20 32 

和目的路徑/大小:

  1. hdfs://nn2:8020/target/1 32 
  2. hdfs://nn2:8020/target/10 32 
  3. hdfs://nn2:8020/target/20 64 

會(huì)產(chǎn)生:

  1. hdfs://nn2:8020/target/1 32 
  2. hdfs://nn2:8020/target/2 32 
  3. hdfs://nn2:8020/target/10 64 
  4. hdfs://nn2:8020/target/20 32 

文件“1”因?yàn)槲募L(zhǎng)度和內(nèi)容匹配而被跳過(guò)。文件“2”被復(fù)制,因?yàn)樗淮嬖?target中。因?yàn)槟繕?biāo)文件內(nèi)容與源文件內(nèi)容不匹配,文件“10”和文件“20”被覆蓋。如果使用-update 選項(xiàng),文件“1”也被覆蓋。

3 高效的性能

執(zhí)行的分布式特性

高效的MR組件

hive數(shù)據(jù)遷移

1.hive數(shù)據(jù)export到hdfs

  1. export table hm2.helper to '/tmp/export/hm2/helper'

如下:

  1. hive> export table hm2.helper to '/tmp/export/hm2/helper'
  2. Copying data from file:/app/data/hive/tmp/scratchdir/ce4c15d9-6875-40ed-add4-deedd75a4a92/hive_2018-10-26_10-58-21_552_8465737459112285307-1/-local-10000/_metadata 
  3. Copying file: file:/app/data/hive/tmp/scratchdir/ce4c15d9-6875-40ed-add4-deedd75a4a92/hive_2018-10-26_10-58-21_552_8465737459112285307-1/-local-10000/_metadata 
  4. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=13/msgtype=helper 
  5. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper 
  6. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00001 
  7. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00003 
  8. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00004 
  9. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00005 
  10. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00006 
  11. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00007 
  12. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00008 
  13. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00009 
  14. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00010 
  15. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00011 
  16. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00012 
  17. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00013 
  18. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00014 
  19. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00015 
  20. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=13/msgtype=helper 
  21. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=13/msgtype=helper/part-m-00002 
  22. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper 
  23. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00000 
  24. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00002 
  25. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00006 
  26. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00016 
  27. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-22/hour=08/msgtype=helper 
  28. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-22/hour=08/msgtype=helper/part-m-00006 
  29. Copying data from hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-22/hour=09/msgtype=helper 
  30. Copying file: hdfs://nameser/hive/warehouse/hm2.db/helper/dt=2018-06-22/hour=09/msgtype=helper/part-m-00000 
  31. OK 
  32. Time taken: 1.52 seconds 

2.集群間數(shù)據(jù)復(fù)制

需要保證原始集群目錄有讀權(quán)限,新的集群復(fù)制保存目錄有寫(xiě)權(quán)限:

  1. 兩個(gè)集群都要賦權(quán) 
  2. hdfs dfs -chmod -R 777 /tmp/export/* 
  3. hdfs dfs -chmod -R 777 /tmp/export/* 

數(shù)據(jù)復(fù)制

  1. hadoop distcp hdfs://qcloud-test-hadoop01:9000/tmp/export/hm2 /tmp/export 

3.數(shù)據(jù)導(dǎo)入hive

在源hive show create table tbName顯示建表語(yǔ)句,用語(yǔ)句在目標(biāo)hive建表,然后倒入數(shù)據(jù):

  1. import table hm2.helper from '/tmp/export/hm2/helper'

成功:

  1. hive> import table hm2.helper from '/tmp/export/hm2/helper'
  2. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=13/msgtype=helper 
  3. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper 
  4. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00001 
  5. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00003 
  6. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00004 
  7. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00005 
  8. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00006 
  9. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00007 
  10. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00008 
  11. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00009 
  12. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00010 
  13. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00011 
  14. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00012 
  15. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00013 
  16. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00014 
  17. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-12/hour=14/msgtype=helper/part-m-00015 
  18. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=13/msgtype=helper 
  19. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=13/msgtype=helper/part-m-00002 
  20. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper 
  21. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00000 
  22. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00002 
  23. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00006 
  24. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-13/hour=14/msgtype=helper/part-m-00016 
  25. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-22/hour=08/msgtype=helper 
  26. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-22/hour=08/msgtype=helper/part-m-00006 
  27. Copying data from hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-22/hour=09/msgtype=helper 
  28. Copying file: hdfs://qcloud-cdh01.2144.com:8020/tmp/export/hm2/helper/dt=2018-06-22/hour=09/msgtype=helper/part-m-00000 
  29. Loading data to table hm2.helper partition (dt=2018-06-12, hour=13, msgtype=helper) 
  30. Loading data to table hm2.helper partition (dt=2018-06-12, hour=14, msgtype=helper) 
  31. Loading data to table hm2.helper partition (dt=2018-06-13, hour=13, msgtype=helper) 
  32. Loading data to table hm2.helper partition (dt=2018-06-13, hour=14, msgtype=helper) 
  33. Loading data to table hm2.helper partition (dt=2018-06-22, hour=08, msgtype=helper) 
  34. Loading data to table hm2.helper partition (dt=2018-06-22, hour=09, msgtype=helper) 
  35. OK 
  36. Time taken: 4.966 seconds 

這樣就可以在新的hive中執(zhí)行:

  1. select count(*) from hm2.helper; 

只導(dǎo)出某一個(gè)分區(qū)

  1. 導(dǎo)出數(shù)據(jù) 
  2. export table hm2.helper partition(dt='2017-12-16'to '/tmp/export/helper_2017-12-16' ; 
  3. 數(shù)據(jù)復(fù)制 
  4. hadoop distcp hdfs://dc1.xx.com:8020/tmp/export/ hdfs://dc2.xx.com:8020/tmp/export 
  5. 數(shù)據(jù)導(dǎo)入 
  6. import table hm2.helper partition(dt='2017-12-16'from '/tmp/export/helper_2017-12-16' 

與load data [local] inpath path path2 剪切數(shù)據(jù)不同,import命令其實(shí)是從目標(biāo)/tmp/export/hm2/helper復(fù)制到/user/hive/warehouse/hm2.db/helper,這時(shí)候可以把/tmp/export/hm2/helper目錄刪掉了。

==可以使用hive export/import 進(jìn)行hive數(shù)據(jù)的批量遷移,本實(shí)驗(yàn)測(cè)試了text,orc,parquet,分區(qū)表,并測(cè)試了不同版本的導(dǎo)入導(dǎo)出。理論上hive導(dǎo)入導(dǎo)出的數(shù)據(jù)遷移不受版本,數(shù)據(jù)格式以及表的限制,可以得出結(jié)論可以適應(yīng)hive export/import進(jìn)行任何hive數(shù)據(jù)的遷移==

參考鏈接:https://blog.csdn.net/u9999/article/details/78830818

hbase數(shù)據(jù)遷移

HBase數(shù)據(jù)遷移是很常見(jiàn)的操作,目前業(yè)界主要的遷移方式主要分為以下幾類(lèi):

從上面圖中可看出,目前的方案主要有四類(lèi),Hadoop層有一類(lèi),HBase層有三類(lèi)。實(shí)際中用了hbase層的Export / Import方法,這里介紹一下。

Export/Import方式

源(測(cè)試)集群每個(gè)節(jié)點(diǎn)可以識(shí)別目標(biāo)集群每個(gè)節(jié)點(diǎn)

源集群hbase執(zhí)行

  1. hbase org.apache.hadoop.hbase.mapreduce.Export 'hm2:test' hdfs://qcloud-hadoop02:9000/tmp/hbase_export/test 

注意:這里路徑需要帶hdfs://nameser/path ,否則就export 到本地了,下同。

目標(biāo)集群hbase執(zhí)行

  1. hbase org.apache.hadoop.hbase.mapreduce.Import 'hm2:test' hdfs://qcloud-hadoop02:9000/tmp/hbase_export/test 

或者

目標(biāo)集群每個(gè)節(jié)點(diǎn)可以識(shí)別源(測(cè)試)集群每個(gè)節(jié)點(diǎn)

源集群hbase執(zhí)行

  1. hbase org.apache.hadoop.hbase.mapreduce.Export 'hm2:test' hdfs://qcloud-test-hadoop01:9000/tmp/hbase_export/test 

目標(biāo)集群hbase執(zhí)行

  1. hbase org.apache.hadoop.hbase.mapreduce.Import 'hm2:test' hdfs://qcloud-test-hadoop01:9000/tmp/hbase_export/test 

同步元數(shù)據(jù)

因?yàn)榉謪^(qū)信息發(fā)生了改變,元信息沒(méi)有同步。

數(shù)據(jù)導(dǎo)入到指定的文件夾之后,修復(fù)分區(qū)和表的元信息,(沒(méi)有使用rbuy的各種腳本,0.9之后就D了,)

  1. hbase hbck -fixTableOrphans 'hm2:test' 
  2. hbase hbck -fixMeta 'hm2:test' 
  3. hbase hbck -fixAssignments 'hm2:test' 
  4. hbase hbck -repair 'hm2:test' 

總結(jié)

上文把HBase數(shù)據(jù)遷移過(guò)程中常用的一些方法作了一個(gè)大概介紹,總結(jié)起來(lái)就四點(diǎn):

  • DistCp: 文件層的數(shù)據(jù)同步,也是我們常用的
  • CopyTable: 這個(gè)涉及對(duì)原表數(shù)據(jù)Scan,然后直接Put到目標(biāo)表,效率較低
  • Export/Import: 類(lèi)似CopyTable, Scan出數(shù)據(jù)放到文件,再把文件傳輸?shù)侥繕?biāo)集群作Import
  • Snapshot: 比較常用 , 應(yīng)用靈活,采用快照技術(shù),效率比較高

具體應(yīng)用時(shí),要結(jié)合自身表的特性,考慮數(shù)據(jù)規(guī)模、數(shù)據(jù)讀寫(xiě)方式、實(shí)時(shí)數(shù)據(jù)&離線數(shù)據(jù)等方面,再選擇使用哪種。

資料

 

https://www.cnblogs.com/felixzh/p/5920153.html http://hadoop.apache.org/docs/r1.0.4/cn/quickstart.html

 

責(zé)任編輯:武曉燕 來(lái)源: Java大數(shù)據(jù)與數(shù)據(jù)倉(cāng)庫(kù)
相關(guān)推薦

2010-06-03 17:08:28

Hadoop Shel

2010-06-07 15:48:40

Hadoop0.20.

2018-02-02 16:15:02

Hadoop數(shù)據(jù)遷移集群

2016-11-14 10:23:08

Hadoop工具大數(shù)據(jù)數(shù)據(jù)倉(cāng)庫(kù)

2010-03-09 09:49:01

Oracle跨平臺(tái)遷移

2010-06-03 18:22:38

Hadoop

2022-10-14 15:44:03

大數(shù)據(jù)Hadoop

2023-08-07 14:28:42

技術(shù)遷移

2010-08-13 14:58:01

FlexNumber數(shù)據(jù)類(lèi)型

2012-11-22 14:38:44

Windows Azu

2010-06-02 13:24:02

SVN用法

2010-08-24 10:01:05

DIV

2010-08-24 08:47:20

paddingCSS

2024-08-27 08:00:00

2010-06-03 15:39:47

Hadoop配置

2014-08-06 09:57:15

hadoop ShelShell命令

2010-07-23 13:53:33

Perl grep函數(shù)

2023-05-11 16:47:21

playwright用法程序

2010-07-27 14:58:02

Flex ArrayC

2010-09-03 12:46:28

CSSexpression
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

日本不卡一区二区三区在线观看| 精品国产免费人成电影在线观看四季| 精品国产一区二区三区麻豆免费观看完整版| 国产不卡精品| 欧美日韩一区成人| 少妇激情av一区二区三区| 久久精品亚洲乱码伦伦中文| eeuss中文| 久久在线91| 国产精品国产精品国产专区蜜臀ah | 伦理在线一区| 精品国产福利视频| 男人的天堂网av| 亚洲欧洲成人av每日更新| 国产精品秘入口18禁麻豆免会员| 精品一区二区影视| 天天做天天爱天天高潮| 美女黄网久久| 日韩三级电影免费观看| 久久字幕精品一区| 一区二区三区免费看| 韩国三级中文字幕hd久久精品| 精品久久久久久一区| 久久综合九色综合欧美就去吻| 欧美极品欧美精品欧美视频 | 欧美激情福利| 日韩电影第一页| 黄色在线观看www| 亚洲精品国产品国语在线| 国产夫妻在线| xxxxx成人.com| 欧美二区观看| 国产精品久久久久久婷婷天堂| 欧美a级成人淫片免费看| 91福利视频导航| 视频一区中文字幕国产| av磁力番号网| 久久精品免费在线观看| 99热播在线观看| 久久影视一区二区| www国产亚洲精品| 久久婷婷一区| 欧美做暖暖视频| 中文字幕一区二区在线观看| 97国产在线| 在线免费视频一区二区| 永久免费网站在线| 日韩中文视频免费在线观看| 色婷婷精品视频| 不卡一区二区三区四区五区| 麻豆国产精品视频| 女性女同性aⅴ免费观女性恋| 成人欧美一区二区三区白人| 深夜福利视频在线观看| 精品国产免费人成在线观看| 视频精品国内| 国产精品视频福利| 99精品欧美一区二区蜜桃免费| 白白色视频在线| 亚洲黄色在线观看| 女人丝袜激情亚洲| 亚洲成人a**址| 国产精品网友自拍| 国产1区2区3区在线| 日韩视频免费看| 久久视频在线| av在线免费观看国产| 亚洲国产精品一区二区尤物区| 男女免费观看在线爽爽爽视频| 欧美日韩成人在线视频| 亚洲黄网站黄| 亚洲一级片免费| 日韩一级片在线观看| 免费一级欧美在线大片| 久久大片网站| 中文字幕亚洲综合久久菠萝蜜| 成人高清免费在线| 亚州欧美日韩中文视频| 日韩1区2区3区| 色网在线视频| 久久精品国产91精品亚洲| 午夜日韩福利| 国产成人久久婷婷精品流白浆| 欧美日韩黄色一区二区| 久久婷婷国产| 日本久久高清视频| 欧美主播一区二区三区美女| 日本久久伊人| 五月天综合婷婷| 欧美三级视频在线观看| 任我爽精品视频在线播放| 色香蕉在线观看| 欧美一a一片一级一片| 日韩理论电影中文字幕| 国产91在线亚洲| 欧美一区永久视频免费观看| 日韩成人精品一区二区| 超碰在线播放91| 少妇高潮 亚洲精品| 久久午夜av| 清纯唯美亚洲色图| 欧美又大粗又爽又黄大片视频| 国产麻豆精品在线| 97超碰资源站在线观看| 亚洲aa在线观看| 亚洲激情中文1区| 国产亚洲高清在线观看| 潘金莲一级淫片aaaaa免费看| 精品视频免费在线| 日韩一区二区三区免费播放| xx欧美撒尿嘘撒尿xx| 久久av在线看| 成人性视频免费网站| a级网站在线播放| 国产日韩精品久久| 好吊成人免视频| 日韩欧美视频| 中文字幕视频在线| 国产精品精品一区二区三区午夜版 | 涩涩涩视频在线观看| 欧美激情xxxxx| 国产麻豆精品在线| 亚洲欧美成人影院| 美国av一区二区三区| 一本久久综合亚洲鲁鲁五月天 | 亚洲网在线观看| 激情五月婷婷六月| 日韩国产欧美| 天堂av在线网站| 欧美xxxx18国产| a在线播放不卡| 97久久网站| 91免费黄视频| 亚洲最新视频在线| jiyouzz国产精品久久| 亚洲欧美成人影院| 99热一区二区| 久久久av电影| 日韩成人一级大片| 日韩在线免费| 国产 欧美 日韩 一区| 日韩成人av网| 福利电影一区二区| 另类一区二区| 中国丰满人妻videoshd | 伊人春色在线| 99国产视频在线| 日韩视频在线永久播放| 日韩成人免费电影| 欧美一区 二区 三区| 黑森林福利视频导航| 91高清免费视频| 婷婷六月综合亚洲| 国产欧美日韩一级| 亚洲免费福利| 香蕉视频网站入口| 国产美女精彩久久| 欧美一区二区福利在线| 国产一区二区三区在线看麻豆| 九九久久国产| 成人伦理视频网站| 粉嫩av免费一区二区三区| 日韩精品一区二区三区在线播放| 国产精品中文欧美| 欧美黑人巨大videos精品| 麻豆av电影在线观看| 日本三级福利片| 欧美激情一区二区三区成人| 精品久久久久久亚洲国产300 | 国产女人水真多18毛片18精品 | 国产精品自在欧美一区| 成人综合日日夜夜| 中文av在线播放| 亚洲一区综合| 97在线视频免费| 欧美日韩性生活| 国产成人av自拍| 成人同人动漫免费观看 | 999久久久精品一区二区| 一个人免费视频www在线观看| 日韩av图片| 久久久亚洲精选| 欧美精品日韩精品| av一本久道久久综合久久鬼色| 成人影视亚洲图片在线| 黄色污污视频在线观看| av最新地址| 一区二区91美女张开腿让人桶| 91禁国产网站| 日韩欧美中文字幕公布| 国产精品沙发午睡系列990531| 日韩天天综合| 成人av动漫| 牛牛在线精品视频| 97中文字幕| 在线观看亚洲视频啊啊啊啊| 日本精品免费观看| 日韩av网站在线| 亚洲福利国产精品| a级高清视频欧美日韩|