淺析Hbase中的Hadoop單機(jī)環(huán)境配置
HBase是一個(gè)分布式的、面向列的開(kāi)源數(shù)據(jù)庫(kù),該技術(shù)來(lái)源于Chang et al所撰寫(xiě)的Google論文“Bigtable:一個(gè)結(jié)構(gòu)化數(shù)據(jù)的分布式存儲(chǔ)系統(tǒng)”。就像Bigtable利用了Google文件系統(tǒng)(File System)所提供的分布式數(shù)據(jù)存儲(chǔ)一樣,HBase在Hadoop之上提供了類(lèi)似于Bigtable的能力。HBase是Apache的Hadoop項(xiàng)目的子項(xiàng)目。HBase不同于一般的關(guān)系數(shù)據(jù)庫(kù),它是一個(gè)適合于非結(jié)構(gòu)化數(shù)據(jù)存儲(chǔ)的數(shù)據(jù)庫(kù).另一個(gè)不同的是HBase基于列的而不是基于行的模式。HBase使用和Bigtable非常相同的數(shù)據(jù)模型。用戶存儲(chǔ)數(shù)據(jù)行在一個(gè)表里。一個(gè)數(shù)據(jù)行擁有一個(gè)可選擇的鍵和任意數(shù)量的列。表是疏松的存儲(chǔ)的,因此用戶可以給行定義各種不同的列。HBase主要用于需要隨機(jī)訪問(wèn),實(shí)時(shí)讀寫(xiě)你的大數(shù)據(jù)(Big Data)。

本文主要介紹在Ubuntu10.04環(huán)境下安裝配置單機(jī)版原生的HBase。在網(wǎng)絡(luò)上找到的文章要么語(yǔ)焉不詳,要么ungeliable.于是記錄一下自己的安裝配置過(guò)程,做個(gè)STEP BY STEP的圖文并茂的教程,謹(jǐn)防自己以后忘記 。
51CTO向您推薦《Facebook實(shí)時(shí)信息系統(tǒng):HBase每月存儲(chǔ)1350億條信息》
安裝Hbase其實(shí)主要是配置好java環(huán)境以及Hadoop與Hbase的配置文件。
1.安裝并配置Java環(huán)境。在Ubuntu10.04默認(rèn)的源使用的OpenJDK,在某些應(yīng)用上OpenJDK并不被支持(如abicloud等).我們?yōu)榱耸∈逻€是安裝sun java ,打開(kāi)終端,輸入以下命令:
(1)安裝
- sudo add-apt-repository "deb http://archive.canonical.com/ lucid partner"
- sudo apt-get update
- sudo apt-get install sun-java6-jre sun-java6-plugin sun-java6-fonts
- sudo apt-get install sun-java6-jdk sun-java6-plugin sun-java6-fonts
查看是否安裝成功
- $ java -version
(2) 設(shè)置默認(rèn)的java解釋器。
- sudo update-alternatives --config java
會(huì)出現(xiàn)下列圖面:

輸入你想選擇的編號(hào)。
(3)編輯java環(huán)境變量
- sudo gedit /etc/environment
在彈出的environment文件中添加下列兩行:
CLASSPATH=.:/usr/lib/jvm/java-6-sun/lib JAVA_HOME=/usr/lib/jvm/java-6-sun
保存退出,行文至此,java環(huán)境已經(jīng)配置好。
2.安裝并配置Hadoop。雖說(shuō)我安裝的是單機(jī)版的Hbase,但是由于Hadoop本來(lái)就是分布系統(tǒng),使用SSH通訊。
(1)安裝ssh
- sudo apt-get install ssh
(2)設(shè)置不用登錄密碼
- <PRE class=wiki>$ ssh-keygen -t rsa -f ~/.ssh/id_rsa -P ""</PRE>
- <PRE class=wiki>$ cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys</PRE>
完成后登錄不用輸入密碼,***次需要輸入回車(chē)鍵。
- $ ssh localhost
- $ exit
- $ ssh localhost
- $ exit
(3)下載解壓Hadoop,到http://hadoop.apache.org/common/releases.html#Download下載stable版本0.20.2.并解壓到/Home路徑
(4)修改hadoop-env.sh 。在本人機(jī)器上解壓路徑是/home/viki/hadoop-0.20.2,進(jìn)入剛才所解壓的文件夾,修改之(需要root權(quán)限)。
- cd hadoop-0.20.2
- gedit conf/hadoop-env.sh
將以下java環(huán)境copy進(jìn)去。
- export JAVA_HOME=/usr/lib/jvm/java-6-sun-1.6.0.22
(5)設(shè)置xml文件,需要設(shè)置conf文件夾下的三個(gè)文件core-site.xml, hdfs-site.xml, mapred-site.xml。
- gedit conf/core-site.xml
將下面內(nèi)容copy進(jìn)該文件中:
- <configuration>
- <property>
- <name>fs.default.name</name>
- <value>hdfs://localhost:9000</value>
- </property>
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/var/hadoop/hadoop-\${user.name}</value>
- </property>
- </configuration>
保存退出,繼續(xù)修改另外一個(gè)文件hdfs-site.xml
- gedit conf/hdfs-site.xml
將下面內(nèi)容copy進(jìn)該文件
- <configuration>
- <property>
- <name>dfs.replication</name>
- <value>1</value>
- </property>
- </configuration>
保存退出,修改***一個(gè)文件
- gedit mapred-site.xml
將下面內(nèi)容copy進(jìn)該文件
- <configuration>
- <property>
- <name>mapred.job.tracker</name>
- <value>localhost:9001</value>
- </property>
- </configuration>
經(jīng)歷以上步驟,所有文件修改完畢,已經(jīng)設(shè)置好Hadoop單機(jī)測(cè)試環(huán)境,下面將是啟動(dòng)Hadoop服務(wù)。
3.格式化Namenode并開(kāi)啟所有Hadoop服務(wù),查看服務(wù)狀態(tài)。
(1)格式化Namenode
- bin/hadoop namenode -format
會(huì)出現(xiàn)下面畫(huà)面:
(2)啟動(dòng)所有Hadoop服務(wù)
- bin/start-all.sh
會(huì)出現(xiàn)下面畫(huà)面:

(3)查看服務(wù)狀態(tài)。
管理頁(yè)面:http://localhost:50030/jobtracker.jsp
原文鏈接:http://www.cnblogs.com/ventlam/archive/2010/11/24/hadoop.html
- Facebook實(shí)時(shí)信息系統(tǒng):HBase每月存儲(chǔ)1350億條信息
- SQL Server數(shù)據(jù)庫(kù)對(duì)大數(shù)據(jù)量表數(shù)據(jù)進(jìn)行DELETE
- MongoDB CEO談NoSQL的大數(shù)據(jù)量處理能力
- 詳解NoSQL數(shù)據(jù)庫(kù)使用實(shí)例
- 細(xì)數(shù)Google HBase與BigTable區(qū)別在哪里?
【編輯推薦】


















