本文共 3121 字,大约阅读时间需要 10 分钟。
安装前需要的条件,使用过hadoop的,基本不需要改什么了:
1、java环境
2、hadoop(HBase基于HDFS)
3、zookeeper(我这里使用独立的zookeeper,因为之前用过已装好,当然亦可以使用HBase管理zookeeper,可以参考上一篇)
4、SSH,NTP时间同步
5、系统调优,这个可以等安装完后改,文件打开数(ulimit和nproc)
6、修改Hadoop HDFS Datanode同时处理文件的上限:dfs.datanode.max.xcievers
export HBASE_MANAGES_ZK=false默认应该是true,如果你想让HBase来管理zookeeper,那可以设为true。
参数说明一下:hbase.rootdir hdfs://master:9099/hbase The directory shared byRegionServers. hbase.cluster.distributed true hbase.zookeeper.property.clientPort 2181 hbase.zookeeper.quorum haier002,haier003,haier004 hbase.zookeeper.property.dataDir /opt/zookeeper-3.4.5/dataDir
slave1slave2slave3
scp -r hbase-0.94.6 hadoop@slave1:/usr/local/
./start-hbase.sh大功告成,哈哈哈!!
15675 NameNode18205 HMaster1264 ASMain15840 JobTracker875 ASMain19017 Jps再登一下WebUI
./hbase shell输入help可以看命令
create 'testAjl','cf'put 'testAjl','row1','cf:a','value1'put 'testAjl','row2','cf:b','value2'put 'testAjl','row3','cf:c','value3'查看数据
scan 'testAjl'ROW COLUMN+CELL row1 column=cf:a, timestamp=1388327667793, value=value1 row2 column=cf:b, timestamp=1388327866650, value=value2 row3 column=cf:c, timestamp=1388327785678, value=value3 3 row(s) in 0.0630 seconds取某一行数据
get 'testAjl','row1'COLUMN CELL cf:a timestamp=1388327667793, value=value1 1 row(s) in 0.0290 seconds删除表
disable ‘testAjl’
drop 'testAjl'OK,开始入门了,可以玩完了,一块加油!!