目录
1. HBase依赖Zookeeper、JDK、Hadoop(HDFS),请确保已经完成前面
3. 【node1执行】,修改配置文件,修改conf/hbase-env.sh文件
4. 【node1执行】,修改配置文件,修改conf/hbase-site.xml文件
5. 【node1执行】,修改配置文件,修改conf/regionservers文件
8. 【node1、node2、node3执行】,配置环境变量
- # 下载
- wget
- http://archive.apache.org/dist/hbase/2.1.0/hbase-2.1.0-bin.tar.gz
-
- # 解压
- tar -zxvf hbase-2.1.0-bin.tar.gz -C /export/server
-
- # 配置软链接
- ln -s /export/server/hbase-2.1.0 /export/server/hbase
- # 在28行配置JAVA_HOME
- export JAVA_HOME=/export/server/jdk
- # 在126行配置:
- # 意思表示,不使用HBase自带的Zookeeper,而是用独立
- Zookeeper
- export HBASE_MANAGES_ZK=false
- # 在任意行,比如26行,添加如下内容:
- export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
- 1 # 将文件的全部内容替换成如下内容:
- 2 <configuration>
- 3 - HBase数据在HDFS中的存放的路径 - >
- 4 <property>
- 5 <name>hbase.rootdir / name>
- 6 <value>hdfs: / node1:8020/hbase / value>
- 7 / property>
- 8 - Hbase的运行模式。false是单机模式,true是分
- 布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面
- >
- 9 <property>
- 10 <name>hbase.cluster.distributed / name>
- 11 <value>true / value>
- 12 / property>
- 13 - ZooKeeper的地址 - >
- 14 <property>
- 15 <name>hbase.zookeeper.quorum / name>
- 16 <value>node1,node2,node3 / value>
- 17 / property>
- 18 - ZooKeeper快照的存储位置 - >
- 19 <property>
- 20
- <name>hbase.zookeeper.property.dataDir / name>
- 21 <value>/export/server/apache-zookeeper-
- 3.6.0-bin/data / value>
- 22 / property>
- 23 - V2.1版本,在分布式情况下, 设置为false - >
- 24 <property>
- 25
- <name>hbase.unsafe.stream.capability.enforce / name>
- 26 <value>false / value>
- 27 / property>
- 28 / configuration>
部分格式转换时出现错误,图片演示:
- scp -r /export/server/hbase-2.1.0
- node2:/export/server/
- scp -r /export/server/hbase-2.1.0
- node3:/export/server/
- # 配置在/etc/profile内,追加如下两行
- export HBASE_HOME=/export/server/hbase
- export PATH=$HBASE_HOME/bin:$PATH
-
- source /etc/profile
请确保: Hadoop HDFS 、 Zookeeper 是已经启动了的
- start-hbase.sh
-
- # 如需停止可使用
- stop-hbase.sh
由于我们配置了环境变量 export PATH=$PATH:$HBASE_HOME/bin start-hbase.sh即在 $HBASE_HOME/bin 内,所以可以无论当前目录在哪,均可直接执行
- hbase shell
-
- # 创建表
- create 'test', 'cf'
-
- # 插入数据
- put 'test', 'rk001', 'cf:info', 'itheima'
-
- # 查询数据
- get 'test', 'rk001'
-
- # 扫描表数据
- scan 'test'