Hbase伪分布式配置

(安装全过程建议用普通用户user安装) 软件环境 ubuntu-14.04.5-server-amd64.iso hadoop-2.6.2.tar.gz hbase-1.1.2-bin.tar.gz phoenix-4.7.0-HBase-1.1-bin.tar.gz

JDK安装和配置 $ cd /usr/ 进入到usr目录下,然后建一个java文件夹 $sudo mkdir java 最后解压 $ sudo tar -zxvf /home/user/jdk-8u121-linux-x64.tar.gz -C /usr/java/

配置环境变量,配置一个全局的JAVA_HOME变量 $ sudo vi /etc/profile export JAVA_HOME=/usr/java/jdk1.8.0_121 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=.:${JAVA_HOME}/bin:$PATH

测试一下jdk有没有安装成功 $ java -version(出现版本号表明安装成功了)

安装和配置ssh 确认ssh是否安装 user@ubuntu:~$ which ssh /usr/bin/ssh 表示已经安装ssh 配置SSH,使其可以自动登录 user@ubuntu:~$ ssh localhost user@ubuntu:~$ cd .ssh/ user@ubuntu:~/.ssh$ user@ubuntu:~/.ssh$ ssh-keygen -t rsa user@ubuntu:~/.ssh$ cat id_rsa.pub >> authorized_keys 然后测试user@ubuntu:~/.ssh$ ssh localhost 如果没有要求输入密码说明配置成功

关闭防火墙 如果是centos系统,则需要关闭防火墙

配置hadoop 配置hadoop 将hadoop解压后,配置conf目录下的四个文件: conf/core-site.xml <configuration> <property> <name>fs.default.name</name> <value>hdfs://192.168.3.206:8020</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/var/log/hadoop_data</value> </property> </configuration>

conf/hdfs-site.xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>

conf/mapred-site.xml <configuration> <property> <name>mapred.job.tracker</name> <value>192.168.3.206:8021</value> </property> </configuration>

conf/hadoop-env.sh 将 #export JAVA_HOME=/usr/lib/jvm/java-6-sun 改为 export JAVA_HOME=***/***(自己的JAVA_HOME的主目录)

通过以上步骤hadoop即安装配置完成,进入bin目录 $./start-all.sh //启动hadoop的各个监护进程 可以通过http://localhost:50070 和http://localhost:50030 查看namenode和jobtracker。 $./stop-all.sh //关闭hadoop的各个监护进程

配置hbase ./hbase-0.94.4 /conf/hbase-env.sh 修改下面的行:

export JAVA_HOME=/usr/java/jdk1.6.0/

export JAVA_HOME=/usr/java/jdk1.6.0_38

export HBASE_MANAGES_ZK=true

export HBASE_MANAGES_ZK=true

./hbase-0. 94.4/conf/hbase-site.xml 修改为下面的: <configuration> <property> <name>hbase.rootdir</name> <value>hdfs://192.168.3.206:8020/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property>
<name>hbase.zookeeper.quorum</name>
<value>192.168.3.206</value>
</property> </configuration> hdfs://192.168.3.206:8020与hadoop中core-site.xml的配置项一致

替换Hbase中的jar包 需要{HADOOP_HOME}下hadoop-core-.jar和{HBASE_HOME}/lib下hadoop-core-.jar保持一致。如果不一致Hbase启动时会因为hadoop和Hbase的客户端协议不一致而导致HMaster启动异常。报错如下: localhost: Exception in thread "main" org.apache.hadoop.ipc.RPC$VersionMismatch: Protocol org.apache.hadoop.hdfs.protocol.ClientProtocol version mismatch. (client = 42, server = 41)

设置hosts user@ubuntu:~$ cat /etc/hosts

Do not remove the following line, or various programs

that require network functionality will fail.

127.0.0.1 localhost
192.168.3.206 ubuntu

启动 完成以上操作,就可以正常启动Hbase了,启动顺序:先启动Hadoop,再启动Hbase,关闭顺序:先关闭Hbase,再关闭Hadoop。

配置phoenix 解压缩,把解压目录下的phoenix-4.7.0-HBase-1.1-server.jar复制到机器的hbase目录的lib目录 后重启hbase,即可进入phoenix。 /bin/sqlline.py master

相关文章
相关标签/搜索