企业级高可用HBase部署方案

1 HBase介绍

HBase是一个分布式的、面向列的开源数据库,就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。它是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。

HBase的常见使用场景如下:

1、大数据量(100s TB级数据)且有快速随机访问的需求。例如淘宝的交易历史记录,数据量巨大无容置疑,面向普通用户的请求必然要即时响应。

2、容量的优雅扩展。大数据驱使下的动态扩展系统容量是必须的。

3、业务场景简单,不需要关系数据库中很多特性(例如交叉列、交叉表,事务,连接等等)。

4、合理设计rowkey。因为hbase的查询用rowkey是最高效的,也几乎是生产环境下唯一可行的方式。

2 集群规划

在搭建HBase高可用集群时,将HBase的RegionServer部署在HDFS的3个DataNode节点上,HBase的HMaster服务部署在HDFS的2个NameNode(Active和Standby)节点上,部署2个HMaster保证集群的高可用性,防止单点问题。这里使用了独立的ZooKeeper集群,未使用HBase自带的ZooKeeper。下面给出HBase的集群搭建架构图:

搭建HBase HA集群需要首先搭建Hadoop HA集群,其方法可参考我的上一篇文章《Hadoop2.0 HA高可用集群配置详解》。在其基础上加入HBaseHA,规划整个集群由5台主机组成,具体情况如下表所示:

主机名IP地址安装的软件JPS
hadoop-master1172.16.20.81Jdk/hadoop/hbaseNamenode/ZKFC/ResourceManager/JobHistoryServer/HMaster
hadoop-master2172.16.20.82Jdk/hadoop/hbaseNamenode/ZKFC/ResourceManager/WebProxyServer/HMaster
hadoop-slave1172.16.20.83Jkd/hadoop/hbase/zookeepeDatanode/JournalNode/NodeManager/quorumPeerMain/HRegionServer
hadoop-slave2172.16.20.84Jkd/hadoop/hbase/zookeeperDatanode/JournalNode/NodeManager/quorumPeerMain/HRegionServer
hadoop-slave3172.16.20.85Jkd/hadoop/hbase/zookeeperDatanode/JournalNode/NodeManager/quorumPeerMain/HRegionServer

显示详细信息

3 企业级系统参数配置

// 查看linux系统最大进程数和最大文件打开数

$ ulimit-a

img

// 设置linux系统最大进程数和最大文件打开数(设置完重新登录shell)

$ suroot

\# vim/etc/security/limits.conf

root  soft  nproc 50000

root  hard  nproc 50000

root  soft  nofile 25535

root  hard  nofile 25535

hadoop  soft  nproc 50000

hadoop  hard  nproc 50000

hadoop  soft  nofile 25535

hadoop  hard  nofile 25535

// 调整linux内核参数

\# vim/etc/sysctl.conf

net.ipv4.ip_forward= 0

net.ipv4.conf.default.rp_filter= 1

net.ipv4.conf.default.accept_source_route= 0

kernel.core_users_pid= 1

net.ipv4.tcp_syncookies= 1

net.bridge.bridge-nf-call-ip6tables= 0

net.bridge.bridge-nf-call-iptables= 0

net.bridge.bridge-nf-call-arptables= 0

kernel.mggmnb= 65536

kernel.mggmax= 65536

kernel.shmmax= 68719476736

kernel.shmall= 268435456

net.ipv4.tcp_max_syn_backlog= 65000

net.core.netdev_max_backlog= 32768

net.core.somaxconn= 32768

fs.file-max= 65000

net.core.wmem_default= 8388608

net.core.rmem_default= 8388608

net.core.rmem_max= 16777216

net.core.wmem_max= 16777216

net.ipv4.tcp_timestamps= 1

net.ipv4.tcp_synack_retries= 2

net.ipv4.tcp_syn_retries= 2

net.ipv4.tcp_mem= 94500000 915000000 927000000

net.ipv4.tcp_max_orphans= 3276800

net.ipv4.tcp_tw_reuse= 1

net.ipv4.tcp_tw_recycle= 1

net.ipv4.tcp_keepalive_time= 1200

net.ipv4.tcp_syncookies= 1

net.ipv4.tcp_fin_timeout= 10

net.ipv4.tcp_keepalive_intvl= 15

net.ipv4.tcp_keepalive_probes= 3

net.ipv4.ip_local_port_range= 1024 65535

net.ipv4.conf.eml.send_redirects= 0

net.ipv4.conf.lo.send_redirects= 0

net.ipv4.conf.default.send_redirects= 0

net.ipv4.conf.all.send_redirects= 0

net.ipv4.icmp_echo_ignore_broadcasts= 1

net.ipv4.conf.eml.accept_source_route= 0

net.ipv4.conf.lo.accept_source_route= 0

net.ipv4.conf.default.accept_source_route= 0

net.ipv4.conf.all.accept_source_route= 0

net.ipv4.icmp_ignore_bogus_error_responses= 1

kernel.core_pattern= /tmp/core

vm.overcommit_memory= 1

\#sysctl -p

4 HBase HA配置

// 在hadoop-master1节点解压hadoop安装包

$ tar-xvf hbase-1.2.0-cdh5.7.1.tar.gz -C /home/hadoop/app/cdh/



// 删除安装包

$ rmhbase-1.2.0-cdh5.7.1.tar.gz



// 进入hbase的conf目录

$ cd/home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1/conf/



// 修改hbase-env.sh

$ vimhbase-env.sh

\# 配置JDK安装路径

exportJAVA_HOME=/home/hadoop/app/jdk1.7.0_79

\# 配置Hadoop安装路径

exportHADOOP_HOME=/home/hadoop/app/cdh/hadoop-2.6.0-cdh5.7.1

\# 设置HBase的日志目录

exportHBASE_LOG_DIR=${HBASE_HOME}/logs

\# 设置HBase的pid目录

exportHBASE_PID_DIR=${HBASE_HOME}/pids

\# 使用独立的ZooKeeper集群

exportHBASE_MANAGES_ZK=false

\# 优化配置项

\# 设置HBase内存堆的大小

exportHBASE_HEAPSIZE=1024

\# 设置HMaster最大可用内存

exportHBASE_MASTER_OPTS="-Xmx512m"

\# 设置HRegionServer最大可用内存

exportHBASE_REGIONSERVER_OPTS="-Xmx1024m"

// 配置hbase-site.xml

$ vim hbase-site.xml


  
     
     
   
        
    
     hbase.rootdir
        
    
     hdfs://mycluster/hbase
      
       
     
   
        
    
     hbase.master.port
        
    
     16000
      
       
     
   
        
    
     hbase.master.info.port
        
    
     16010
      
       
     
   
        
    
     hbase.tmp.dir
        
    
     /home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1/tmp
      
     
     
   
        
    
     hbase.cluster.distributed
        
    
     true
      
       
     
   
        
    
     hbase.zookeeper.quorum
        
    
     hadoop-slave1,hadoop-slave2,hadoop-slave3
      
       
     
   
        
    
     hbase.zookeeper.property.clientPort
        
    
     2181
      
       
     
   
        
    
     hbase.zookeeper.property.dataDir
        
    
     /home/hadoop/app/cdh/zookeeper-3.4.5-cdh5.7.1/data
      
       
     
     
   
        
    
     hbase.master.distributed.log.splitting
        
    
     false
      
       
     
   
        
    
     hbase.client.scanner.caching
        
    
     2000
      
       
     
   
        
    
     hbase.hregion.max.filesize
        
    
     10737418240
      
       
     
   
        
    
     hbase.regionserver.reginoSplitLimit
        
    
     2000
      
       
     
   
        
    
     hbase.hstore.compactionThreshold
        
    
     6
      
       
     
   
        
    
     hbase.hstore.blockingStoreFiles
        
    
     14
      
       
     
   
        
    
     hbase.hregion.memstore.block.multiplier
        
    
     20
      
       
     
   
        
    
     hbase.server.thread.wakefrequency
        
    
     500
      
       
     
   
        
    
     hbase.zookeeper.property.maxClientCnxns
        
    
     2000
      
       
     
   
        
    
     hbase.regionserver.global.memstore.lowerLimit
        
    
     0.3
      
     
   
        
    
     hbase.regionserver.global.memstore.upperLimit
        
    
     0.39
      
     
   
        
    
     hbase.block.cache.size
        
    
     0.4
      
       
     
   
        
    
     hbase.reginoserver.handler.count
        
    
     300
      
       
     
   
        
    
     hbase.client.retries.number
        
    
     5
      
       
     
   
        
    
     hbase.client.pause
        
    
     100
      
   
  

// 配置regionservers

$ vimregionservers

hadoop-slave1

hadoop-slave2

hadoop-slave3



// 新建backup-masters文件并配置

$ vimbackup-masters

hadoop-master2



// 创建hbase的缓存文件目录

$ cd/home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1/

$ mkdirtmp



// 创建hbase的日志文件目录

$ mkdirlogs



// 创建hbase的pid文件目录

$ mkdirpids



// 将hbase工作目录同步到集群其它节点

$ scp-r /home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1/hadoop-master2:/home/hadoop/app/cdh/

$ scp-r /home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1/ hadoop-slave1:/home/hadoop/app/cdh/

$ scp-r /home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1/ hadoop-slave2:/home/hadoop/app/cdh/

$ scp-r /home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1/ hadoop-slave3:/home/hadoop/app/cdh/



// 在集群各节点上修改用户环境变量

$ vim .bash_profile

export HBASE_HOME=/home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1

export PATH=$PATH:$HBASE_HOME/bin

$ source.bash_profile



// 删除hbase的slf4j-log4j12-1.7.5.jar,解决hbase和hadoop的LSF4J包冲突

$ cd /home/hadoop/app/cdh/hbase-1.2.0-cdh5.7.1/lib

$ mvslf4j-log4j12-1.7.5.jar slf4j-log4j12-1.7.5.jar.bk

文章来源网络,作者:运维,如若转载,请注明出处:https://shuyeidc.com/wp/220582.html<

(0)
运维的头像运维
上一篇2025-04-14 15:34
下一篇 2025-04-14 15:35

相关推荐

  • 个人主题怎么制作?

    制作个人主题是一个将个人风格、兴趣或专业领域转化为视觉化或结构化内容的过程,无论是用于个人博客、作品集、社交媒体账号还是品牌形象,核心都是围绕“个人特色”展开,以下从定位、内容规划、视觉设计、技术实现四个维度,详细拆解制作个人主题的完整流程,明确主题定位:找到个人特色的核心主题定位是所有工作的起点,需要先回答……

    2025-11-20
    0
  • 社群营销管理关键是什么?

    社群营销的核心在于通过建立有温度、有价值、有归属感的社群,实现用户留存、转化和品牌传播,其管理需贯穿“目标定位-内容运营-用户互动-数据驱动-风险控制”全流程,以下从五个维度展开详细说明:明确社群定位与目标社群管理的首要任务是精准定位,需明确社群的核心价值(如行业交流、产品使用指导、兴趣分享等)、目标用户画像……

    2025-11-20
    0
  • 香港公司网站备案需要什么材料?

    香港公司进行网站备案是一个涉及多部门协调、流程相对严谨的过程,尤其需兼顾中国内地与香港两地的监管要求,由于香港公司注册地与中国内地不同,其网站若主要服务内地用户或使用内地服务器,需根据服务器位置、网站内容性质等,选择对应的备案路径(如工信部ICP备案或公安备案),以下从备案主体资格、流程步骤、材料准备、注意事项……

    2025-11-20
    0
  • 如何企业上云推广

    企业上云已成为数字化转型的核心战略,但推广过程中需结合行业特性、企业痛点与市场需求,构建系统性、多维度的推广体系,以下从市场定位、策略设计、执行落地及效果优化四个维度,详细拆解企业上云推广的实践路径,精准定位:明确目标企业与核心价值企业上云并非“一刀切”的方案,需先锁定目标客户群体,提炼差异化价值主张,客户分层……

    2025-11-20
    0
  • PS设计搜索框的实用技巧有哪些?

    在PS中设计一个美观且功能性的搜索框需要结合创意构思、视觉设计和用户体验考量,以下从设计思路、制作步骤、细节优化及交互预览等方面详细说明,帮助打造符合需求的搜索框,设计前的规划明确使用场景:根据网站或APP的整体风格确定搜索框的调性,例如极简风适合细线条和纯色,科技感适合渐变和发光效果,电商类则可能需要突出搜索……

    2025-11-20
    0

发表回复

您的邮箱地址不会被公开。必填项已用 * 标注