文档简介:
Q:云HBASE适用什么场景?
A:云HBASE是基于开源 HBase引擎支持NOSQL和二级索引,提供高性能、低延迟、易运营实时分析云服务,适合上百TB,百万级QPS的分布式计算应用场景。单节点定位开发和测试场景,
集群版定位于企业生产。
Q:创建云HBASE集群需要准备什么?
A:创建云HBASE集群时,请根据业务负载确定计算单元数量。在集群创建后,不支持计算单元减容。如果集群处理业务一段时间后,云HBASE会自动对负载指标收集,如果超过警告值会做出预警,用户可以考虑扩容增加计算单元数量。
Q:线下或者ECS上自建CDH/HDP怎么搬迁到云HBASE?
A:HBase提供搬迁不停机搬迁服务,可以在不影响业务的情况下实现数据搬迁。两种情况:1)线下应用搬迁到天翼云对应资源池的ecs主机。2)已有云主机,开通云HBASE后下载更新hbase-site.xml,zk配置文件,重启应用程序生效。
Q:什么是数据分布不均衡?出现后如何处理?
A:Hbase的表会被划分为1....n个Region,被托管在RegionServer中。Region二个重要的属性:Startkey与EndKey表示这个Region维护的rowkey的范围,当我们要读写数据时,如果rowkey落在某个start-end key范围内,那么就会定位到目标region并且读写到相关的数据。
当数据库单表或者多表region读写负载长期发生极大偏差的时候,部分region负载很高的,我们称热点。查看memstore的大小,如果memstore大小存在很大的偏差。那么我们称这种现象为hbase数据分布不均衡。
面对这种情况,我们可以手动地将热点region 按特定的边界拆分出一个或多个新region,然后将子region 负载分布到多个region 服务器上。
对于连续的行键的分布,可以采用盐析主键或者随机行键进行处理。
对于非连续的行键的分布,可以为region指定一个任意值做为拆分行键。
如果一个表的大部分region落在一个服务节点上,那么可以采用客户端的move()指令把这些region迁移到别的服务节点上。也可以使用unassign()指令让数据库从当前服务节点卸载,再进行重新分配到别的服务节点上。
Q:我配置了ZK地址以后,还是无法连接上HBASE
A:可能的原因如下
1忘记在云HBASE管理平台添加白名单。请登录进入云HBASE管理平台后
访问控制模块,添加访问机器的ip.
2两个不同的VPC环境默认是不通的(跨VPC请 配置 高速通道),可能是跨Region(地域跨城),当前不支持跨域机器访问云HBASE。
Q:客户端提示“Could not resolve the DNS name of xxx”
现象描述
HBase客户端程序运行中,出现类似以下的日志打印:“Could not resolve the DNS
name of xxx”,提示DNS无法解析。
A:可能原因HBase客户端需要配置集群各节点的HostName和IP的对应关系才可以正常连接到HBase
集群。客户端进程所在机器没有正确配置HBase集群中HostName和IP对应关系,可能
导致客户端无法解析DNS。
定位思路
1. 检查客户端程序运行环境上是否正确配置了HBase集群HostName与IP的对应关
系。
2. 定位修改后,重启客户端程序即可恢复正常。
3. 恢复该故障正常耗时5分钟。
处理步骤
步骤1 登录天翼云hbase运营控制台。
步骤2 点击“集群列表> 选择一行记录,点击明细 >定位配置信息,下载客户端安装包和配置信息”,下载客户端程序到本地机器。
步骤3 解压缩客户端程序,并双击该目录下的“install.bat”脚本,自动配置客户端工程。
解压目录下的“HBase/hbase-examples”文件夹即为样例工程文件夹。
步骤4 拷贝解压目录下的“hosts”文件中除“casserver”项以外的内容到本地机器的hosts文
件中。
本地hosts文件存放路径:
-
Windows环境:“C:\Windows\System32\drivers\etc\hosts”
-
Linux环境:“/etc/hosts”
步骤5 执行quit命令,退出并重启客户端程序。
----结束
Q:由于网络或操作系统故障引起的找不到 hbase:meta 异常
现象描述
在执行MapReduce或者Spark等程序时,可能出现如下异常导致的任务执行失败:
Caused by: java.net.SocketTimeoutException: callTimeout=60000, callDuration=60304: row ''
on table 'hbase:meta' at region=hbase:meta,,1.1588230740, hostname=host1,21302,1448886113294,
seqNum=0
at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:159)
at org.apache.hadoop.hbase.client.ResultBoundedCompletionService
$QueueingFuture.run(ResultBoundedCompletionService.java:64)
... 3 more
A:可能原因
-
HDFS服务不可用。
-
ZooKeeper上存储的meta region位置数据和实际不符。
处理步骤
步骤1 确认HDFS服务是否可用,如果HDFS服务不可用,请先排除HDFS故障。
步骤2 如果HDFS服务无故障,从HBase原生网页中找到hbase:meta表所在节点,重启该节点的
RegionServer。
步骤3 如果故障仍然存在,请联系天翼云客服。