网易视频云网易HBase基准性能测试之结果篇

上传人:大米 文档编号:482907646 上传时间:2023-03-03 格式:DOCX 页数:17 大小:1,009.86KB
返回 下载 相关 举报
网易视频云网易HBase基准性能测试之结果篇_第1页
第1页 / 共17页
网易视频云网易HBase基准性能测试之结果篇_第2页
第2页 / 共17页
网易视频云网易HBase基准性能测试之结果篇_第3页
第3页 / 共17页
网易视频云网易HBase基准性能测试之结果篇_第4页
第4页 / 共17页
网易视频云网易HBase基准性能测试之结果篇_第5页
第5页 / 共17页
点击查看更多>>
资源描述

《网易视频云网易HBase基准性能测试之结果篇》由会员分享,可在线阅读,更多相关《网易视频云网易HBase基准性能测试之结果篇(17页珍藏版)》请在金锄头文库上搜索。

1、网易视频云:网易Hase基准性能测试之成果篇 上一篇网易视频云的技术专家给人们分享了网易HBase基准性能测试之准备篇中具体简介了本次性能测试的基本准备状况,涉及测试集群架构、单台机器软硬件配备、测试工具以及测试措施等,在此基本上本篇文章重要简介HBse在多种测试场景下的性能指标(重要涉及单次祈求平均延迟和系统吞吐量)以及相应的资源运用状况,并对多种测试成果进行分析。 测试成果 单条记录插入 测试参数 总记录数为10亿,分为128个reio,均匀分布在4台rgio srver上;插入操作执行2千万次;插入祈求分布遵从ipfian分布;测试成果 资源使用状况上图为单台ReginServr的带宽使

2、用曲线图(资源使用状况中只列出和本次测试有关的资源曲线图,背面有关资源使用状况类似),本次测试线程为1000的状况下带宽基本维持在100M左右,对于百兆网卡来说基本上已经打满。 成果分析1吞吐量曲线分析:线程数在500的状况下,随着线程数的增长,系统吞吐量会不断升高;之后线程数再增长,系统吞吐量基本上不再变化。结合图3带宽资源使用曲线图可以看出,当线程数增长到一定限度,系统带宽资源基本耗尽,系统吞吐量就不再会增长。可见,Bse写操作是一种带宽敏感型操作,当带宽资源nd后,写入吞吐量基本就会稳定。2. 写入延迟曲线分析:随着线程数的不断增长,写入延迟也会不断增大。这是由于写入线程过多,导致CPU

3、资源调度频繁,单个线程分派到的CU资源会不断减少;另一方面由于线程之间也许会存在互斥操作导致线程阻塞;这些因素都会导致写入延迟不断增大。 建议 根据曲线显示,50线程以内的写入延迟并不不小于10ms,而此时吞吐量基本最大,因此如果是单纯写入的话5线程写入会是一种比较合适的选择。 单纯查询测试参数总记录数为10亿,分为18个rgion,均匀分布在4台reioserv上;查询操作执行2千万次;查询祈求分布遵从ziian分布; 测试成果 资源使用状况 图5为线程数在000时IO运用率曲线图,图中IO运用率基本保持在10%,阐明IO资源已经达到使用上限。图为线程数在00时系统负载曲线图,图中lo曲线表

4、达在近来一分钟内的平均负载,load5表达近来五分钟内的平均负载。近来分钟的负责达到了50左右,对于2核系统来说,表达此时系统负载很高,已经远远超负荷运营。 成果分析 吞吐量曲线分析:线程数在10的状况下,随着线程数的增长,系统吞吐量会不断升高;之后线程数再增长,系统吞吐量基本上不再变化。结合图5、图6系统资源使用曲线图可以看出,当线程数增长到一定限度,系统O资源基本达到上限,系统负载也特别高。I运用率达到100是由于大量的读操作都需要从磁盘查找数据,系统负载很高是由于Bas需要对查找的数据进行解压缩操作,解压缩操作需要耗费大量CP资源。这两个因素结合导致系统吞吐量就不再随着线程数增肌而增长。

5、可见,Base读操作是一种IO/CPU敏感型操作,当IO或者PU资源bou后,读取吞吐量基本就会稳定不变。2. 延迟曲线分析:随着线程数的不断增长,读取延迟也会不断增大。这是由于读取线程过多,导致PU资源调度频繁,单个线程分派到的PU资源会不断减少;另一方面由于线程之间也许会存在互斥操作导致线程阻塞;这些因素都会导致写入延迟不断增大。和写入延迟相比,读取延迟会更大,是由于读取波及IO操作,IO自身就是一种耗时操作,导致延迟更高。建议 根据曲线显示,线程以内的读取延迟并不不小于20m,而此时吞吐量基本最大,因此如果是单纯读取的话500线程读取会是一种比较合适的选择。ge扫描查询 测试参数总记录数

6、为10亿,分为128个reion,均匀分布在4台regon server上;s操作执行一千两百万次,祈求分布遵从zipian分布; sc最大长度为10条记录,sca长度随机分布且遵从uniorm分布; 测试成果资源使用状况 图8为线程数在1000时O运用率曲线图,图中IO运用率基本保持在1%,阐明IO资源已经达到使用上限。图为线程数在100时带宽资源使用曲线图,图中带宽资源基本也已经达到上限。成果分析 1. 吞吐量曲线分析:线程数在1000的状况下,随着线程数的增长,系统吞吐量会不断升高;之后线程数再增长,系统吞吐量基本上不再变化。结合图 、图9资源使用曲线图可以看出,当线程数增长到一定限度,

7、系统I资源基本达到上限,带宽也基本达到上限。IO运用率达到00%是由于大量的读操作都需要从磁盘查找数据,而带宽负载很高是由于每次can操作最多可以获取50yte数据,TPS太高会导致数据量很大,因而带宽负载很高。两者结合导致系统吞吐量就不再随着线程数增大会增大。可见,scan操作是一种IO/带宽敏感型操作,当O或者带宽资源bound后,sca吞吐量基本就会稳定不变。 2. 延迟曲线分析:随着线程数的不断增长,读取延迟也会不断增大。这是由于读取线程过多,导致CPU资源调度频繁,单个线程分派到的CU资源会不断减少;另一方面由于线程之间也许会存在互斥操作导致线程阻塞;这些因素都会导致写入延迟不断增大

8、。和写入延迟以及单次随机查找相比,读取延迟会更大,是由于sn操作会波及多次操作,IO自身就是一种耗时操作,因此会导致延迟更高。 建议 根据图表显示,顾客可以根据业务实际状况选择10050之间的线程数来执行san操作。 查询插入平衡测试参数 总记录数为10亿,分为128个region,均匀分布在4台gion server上;查询插入操作共执行千万次;查询祈求分布遵从zipfia分布; 测试成果 资源使用状况 图1为线程数在00时系统IO运用率曲线图,图中I运用率基本保持在100,阐明I资源已经达到使用上限。图1为线程数在100时系统负载曲线图,图中显示CU负载资源达到了0+,对于只有32核的系统

9、来说,已经远远超负荷工作了。 成果分析 1. 吞吐量曲线分析:线程数在1050的状况下,随着线程数的增长,系统吞吐量会不断升高;之后线程数再增长,系统吞吐量变化就比较缓慢。结合图11、图1系统资源使用曲线图可以看出,当线程数增长到一定限度,系统O资源基本达到上限,带宽也基本达到上限。IO运用率达到0%是由于大量的读操作都需要从磁盘查找数据,而系统负载很高是由于大量读取操作需要进行解压缩操作,并且线程数很大自身就需要更多CU资源。因此导致系统吞吐量就不再会增长。可见,查询插入平衡场景下,当IO或者CPU资源bud后,系统吞吐量基本就会稳定不变。 2. 延迟曲线分析:随着线程数的不断增长,读取延迟

10、也会不断增大。这是由于读取线程过多,导致PU资源调度频繁,单个线程分派到的PU资源会不断减少;另一方面由于线程之间也许会存在互斥操作导致线程阻塞;这些因素都会导致写入延迟不断增大。图中读延迟不小于写延迟是由于读取操作波及到I操作,比较耗时。建议 根据图表显示,在查询插入平衡场景下顾客可以根据业务实际状况选择1050之间的线程数。 插入为主 测试参数 总记录数为亿,分为128个ron,均匀分布在4台region sere上;查询插入操作共执行4千万次;查询祈求分布遵从st分布; 测试成果 资源使用状况 图15为线程数在000时系统带宽使用曲线图,图中系统带宽资源基本达到上限,而总体I运用率还比较

11、低。成果分析1. 曲线分析:线程数在00的状况下,随着线程数的增长,系统吞吐量会不断升高;之后线程数再增长,系统吞吐量基本上不再变化。结合图4带宽资源使用曲线图可以看出,当线程数增长到一定限度,系统带宽资源基本耗尽,系统吞吐量就不再会增长。基本同单条记录插入场景相似。 2 写入延迟曲线分析: 基本同单条记录插入场景。建议根据图表显示,插入为主的场景下顾客可以根据业务实际状况选择00左右的线程数来执行。 查询为主 测试参数 总记录数为10亿,分为128个region,均匀分布在台reio srve上;查询插入操作共执行4千万次;查询祈求分布遵从ifian分布; 测试成果 资源使用状况 图为线程数

12、在10时IO运用率曲线图,图中IO运用率基本保持在%,阐明IO资源已经达到使用上限。 成果分析 基本分析见单纯查询一节,原理类似。 建议 根据图表显示,查询为主的场景下顾客可以根据业务实际状况选择05之间的线程数来执行。 Inement自增 测试参数 1亿条数据,提成16个eion,分布在4台Regionever上;操作次数为0万次; 测试成果 成果分析. 线程数增长,Inremn操作的吞吐量会不断增长,线程数达到0个左右时,吞吐量会达到顶峰(275 ops/ec),之后再增长线程数,吞吐量基本维持不变;2. 随着线程数增长,ncment操作的平均延迟会不断增长。线程数在100如下,平均延时都

13、在4ms以内; 建议 根据图表显示,查询为主的场景下顾客可以根据业务实际状况选择10500之间的线程数来执行。 测试成果总结根据以上测试成果和资源运用状况可以得出如下几点:1. 写性能:集群吞吐量最大可以达到70000+ p/se,延迟在几种毫秒左右。网络带宽是重要瓶颈,如果将千兆网卡换成万兆网卡,吞吐量还可以继续增长,甚至达到目前吞吐量的两倍。2. 读性能:诸多人对se的印象也许都是写性能较好、读性能很差,但事实上Hse的读性能远远超过人们的预期。集群吞吐量最大可以达到+,单台吞吐量可以达到800左右,延迟在几毫秒20毫秒左右。IO和PU是重要瓶颈。 3Ran 扫描性能:集群吞吐量最大可以达

14、到14000左右,系统平均延迟在几毫秒60毫秒之间(线程数越多,延迟越大);其中O和网络带宽是重要瓶颈。 测试注意事项 1 需要关注与否是全内存测试,全内存测试和非全内存测试成果相差会比较大。参照线上实际数据状况,本次测试采用非全内存读测试。与否是全内存读取决于总数据量大小、集群J内存大小、Block Cache占比、访问分布与否是热点访问这四者,在VM内存大小以及lok Cache占比不变的状况下,可以增大总数据量大小或者修改访问分布; 2. 测试客户端与否存在瓶颈。HBse测试某些场景特别耗费带宽资源,如果单个客户端进行测试很也许会由于客户端带宽被耗尽导致无法测出实际服务器集群性能。本次测试使用6个客户端并发进行测试。 3 单条记录大小对测试的影响。单条记录设立太大,会导致并发插入操作占用大量带宽资源进而性能产生瓶颈。而设立太小,测试出来的TPS峰值会比较大,和线上实际数据不符。本次测试单条数据大小设立为50M,基本和实际状况相符。网易视频云是网易推出是AA级视频云服务,致力于为客户提供真正易用的视频云服务,目前已经广泛应用于在线教育、秀场直播、游戏直播、远程医疗等领域,在网易内部,也有广泛运用视频云的产品,例如网易新闻直播、网易

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 活动策划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号