2020年光通信行业深度研究报告

上传人:文宣 文档编号:132284017 上传时间:2020-05-14 格式:DOCX 页数:37 大小:269.74KB
返回 下载 相关 举报
2020年光通信行业深度研究报告_第1页
第1页 / 共37页
2020年光通信行业深度研究报告_第2页
第2页 / 共37页
2020年光通信行业深度研究报告_第3页
第3页 / 共37页
2020年光通信行业深度研究报告_第4页
第4页 / 共37页
亲,该文档总共37页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《2020年光通信行业深度研究报告》由会员分享,可在线阅读,更多相关《2020年光通信行业深度研究报告(37页珍藏版)》请在金锄头文库上搜索。

1、2020年光通信行业深度研究报告筱宇轩2020.5.4本文系统性地从架构的变化衍生出对设备、光芯片、光模块、连接器件以及 PCB 材料演进路径的分析。1. 5G 时代光通信的再思考流量爆发下的数据密度革命我们一直在思考一个问题:5G 流量再爆发中,光模块的产业演进路径如何?结合此前日韩 5G 研究、光博会草根调研,我们本文系统性地从架构的变化衍生出对设备、光芯片、光模块、连接器件以及 PCB 材料演进路径的分析。站在当前时点,市场担心光通信同质化竞争严重,会影响产品毛利率进而拖累业绩增长,但我们看到,5G 对数通设备、400G、MPO 连接器、高频高速材料等提出新的要求,流量爆发下的数据密度革

2、命即将到来,新产品、新市场的出现将极大提振盈利能力,优秀企业在产品能力、渠道能力、成本管控等方面的竞争优势将进一步体现,从而拉开业绩差距。因此,不必过分担心同质化竞争而忽略了 5G 的大机遇,在全球 5G 放量的前夕,光通信仍是最确定的方向。1.1 流量驱动下的东西向叶脊架构需求增长5G 与 400G 数据中心是双生式同步发展。当前,全球主要国家正在积极参与 5G 的商用化。运营商正在全速部署下一代网络设备,为 2020 年及以后的 5G 服务做好准备。4K/8K 高清视频、直播、视频会议、VR/AR 等大带宽的持续发酵酝酿,NB-IoT 等技术引发物联网产业新一轮增长,海量移动设备的接入,应

3、用端的发展正指向着流量的大爆发。在当下 5G 应用尚未大规模兴起的情况下,依靠高清视频、AR/VR 等既有业务,韩国在5G 推出半年的时间点,实现了流量近 3 倍增长(DOU 从约 8G 到 25G),结合近期不断涌现的新型应用(如一夜爆红的 AI 视频换脸 ZAO),我们预计在 5G 时代随着高宽带应用的逐步落地,流量的爆发将会是数十倍的量级。云成为大趋势,大型数据中心规模继续增长。根据 Synergy Research 数据显示,2018 年年底全球超大规模数据中心数量已经达到 430 个,美国占据其中 40%。超大规模数据中心的增长势头不减,公司收入每年平均增长 24,而资本支出增长则超

4、过 40其中大部分用于建设和装备数据中心。据思科预测,2021 年全球数据中心流量将增长到每年 20.5ZB,且 95%的数据中心流量将是云流量。在即将到来的 5G 时代,流量的爆发将汇聚成数字海啸。过去几年,海外云厂商经历了从需求爆发到去库存的周期轮回,但随着 5G 到来,我们认为,数据中心的需求增长仍是确定性的。近期市场担心四季度海外能否起量也仅是短期维度的压制因素,随着 2020 年 5G 整体起量,大型数据中心是不可或缺的基础设施。大型数据中心叶脊架构已成主流架构,新的交换模式可以带来更低的延时,传统三层架构退出历史舞台。首先大型云厂商在即将到来的 5G 时代,以及云进程的进一步深入加

5、速,大型云厂商数据规模越来越大,数据中心内部东西向流量已然占据主导地位,更适于数据中心内部数据交互的扁平胖宽的叶脊架构已成为数据中心的首选。叶脊架构使得数据中心规模变得更大、更扁平化,这使得整个数据中心需要更多的交换机,交换机之间也需要更快的传输速率以及更高的光纤覆盖率来满足内部海量流量的互通。我们在近期国内市场的走访中已经越来越多听到关于叶脊架构的讨论。交换机之间连接都需要高端光模块来完成,叶脊架构所需高速光模块数量巨大。对于有1000 个机柜(单机柜 30 台服务器)的大型数据中心,总出口带宽 1T,单服务器带宽10G,采用传统三层架构,核心层交换机 4 个,汇聚层交换机 20 个,接入层

6、交换机 2000个。则核心层与汇聚层之间 40G/100G 高速光模块 4*20*2=160 个。同样规模下采用叶脊架构的数据中心,需要的叶交换机数量在 300 个左右(单台叶交换机下行连接 100 台服务器),则下行带宽 100*10G=1000G,为了保证收敛比,上行带宽约为 330G,如果采用 40G 光模块,则对应脊交换机 8 个,则需要的高速光模块是 300*8*2=4800 个;如果采用 100G 光模块,则对应脊交换机 4 个,则需要的高速光模块是 300*4*2=2400 个。对比可知,叶脊架构所需的高速光模块数量是传统三层架构的 15-30 倍。对大型和超大型数据中心而言,随

7、着机柜和服务器数量增加,整体结构将更趋于大型化和复杂化,对应的叶脊架构下所需高速光模块的数量是巨大的,且数据中心规模越大,需求的加速度越大。100G 会有较长的生命力,随着 400G 的启动会逐步放缓,400G 元年启动。我们参考Facebook 基于叶脊网络架构基础的 fabric 网络架构,可以看到对于大型数据中心来说,为了实现数据中心内部东西向流量的通信,在二维叶脊架构基础上,进行了三维拓展,实现了一个立体的结构,使得整个数据中心的拓展延申性得到了维度级的提高。通过fabric 架构,Facebook 可以从容的应对整个数据中心内部东西向流量的爆发带来的通信难题,通过构建了一个互通性极强

8、的立体结构,既保证了数据中心东西向数据通信的畅通,又保证了其大型数据中心规模的可拓展性,使得整个数据中心更具生命力。1.2 北美云厂商的资本开支见底回暖云厂商资本开支 19Q2 实现触底反弹。从北美主要四家云厂商(facebook、亚马逊、微软、谷歌)的资本支出情况来看,2016 年整体进入同比加速增长阶段,到 2018 年 Q1 四家整体资本开支在单季度达到 157 亿美元,同比增速达到高点 115%。随后整体资本开支开始放缓,19 年 Q1 的增速同比和环比均出现下滑,达到最低点,Q2 出现增速回升。数据中心建设模式为循序渐进式,在需求的推动下,预期 400G 将会带动资本开支逐季节回升。

9、1.3 端口密度升级是大型数据中心必经之路叶脊架构全连接特性要求每台叶交换机与每台脊交换机一一连接。在叶脊架构中,脊交换机之间或者叶交换机之间不需要链接同步数据(不像三层网络架构中的汇聚层交换机之间需要同步数据)。我们知道叶脊架构的初衷就是提高整个数据中心内部流量的通信效率,对于数据中心内任何两台服务器,只需要经过一台叶交换机和一台脊交换机便能实现服务器间的数据传输,大大提高了数据传输的效率。每个叶交换机的上行链路数等于脊交换机数量,同样的每个脊交换机的下行链路数等于叶交换机的数量,脊交换机和叶交换机之间以 full-mesh 方式连接,即每台叶交换机与每台脊交换机一一连接。光端口升级是大型数

10、据中心必经之路。随着数据流量的爆发,云厂商数据中心的扩建和升级需求是显而易见的。目前以云厂商为主的大型和超大型数据中心都已采用叶脊架构,对于叶脊架构而言,为了实现总带宽的升级,只通过提高端口的数量而不升级端口带宽的方法来实现升级并不是理想的方案。大型数据中心由于规模大、机柜量多,日常的运维管理维护的难度更大,对数据中心的结构和布线等要求更高。同时大型云厂商的用户数量巨大,流量的增速更快,云厂商对数据中心的扩展性要求更高。仅通过提高端口数量的做法,会使得整个数据中心结构迅速复杂化,对运维管理的要求更高,且结构的复杂使得后续在同样端口密度下扩展的空间更小,后续若要继续升级依然只能选择光端口升级的方

11、法来实现,是大型数据中心绕不过的核心点。谷歌、微软、亚马逊已陆续开启 400G 升级进程。谷歌为了满足带宽需求,一般超大规模数据中心会每 2-3 年对整体网络架构进行一次升级。我们参考 Googe 数据中心升级路线,谷歌在 2013 年第五代数据中心谷歌开始启用 40G,2016 年下半年则开始大规模使用 100G,以此类推 2019 年年底有望开启 400G 规模商用。400G 以太网技术的同步实施,在今后的数年内将会继续增长,成为交换芯片和网络平台上普遍采用的速度。与此同时,微软、亚马逊也于 2019 年陆续开展 400G 升级的前期工作,前期的送样测试工作基本完成,400G 升级进展顺利

12、。针对 Facebook 19 年数据中心新架构的分析。2019 年 3 月,Facebook 在 OCP Summit2019 会议上重磅发布了下一代 IDC 网络 F16、新一代的 Fabric Aggregator-HGRID,以及其核心组件 Minipack,以满足数据中心高速增长的流量需求。新一代 IDC 网络架构 F16相比上一代 4 fabric 网络架构,在没有使用更高速率光模块前提下,通过提升网络平面数及减少跳数来达到同样带宽的需求,这直接提升了 Facebook 对 100G 光模块需求。我们认为此次架构升级依然利好 400G,其架构依然是基于叶脊架构的 Fabric 架构

13、,通过提高端口的数量,使用端口数量更多的交换机,来实现带宽的升级。从短期看Facebook 会更集中于 100G 光模块的需求,而中长期来看更是为顺利过渡至 400G 打好了结实的架构基础。Facebook 通过避开 400G 光模块前期高价的阶段,把其端口密度升级的进程稍稍往后推迟,随着 400G 光模块的放量价格将逐渐下降,在 400G 光模块价格稳定后,facebook 再进行全方位的光端口密度升级,从资本开支角度可以节省资金。而其新的 F16 架构全新的架构,端口数量较上一代 F4 架构明显大增,对于相同数量的服务器,需要 3-4 倍的 100G 光学器件。海外数据中心光模块专业咨询机

14、构 LightCounting于 2019 年 4 月发布光通信市场预测报告,其中上调了对于以太网段光模块销售收入预测,主要原因是 100G 光模块的销量在增长,同时认为 Facebook F16 数据中心新网络架构对于相同数量的服务器,它需要 3-4 倍的 100G 光学器件,整个数据中心端口数量较之前有数倍增长,那么当 Facebook 开展 400G 升级进程后,对 400G 光模块需求量将会是巨大的。目前来看,北美主流云计算公司对于下一代产品升级的技术路线尚未形成统一,亚马逊主张使用的是 4x100G DR4,谷歌将由 100G 升到 200G 转换至 2x200G 模块的形式,主要使

15、用 2x200G SR8 和 FR8 光模块,Facebook 则基于其新型 F16 架构使用 100G 光模块实现带宽升级,并计划进一步升级到 200G,微软则更多考虑 400G ZR 可用于长距离互连区域性数据中心之后,再在数据中心内部署 400G,实现跨区域数据中心的超高速数据互通。流量的加速爆发,使得云厂商们势必需要对现有数据中心进行升级改造或者新建更多的数据中心。这将大大提升数据中心对光通信器件、模块及设备的使用及升级需求,而大型数据中心的结构特点和高扩展性,使得端口 400G 升级成为必经之路。流量的大爆发将成为驱动 400G 光通信产业发展升级的根源力量。2. 400G 数通设备

16、数据密度革命之主战场2.1 数据中心网络架构的发展历程虚拟化、软件定制化数据中心成为时代主流。早期数据中心的规模和需求并不大,一个数据中心所容纳的服务器规模在百台左右。随着数据流量的不断增加,数据中心容纳的服务器从数千台发展到如今的数十万台,规模越来越大。数据中心的技术也从最传统的路由交换技术发展到虚拟化技术(NFV)、软件定义网络(SDN)和二者的结合(SDN/NFV),其架构也从从经典的三层架构发展至今日主流的叶脊架构。追本溯源,数据中心规模的扩大、技术的演进都是因需求端数据量不断地增加而驱动的。在 2008 年以前,经典数据中心架构采用核心-汇聚-接入这种传统的三层架构,当时大多数数据中心里的一个服务器对应的就是一个应用,按照功能不同被放置在固定的功能区域内。但随着数据量的增长,服务器的数量越来越吃紧。服务器的虚拟化趋势越来越强,提高服务器利用率、充分发挥计算资源成为主流声音。2011 年起,数据中心网络架

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 调研报告

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号