《VMware虚拟化最佳实践及规划课件》由会员分享,可在线阅读,更多相关《VMware虚拟化最佳实践及规划课件(66页珍藏版)》请在金锄头文库上搜索。
1、虚拟化最佳实践及规划,议程,应用实施范围考虑 服务器采购考虑 虚拟机部署考虑 管理维护考虑,议程,应用实施范围考虑 服务器采购考虑 虚拟机部署考虑 管理维护考虑,应用实施范围总体原则,不适合采用虚拟化的应用 具有特殊硬件访问要求的应用 高性能图形显卡 - 不适用虚拟化 特殊的串/并行加密设备 -不适用虚拟化 USB设备连接需求 - 可能不适用,可采用外置USB设备代替,需经过测试 即使在高配置的服务器上仍然具有很高负载的应用 - 可能不适用,需分析当前服务器配置情况 可以采用虚拟化的应用 除上述不适合采用虚拟化的应用之外的所有应用 可根据应用迁移的复杂程度决定虚拟化先后顺序 较易实现P2V的应
2、用可先做迁移,如可用Converter工具直接迁移的应用 较难或不能做P2V迁移的应用可考虑采用重新安装方式后迁 根据管理的需要决定是否做虚拟化 虚拟化转变过程对现有业务的影响程度 转变为虚拟化后对现有管理的影响程度 部门之间协调的难易程度,虚拟化宿主服务器的部署类型,垂直扩展与水平扩展部署模式 不同资源池的“量子化”模型,不同资源池的类型,垂直扩展的主机模式提供更大的连续性资源空间 更容易满足不同负载的吻合性要求 可提供更高的资源利用率 水平扩展的集群主机模式更像是一组小池子的集合 多组小容量资源池 需要更多的监控管理 模块化使用既有优点也有缺点,影响虚拟化部署的参数体系,功能的多样化,服务
3、器的重要性,独立服务器,不重要,重要,(独立的, 本地存储等等),(群集的,多主机的等等),服务器农场,(水平扩展服务器群集, 公用服务器等等),(后端办公, 本地应用等等),负载约束,技术约束,商业约束,困难度增加,负载约束,不同的资源组都需要分别考虑 CPU利用率 磁盘 I/O 网络 I/O 内存利用率 虚拟化造成的额外负载通常也要做一定考虑,如 磁盘和网络的I/O会增加CPU的负担 iSCSI存储访问也会增加CPU负担 运维的周期性负载变化也必须考虑进来 月末负载变化 年末负载变化,技术约束,技术约束通常主要是指: 兼容性 (指系统/应用的兼容性) 关联性 (如系统是摩格逻辑组的一部分)
4、 大部分环境下,这些约束包括了: 网络连接(子网段级别) 应用之间的互连性 相关的存储使用技术 所用的硬件和外设 软件支持度和认证 这些约束条件根据虚拟化在内核上下实现的不同而有所不同 共享与分离OS镜像模式,商业和流程的约束,规模较小或集中的情况下容易被忽略的约束 在实验室的测试环境可以不考虑,但生产环境必须要考虑 在虚拟化中常见的商业和流程约束包括: 维护窗口和冻结改变 地理位置和其他物理限制 运维环境,安全区域,应用分层部署考虑 商业组织,部门以及客户 法规政策的考虑与限制 忽视这些约束条件将可能导致不可预知的结果 具体情况具体分析,根据目标制定计划,议程,应用实施范围考虑 服务器采购考
5、虑 虚拟机部署考虑 管理维护考虑,虚拟化中使用的硬件应满足兼容性列表要求,所有用于实现VMware VI3虚拟架构解决方案的设备,包括:服务器系统、存储系统、IO卡设备等,应满足VMware VI3产品兼容列表的要求,最新的兼容列表可从如下的连接找到: 服务器系统兼容列表 HCL: Systems Compatibility Guide For ESX Server 3.5 and ESX Server 3i 存储系统兼容列表 HCL: Storage / SAN Compatibility Guide For ESX Server 3.5 and ESX Server 3i IO卡设备兼容列
6、表,包括网卡、FC HBA卡和iSCSI HBA卡等 HCL: I/O Compatibility Guide For ESX Server 3.5 and ESX Server 3i,ESX服务器硬件配置考虑要点 CPUs,ESX 调度CPU周期满足虚拟机和Service Console的处理请求 可用的CPU目标数量越多,ESX管理这个调度机制的效果越好 (单台服务器配置8个以上的CPU核会有最好的效果) 超线程技术并不能提供等同于多核处理器的好处;建议关闭CPU的超线程功能(如果有的话) 使用具有EM64T能力的Intel VT 或AMD V 技术的CPU可以同时支持运行32位和64位的
7、虚拟机 采用同一厂商、同一产品家族和同一代处理器的服务器组成的集群,可以获得最好的VMotion兼容能力 ES的Enhanced VMotion兼容性扩大了原有VMotion的兼容能力-Alleviating Constraints with Resource Pools Live Migration with Enhanced VMotion,-参见Best Practices for Successful VI Design,ESX服务器硬件配置考虑要点- 内存,内存资源往往比CPU资源更会成为潜在的瓶颈 在某些时候,虚机环境的内存使用量可能会超过物理内存值: Host swap file
8、 (尽量少用以获得最佳性能) Transparent Page Sharing(多个虚机共享相同内存页面) 注意服务器特定的内存配置要求 DIMM sizes, bank pairing, parity, upgrade considerations (mix and match or forklift replacement) 尽可能将服务器配置到最大内存,采用最大容量的内存条(特别是当没有配满全部内存条时),-参见Best Practices for Successful VI Design,虚拟架构的基本网络连接部件组成,(Management virtual machine),(Vmo
9、tion, iSCSI, NFS),(VM connectivity),Port Group,Port Group,Port Group,ESX服务器硬件配置考虑要点- 网络,-参见Best Practices for Successful VI Design,最少配置一个虚拟交换机,测试环境可用2个虚拟交换机,生产环境建议最少配置3个虚拟交换机 虚拟交换机可同时支持3种类型的端口组 (Service Console, VMkernel, VM) 建议将Service Console、VMkernel和虚机端口组各自使用自己的虚拟交换机 可用VLAN技术分割不同的端口组 对于使用VMotion
10、和DRS功能的服务器集群,网络配置应该相匹配 (虚拟交换机的数量与网络卷标名应保持一致) ESX服务器Service Console使用固定IP,配置正确的speed和duplex。,ESX服务器硬件配置考虑要点- 网络-虚拟交换机和端口组,-参见Best Practices for Successful VI Design,ESX服务器,虚拟交换机,物理网卡 出于冗余的考虑,每个虚拟交换机建议至少分配两个物理网卡 每个ESX服务器的物理网卡/口数量取决于准备配置的虚拟交换机的数量 如果3种类型的端口组(SC, VMkernel, VM)都在不同的虚拟交换机上,生产环境建议至少6个物理网卡/口
11、 如果给包含虚拟机端口组的虚拟交换机分配更多的物理网卡/口,可以获得负载均衡的好处,ESX服务器硬件配置考虑要点- 网络基本组件,-参见Best Practices for Successful VI Design,物理网卡/口与物理交换机 同一个虚拟交换机上的不同物理网卡/口应连接到不同的物理交换机上 将一个集群中所有服务器的VMotion功能端口组所使用的物理网卡/口都连到同一套物理交换机上 (同样遵循上述第一条规则),ESX服务器硬件配置考虑要点- 与物理网络的连接,-参见Best Practices for Successful VI Design,Example 1: Blade S
12、erver with 2 NIC Ports,vSwitch,vmnic0,SC,vmkernel,Active,Standby,vmnic1,Candidate Design: Team both NIC ports Create one virtual switch Create three port groups: Use Active/Standby policy for each portgroup Portgroup1: Service Console (SC) Portgroup2: VMotion Portgroup3: VM traffic Use VLAN trunking
13、 Trunk VLANs 10, 20, 30 on each uplink,Portgroup1VLAN 10,Portgroup3VLAN 30,Portgroup2VLAN 20,VLAN Trunks(VLANs 10, 20, 30),Example 2: Server with 4 NIC Ports,vmnic0,SC,vmkernel,Active,Standby,vmnic1,Candidate Design: Create two virtual switches Team two NICs to each vSwitch vSwitch0 (use active/stan
14、dby for each portgroup): Portgroup1: Service Console (SC) Portgroup2: VMotion vSwitch1 (use Originating Virtual PortID) Portgroup3: VM traffic #1 Portgroup4: VM traffic #2 Use VLAN trunking vmnic1 and vmnic3: Trunk VLANs 10, 20 vmnic0 and vmnic2: Trunk VLANs 30, 40,Portgroup4VLAN 40,VLANs 10, 20,vSw
15、itch0,Portgroup1VLAN 10,Portgroup2VLAN 20,vSwitch1,vmnic2,vmnic3,Portgroup3VLAN 30,VLANs 30, 40,Example 3: Server with 4 NIC Ports (Slight Variation),vmnic0,SC,vmkernel,Active,Standby,vmnic1,Candidate Design: Create one virtual switch Create two NIC teams vSwitch0 (use active/standby for portgroups
16、1 otherwise HA will use largest reservation specified as the “slot” size. At a minimum, set reservations for a few virtual machines considered “average” Admission control may be too conservative when host and VM sizes vary widely Perform your own capacity planning by choosing “Allow virtual machines to be powered on even if they violate availability constraints”. HA will still try to restart as many