VMware虚拟化最佳实践及规划

上传人:飞*** 文档编号:49147551 上传时间:2018-07-24 格式:PPT 页数:66 大小:2.57MB
返回 下载 相关 举报
VMware虚拟化最佳实践及规划_第1页
第1页 / 共66页
VMware虚拟化最佳实践及规划_第2页
第2页 / 共66页
VMware虚拟化最佳实践及规划_第3页
第3页 / 共66页
VMware虚拟化最佳实践及规划_第4页
第4页 / 共66页
VMware虚拟化最佳实践及规划_第5页
第5页 / 共66页
点击查看更多>>
资源描述

《VMware虚拟化最佳实践及规划》由会员分享,可在线阅读,更多相关《VMware虚拟化最佳实践及规划(66页珍藏版)》请在金锄头文库上搜索。

1、虚拟化最佳实践及规划议程 应用实施范围考虑 服务器采购考虑 虚拟机部署考虑 管理维护考虑议程 应用实施范围考虑 服务器采购考虑 虚拟机部署考虑 管理维护考虑应用实施范围总体原则不适合采用虚拟化的应用具有特殊硬件访问要求的应用p高性能图形显卡 - 不适用虚拟化 p特殊的串/并行加密设备 -不适用虚拟化pUSB设备连接需求 - 可能不适用,可采用外置USB设备代替,需经过测试即使在高配置的服务器上仍然具有很高负载的应用 - 可能不适用,需分析当前 服务器配置情况可以采用虚拟化的应用除上述不适合采用虚拟化的应用之外的所有应用可根据应用迁移的复杂程度决定虚拟化先后顺序p较易实现P2V的应用可先做迁移,

2、如可用Converter工具直接迁移的应用p较难或不能做P2V迁移的应用可考虑采用重新安装方式后迁根据管理的需要决定是否做虚拟化p虚拟化转变过程对现有业务的影响程度p转变为虚拟化后对现有管理的影响程度p部门之间协调的难易程度虚拟化宿主服务器的部署类型垂直扩展与水平扩展部署模式不同资源池的“量子化”模型物理主机HypervisorVMOSAppVMOSAppVMOSAppVMOSAppVMOSAppVMOSAppVMOSAppVMOSAppVMOSAppPhysical HostHypervisorVMOSAppVMOSAppVMOSAppPhysical HostHypervisorVMOSA

3、ppVMOSAppVMOSApp物理主机HypervisorVMOSAppVMOSAppVMOSApp不同资源池的类型垂直扩展的主机模式提供更大 的连续性资源空间更容易满足不同负载的吻合 性要求可提供更高的资源利用率水平扩展的集群主机模式更像 是一组小池子的集合多组小容量资源池需要更多的监控管理模块化使用既有优点也有缺 点影响虚拟化部署的参数体系功能的多样化服务器的重要性独立服务器不重要重要 (独立的, 本地存储等等)(群集的,多主机的等等)服务器农场(水平扩展服务器群集, 公用服务器等等)(后端办公, 本地应用等等)负载约束技术约束商业约束困难度增加负载约束不同的资源组都需要分别考虑CPU利

4、用率磁盘 I/O网络 I/O内存利用率虚拟化造成的额外负载通常也要做一定考虑,如磁盘和网络的I/O会增加CPU的负担iSCSI存储访问也会增加CPU负担运维的周期性负载变化也必须考虑进来月末负载变化年末负载变化技术约束技术约束通常主要是指:兼容性 (指系统/应用的兼容性)关联性 (如系统是摩格逻辑组的一部分)大部分环境下,这些约束包括了:网络连接(子网段级别)应用之间的互连性相关的存储使用技术所用的硬件和外设软件支持度和认证这些约束条件根据虚拟化在内核上下实现的不同而有所不 同共享与分离OS镜像模式商业和流程的约束规模较小或集中的情况下容易被忽略的约束在实验室的测试环境可以不考虑,但生产环境必

5、须要考虑在虚拟化中常见的商业和流程约束包括:维护窗口和冻结改变地理位置和其他物理限制运维环境,安全区域,应用分层部署考虑商业组织,部门以及客户法规政策的考虑与限制忽视这些约束条件将可能导致不可预知的结果具体情况具体分析,根据目标制定计划议程 应用实施范围考虑 服务器采购考虑 虚拟机部署考虑 管理维护考虑虚拟化中使用的硬件应满足兼容性列表要求所有用于实现VMware VI3虚拟架构解决方案的设备,包括:服务 器系统、存储系统、IO卡设备等,应满足VMware VI3产品兼容列 表的要求,最新的兼容列表可从如下的连接找到: http:/ 服务器系统兼容列表 HCL: Systems Compati

6、bility Guide For ESX Server 3.5 and ESX Server 3i存储系统兼容列表HCL: Storage / SAN Compatibility Guide For ESX Server 3.5 and ESX Server 3iIO卡设备兼容列表,包括网卡、FC HBA卡和iSCSI HBA卡等 HCL: I/O Compatibility Guide For ESX Server 3.5 and ESX Server 3iESX服务器硬件配置考虑要点 CPUsESX 调度CPU周期满足虚拟机和Service Console的处理 请求可用的CPU目标数量越

7、多,ESX管理这个调度机制的效果 越好 (单台服务器配置8个以上的CPU核会有最好的效果 )超线程技术并不能提供等同于多核处理器的好处;建议关闭CPU 的超线程功能(如果有的话)使用具有EM64T能力的Intel VT 或AMD V 技术的CPU可以 同时支持运行32位和64位的虚拟机采用同一厂商、同一产品家族和同一代处理器的服务器组 成的集群,可以获得最好的VMotion兼容能力ES的Enhanced VMotion兼容性扩大了原有VMotion的兼容能力 -Alleviating Constraints with Resource Pools Live Migration with Enh

8、anced VMotion -参见Best Practices for Successful VI DesignESX服务器硬件配置考虑要点- 内存内存资源往往比CPU资源更会成为潜在的瓶颈在某些时候,虚机环境的内存使用量可能会超过物理内存 值:Host swap file (尽量少用以获得最佳性能)Transparent Page Sharing(多个虚机共享相同内存页面)注意服务器特定的内存配置要求DIMM sizes, bank pairing, parity, upgrade considerations (mix and match or forklift replacement)尽

9、可能将服务器配置到最大内存,采用最大容量的内存条 (特别是当没有配满全部内存条时)-参见Best Practices for Successful VI Design虚拟架构的基本网络连接部件组成(Management virtual machine)(Vmotion, iSCSI, NFS)(VM connectivity)Port GroupPort GroupPort GroupESX服务器硬件配置考虑要点- 网络-参见Best Practices for Successful VI Design最少配置一个虚拟交换机,测试环境可用2个虚拟交换机,生 产环境建议最少配置3个虚拟交换机虚拟

10、交换机可同时支持3种类型的端口组 (Service Console, VMkernel, VM)建议将Service Console、VMkernel和虚机端口组各自使用自 己的虚拟交换机可用VLAN技术分割不同的端口组对于使用VMotion和DRS功能的服务器集群,网络配置应该相匹 配 (虚拟交换机的数量与网络卷标名应保持一致)ESX服务器Service Console使用固定IP,配置正确的speed和 duplex。ESX服务器硬件配置考虑要点- 网络-虚拟交换机和端口组-参见Best Practices for Successful VI DesignESX服务器,虚拟交换机,物理网卡

11、出于冗余的考虑,每个虚拟交换机建议至少分配两个物理 网卡每个ESX服务器的物理网卡/口数量取决于准备配置的虚拟 交换机的数量p如果3种类型的端口组(SC, VMkernel, VM)都在不同 的虚拟交换机上,生产环境建议至少6个物理网卡/口p如果给包含虚拟机端口组的虚拟交换机分配更多的物理 网卡/口,可以获得负载均衡的好处ESX服务器硬件配置考虑要点- 网络基本组件-参见Best Practices for Successful VI Design物理网卡/口与物理交换机同一个虚拟交换机上的不同 物理网卡/口应连接到不同的物 理交换机上将一个集群中所有服务器的 VMotion功能端口组所使用的

12、 物理网卡/口都连到同一套物理 交换机上 (同样遵循上述第一 条规则)ESX服务器硬件配置考虑要点- 与物理网络的连接-参见Best Practices for Successful VI DesignExample 1: Blade Server with 2 NIC PortsvSwitchvmnic0SCvmkernelActive Standbyvmnic1Candidate Design: Team both NIC ports Create one virtual switch Create three port groups:Use Active/Standby policy f

13、or each portgroupPortgroup1: Service Console (SC)Portgroup2: VMotionPortgroup3: VM traffic Use VLAN trunkingTrunk VLANs 10, 20, 30 on each uplinkPortgroup1 VLAN 10Portgroup3 VLAN 30Portgroup2 VLAN 20VLAN Trunks (VLANs 10, 20, 30)Example 2: Server with 4 NIC Portsvmnic0SCvmkernelActive Standbyvmnic1C

14、andidate Design: Create two virtual switches Team two NICs to each vSwitch vSwitch0 (use active/standby for each portgroup):Portgroup1: Service Console (SC)Portgroup2: VMotion vSwitch1 (use Originating Virtual PortID)Portgroup3: VM traffic #1Portgroup4: VM traffic #2 Use VLAN trunkingvmnic1 and vmni

15、c3: Trunk VLANs 10, 20vmnic0 and vmnic2: Trunk VLANs 30, 40Portgroup4 VLAN 40VLANs 10, 20vSwitch0Portgroup1 VLAN 10Portgroup2 VLAN 20vSwitch1vmnic2vmnic3Portgroup3 VLAN 30VLANs 30, 40Example 3: Server with 4 NIC Ports (Slight Variation)vmnic0SCvmkernelActive Standbyvmnic1Candidate Design: Create one

16、 virtual switch Create two NIC teams vSwitch0 (use active/standby for portgroups 1 otherwise HA will use largest reservation specified as the “slot” size.At a minimum, set reservations for a few virtual machines considered “average”Admission control may be too conservative when host and VM sizes vary widelyPerform your own c

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 活动策划

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号