2008-02-08
[ 查看本文英文版:Open Up a New Virtualization Era--TMG Virtualization Benchmark ] 开创虚拟化新时代 天极虚拟化性能评测:让“虚拟”成为现实——虚拟化技术解析 在服务器领域,虚拟化可以带来更高的部件及系统级利用率,带来具有透明负载均衡、动态迁移、故障自动隔离、系统自动重构的高可靠服务器应用环境,以及更为简洁、统一的服务器资源分配管理模式。而随着越来越多的企业希望能够有效应对IT系统成本控制日益精细化、服务器量越来越庞大、服务器利用率低下、x86服务器可靠性提升到5个9等问题,能够显著带来成本节省、能够有效帮助服务器整合从而减少服务器数量、能够明显提升服务器资源利用率并且能够增强服务器可靠性的虚拟化技术,就成为了x86架构服务器平台的一种强烈需求。尤其是x86服务器走入了越来越多的关键行业和关键应用后,这个需求就更加突出了。 其实虚拟化技术自问世以来已有几十年的时间Christopher Strachey在1959年发表了一篇学术报告,名为《大型高速计算机中的时间共享》(Time Sharing in Large Fast Computers),尽管作者个人认为报告”主要是有关多程序技术(避免受到外设发展的限制)”,但文中提出了虚拟化的基本概念。1960年到1979年之间,IBM以及其他几家公司开发了虚拟化技术,但和Strachey的目的一样,他们关注的主要是性能。 如果您对这部分内容感兴趣的话,可以点击这里浏览我们网站上的相关文章。 在随后的10年里,微处理器技术得到了巨大的发展,IT技术也逐渐演变成了一中”通用”的计算模式。当时,绝大部分大型机和小型基础设施均被PC服务器取代,因为它们效率更高,成本更低,尤其是在部署新应用方面。 由于微处理器的计算速度每年都在提高,部署新服务器的初始成本也可以令人接受,IT经理们便开始采取添加服务器的方法来提升性能或满足应用需求。事实上,只要某个部门需要部署一个新的应用,它们就会要求新增一台服务器,而且这也会得到IT经理的批准。因此很少有人试图对x86服务器环境进行虚拟化,因为各个工作组均拥有其自己的服务器,它们觉的没有必要进行任何改进。 这样做的直接结果就是服务器数量剧增。从1990年至今,这种情况一直在不断恶化。数据中心里有许多服务器,它们中的多数均得不到充分利用,平均利用率只达到了15%。而用于维护大型数据中心的成本却在不断攀升,蚕食了大量的财务,运营和管理资源。 低效率以及不断增加的成本正在阻碍企业向”以适用为导向的计算模式”进行转变。针对峰值负载来规划和部署基础设施的方法行将过时。”以适用为导向的计算模式”是一种从全局的角度来构建基础设施的方案,许多硬件,软件厂商在各自的产品中均集成了相应的技术和功能,这包括管理功能,电源管理和虚拟化管理。 开创虚拟化新时代 天极虚拟化性能评测:虚拟化的现状 上个世纪九十年代末期,VMware和其他虚拟化软件厂商率先为x86服务器环境开辟了虚拟化的道路。他们实施了一种名为虚拟化监视器(VMM,也叫Hypervisor)的软件解决方案,使PC服务器平台实现了虚拟化。VMM或Hypersivor是一种运行在基础物理服务器和操作系统之间的中间软件层,可允许多个操作系统和应用共享硬件。然而,这种纯软件的”完全虚拟化”模式中,VMM必须控制各种关键平台资源,然后将其分配给每个客户机操作系统,以避免发生冲突。 这就需要进行二进制转换(一种转换客户机操作系统二进制代码的复杂操作),以便处理与虚拟化相关的操作。当前流行的一种用来提高虚拟化性能的技术叫做”准虚拟化”(Paravirtualization),它能够对客户机操作系统进行源代码级的修改,从从而创建一个易于实现虚拟化的界面。但是,修改客户机操作系统非常繁琐,需要软件开发商,集成商和IT经理投入大量的时间和人力对系统进行优化。另外,VMM无法运行未经修改的传统和专有客户机操作系统。 从广义上来讲,VMM或者Hypersivor是一个中间软件层,运行在基础物理服务器和虚拟机中包含的操作系统之间。VMM可为每个操作系统提供一个完整的硬件界面,让操作系统认为其完全掌控着物理服务器,从而允许多个操作系统共享硬件。VMM能够模拟与操作系统和应用有关的所有物理服务器功能。 共4页。 1 2 3 4 :
|