虚拟存储和高速缓冲存储器

上传人:自*** 文档编号:48416104 上传时间:2018-07-15 格式:PPT 页数:49 大小:346.04KB
返回 下载 相关 举报
虚拟存储和高速缓冲存储器_第1页
第1页 / 共49页
虚拟存储和高速缓冲存储器_第2页
第2页 / 共49页
虚拟存储和高速缓冲存储器_第3页
第3页 / 共49页
虚拟存储和高速缓冲存储器_第4页
第4页 / 共49页
虚拟存储和高速缓冲存储器_第5页
第5页 / 共49页
点击查看更多>>
资源描述

《虚拟存储和高速缓冲存储器》由会员分享,可在线阅读,更多相关《虚拟存储和高速缓冲存储器(49页珍藏版)》请在金锄头文库上搜索。

1、虚拟存储器主要内容v虚拟存储器的概述v虚拟存储器的发展背景v虚拟存储器的工作原理v虚拟存储技术的分类v虚拟存储器的特点虚拟存储器:虚拟存储器:就是采用一定的方法将一定的外存容 量模拟成内存,同时对程序进出内存的方式进行管理 从而得到一个比实际内存容量大得多的内存空间,使得 程序的运行不受内存大小的限制。虚拟存储器解决了存储容量和存取速度之间的矛盾,同 时也是管理存储设备的有效方法。虚拟存储器发展背景u主存储器通常用动态随机存储器(DRAM)实现,它的 存储容量相对比较小,速度比较快,单位容量的价格比 较贵。u虚拟存储器由主存储器和联机工作的外部存储器共同组 成。u外部存储器通常为磁盘存储器,它

2、的存储容量很大,与 主存储器相比,速度很低,单位容量的价格很便宜。由于早起计算机系统的存储容量,特别是内存容量成本非常高、容 量也很小,对于大型应用程序或多程序应用就受到了很大的限制。为 了克服这样的限制,人们就采用了虚拟存储的技术。虚拟存储器的发展v虚拟存储器源出于计算机的一级存储器概念。v1970年,美国RCA公司研究成功虚拟存储器系统。vIBM公司于1972年IBM370系统上全面采用了虚拟存储技术。随着计算机技术以及相关信息处理技术的不断发展, 人们对存储的需求越来越大,这样的需求刺激了各种新 技术的出现。在这个发展过程中也由几个阶段组成。u 首先是磁盘条带集(RAID)技术:它将多个

3、物理磁盘通过一定的 逻辑关系集合起来,成为一个大容量的虚拟磁盘。u 其次就是存储区域网络(SAN)技术:SAN的广域化则旨在将存 储设备实现成为一种公用设施,任何人员、任何主机都可以随时随 地获取各自想要的数据。u 目前讨论比较多的包括iSCSI技术。工作原理中央处理器访问主存的逻辑地址,以确定该信息是否存放在主存内 。如该信息已在主存内,则转而执行;如果该信息不在主存内,则检查主存中是否有空闲区,如果没有,便将某个暂时不用的调出送 往辅存,以便将这组信息调入主存。从辅存读出所要的信息,并送到主存空闲区。从地址变换表读出与逻辑地址对应的物理地址。根据物理地址从主存中存取必要的信息。虚拟存储器是

4、由硬件和操作系统自动实现存储信息调 度和管理的。它的工作过程包括5个步骤:虚拟存储技术的分类:根据拓扑结构来分:对称式虚拟存储和非对称式虚拟存储对称式虚拟存储:是指虚拟存储控制设备与存储软件系 统、交换设备集成为一个整体,内嵌在网络数据传输路径 中。v采用大容量高速缓存,显著提高数据传输速度。v多端口并行技术,消除了I/O瓶颈。 v 逻辑存储单元提供了高速的磁盘访问速度。v可方便的连接交换设备,为系统的扩展和互连提供了技术保障 。对称式虚拟存储技术的特点:非对称式虚拟存储:1、 将不同物理硬盘阵列中的容量进行逻辑组合,实现虚拟的带 区集,将多个阵列控制器端口绑定,在一定程度上提高了系统 的可用

5、带宽。 2、 在交换机端口数量足够的情况下,可在一个网络内安装两台 虚拟存储设备,实现Strip信息和访问权限的冗余。 非对称式虚拟存储技术的特点:是指虚拟存储控制设备独立于数据传输路径之外。从虚拟化存储的实现原理来分:数据块虚拟存储方案着重解决数据传输过程中的冲 突和延时问题。数据块虚拟存储方案利用虚拟的多端口并行技术, 为多台客户机提供了极高的带宽,最大限度上减少了延 时与冲突的发生。在实际应用中,数据块虚拟存储方案以对称式拓扑 结构为表现形式。 数据块虚拟、虚拟文件系统虚拟文件系统存储:虚拟文件系统存储方案着重解决大规模网络中文件共 享的安全机制问题。通过对不同的站点指定不同的访问权 限

6、,保证网络文件的安全。 在实际应用中,虚拟文件系统存储方案以非对称式拓扑 结构为表现形式。 虚拟存储的特点:u虚拟存储提供了一个大容量存储系统集中管理的手段 ,由网络中的一个环节(如服务器)进行统一管理, 避免了由于存储设备扩充所带来的管理方面的麻烦。u虚拟存储对于视频网络系统最有价值的特点是:可以 大大提高存储系统整体访问带宽。 u虚拟存储技术为存储资源管理提供了更好的灵活性, 可以将不同类型的存储设备集中管理使用。由于虚拟存储具有上述特点,虚拟存储技术正逐步成 为存储管理的主流技术 高数缓冲存储器u高速缓冲存储器概述u高速缓冲存储器与CPU的关系u高数缓冲存储器的工作原理u高数缓冲存储器的

7、地址映射u高速缓冲存储器的命中率u影响命中率的因素解决CPU和主存速度差异的方法由于CPU和主存储器是不同材料制成的,因而他们之间在 速度上是不匹配的。为了使CPU不致因为等待存储器读写 操作的完成而无事可做,就采取了一些加速CPU和存储器 之间有效传输的特殊措施。u主存储器采用更高速的技术缩短存储器的读出时间。u采用并行操作的双端口存储器。u在存储器和主存储器之间插入一个高速缓冲存储器。实现途径:高速缓冲存储器( cache):是存在于计算机存储系统的层次结构中,介于 中央处理器和主存储器 之间的高速小容量存储 器。Cache是用来存放那些近期需要运行的指令与数据 ,提高CPU对存储器的访问

8、速度。是为了解决CPU和 主存之间速度不匹配而采取的一项重要技术。Cache与CPU的关系uCache是介于CPU与主存之间的小容量存储器uCPU可直接访问cacheuCache能高速的向CPU提供指令和数据从而加快 了程序的执行速度。uCache可以放到CPU中形成两级以上的缓存。CPU存储系统关系图随着半导体器件集成度进一步提高,cache已经放入到CPU中其工 作速度接近CPU的速度,从而可以组成两级以上的cache系统。目前 所有主流处理器大都具有一级缓存和二级缓存,少数高端处理器还集 成了三级缓存。 cache 中央处理器Cache外存主存中央处理器Cachecache 中央处理器C

9、achecache 中央处理器Cachecache 中央处理器Cachecache 中央处理器Cache主存cache 中央处理器Cache外存主存cache 中央处理器Cachecache 中央处理器Cache主存中央处理器Cachecache 中央处理器Cachecache 中央处理器Cachecache 中央处理器Cachecache 中央处理器Cache主存cache 中央处理器Cache外存主存cache 中央处理器Cachecache外存主存cachecachecachecache主存cache外存主存cachecache主存cachecachecachecache主存cache外

10、存主存cache 中央处理器Cache二级缓存二级缓存是为了协调一级缓存与内存之间的速度。 它比一级缓存速度更慢,容量更大,主要就是做一级缓 存和内存之间数据临时交换的地方用。 三级缓存是为读取二级缓存后未命中的数据设计的 种缓存。在拥有三级缓存的CPU中,只有约5%的数据 需要从内存中调用,这进一步提高了CPU的效率。 三级缓存三级缓存的性能影响 v在游戏方面,提升三级缓存的容量对游戏的性能影响很 大,如果是网吧机提升三级缓存的容量,会有显著的性 能提升的。 v对PC机来说,三级缓存其实只是做了个辅助的作用,除 了服务器,其实对大多数家庭机没什么用的, 对于家庭 机内存是最重要的。高速存储器

11、的工作原理图:CPU主 存LRU管理逻辑相联存储图表cache数据总线CAM 地址总线引入高速缓冲存储器的理论依据系统引入高速缓冲存储器的理论依据是程序访存局部性 规则。大部分程序的执行方式是顺序执行,所需的数据也 都顺序排列。程序运行时大部分时间内对程序的访问局限 在一个较小的区域内,这就是程序访问的局部性规律。依据这个规则,在CPU与主存之间设立高速缓存,将主 存中被频繁访问区域内的数据调入高速缓存,CPU从高速 缓存中获取所需的数据,可大大的提高主存的访问速度。程序的局部性原理程序在一定时间段内通常只访问较小的地址空间两种局部性:时间局部性和空间局部性 时间局部性:最近被访问的信息很可能

12、还要被访问。将最近被访问的信息项装入到Cache中。 空间局部性:最近被访问的信息临近的信息也可能被访问 。将最近被访问的信息项临近的信息一起装入到Cache中 。地址空间访问概率Cache替换算法随机替换(RAND)随机找一个存储单元进行替换,比较简单。最不经常使用算法(LFU)将一段时间内被访问次数最少的那行数据换出。 最近最少使用算法(LRU)需要计算字块的使用次数,开销大,但平均命中率较高 。随机替换随机替换策略实际上并不是严格意义上的算法,从 特定的行位置中随机的选取一行换出即可。 这种策略在硬件上容易实现,且速度也比较快。缺 点是随意换出的数据很可能是马上要用的,从而降低了 命中率

13、和cache的工作效率。但随着cache的容量增大这种不足就会相应减小。最不经常使用算法(LFU)LFU算法认为应将一段时间内被访问次数最少的那行 数据换出。为此每行设置一个计数器。新行建立后从0开 始计数,每访问一次,被访问行的计数器加1。当需要替 换时,对这些特定行的计数器进行比较,将计数值最小的 换出,同时将这些特定行的计数器都清零。缺点:这种算法将计数周期限定在这些特定行两次替换之间的 间隔内,不能严格反映近期访问情况。最近最少使用算法(LRU)LRU算法将近期内长久未被访问过的行换出。因此每 行也设定一个计数器。但它们是cache每命中一次,名中 行计数器清零,其他各行计数器增1。当

14、需要替换时,比 较个特定行的计数值,将最大的行换出。特点:保护了刚拷贝到cache的新数据,符合cache的工作原 理,命中率较高。主存与cache的地址映射与主存容量相比,cache的容量很小,它保存的内容只 是主存内容的一个子集,且cache与主存的数据交换方式 是以块为单位。为了把主存块放到cache中,必须运用某 种方法把主存地址定位到cache中,称为地址映射。地址映射方式:u全相联方式方式u直接映射方式u组相连映射方式全相联映像方式主存分成若干块, Cache分成若干块(比主存块数少),每块中都 有同样多的字。允许主存任一块存放到Cache的任一个块。CPU读主存时,若内容不在Ca

15、che,就将主存中的该块整个存放到Cache。是指主存中的地址与块的内容一起存于cache的行中 ,其中地址存于cache行的标记部分中。全相联映射方式. . . . .cacheL0L7B0B255主存. . . . .cacheL7B0主存L0. . . . .cacheL7B0主存标记位L0. . . . .cacheL7B0主存标记位全相联映像方式特点u主存的字块可以和Cache的任何字块对应,利用 率高,方式灵活。u标志位较长,比较电路难于设计和实现,成本 太高,只适用于小容量的cache。利用率、成本太高。直接映射方式uCache分为若干块,主存分为若干区,每区分为若干块 ,每区的

16、块数和Cache一样大。u主存的块只能存放在块号和Cache块号一致的块中是指一种多对一的映射关系,但主存块只能映射到 cache的一个特定位置上。L0.cacheL7B0主存标记位B7 B8B15 B16行号直接映射示意图L0.cacheL7B0主存标记位B7 B8B15 B16行号L0L7B0主存B15 B16.cache标记位B7 B8行号直接映像方式特点u主存的字块只可以和固定的Cache字块对应,方 式直接,利用率低,适用于大容量的cache。u标志位较短,比较电路易于设计和实现,硬件 成本低。利用率低,命中率低,效率较低组相联映像方式u主存分成若干块, Cache分成若干块。每块中都有同 样多的字。uCache分成同等容量的多个体。主存分为若干区,主存 的块只能存放在块号和Cache体中组号一致的块中,但 是放在哪一个体中是随意的。组相联映射方式是直接映射和全相联映射的折衷方案,它 适度的兼顾了二者的优点又尽量避免其缺点,被普遍采用 。组相联映像方式组相联映像方式特

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号