基于数据分组方法的数据仓库并行预计算和查询(二)的论文

上传人:F****n 文档编号:86012946 上传时间:2019-03-14 格式:DOCX 页数:19 大小:31.83KB
返回 下载 相关 举报
基于数据分组方法的数据仓库并行预计算和查询(二)的论文_第1页
第1页 / 共19页
基于数据分组方法的数据仓库并行预计算和查询(二)的论文_第2页
第2页 / 共19页
基于数据分组方法的数据仓库并行预计算和查询(二)的论文_第3页
第3页 / 共19页
基于数据分组方法的数据仓库并行预计算和查询(二)的论文_第4页
第4页 / 共19页
基于数据分组方法的数据仓库并行预计算和查询(二)的论文_第5页
第5页 / 共19页
点击查看更多>>
资源描述

《基于数据分组方法的数据仓库并行预计算和查询(二)的论文》由会员分享,可在线阅读,更多相关《基于数据分组方法的数据仓库并行预计算和查询(二)的论文(19页珍藏版)》请在金锄头文库上搜索。

1、基于数据分组方法的数据仓库并行预计算和查询(二)的论文mpi建立了一套有效的、可移植的、灵活的标准,并已经成为国际上应用最为广泛的并行程序设计平台。mpi可以使用于几乎所有的并行 计算 环境(共享存储和分布式存储、mpp、cluster)和多个操作系统(unix、windowsnt、linux)。mpi的特点与实现如上一小节所述,mpi是一个消息传递模式下并行程序设计的标准规范。在标准的程序设计语言的基础上,加入实现进程间通信的mpi消息传递函数以及其他并行计算环境设置函数,就构成了mpi并行程序设计所依赖的并行编程环境。对于mpi的定义,需要理解以下三个方面du01:(1) mpi是一个库而

2、不是一门语言。mpi库可以被fortran77/c/fortran90/c+调用从语法上说它遵守所有对库函数/过程的调用规则和一般的函数/过程没有什么区别。(2) mpi是一种标准或规范的代表,而不特指某一个对它的具体实现。迄今为止所有的并行计算机制造商都提供对mpi的支持,一个正确的mpi程序,可以不加修改地在所有并行机上运行。(3) mpi是一种消息传递编程模式并成为这种编程模式的代表和事实上的标准。mpi虽然很庞大,但是它的最终目的是服务于进程间通信这一目标的。由此可见,mpi是一个标准。就如同世界上其他标准一样,都会出现很多基于同一标准的不同产品,mpi也不例外。很多研究机构或者公司根

3、据mpi的标准和自己的实际情况,编写出了不同的支持mpi程序的编程环境,而这些编程环境在mpi的世界里就被称为mpi实现。目前比较重要的mpi实现有以下两种: mpichmpi07。mpich是一种最重要的mpi实现,是目前使用最广泛的免费mpi系统,大部分集群系统上的并行环境是mpich。它由美国argonne国家实验室和msu共同进行维护。支持几乎所有linux/unix以及windows9x,nt,20XX和xp系统。而且每当mpi推出新的版本时,就会有相应的mpich实现版本。 lamlam07。由美国ohio state university开发,主要用于异构的计算机 网络 计算系统

4、。mpi编程的基本概念一个mpi并行程序由一组进程或线程所组成。这些进程或线程可以运行在相同的机器上,也可以运行在不同的机器上。在mpi中,一个独立参与通信的个体被定义为一个进程。每个进程所运行的代码并不需要是同样的,进程间的通信是通过调用mpi通信原语来完成。在典型情况下,每个进程都是在自己特有的地址空间中运行,尽管有时在smp上的mpi程序并不如此。mpi程序中的每个进程都有一个序号,用于在进程组(由mpi程序中部分或全部进程所构成的一个集合)中标识该进程,这个序号被称为进程号,取值范围由0开始。mpi程序中进程间通信是通过通信器(xxmunicator)进行的,通信器提供了进程间通信的基

5、本环境。mpi程序在启动时会自动创建两个通信器:mpi_xxm_world和mpi_xxm_self。前者包含程序运行时的所有进程,后者则是由每个进程独自构成、仅包含自己的通信器。在mpi程序中,一个mpi进程由通信器和进程在该通信器中的进程号唯一标识,同一进程可以在不同通信器中有不同的进程号。进程可以通过调用mpi_xxm_rank函数来获得本进程在某指定通信器中的进程号。mpi的点对点通信通信器使得进程间可以通过消息或同步操作来完成通信。消息指在进程间进行的一次数据交换,在mpi中,消息一般包含以下一些内容:通信器、源进程、目的进程、消息标签和数据。mpi进程中使用得最频繁,最基本的一种通

6、信模式就是一对进程相互之间进行通信,也就是一个进程发送消息,另一个进程接收消息,这种通信方式在mpi中被称作点对点通信(point to point xxmunication)。mpi有两大类型的点对点通信函数,一种称为阻塞式(blocking),另一种则是非阻塞式(unblocking)。 阻塞式通信:阻塞式函数会等到通信操作实际完成,或者至少通信所涉及的数据已经被mpi环境处理好之后才会返回。如mpi_send和mpi_recv,分别是阻塞式的发送和接收函数。mpi_send函数返回之后,表明消息已经发送完毕或者已经被mpi环境处理完毕,随后对于发送缓冲区的修改不会对已经发出的消息有所影响

7、。而mpi_recv函数返回后,表明消息已经接收完毕并且可以立即使用。 非阻塞式通信:非阻塞式函数在调用后会立即返回,而实际的消息传递工作由mpi环境在后台执行。非阻塞式函数的命名是在阻塞式函数名的mpi_前缀之后加上一个“i”,如mpi_isend和mpi_irecv则是mpi_send和mpi_recv的对应非阻塞式通信版本。在调用非阻塞式函数之后,进程可以调用mpi_wait函数来等待通信操作的完成,或者可以进行其他的计算工作,而不必将cpu时间浪费在通信上,但这时不能对相关的数据缓冲区进行操作。因为当前操作可能会与正在后台进行的通信发生冲突,产生错误使得程序出问题。要检测通信操作是否实

8、际完成,应该调用mpi_test函数来查询通信操作的完成情况。在mpi中,对于点对点通信,也存在着4种发送模式。这4种模式的对应函数名称不同,但参数表是一样的,它们之间的差异,存在于它们发送消息的方式和对接收方的状态要求的不同。这4种模式分别是:标准模式、缓冲模式、同步模式和就绪模式。 标准模式:当消息长度小于或等于mpi环境预留的数据缓冲区大小时,mpi环境会将消息复制到缓冲区,然后立即返回。否则会当部分或全部消息发送完成后才返回。标准模式下,发送操作的完成需要与接收方联络。 缓冲模式:mpi环境将消息复制到一个用户提供的缓冲区中,然后就立即返回,消息由mpi环境在后台执行。用户必须确保所提

9、供的缓冲区能够容下将要发送的消息。缓冲模式下的发送操作不需要与接收方联络便可立即完成。 同步模式:同步模式是基于标准模式上,增加了一个要求。它要求确认接收方已经开始接收数据后函数调用才返回。 就绪模式:调用就绪模式发送时必须确保接收方已经正在等待接收该消息,不然就会产生错误。mpi程序结构下面是c/c+语言mpi程序的典型结构:#include .int main(int argc, char *argv)int myrank, numprocs;mpi_init(&argc, &argv);mpi_xxm_size(mpi_xxm_world, &numprocs);mpi_xxm_rank

10、(mpi_xxm_world, &myrank);.mpi_finalize ;.return 0;表 mpi程序基本结构c/c+语言的mpi程序必须包含mpi的头文件,以获得mpi函数的原型说明和mpi的预定义数据类型和常量。在使用c+作为mpi程序编程语言的时候,在编译程序时可能会遇到以下的出错信息:“seek_set is #defined but must not be for the c+ binding of mpi”这个问题是由于和mpi c+接口同时都使用了seek_set,seek_cur,seek_end这些全局变量,这是mpi-2标准中的一个bug。要解决这个问题,一般会

11、在#include “”这句代码前加上以下三句:#undef seek_set#undef seek_end#undef seek_curmpi_init函数用于初始化mpi系统环境。该函数应该在调用其他所有mpi函数之前(除了mpi_initialized)调用,不然mpi环境还没建立,其他函数也无法运行。命令行参数argc和argv可以传递给mpi_init,因为有时可以通过这些参数将运行进程的相关信息传递给mpi程序。一般来说,调用mpi_init(0, 0)也是足够的了。函数mpi_xxm_size和mpi_xxm_rank分别返回指定通信器中的进程数目和本进程的进程号。在这个例子中,

12、使用的通信器是mpi_xxm_world,它包含了所有进程。mpi_finalize函数是用来退出mpi系统环境的。调用它之后便不能再调用任何其他的mpi函数了。程序的主体运行部分一般是在mpi_finalize之前。进程可以通过myrank变量判断自己是哪个进程来执行不同进程所应该做的工作。mpi编程的主从模式构成并行程序的进程中有一个主进程(通常是进程0)其余为从进程。主进程与从进程的分工是不同的。主进程的工作一般负责整个并行程序的控制,分配数据和任务给从进程,从进程负责数据的处理和计算工作,同时主进程也可以参与数据的处理和计算工作。小结mpi的一个最重要的特点就是免费和源代码开放,mpi

13、可以被迅速接受和它为自己定下的高效率、方便移植和功能强大三个主要目标密不可分。它采用广为使用的语言fortran和c/c+进行绑定也是它成功的一个重要因素,当然mpi的成功还因为它 总结 和吸收了前期大量消息传递系统的经验。一个成功的标准是需要大量的实践和艰苦的努力的,mpi就是这种实践和努力的结果。第四章 商立方体联机分析处理(olap)由于要计算复杂的聚集函数,有很多的查询要从磁盘读取大量的数据,而olap的交互特性要求系统能快速地响应查询。为了解决这对矛盾,gray等人提出了数据立方体(data cube)gcb+97。数据立方体概括了可能提出的所有的查询类型,并且将查询结果预先计算出来

14、保存到磁盘。在响应查询时,通过查询重写把用户的查询转换为对某一个实例化视图的查询,极大地提高了查询响应速度。近年来,随着数据仓库应用的广泛,数据仓库的数据量也越来越大,使得数据立方体的数据量也相应地急剧增加。数据立方体存在一个明显的缺陷:由于需要计算多个聚集函数对于所有可聚合属性的集合,数据立方体需要大量的计算和巨大的磁盘存储空间,不能很好地适用于多维度的场合。因此,减少数据立方体所占用的空间成为了一个关键问题。对此,人们纷纷提出了多种数据立方体的数据压缩技术。其中一类是基于数据立方体单元间关系的压缩技术,它们利用这些关系,如上卷、下钻等,通过分析发现单元间能够去除掉的冗余信息。这样,在将这些

15、冗余信息去除掉之后,数据立方体的存储空间得到压缩并且数据立方体元组之间的关系得以保留,这类技术是目前数据立方体压缩存储技术的主流,代表着未来数据立方体压缩存储技术的 发展 趋势。wang等人提出了精简立方体(condensed cube)的概念wlfy02,它其中有一个关键概念叫“base single tuple(bst)”。它将具有相同bst的数据立方体单元归为同一类,仅仅存储bst和对应的单元集,其他不符合这些条件的元组则按原来的方式存储。通过去除相同bst的数据立方体单元间的冗余信息,精简立方体能够有效地减少数据立方体的数据量。y. sismanis等人提出了一种称为dwarf的,基于语义压缩方法的立方体结构srd02。它通过识别出立方体结构中具有相同前缀和后缀的语义信息,并去除这两种类型的冗余信息,可以十分显著地缩减数据立方体的存储空间。dwarf在最好的情况下可以达到1/6000的压缩率。商立方体(quotient cube)的概念由laks lakshmanan等提出lph02,主要是为了解决立方体压缩过程中立方体单元间上卷和下钻逻辑关系的丢失问题。在商立方体中,所有的单元被划分为若干类,在同一类中的单元具有相

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 事务文书

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号