《最新并行粒子模拟程序PPT课件》由会员分享,可在线阅读,更多相关《最新并行粒子模拟程序PPT课件(23页珍藏版)》请在金锄头文库上搜索。
1、并行粒子模拟程序并行粒子模拟程序 粒子模拟 粒子在空面中运动,而电场和电荷电流密度等物理量分配在网格点上。一般的计算步骤如下:首先根据粒子所在的具体位置求得其对周围网格点的电荷贡献,当所有粒子的贡献相加后即得到网格的电荷密度和电流密度,然后求解Maxwell方程即得网格点上的电磁场,再通过插值得到离子和电子处的电磁场,粒子在Lorentz力的作用下运动。不断循环以上过程,即可求解物理问题。 (6) 电磁场处理:将区域上下边界处网格点上的电磁场分别传送给上面和下面区域的交界网格上。 性能分析性能分析 我们的微机机群由16个有Intel Pentium III 1.6 GHz CPU和128Mby
2、te内存的微机通过100Mb/s的以太网连接而成,操作系统为在Redhat Linux版本7.2,Fortran编译器为pgf77,并行化程序通过MPICH实现。 我们分别在不同数目的计算节点上运行此并行程序,测量了它的加速比(S= )和并行效率(E= ) 我们从两个方面对二维并行粒子模拟程序进行了性能分析:一是对某一特定物理问题用不同数目计算节点运算,测量其加速比和并行效率;二是对不同的物理问题用相同的计算节点运算测量其加速比和并行效率。 表中是固定网格数12864,粒子数73728时用不同的计算节点运算时测得的加速比和并行效率,程序的运行步数是2500。 计算节点数计算节点数 运行时间(秒
3、)运行时间(秒) 加速比加速比 并行效率并行效率1 11532.291532.291.001.00-2 2756.33756.332.032.03102%102%4 4398.09 398.09 3.853.8596%96%8 8214.85214.857.137.1389%89%1616163.61163.619.379.3759%59%表 用不同数目的计算节点计算同一问题时的加速比和并行效率 网格数网格数运行时间运行时间( (秒秒) )加速比加速比并行效率并行效率32*3232*3238.1538.155.205.2065%65%64*3264*3264.6264.625.925.9274
4、%74%64*6464*64112.83112.836.936.9387%87%128*64128*64214.85214.857.137.1389%89%128*128128*128408.22408.227.697.6996%96%表 2 8个cpu计算不同工作量的问题时的加速比和并行效率 由以上两个表格可以看出:对同一规模的物理问题,加速比在计算节点数较少时随计算节点数基本上是线性增加的,但随节点数增加这种增加趋势会变缓,所以并行效率变低,16个计算节点时候的并行效率明显偏低。同时计算节点数一定时增加问题的规模,加速比会提高,同样并行效率随之提高。当处理规模比较大的问题时用并行计算可以显著提高效率,而且问题规模越大,这个作用越明显。4. 算例:束流不稳定性我们计算的物理问题是等离子体中的束流不稳定性,束流和背景等离子体分别包括了质子和电子,它们的速度满足Maxwell分布,其中束流密度占总密度的1.5%,束流相对于背景等离子体的速度为10VA。 5. 小结 我们用MPI对程序实现了并行化并运行在cluster上,最多CPU数为16个,取得了不错的并行效率和并行加速比。 1.物理问题规模一定时,并行效率随着计算节点数目的增多而降低。 2.计算节点数一定时,增加物理问题规模可提高并行效率。 3.在束流不稳定的线性增长阶段,数值模拟和理论符合得很好。