Questions tagged «parallel-computing»

通过同时使用多个处理器来解决计算问题的研究。

2
选择用于GPGPU计算(OpenCL)的线性求解器
我已经开发了有限元方法的可行解决方案,以使用共轭梯度方法使用GPU和OpenCL解决传热问题。这种方法的主要缺点是对内存的高需求。此外,在图形卡的情况下,内存通常非常有限。我看到两个选择: 创建子域并与主机内存交换网格的一部分 使用多边方法 我必须考虑特定的体系结构。交换可能非常昂贵。CG方法在GPGPU计算的上下文中很流行,但是我找不到CG与多前沿方法之间的任何比较(对于GPGPU)。能比CG更快的多面方法吗?这是一个普遍的问题,实际上,它仍然取决于实现。

1
如何根据不同处理器生成的值并行组装和求解矩阵系统?
我正在使用异构多尺度方法(HMM)解决多尺度问题。本质上,我的特定过程使用以下迭代过程: 解决许多局部矩阵系统。 从本地系统的解决方案中计算出感兴趣的值。 从局部“兴趣值”组装一个全局矩阵系统 解决全局矩阵系统 使用全局矩阵系统的解决方案来形成新的局部矩阵系统。 重复直到满足一些收敛标准。 由于有许多地方(独立的)线性方程式和多个系统的系统可装配到本地RAM存储器,我的数字最好是多个“本地”系统加载到每个处理器,并依次解决各系统(见本贴出的问题)。 我的问题是关于组装和求解全局矩阵系统的最佳策略。在我的特殊情况下,全局矩阵系统足够小,可以完全适合任何处理器的RAM内存。此外,局部和全局矩阵在迭代之间不会更改大小。因此,我预见了三种可能的策略之一: 将“目标值”收集到单个处理器上,然后在一个处理器上顺序组装/求解全局矩阵系统。 将感兴趣的值复制到每个处理器上,并在每个处理器上顺序组装/求解相同的全局矩阵系统。 假设每个处理器都具有生成全局矩阵的连续块所必需的“感兴趣的值”,那么我们可以在本地组装全局矩阵的分区,然后并行求解它们。 我可以看到每种方法的一些优点/缺点。在方法1中,在求解阶段不需要任何通信,但是与根处理器之间的通信可能会成为瓶颈(尤其是在规模上)。方法2可能需要比第一种方法更多的处理器间通信来组装全局矩阵,但是在求解阶段或随后的局部矩阵组装阶段不需要通信。方法3不需要处理器间通信来组装局部或全局矩阵,但在求解阶段需要进行通信。 10310310^310310310^310310310^310310310^310310310^310310310^3


1
是否有一些关于“计算科学”的好邮件列表?
我想知道是否有一些非常好的计算科学的邮件列表或Google群组,我们可以在其中讨论问题,而不是仅仅问和回答问题。 实际上,我对PDE的并行计算和数值解更感兴趣。但是我不知道该地区的人们在做什么和如何做。我只能阅读他们的论文,以掌握这一领域的路线图。 请给我一些指导信息。谢谢。

2
大协方差矩阵的并行计算
我们需要计算大小为的协方差矩阵 10000 × 1000010000×1000010000\times10000 至 100000 × 100000100000×100000100000\times100000。我们可以访问GPU和集群,我们想知道什么是加快这些计算速度的最佳并行方法。

4
对于大的3维线性弹性问题,什么是鲁棒的迭代求解器?
我将深入研究迷人的有限元分析世界,并想解决一个大的热机械问题(仅热机械,无反馈)。→→\rightarrow 对于机械问题,我已经从Geoff的答案中了解到,由于网格的大小,我将需要使用迭代求解器。我在Matt的回复中进一步读到,选择正确的迭代算法是一项艰巨的任务。 我要问的是,在大型3维线性弹性问题上是否有任何经验可以帮助我缩小对最佳性能的搜索范围?在我的情况下,它是一种结构,具有薄的图案化薄膜和不规则放置的材料(高CTE和低CTE)。在热力学分析中没有大的变形。我可以使用大学的HPC [1.314节点,带有2个AMD Opteron处理器(每个2.2 GHz / 8核)]。 我认为其中PETSc可能包含一些有趣的东西,尤其是进行某种域分解(FETI,多重网格)的算法,但我对这些选择有些不知所措,没有经验。我也喜欢“几何通知的前置条件”一词,但是不确定这是否对我有帮助。我还没有找到关注线性连续体力学的东西。 在我的应用程序中,强大的缩放比例(Amdahl)非常重要,因为我的工业合作伙伴迫不及待要等待很长时间才能获得仿真结果。我绝对不仅赞赏答案,而且还提出建议,以便在评论中进一步阅读。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.