流体热力学支持大气动力学、气候科学、工业应用和能源系统。 然而,此类系统的直接数值模拟(DNS)在计算上令人望而却步。 为了解决这个问题,我们提出了一种新的物理信息空间-时间代理模型,用于瑞利-贝纳德对流(RBC),这是对流流体流动的典型例子。 我们的方法将用于空间特征提取的卷积神经网络与受大型语言模型启发的创新循环架构相结合,包括上下文构建器和序列生成器以捕获时间动态。 推理在管理偏微分方程方面受到惩罚,以确保物理可解释性。 鉴于湍流对流对流对初始条件的敏感性,我们使用构象预测框架量化不确定性。 该模型复制了RBC动力学的关键特征,同时显着降低了计算成本,为长期模拟提供了可扩展的DNS替代品。
我们解决了贝叶斯逆 Navier-Stokes (N-S) 问题,该问题吸收了速度测量数据,以便共同重建流场并学习未知的 N-S 参数。 通过将Carreau剪切变薄粘度模型纳入N-S问题,我们设计了一种算法,该算法仅从速度测量数据中学习剪切薄流体的最有可能的Carreau参数,并估计其不确定性。 然后,我们进行流MRI实验,通过理想化医疗设备(FDA喷嘴)获得轴对称层流喷流的速度数据,用于血液模拟液。 我们表明,该算法可以通过学习最有可能的Carreau参数来成功重建流场,并且学习的参数与流层测量非常一致。 该算法接受任何代数有效粘度模型,只要该模型是可微的,并且它可以扩展到更复杂的非牛顿流体(例如。 Oldroyd-B流体)如果一个粘弹性模型被纳入N-S问题。
我们提出了一个几何到流扩散模型,该模型利用障碍物形状作为输入来预测障碍物周围的流动场。 该模型基于可学习的马尔可修行内核,以从高斯分布中恢复数据分布。 Markov过程以障碍物几何形状为条件,估计每个步骤要消除的噪声,通过U-Net实现。 交叉注意力机制将几何图形作为提示。 我们使用围绕简单障碍物(包括圆圈、椭圆、矩形和三角形)的流数据集来训练几何到流扩散模型。 为了进行比较,两个基于CNN的模型和一个VAE模型在同一个数据集上训练。 测试是在障碍物周围以简单和复杂的几何形状进行,分别代表几何形状条件的插值和概括。 为了在苛刻的条件下评估性能,测试集包含包括十字架和字符“PKU”在内的场景。 生成流场表明,几何到流量扩散模型在预测瞬时流域和处理复杂几何形状方面优于基于CNN的模型和VAE模型。 对准确性和发散性的定量分析证明了模型的稳健性。
需要部分微分方程求解器来解决流体流动的 Navier-Stokes 方程。 最近,人们提出了模拟量子计算机上的流体动力学的算法。 容错量子设备可能会在经典计算机上对算法进行指数级加速。 然而,当前和可预见的量子硬件将噪声引入计算,需要明智地利用量子资源的算法:较浅的电路深度和更少的量子比特。 在这些限制下,变异算法更合适和稳健。 这项工作为不可压缩的Navier-Stokes方程提供了一种混合量子-经典算法。 经典设备执行非线性计算,量子设备使用变法求解器进行压力Poisson方程。 盖子驱动的空腔问题基准方法。 我们通过无噪音模拟验证该算法,并在嘈杂的IBM超导量子硬件上进行测试。 结果表明,即使在当前的量子设备上,也可以通过这种方法实现高保真结果。 Poisson 问题的多网格预后有助于避免局部最小值,并减少量子设备的资源需求。 一种名为HTree的量子态读出技术首次用于物理问题。 Htree适用于实值问题,并在量子比特计数中实现线性复杂性,使Navier-Sokes在当前量子设备上可进一步处理。 我们比较了近期和容错求解器所需的量子资源,以确定流体模拟的量子硬件需求,并改进复杂性。
操纵液滴的形状对于医学和工业的广泛应用至关重要。 然而,现有方法通常仅限于生成简单的形状,如椭圆,或依赖于预定义的模板。 虽然最近的方法已经显示出更复杂的几何形状,但它们仍然受到适应性有限和缺乏实时控制的制约。 在这里,我们引入了一种数据高效的方法,通过使用贝叶斯优化,在空气-铁流体界面中将非磁性液体液滴实时、可编程地塑造成不同的目标形式。 液滴可以根据周围电磁铁的驱动情况采用凸或凹形。 贝叶斯优化确定了将液滴塑造成所需目标形状的最佳磁通密度。 我们的方法可实现自动塑形成各种三角形和矩形形状,最大形状误差为0.81毫米,以及成字母状图案。 据我们所知,这是利用磁场或其他外部能量场将非磁性液滴实时自动塑造成所需目标形状的首次演示。
通过深度学习预测多尺度混沌动力学系统仍然是一个艰巨的挑战,这是由于神经网络的光谱偏差,这阻碍了长期预测中精细尺度结构的准确表示。 当模型自动递归时,这个问题会加剧,导致错误和不稳定。 在这项工作中,我们引入了一种新的方法来减轻光谱偏差,我们称之为Binned Spectral Power(BSP)损失。 BSP损失是一种频率域损失函数,自适应地权衡预测数据集中较大和较小的错误。 与专注于点错位的传统损失不同,我们的BSP损失明确惩罚不同尺度的能量分布偏差,促进稳定和物理一致的预测。 我们证明BSP损失减轻了深度学习中众所周知的光谱偏差问题。 我们进一步验证了数据驱动的高维时间序列预测的方法,即一系列基准混沌系统,这些系统通常由于光谱偏差而难以解决。 我们的结果表明,BSP损失显着提高了神经预测模型的稳定性和光谱精度,而无需进行架构修改。 通过直接定位光谱一致性,我们的方法为更稳健的深度学习模型铺平了道路,用于对混沌动态系统进行长期预测。
上下文运算网(ICONs)已经证明了使用很少镜头的上下文内学习跨不同偏微分方程的运算符的能力。 然而,现有的ICON将每个空间点作为单个令牌处理,在更高空间维度处理密集数据时严重限制了计算效率。 我们提出了Vision In-Context Operator Networks(VICON),它集成了视觉变压器架构,通过补丁操作高效地处理2D数据,同时保持ICON对多物理场系统和不同时间步的适应性。 VICON在三个流体动力学基准测试中显著优于最先进的基线:DPOT和MPP,将平均最后一步的推出误差减少37.9,只需要72.5自然支持灵活的推出策略,具有不同的时间步步,能够在采样频率可能不同或帧可能下降的不完美测量系统中立即部署 - 现实世界环境中的常见挑战 - 而无需重新训练或插值。 在这些现实场景中,VICON表现出显着的鲁棒性,在基线方法中仅经历了24.41,证明了其在现实应用中部署的多功能性。 我们用于处理数据集和代码的脚本可在https://github.com/Eydcao/VICON上公开。
GPU是最新一代超级计算机的核心。 我们通过 NVIDIA 和 AMD Instinct GPU 上的 OpenACC 高效加速可压缩多相流量求解器。 优化是通过指定指令子句“gang vector”和“崩溃”来完成的。 通过将用户定义的类型打包成串化多维数组和手动内衬,通过元编程将用户定义的类型打包成合并的维多阵列,实现了6倍和10倍的进一步加速。 额外的优化在数组打包中产生七倍的加速,在Frontier上选择内核的30倍加速。 当在 V100 和 MI250X 硬件上缩放到 84 因子 8 和 16 的 50 效率时,可观察到 97 的弱缩放效率。 当 GPU 感知 MPI 用于通信时,AMD 的 MI250X 的强大扩展效率增加到 16 中的 92。
人工智能的最新进展已经建立了神经运算符作为强大的工具,可以预测偏微分方程的演变,例如Navier-Stokes方程。 一些复杂的问题依赖于复杂的算法来处理计算领域的强不连续性。 例如,液体蒸汽多相流在许多配置中是一个具有挑战性的问题,特别是那些涉及大密度梯度或相变的配置。 上述复杂性不允许对快速工业过程或应用进行精细控制,因为计算流体动力学(CFD)模型没有足够快的预测能力。 这项工作表明,基于神经运算的预测的时间尺度与多阶段应用的时间尺度相当,从而证明它们可用于控制需要快速响应的过程。 神经运算符可以使用实验数据、模拟或组合进行训练。 在以下中,神经运算符接受了流体模拟量的训练,由此产生的预测显示出非常高的准确性,特别是在预测液蒸气界面的演变方面,这是多相过程控制器中最关键的任务之一。
在本文中,我们研究了边界表面粗糙度对通过圆柱体的不可压缩流体流的数值模拟的影响,这些流体在具有滑动边界条件的两个和三个空间尺寸上。 支配方程使用连续的有限元方法近似,用Galerkin least-squares方法稳定。 通过一系列数值实验,我们证明:(i)通过数值离散误差引入表面粗糙度,或网状失真,使潜在的流动解决方案不稳定;(ii)当使用高阶等距几何映射最小化数值表面粗糙度和网格失真时,在二维和三维中获得稳定的势流;(iii)数值表面粗糙度,网格失真和细化水平可以用作控制参数,以操纵阻力。 我们的结果对在湍流的不压缩流模拟中墙建模的滑动边界条件的预测能力产生了一些怀疑。
机器学习用于建模,理解和控制大型物理系统的使用正在迅速普及,例如电磁学在核聚变反应堆和磁流体动力学到流体力学和气候建模。 这些系统 - 由偏微分方程控制 - 在空间和时间的许多尺度上对大量的自由度和复杂的动力学提出了独特的挑战,并且提高准确性和样本效率的其他措施是非常可取的。 我们提出了一个端到端的等价代理模型,由等变量卷积自动解码器和使用G-可视内核的等变量卷积LSTM组成。 作为案例研究,我们考虑三维Rayleigh-Bénard对流,它描述了加热底部和冷却顶板之间的浮力驱动的流体流动。 虽然系统在水平平面中是E(2)-等式,但边界条件打破了垂直方向的翻译等式。 我们的架构利用垂直堆叠的 D_4-可走内核层,在垂直方向上共享额外的部分内核,以进一步提高效率。 我们的研究结果在样品和参数效率方面都取得了显著进展,并更好地扩展到更复杂的动力学,即更大的瑞利数字。 随附的代码可在https://github.com/FynnFromme/equivariant-rb-forecasting下查阅。
湿漉漉的浅水方程为推进对数值大气模型中物理参数和动力学耦合的理解提供了一条有希望的途径,这个问题被称为“物理-动力学耦合”。 没有潮湿的物理,传统的浅水方程是大气方程的运动的简化形式,因此计算便宜,但保留了大气的许多相关的动力学特征。 以湿气的形式将物理学引入浅水模型提供了一种工具,可以在简单的动力学模型中尝试物理-动力学耦合的数值技术。 在本文中,我们比较了一些不同的湿浅水模型,将它们写在一般配方中。 一般配方包括三种现存形式的湿浅水方程和第四个以前未开发的配方。 这些方程与一个三态湿润的物理方案耦合,通过源项与解析流相互作用,并产生双向物理-动态反馈。 我们提出了一个新的兼容的有限元离散方程,并将其应用于湿浅水方程在三个测试用例的不同公式。 结果表明,模型捕获了云和雨以及物理动力学相互作用的产生,并展示了潮湿的浅水配方与这些不同建模选择的含义之间的一些差异。
在这项工作中,我们提出了一个高阶有限体积框架,用于浅水流的数值模拟。 该方法旨在准确捕获浅水系统固有的复杂动力学,特别适用于海啸模拟等应用。 任意高阶框架确保流量行为的精确表示,对于模拟以快速变化和精细特征为特征的现象至关重要。 由于在生产破坏方面进行了临时重新制定,时间集成确保了没有任何时间步骤限制的积极性保存,这是物理一致性的重要属性,特别是在负水深重建可能导致不现实结果的情况下。 为了引入由基本平衡法规定的一般稳定平衡的保存,高阶重建和数值通量以凸状的方式与均衡的近似混合,能够提供静态和移动均衡的精确保存。 通过数值实验,我们展示了拟议方法的有效性和稳健性,以捕获浅水流的复杂动力学,同时保留了洪水模拟所必需的关键物理特性。
这项工作提出了一种方法,并优化了高速可压缩流体流的超大规模模拟,使多引擎火箭飞行器能够以前所未有的规模进行模拟。 我们通过精心制作的最近提出的信息几何正则化实现,在计算成本和内存占用方面显著改进了最先进的技术,这消除了对数值冲击捕获的需求。 在紧密耦合的CPU-GPU平台上进行统一寻址,增加了总问题大小,性能受到的打击微不足道。 尽管线性模板算法是内存绑定的,但我们的挂钟时间比优化的基线数字快四倍。 这使得在超过100万亿个网格点执行CFD模拟,以一个数量级的速度超过了最大的最先进的公开模拟。 使用完整系统在OLCF Frontier和CSCS Alps上展示了理想的弱缩放,包括37.8K AMD MI250X GPU(Frontier)或9.2K NVIDIA GH200超级芯片(Alps)。
在流体流动中航行,而只使用从车载传感器获得的信息,是小型浮游生物通常面临的问题。 它还与部署在海洋中的自主机器人直接相关。 在过去的十年中,流体力学社区广泛采用强化学习,通常以最简单的实现形式,以应对这一挑战。 但目前还不清楚这些算法所学到的策略有多好。 在本文中,我们对部分可观察流中应用于导航的强化学习方法进行了定量评估。 我们首先介绍了一个有利的定向导航问题,在这个问题上,一个准最优的策略是分析性的。 然后,我们报告了在文献中经常遇到的流中常用算法(Q-Learning, Advantage Actor Critic)的不良性能和稳健性:Taylor-Green vortics,Arnold-Beltrami-Childress流和二维湍流。 我们表明,它们被PPO(Proximal Policy Optimization)大大超越,PPO是一种更先进的算法,在强化学习社区中的广泛基准中建立了主导地位。 特别是,我们对PPO的自定义实现与湍流中的理论准最优性能相匹配,并以稳健的方式做到这一点。 达到这一结果需要使用几种额外的技术,例如矢量化环境和广义优势估计,以及超参数优化。 这项研究证明了算法选择,实现细节和微调对于在复杂流程中发现真正智能的自主导航策略的重要性。
运算符型神经网络的最新进展在近似时空偏小方程(PDE)的解决方案方面显示出有希望的结果。 然而,这些神经网络通常需要支付大量的培训费用,并且可能并不总是达到许多科学和工程学科所需的准确性。 在本文中,我们提出了一个新的学习框架来解决这些问题。 提出了一种新的时空适应,以推广任何傅里叶神经运算符(FNO)变体,以学习Bochner空间之间的地图,该空间可以首次执行任意长度的时间超分辨率。 为了更好地利用这种能力,提出了一种新的范式,在传统数值PDE理论和技术的智慧的帮助下,改进普遍采用的端到端神经运算符训练和评估。 具体来说,在Navier-Stokes方程(NSE)模拟的湍流的学习问题中,拟议的范式仅针对几个时代训练FNO。 然后,只有新提出的时空光谱卷积层在没有频率截断的情况下进行微调。 光谱微调损失函数在操作员学习中首次使用负Sobolev规范,通过可靠的功能类型定义后验误差估算器,其评估准确归功于Parseval身份。 而且,与端到端训练中困难的非凸优化问题不同,这种微调损耗是凸。 与特定条件下的端到端评估和传统的数值PDE求解器相比,常用的NSE基准测试数值实验在计算效率和准确性方面都有显着改善。 源代码可公开查阅https://github.com/scaomath/torch-cfd。
Koopman操作员提出了一种有吸引力的方法,以实现非线性系统的全球线性化,使其成为简化对复杂动力学理解的宝贵方法。 虽然数据驱动方法在接近有限库普曼运算符方面表现出希望,但它们应对各种挑战,例如可观察的明智选择,尺寸减小以及准确预测复杂系统行为的能力。 这项研究提出了一种名为Mori-Zwanzig自动编码器(MZ-AE)的新方法,可以在低维空间中巧妙地近似Koopman运算符。 拟议的方法利用非线性自动编码器提取关键可观测值,用于近似有限不变的库普曼子空间,并使用Mori-Zwanzig形式主义集成了非马尔科维校正机制。 因此,这种方法产生了非线性自动编码器潜在流形内动力学的近似闭合,从而提高了库普曼运算符近似的准确性和稳定性。 演示展示了该技术对圆柱体周围流量的改进预测能力。 它还为Kuramoto-Sivashinsky(KS)提供了低维度近似值,具有有希望的短期可预测性和稳健的长期统计性能。 通过弥合数据驱动技术和库普曼理论数学基础之间的差距,MZ-AE为更好地理解和预测复杂的非线性动力学提供了有希望的途径。
这项工作介绍了,在作者的最佳知识,第一个可通用和完全数据驱动的自适应框架,旨在稳定深度学习(DL)自回归预测模型在长时间范围内,目标是降低计算流体动力学(CFD)模拟所需的计算成本。 拟议的方法在两个阶段之间交替:(i)使用训练的DL模型预测在选定的时间间隔内流场的演变,以及(ii)更新数据。 这种适应性再训练策略可确保稳健性,同时避免自动回归模型中典型的预测性错误的积累。 该框架在三种日益复杂的流程中进行了验证,从层流到湍流,在不影响物理一致性或准确性的情况下,计算成本从30%降至95%。 其完全数据驱动的性质使其易于适应各种时间依赖性的模拟问题。 实现此方法的代码是开源的,它将集成到即将发布的ModelFLOWs-app中。
虽然许多基于物理的闭包模型形式已被定位为大型涡流模拟(LES)的子过滤器量表(SFS),但来自直接数值模拟(DNS)的大量数据创造了利用数据驱动的建模技术的机会。 尽管数据驱动是灵活的,但数据驱动的模型仍然取决于数据集和所选模型的功能形式。 更多地采用这种模式需要数据知情和分配外制度中可靠的不确定性估计。 在这项工作中,我们使用贝叶斯神经网络(BNN)来捕捉反应流模型中的认识论和反应性不确定性。 特别是,我们模拟了过滤进度变量标量耗散率,该速度在湍流预混合火焰的动力学中起着关键作用。 我们证明 BNN 模型可以提供数据驱动闭包模型不确定性结构的独特见解。 我们还提出了将非分发信息纳入BNN的方法。 该模型的功效是通过对由各种火焰条件和燃料组成的数据集的先验评估来证明的。
由于计算机硬件的最新发展,大规模科学计算的数字精度已成为一个新兴的话题。 较低的浮点精度提供了显着性能改进的潜力,但降低数值精度所带来的不确定性是它在高保真模拟湍流中达到流行程度的主要障碍。 在本工作中,对不同四舍五入方案下降低数值精度的影响进行了调查,并与模拟数据中白噪声的存在进行比较,以获得流量中不同数量的统计平均值。 为了研究这如何影响模拟,提出了评估这些不确定性来源影响的实验方法,其中每个实现 u^i 都受到干扰,要么通过限制向相位空间的较粗离散化(对应于以确定性和随机四舍五入的低精度格式)或通过以均匀分布的白噪声扰动流。 这种方法的目的是评估精度的限制因素,以及直接数值模拟(DNS)对噪声和数值精度的稳健性。 我们的结果表明,对于低Re湍流通道流,随机四舍五入和噪声的影响显着低于确定性四舍五入,表明随机四舍五入相对于传统圆到近的潜在好处。 我们发现,要捕捉速度变化的概率密度函数,浮点精度在相对速度变化小、湍流强度低的区域尤其重要,但在速度梯度大、变化如近壁区域等区域则不那么重要。