PINN应用案例:神经网络求解热扩散方程高质量近似解
栏目:应用案例 发布时间:2025-05-13 12:42:33
 智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月  本文探讨了物理信息神经网络(PINN)在求解一维热扩散方程中的应用,对比分析了多

  智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月

  本文探讨了物理信息神经网络(PINN)在求解一维热扩散方程中的应用,对比分析了多层感知器(MLP)、残差网络(ResNet)和Wang2020架构的性能。PINN通过构建损失函数整合偏微分方程残差、边界条件和初始条件,实现对物理系统的近似求解。实验结果表明,传统架构如MLP和ResNet虽能大致还原解析解,但在部分区域存在显著偏差;而Wang2020架构因专门设计以应对PINN训练挑战,表现更为优越,与解析解高度一致。研究还揭示了PINN训练中“平台期后突变”的优化特性,并提出通过构造满足约束条件的网络架构以简化多目标优化问题,为未来研究提供了新方向。

  偏微分方程(PDE)是描述物理现象的基础数学工具。在简化几何形状的理想条件下,某些PDE问题可获得精确解析解。然而对于具有复杂边界和多维几何特征的实际工程问题,解析解通常难以获取或根本不存在。

  传统求解PDE的主流方法是有限元法(FEM)。该方法将计算域离散化为网格单元,通过计算各单元间的相互作用来估算局部区域内的PDE残差。求解过程从初始近似解开始,通过迭代优化不断调整节点状态参数(如位置、应力、温度等物理量),直至系统收敛到稳定配置。

  尽管有限元法在工程领域取得了巨大成功,但其高度依赖于网格质量和离散化精度,在处理复杂几何形状、多尺度问题或高维空间时面临计算效率和精度挑战。这些局限性促使研究人员积极探索新型求解策略,物理信息神经网络(PINN)作为一种新兴方法应运而生。

  物理信息神经网络(Physics-informed Neural Networks, PINN)框架旨在构建满足初始条件和边界条件的偏微分方程近似解。该方法的核心优势在于PDE中的偏导数项可通过自动微分技术精确计算,这源于神经网络输出对其可调参数和输入变量天然具备可微特性。

  PINN框架的关键组成是一个特殊设计的损失函数,其中包含微分方程残差项。该残差项量化了神经网络解与PDE描述的物理定律之间的偏离程度。损失函数还整合了衡量初始条件和边界条件满足程度的额外项。

  PDE残差项定义为方程(1)左侧表达式的平方,在(x, t)域中的采样点上进行评估:

  边界损失函数用于度量边界条件的约束满足程度。当温度在x=0和x=L处固定时,该损失可表示为:

  初始损失函数则衡量神经网络输出u(x, 0)与给定初始温度分布u₀(x)之间的偏差:

  通过上述损失函数组件,我们构建了训练神经网络的完整框架。当总损失函数趋近于零时,网络解将同时满足PDE方程、边界条件和初始条件的约束。

  值得注意的是,上述损失分量可能具有不同的量纲和数量级,这可通过适当选择权重因子来调整,但这些最优权重通常难以预先确定。在后续实验中,我们采用λi = λb = 1的简化设置(见图1),以便直观展示PINN优化过程中的挑战。

  首先需要明确指出,仅采用分段线性激活函数(如ReLU和LeakyReLU)的网络架构不适用于本任务。这是因为分段线性激活函数的组合将产生分段线性输出函数,导致其关于输入变量的二阶导数在几乎所有点处为零,仅在线性段连接处存在不定义状态。考虑到一维热扩散方程(1)为二阶微分方程,分段线性解(其中δ²u/δx²为零)无法满足非线性初始条件约束,除非是线性温度函数的特殊情况。

  在实验部分,我们将首先测试基本架构如多层感知器(MLP)和残差网络(ResNet)。

  Wang等人在[2]中提出的架构(以下简称Wang2020架构)具有更复杂的结构设计。为缓解PINN训练中常见的梯度流病态问题,作者设计了一种特殊架构,其中输入对的线性变换通过与前层线性变换的元素级乘法进行组合。

  为验证PINN的求解能力,我们采用一个标准的一维热扩散问题:金属细杆两端保持恒定温度,具有特定的初始温度分布(如图3所示)。

  由于该问题存在解析解,我们可以将PINN的数值解与精确解进行直接对比,从而评估不同架构的性能表现。

  首先测试的是最基本的架构:由线性层、tanh激活函数和输出线性层组成的多层感知器。对于包含6层、每层宽度为24的网络结构,训练损失变化如图4所示:

  从损失曲线可以观察到,优化过程并不平稳。部分损失分量在相邻周期间可能产生数量级的波动。整个训练过程至少可以识别出三个明显阶段,优化器在每次模式突变前似乎陷入局部最小值。

  图5展示了训练期间实现最低总损失时的网络状态所预测的温度场随时间(0至10秒)的演化,并与解析解进行对比:

  图6:ResidualNet 6×24网络的训练损失曲线展示的损失曲线相似。模拟结果显示与解析解的偏差程度与MLP模型相当:

  图7:ResidualNet 6×24网络预测解与解析解的时间演化对比。

  形成这种训练特性的可能原因是,不同损失分量的优化难度存在差异。这为优化器创造了一条捷径,即优先最小化简单损失分量而暂时忽略其他分量,从而获得较大的梯度下降。然而,为了使解能准确模拟物理系统,所有损失分量必须同时达到最小化。

  研究表明,特定架构(如Wang2020)在应对PINN特有挑战方面表现更优,这得益于其针对物理信息学习的专门设计。

  缓解多目标优化挑战的一种可行方法是设计一种通过构造满足初始条件和边界条件的PINN架构。在这种框架下,只需优化单一损失分量,从而避免多目标优化的复杂性。关于这一方向的更多探索有待进一步研究。

  【程序员必须掌握的算法】【Matlab智能算法】GRNN神经网络-遗传算法(GRNN-GA)函数极值寻优——非线性函数求极值

  【程序员必须掌握的算法】【Matlab智能算法】GRNN神经网络-遗传算法(GRNN-GA)函数极值寻优——非线性函数求极值

  【Matlab智能算法】Elman神经网络-遗传算法(Elman-GA)函数极值寻优——非线性函数求极值

  【Matlab智能算法】Elman神经网络-遗传算法(Elman-GA)函数极值寻优——非线性函数求极值

  以下内容大部分来源于《MATLAB智能算法30个案例分析》,仅为学习交流所用。

  【SQL 周周练】一千条数据需要做一天,怎么用 SQL 处理电表数据(如何动态构造自然月)