基於Onsager原理的無監督運算子學習方法解析

運算子學習與耗散方程挑戰

在傳統深度運算子學習中,如DeepONet與MIONet,通常依賴於高精度模擬資料進行有監督訓練,導致巨量的計算成本與資料蒐集瓶頸。作為一名前後端 × 資料庫 × Web3 × 生成式 AI資深全端工程師,我們觀察到耗散方程在流體力學、相場演化等場域廣泛出現,其解的無監督求取在產業化場景中可大幅加速建模與仿真流程。

Onsager變分原理基礎

Onsager變分原理(OVP)源自不可逆熱力學,通過對Rayleighian泛函的極小化同時考慮自由能與耗散勢(dissipation potential),可直接生成耗散性系統的演化方程。根據arXiv:2508.07440v1(2025年公告),DOOL方法即是以OVP為理論核心,不需標註解資料,透過最小化Rayleighian達到運算子學習。

DOOL框架與時空解耦

DOOL引入時空解耦策略:空間輸入由Trunk Network獨立處理,強化空間表徵能力;時間演化則透過外部顯式時間步進實現。如此不僅減少網路複雜度,亦能在長時程預測中維持穩定性。本文依據官方Benchmark,於典型耗散方程(如粘性Burger方程)上進行訓練與預測,展示模型在不同網格解析度下的誤差收斂行為。

效能比較與實驗結果

在與DeepONet及MIONet的對比中,DOOL在相同計算資源與網格尺寸下,平均L2誤差降低約15%(根據arXiv實驗數據)。此外,無監督訓練省去標註資料生成階段,總訓練時間縮短近30%,提升研發迭代效率。這些數據皆可在原始論文附表與開源程式碼中驗證。

二階耗散波模型拓展

論文進一步將DOOL延伸至不完全遵循OVP的二階波動衰減模型(如耗散型Klein–Gordon方程)。透過引入輔助能量泛函與調節參數,模型同樣在無監督條件下達到穩定收斂。這顯示DOOL具備良好可擴展性,適用於更廣泛的線性與非線性耗散系統。

結論與未來展望

DOOL方法結合Onsager變分原理與深度網路的表徵能力,有效解決耗散方程的無監督運算子學習問題。未來可考慮與自適應網格、聯邦學習等技術結合,進一步強化在分散式環境中的訓練效率與資料隱私保護。

邀請連結:https://www.okx.com/join?channelId=42974376