Website Design Copyright 2025 © 瑞其科技有限公司
All Rights Reserved. 網頁設計 by 覺醒設計
案例實績
業界的 CAE 工程師在大部分時間裡都在處理類似的模型,比如空調管路的 CFD、汽車保險桿的 CAE 工作。通過設計實驗 (DOE)迭代,不斷優化尺寸參數和產品外形,以降低管路流動阻力、提高風速均勻性,或者實現結構的輕量化、提高安全性和耐久性。
在一般的情況下,項目分析完成後,電腦伺服器端上的大量模擬結果文件會被刪除。即使有備份,也很少有機會被再次利用。每當有新的分析項目時,CAE 工程師會需要重新進行幾何清理、網格劃分、求解分析等步驟。
設計人員提出新設計時,CAE 工程師能夠立即預測結果?
physicsAI 利用 CAE 的歷史數據作為機器學習的訓練樣本,每當輸入新的 CAD 數據或面網格,能夠快速預測出壓力、溫度、應力、變形等物理場分佈結果。這樣一來,CAE 工程師就能更迅速地進行預測和優化,提高工作效率。
基於幾何深度學習,無需手動參數化。(許多 CAE 模型參數化很困難,而且手動製作的參數集可能不是最佳的)。
使用者無需撰寫程式或編輯腳本。
可以在面網格或 CAD 上直接預測,省略了複雜的建模流程。
比模擬求解器快得多的預測速度,並支援設計探索。
可以做到任意物理場的模擬預測(結構、流體、電磁等等……)。
![]()
安裝 HyperWorks Desktop v2023 版本。
支援 Nvidia GPU 訓練,至少 8G 以上的顯存。
訓練時間和樣本的數量與每個樣本的網格數量有關,小模型訓練半小時,大的模型可能超過一天。
支援本機或遠端 HPC 的訓練樣本。
訓練樣本需要是 .h3d .fem .rad 模擬結果格式,預測可以用 Parasolid 或面網格。
![]()
示範模型採用 Inspire 設計造型,由 HyperStudy 驅動5個 CAD 參數建立 DOE 分析,流體求解器 AcuSolve 計算流場,產生7個訓練樣本,2個測試樣本,並用2個新設計模型用於預測。
![]()
Inspire 設計參數
![]()
physicsAI 運行在筆記型電腦(Intel CPU i7-10850H,32GB RAM),對流場的預測速度比 CFD 求解器快了7~8倍:
![]()
|
Epochs=300,訓練時間18 min, 15sec |
Epochs=100,訓練時間6 min, 18sec |
在進行預測時,physicsAI 將以信心程度(confidence score)的形式量化輸入設計與訓練數據的相似程度,並顯示在視窗右上角。
信心程度為1.0表示輸入設計與其中一個訓練點相同。這是可能的最大值。
信心程度為0.0表示輸入設計與最近的訓練點的差異與兩個最遠的訓練點的差異相同。
負信的信心程度則表示輸入設計與訓練數據非常不同。除非用類似的設計訓練新模型,否則預測的品質可能很低。
![]()
確定性 Determinism:近似確定性可以透過在規範文件中設置隨機種子來實現。然而即使在這樣做之後,通常也會觀察到使用相同設置和數據訓練的兩個模型之間的細微差異,這是正常現象。 更多的樣本數量且樣本包含更多的設計概念,可以提高預測的泛化能力。
為了保證在案例示範的效果,對示範模型進行擴展訓練,共280個樣本點(7種管路類型,每種管路40個尺寸組合),在 GPU 伺服器上訓練3小時。
![]()
|
AcuSolve(左)和 physicsAI 預測(右)的壓力分佈對比
AcuSolve(左)和 physicsAI 預測(右)的流速對比
對預測結果可靠性的評估信賴度分數
保險桿碰撞安全模型預測:
【 常見 CAE 模型的訓練時間 】 |
|
顯式動力學: |
|
|
流體力學: |
|
|
固體力學: |
|
Q:什麼是幾何深度學習?
A:幾何深度學習(Geometric Machine Learning)是從非歐幾里得資料類型中學習的一種神經網路方法。
|
歐幾里得結構資料(Euclidean Structure Data)包括圖像、文字、聲音等: |
|
|
非歐幾里得結構資料(Non-Euclidean Structure Data)可以比一維或二維表達更複雜的結構,比如分子結構,神經網路,費曼圖,流型資料(maniflods)等等: |
|
Epochs:模型訓練的疊代次數
Early Stopping / Patience:如果模型在疊代後沒有改進,提前停止訓練
Learning Rate:訓練中每次疊代的步長(越大越快,但可能無法收斂)
Width:控制可學習模式的複雜性
Depth:控制可學習的模式的複雜性以及資訊在本機傳播的距離。(對訓練時間影響較大)
![]()
較大的 Learning rate 會迅速朝向最佳方向發展,但如果太大,則可能無法達到收斂位置。
小的 Learning rate 更有可能收斂,但可能會需要花較長時間才能達到收斂。
一個好的 Learning rate 應該足夠大,可以快速收斂,但又不能太大導致在收斂之前就卡住而無法完成優化。日誌中的 Noisy Loss 顯示 Learning rate 可能過大。從預設值 1e-3 開始,如果 Noisy 嘗試 1e-4。
![]()
不同的 Learning rate 對比:
![]()
![]()
過擬合指的是模型在訓練集上表現非常好,但在測試集或未知數據上表現較差的現象。過擬合的主要原因是模型過於複雜,過多地學習了訓練集中的噪聲和細節,導致對未知數據的泛化能力較差。過擬合的特點是模型對訓練集中的每一個樣本都能夠很好地擬合,但在新的數據上表現不佳。
欠擬合指的是模型在訓練集和測試集上都表現較差的現象。欠擬合的主要原因是模型過於簡單,無法很好地擬合數據的複雜性和特徵。欠擬合的特點是模型無法很好地擬合訓練集中的樣本,導致模型在訓練集和測試集上的表現都不佳。
![]()
空調管路模型的操作演示
![]()
Training physicsAI
![]()
Testing a physicsAI model
![]()
Real-time physics predictions
![]()
From CAD to contour
文章出處:Altair 原廠
瑞其科技是"CAE與AI數據分析的專家",我們完成了許多成功的案例實績。
▶ 現在就 聯絡我們,取得更多資訊。
▶ 訂閱 瑞其Youtube頻道,探索更多CAE與數據分析。