
LLM を活用した HPC シミュレーション出力ログの自動後処理
ジェームズ・イムリー - シニアソリューションアーキテクト
エンジニアリングチームは テラバイト規模のCAEおよびHPCシミュレーションデータ 日々の業務の中で、ソルバーのログから信頼性の高い実用的な情報を抽出することは、依然として手作業によるエラーが発生しやすいボトルネックとなっています。このセッションでは、 大規模言語モデル(LLM) 後処理と分析の「副操縦士」としてシミュレーション ワークフローに直接組み込むことができます。
ローカルのエンタープライズ グレードの LLM がどのように機能するかを説明します。
- 次のようなツール間で複雑なソルバーログを解析および解釈します。 シーメンス Star‑CCM+、Abaqus、Ansys Fluent
- 自動的に エラーと故障モードを分類する (メッシュ品質、発散、メモリ、ライセンス、収束の問題)
- 抽出と正規化 主要なシミュレーション結果 信頼できる実行からAI対応データセットを構築する
- サポート負荷を軽減し、ユーザーの自律性を高める自動化されたトラブルシューティングフローを実現します。
- で動作する 隔離されたプライベートな環境 CI/CD、ベンチマーク、本番環境向け回帰テスト
このセッションでは、シミュレーション後処理用の LLM 導入のライフサイクル全体(モデルの選択とベンチマーク、データ パイプライン、プロンプト設計、CI/CD 統合、顧客固有のユース ケースに対する検証)について説明します。
このセッションでは、実際の LLM の運用ソルバー ログへの展開を確認し、その背後にあるリファレンス アーキテクチャを理解し、エラー処理の自動化、根本原因分析の高速化、シミュレーション出力の AI 対応データ資産への変換にすぐに適用できるパターンを習得できます。
