ビッグ コンピューティング ポッドキャスト: AI による HPC ワークフローの高速化
この中の ビッグコンピューティング ポッドキャスト エピソードでは、ガブリエル ブローナーが IBM の HPC およびコグニティブ システム担当副社長であるデイブ トゥレックをホストに、AI がどのように HPC ワークフローの高速化を可能にするかについて話し合います。
今後の Big Compute Podcast エピソードに登録してください
概要と主なコメント
HPC は伝統的に、現実世界を表現するためにシミュレーションに依存してきました。 過去数年にわたって、AI は、イノベーション、コンピューティング能力の増大、そしてそれを可能にする新しいアーキテクチャにより、大幅な成長を遂げてきました。 HPC は AI 技術の恩恵を受けることができます。 チャンスの XNUMX つの領域は、シミュレーションの準備、結果の分析、次にどのシミュレーションを実行するかを決定する際に人々が行う作業を強化することです。 一歩下がって、問題を解決するためにシミュレーションの代わりに AI 技術を使用できるかどうかを分析すると、別の機会が生まれます。 AI については、HPC ユーザーが持つツールボックスを増やすものとして考える必要があります。 将来的には HPC と AI の分離がまったく存在しない可能性があるため、私たちはそれらについて学び、組み込む必要があります。
HPC + AI でワークフローを高速化
HPC と AI が問題へのより適切な対処にどのように役立つかについて、Dave Turek 氏は次のように述べています。
「私たちは HPC と AI について、あたかも 5 つの異なるものであるかのように話します。 私はこれら 8 つの分野の融合について話したいと思います。 それらは一つの傘の下にまとめられる必要がある。 どういうわけか、私たちはアルゴリズムとワークフローの違いを見失っています。 商業的な観点からすると、ワークフローの一部ではなく、ワークフローに取り組むことが重要です。そうしないと、マージンで作業する危険があります。 数年前、私は石油産業の会社で働いていました。 アルゴリズムについて 10 日議論した後、彼らが直面している最大の問題は、データをより速く並べ替える方法であることに気付きました。 彼らは問題をワークフローの観点から捉えていました。 シミュレーションをゼロ時間で解決したとしても、総時間の 40 ~ 50% しか短縮できなかったでしょう。 データを XNUMX 分の XNUMX 早く並べ替えていたら、時間を XNUMX ~ XNUMX% 削減できたでしょう。 ワークフローの概念を受け入れると、AI が役立つ領域がさらに多くなることがわかります。」
AIの成長
「イノベーションにより AI の普及が促進されています。 私たちは胎児の状態にいます。 タイムスケールでは、t=0.001 にいます。 人々は実験的な作業を行っていますが、間もなく展開が急増するでしょう。 一部の分野では自動運転などの一連の倫理的問題が生じますが、製造などの他の分野では倫理的配慮が欠如しているため、受け入れられる障壁が低くなり、大幅な成長が見られるでしょう。」
インテリジェントなシミュレーション
「インテリジェント シミュレーションとは、シミュレーションをより優れたものにするために AI 手法を組み込んだものです。 シミュレーションの実行の問題について考えると、仮説を立て、シミュレーションを実行し、結果を分析し、シミュレーションを再調整して、いくつかの改良を加えて再度実行します。 これは、最小限のシミュレーション数を実行するために行います。 この人間のプロセスは、結果を分析して次のシミュレーションを決定する AI の導入によって強化できます。 AI はその仕事の効果的なディレクターになることができます。」
「私たちは驚くべき結果を見てきました。 当社には、95 日に何百万ものシミュレーションを行うクライアントがいます。 AI を組み込むことで、実行するシミュレーションの数を XNUMX/XNUMX 以上削減できた例が見られます。 これらの結果は再現可能ですが、現時点ではさまざまな問題タイプにわたって一般化できません。 XNUMX% 削減という良好な結果が得られましたが、それは全体的な期待ではありません。」
「製薬分野では、このアプローチを使用して、病気媒介物質に対する有効性について潜在的な薬剤化合物を検討し、評価対象の化合物を 20000 化合物から 1000 に減らすことができました。化学製剤の分野では、化合物の組み合わせを分析する際に、分子的な成果を生み出すために、コンピューティング量を 60% 以上削減しました。 これらのアプローチは現在、私たちが協力しているクライアントによって運用的に実装されています。」
認知的発見
「ワークフローの 80% はデータに関するものであり、データをどのように取得するか、どのように整理するか、データのアーキテクチャは何かなどです。 インテリジェントなシミュレーションは拡張戦略です。 認知的発見は置き換えの戦略です。 シミュレーションの概念を忘れて、AI を使用して HPC の問題を解決しましょう。 シミュレーションなしで同じ問題を解決できるでしょうか?」
「私たちは、データを取り込み、情報を作成し、構築し、ニューラル ネットを自動的に生成するツールを開発しました。 私たちはこれらのツールを使用して、人間が分析できる範囲を超えた公開情報へのアクセスを作成しています。 一例として、2018 年には材料科学だけでも 450,000 件の科学論文がありました。」
AI が競争の場を平等にする
「データサイエンティストは米国の都市部にいます。 もし私が別の場所にいるとしたら、それは問題です。 スキル不足にどう対処しますか? AI のアクセシビリティをより平等なものにするために、この活動をどこまで自動化できるでしょうか?」
「データから推論までのプロセスを自動化し、ノウハウの集合的知識へのアクセスを提供することで、中小企業も大企業のように振る舞うことができます。 歴史的に、市場と経済学は規模の利点について語ってきました。 AI を使えば、誰もが中小企業が自分たちの立場を超えて競争できる平等な競争の場で競争できるようになり、従業員 100 人の企業が従業員 10,000 人の企業と競争できるようになります。」
クラウドでのアクセス
「IBM が Rescale for HPC in the Cloud と提携したことで、私たちが話してきたすべてのテクニックがクラウドで利用できるようになりました。IBM Q は量子コンピューティングへのアクセスを提供します。 IBM React/IBM RXN は、化学反応の結果を評価するためにチューリッヒに構築された認知発見システムへのアクセスを提供します。」
未来と私たちの仕事はどう変わるのか
「5~10年後には、これはアナリストツールキットの重要な要素になるでしょう。 私たちにとって、それは新しいツールセットを受け入れることの問題です。 HPC では、時間の経過とともに新しいツールが開発されてきました。 たとえば、MPI の開発により、並列プログラミングの使用が容易になりました。 ここでは何も変わりませんし、それ以上に難しいことはありません。 新しいフレームワークにより、これらの新しいツールを使用できるようになりました。 勉強して、学んで、参加してください。 これにより新たなチャンスが生まれるでしょう。」
デイブ・チュレック
Dave は、IBM の HPC およびコグニティブ システム担当副社長です。 IBM では長年にわたり、Dave はエクサスケール システム、ハイ パフォーマンス コンピューティング戦略を担当し、IBM のグリッド コンピューティング ビジネスの立ち上げを支援し、IBM の Linux クラスター ビジネスを立ち上げて運営してきました。 彼は開発幹部として、IBM の SP スーパーコンピューター プログラム、AIX およびその他の Unix ソフトウェアのメインフレーム バージョンの責任を負っていました。 その立場で、彼はローレンス・リバモア国立研究所の米国加速戦略的コンピューティング・イニシアチブを支援する最初の IBM 開発作業を調整しました。
ガブリエル・ブローナー
Gabriel Broner は、Rescale の HPC 担当副社長兼ゼネラルマネージャーです。 2017 年 25 月に Rescale に入社する前、ガブリエルは、Cray の OS アーキテクト、Microsoft の GM、Ericsson のイノベーション責任者、SGI/HPE の HPC 担当副社長兼 GM として、業界で XNUMX 年間を過ごしました。