Google Compute Platform での MPI ベンチマークの再確認
XNUMX 年前、私たちは Google の IaaS サービスである Google Compute Engine (GCE) のネットワーク パフォーマンスを調査し、その結果を Ryan が次の記事に投稿しました。 彼のブログ投稿。 当時、Web サービスをホスティングする一般的なワークロードには GCE インスタンスの方が適しているという結論がありましたが、HPC アプリケーション用のパフォーマンス調整の余地はまだありました。 最近、私たちは最新の製品を使用して GCE のインスタンスを再調査しました。
ベンチマークツール
結果を古いものとある程度比較できるようにするために、引き続き OSU マイクロ ベンチマーク しかし、最新のものでは バージョン5.3.2。 そして、提供されているすべてのベンチマーク ツールの中で、レイテンシー テスト用の osu_latency と双方向帯域幅テスト用の osu_bibw という XNUMX つの最も重要なツールを選択します。
テスト環境
オペレーティング システム: Debian GNU/Linux 8 (ジェシー)
MPI フレーバー: MPICH3
テストインスタンス
VM インスタンス間の相互接続パフォーマンスをテストしているため、起動した VM インスタンスが実際に異なる物理ホスト上に存在し、トラフィックが実際にホスト マシンのメモリではなく基盤となるネットワークを通過することを確認したいと考えています。
そこで、各シリーズの最大のインスタンスを選択しました。
n1-standard-32、n1-highmem-32 や n-highcpu-32
試験結果
レイテンシー (マイクロ秒単位) の場合:
インスタンスタイプ | トライアル #1 | トライアル #2 | トライアル #3 | 平均 |
n1-標準-32 | 45.68 | 47.03 | 48.46 | 47.06 |
n1-highmem-32 | 43.17 | 43.08 | 36.87 | 41.04 |
n1-highcpu-32 | 47.11 | 48.51 | 48.17 | 47.93 |
(サイズ: 0バイト)
双方向帯域幅の場合: (MB/秒)
インスタンスタイプ | トライアル #1 | トライアル #2 | トライアル #3 | 平均 |
n1-標準-32 | 808.28 | 864.91 | 872.36 | 848.52 |
n1-highmem-32 | 1096.35 | 1077.33 | 1055.2 | 1076.29 |
n1-highcpu-32 | 847.68 | 791.16 | 900.32 | 846.39 |
(サイズ: 1,048,576-バイト)
結果の概要
ネットワーク遅延については、平均が約 40 ~ 45 マイクロ秒であることがわかります。これは、前の結果 (約 4 マイクロ秒) よりも 180 倍高速です。 また、新しいレイテンシは、他の小規模なインスタンス タイプ間でもかなり一貫しています。
帯域幅については、比較できる以前の結果はありませんが、すべての GCE インスタンス タイプの中で、n1-highmem-32 が最高のパフォーマンスを示し、1070 MB/秒にも達することがわかりました。 この結果は GCE の公式ドキュメントと一致しています https://cloud.google.com/compute/docs/networks-and-firewalls#egress_throughput_caps.