|

Google Compute Platform での MPI ベンチマークの再確認

GCE
XNUMX 年前、私たちは Google の IaaS サービスである Google Compute Engine (GCE) のネットワーク パフォーマンスを調査し、その結果を Ryan が次の記事に投稿しました。 彼のブログ投稿。 当時、Web サービスをホスティングする一般的なワークロードには GCE インスタンスの方が適しているという結論がありましたが、HPC アプリケーション用のパフォーマンス調整の余地はまだありました。 最近、私たちは最新の製品を使用して GCE のインスタンスを再調査しました。

ベンチマークツール
結果を古いものとある程度比較できるようにするために、引き続き OSU マイクロ ベンチマーク しかし、最新のものでは バージョン5.3.2。 そして、提供されているすべてのベンチマーク ツールの中で、レイテンシー テスト用の osu_latency と双方向帯域幅テスト用の osu_bibw という XNUMX つの最も重要なツールを選択します。

テスト環境
オペレーティング システム: Debian GNU/Linux 8 (ジェシー)
MPI フレーバー: MPICH3

テストインスタンス
VM インスタンス間の相互接続パフォーマンスをテストしているため、起動した VM インスタンスが実際に異なる物理ホスト上に存在し、トラフィックが実際にホスト マシンのメモリではなく基盤となるネットワークを通過することを確認したいと考えています。
そこで、各シリーズの最大のインスタンスを選択しました。
n1-standard-32、n1-highmem-32 および n-highcpu-32

試験結果
レイテンシー (マイクロ秒単位) の場合:

インスタンスタイプトライアル #1トライアル #2トライアル #3平均
n1-標準-3245.6847.0348.4647.06
n1-highmem-3243.1743.0836.8741.04
n1-highcpu-3247.1148.5148.1747.93

(サイズ: 0バイト)
双方向帯域幅の場合: (MB/秒)

インスタンスタイプトライアル #1トライアル #2トライアル #3平均
n1-標準-32808.28864.91872.36848.52
n1-highmem-321096.351077.331055.21076.29
n1-highcpu-32847.68791.16900.32846.39

(サイズ: 1,048,576-バイト)

結果の概要
ネットワーク遅延については、平均が約 40 ~ 45 マイクロ秒であることがわかります。これは、前の結果 (約 4 マイクロ秒) よりも 180 倍高速です。 また、新しいレイテンシは、他の小規模なインスタンス タイプ間でもかなり一貫しています。
帯域幅については、比較できる以前の結果はありませんが、すべての GCE インスタンス タイプの中で、n1-highmem-32 が最高のパフォーマンスを示し、1070 MB/秒にも達することがわかりました。 この結果は GCE の公式ドキュメントと一致しています https://cloud.google.com/compute/docs/networks-and-firewalls#egress_throughput_caps.

類似の投稿