Rescale を使用してオンプレミスの深層学習をクラウドに移行
このウェビナーでは、GPU 対応の Docker コンテナーを使用して、オンプレミスのディープ ラーニング ワークロードを再現可能な方法で Rescale に移行する方法について説明します。 このウェビナーではカスタマイズ方法を説明します コンテナ ワークロードを実行し、Rescale の新しい P100 ベースのシステムにデプロイします。
このウェビナーにはライブ デモンストレーションが含まれており、参加者に次の方法を示します。
- 深層学習モデルのトレーニング ワークロードをカスタム コンテナーに構築する
- TensorFlow、PyTorch、または Caffe をコンテナ化されたフレームワークとしてターゲットにする
- これらのカスタム コンテナを Web ポータルを通じて、または API および CLI ツールを使用してプログラム的にアドホック ベースで Rescale にデプロイします。
- Rescale の新しい NVLink、P100 システムでのこれらのフレームワークのパフォーマンスのベンチマーク
このウェビナーは、承認された申請者に P1,000 の使用に対して 5,000 ドルから 100 ドルの Rescale ハードウェア クレジットを提供するディープ ラーニング キックスタート プログラムも開始します。お申し込みの場合は、電子メールでご連絡ください。 DLKickstart@rescale.com 次の情報を含めます: 名前、役職、会社名、会社の電子メール、および興味のある深層学習フレームワーク。キックスタート プログラムは、有効な事業会社を代表するユーザーに限定されていることに注意してください。