AWS、新たなAmazon EC2インスタンスと ネットワーク拡張を発表

AWS、新たなAmazon EC2インスタンスと ネットワーク拡張を発表

マイクロサービスやウェブサーバーなどのスケールアウト型ワークロードのコストを 最大45%削減する、ArmベースのカスタムAWS Gravitonプロセッサーを搭載した新しいA1インスタンス

Amazon-Web-Service-2018-12-11

2018/12/11

マイクロサービスやウェブサーバーなどのスケールアウト型ワークロードのコストを
最大45%削減する、ArmベースのカスタムAWS Gravitonプロセッサーを搭載した新しいA1インスタンス
機械学習や高性能コンピュートなど、スケールアウト型で分散型のワークロード向けに高スループットを提供する、新たなP3およびC5インスタンスの100 Gbpsネットワーキング機能
数万のコア越しに緊密に結合した高性能コンピューティング・アプリケーションを拡張する、
新しい遅延最適化Elastic Fabric Adapter
インターネットトラフィックをインテリジェントにルーティングして
地理的に分散されたアプリケーションの可用性と性能を高めるAWS Global Accelerator

(シアトル、2018年11月27日発表)Amazon.com, Inc.(NASDAQ:AMZN)の関連会社であるAmazon Web Services, Inc.(AWS)は本日、AWS re:Inventにて、Amazon Elastic Compute Cloud(Amazon EC2)向けの3つの新たなインスタンスを発表しました。

  • A1インスタンス:スケールアウト型ワークロード向けにカスタム設計されたAWS Gravitonプロセッサーを搭載したインスタンス
  • P3dn GPUインスタンス:ディストリビューション型の機械学習および高性能コンピューティング・アプリケーションに最適なインスタンス
  • C5nインスタンス:最先端のコンピューティング、集中したワークロード向けに拡張したネットワーク帯域幅を提供するインスタンス

コンピューティングに最適化された新たなP3dn GPUおよびC5nインスタンスは、100 Gbpsのネットワーク・スループットを提供し、高性能コンピューティング(HPC)、機械学習トレーニング、データ分析などの分散型ワークロードのスケールアウトを可能にします。

また、AWSは2つの新たなネットワークサービスの提供開始を発表しました。

  • Elastic Fabric Adapter(EFA):AWSの柔軟性と拡張性を備えたオンプレミスHPCクラスターの性能を提供する、Amazon EC2インスタンス向けネットワークアダプター
  • AWS Global Accelerator:AWSのグローバルバックボーンとエッジロケーションを活用し、1つ以上のAWSリージョンで稼働するアプリケーションの可用性と性能を改善するフルマネージドサービス

新たなAmazon EC2インスタンスおよびネットワーキング機能に関しては、以下のURLを参照ください。
https://aws.amazon.com/ec2/ もしくは https://aws.amazon.com/products/networking/.


AWSのコンピュートサービス担当バイスプレジデントのマット・ ガーマン(Matt Garman)は「お客様の要望で最も多いものに、基本的なワークロードのコストを下げる方法とクラウドにおいて要求の厳しいスケールアウト型の高性能なコンピュートや機械学習のワークロードの効率的な稼働方法の2つが挙げられます。今回、A1インスタンスを追加したことで、コンテナ化されたマイクロサービスのような分散型アプリケーションをコスト効率良く運用できる選択肢をお客様に提供できます。A1インスタンスは、過去10年に渡りハイパースケールのクラウドプラットフォームを開発してきた当社の専門知識を活用し、当社が新しくカスタム設計したAWS Gravitonプロセッサー(ARM命令セット)を搭載しています。当社の新しいP3dnおよびC5nインスタントは、スケールアウト型で分散型のワークロード向けに、100 Gbpsのネットワーク性能を提供し、分散した機械学習トレーニングや高性能コンピュートの処理速度を高めることができます。これらの新しいインスタンスにより、すでに業界で最も高性能でコスト効率に優れたコンピューティングプラットフォームを、新しいワークロードのニーズを満たせるように拡張することができます」と述べています。


スケールアウト型ワークロードのコストを大幅に削減する、カスタム設計のAWS Gravitonプロセッサーを搭載した新たなA1インスタンス
今日、多くのお客様が益々クラウド上で様々なワークロードを稼働するようになり、性能を妥協せずにコストを削減できるソリューションを求めるようになってきました。汎用プロセッサーは多くのワークロードに優れた価値を引き続き提供しますが、コンテナ化されたマイクロサーバーやx86命令セットに依存しないウェブティアアプリケーションのような新しいスケール型ワークロードの場合は、アプリケーションの演算負荷を共有できる、より小型で最新の64ビットArmプロセッサーで稼働するほうがコストと性能の両面で恩恵を得ることができます。本日発表されたA1インスタンスは、システムデザインとクラウドインフラストラクチャにおけるAWSの広範囲に及ぶ専門知識を活用してカスタム設計されたプロセッサー(Graviton)を搭載し、初めてArmプロセッサーがクラウド上で利用できるようになります。A1インスタンスでスケール型ワークロードを稼働すると、その他のAmazon EC2汎用インスタンスに比べて最大45%のコスト削減を実現できます。A1インスタンスは、Amazon Linux 2、Red Hat、Ubuntuを含む複数のLinuxディストリビューション、およびAmazon Elastic Container Service(Amazon ECS)やAmazon Elastic Container Service for Kubernetes(EKS)を含むコンテナサービスによりサポートされています。


100 Gbpのネットワーク性能を提供し、多くの演算を必要とするワークロードの処理を早める新たなP3dnおよびC5nインスタンス
今日、多くのお客様が、クラウド上で最もコンピュートインテンシブなワークロードの処理に、コンピュートに最適化されたAWSのC5インスタンスとGPU搭載P3インスタンスを使用し始めています。機械学習トレーニングから、計算流体力学や気象シミュレーションなどのHPCアプリケーション、ビデオエンコーディングに至るまで、こうした様々なワークロードは強力なプロセッサーと高速なネットワーク機能から恩恵を得られます。AWSは、安全で拡張性があり、かつ柔軟な100 Gbpのネットワーク性能を提供する最初のクラウドプロバイダーとなり、お客様は標準ドライバーとプロトコルを用いて、このサービスをHPCだけでなく、分析や機械学習、ビッグデータ、データレイクのワークロードに使用することができます。


・P3dnインスタンス(来週提供予定): クラウド上で最も強力な機械学習トレーニング向けのGPUインスタンスです。P3インスタンスにより、すでにお客様は機械学習モデルのトレーニング時間を数日から数時間に短縮していますが、新しい大規模なP3dnインスタンスの100 Gbpsのネットワーク性能により、複数のGPUインスタンスに機械学習ワークロードを分散させることで、トレーニング時間をさらに1時間未満に短縮することができます。2017年10月にP3インスタンスを発表して以来、機械学習の採用が広まり、それを活用して、より複雑なアプリケーションに取り組むようになったことで、高性能コンピュートに対するお客様のニーズも高まってきました。新しいP3dnインスタンスは、従来のP3インスタンスに比べて4倍高いネットワークスループットを提供し、最大100 Gbpsのネットワークスループット、高速なNVMeインスタンスストレージ、96個のvCPUsを備えるカスタムIntel CPU、AVX512命令および複数の32GBメモリー搭載NVIDIA Tesla V100 GPUのサポートを提供します。これにより、機械学習モデルのトレーニング性能を複数のインスタンス越しに直線的に拡張でき、前処理時間を短縮し、データ転送のボトルネックを解消しながら、自社の機械学習モデルの品質を向上させることができます。


HPCワークロードのAWSへの移行を支援する低遅延のElastic Fabric Adapter(EFA)
従来、お客様はサイズが固定されたオンプレミスのHPCシステムを使用していました。HPCシステムは高コストで多大な資本投資が必要なため、企業は調達ができず、実現に時間がかかり、結果として生産性が下がり、検証も限定的になり、重要なプロジェクトの実施に遅れが出ていました。さらに、次回のインフラストラクチャー更新時まで、現在使用可能なハードウェア性能とテクノロジーに縛られ、新しい方法を採用する代わりに、既存のインフラストラクチャーでアプリケーションを稼働せざる得ない状況でした。本日プレビュー版が提供されたEFAは、HPCアプリケーションを拡張するのに不可欠なインスタンス内の通信性能を向上させ、AWSの柔軟性と拡張性といった付加価値と共に、オンプレミスHPCクラスタ並みの性能をクラウド上で提供します。EFAはMPI(Message Passing Interface)に統合されているため、一切の変更を加えることなく、HPCアプリケーションを数万のCPUコアに拡張できます。EFAはAmazon EC2 P3dnおよびC5nインスタンス上で利用可能で、2019年には新たなAmazon EC2インスタンスタイプとして提供されます。これにより、事前の計画なしに自社のワークロードに最適なコンピュート設定をオンデマンドで選択できる選択肢がさらに広がることになります。
 

グローバルに分散したアプリケーションの可用性と性能を改善するAWS Global Accelerator
お客様がより大規模で地理的に異なるユーザーを対象とするようになるにつれ、システムの運用において可用性と性能を高める必要が出てきました。これらのお客様は、高性能を得るために、複数のAWSリージョンにアプリケーションを展開していますが、これはユーザーを最適で健全なアプリケーション・エンドポイントに振
り分ける必要があることを意味します。また、アプリケーションの障害や性能テスト、トラフィックの上昇に応じて、アプリケーションのエンドポイントを各
IPアドレスとともに定期的に拡張、縮小する必要があります。アプリケーションを拡張すると、今度はそのアプリケーションに接続する各クライアントをアップデート(通常、ドメインネームサービスで行われる)しなければならず、結果として、各クライアントは新しいエンドポイントを見つけるのに多くの時間を要していました。本日提供開始のAWS Global Acceleratorにより、アプリケーションの可用性と性能は改善し、インターネットトラフィックをユーザーから複数のAWSリージョンで稼働するアプリケーションエンドポイントに向かわせることができます。AWS Global Acceleratorは、AWSの広範で高可用な、ふくそうのないグローバルネットワークバックボーンとエッジロケーションを使用し、インターネットトラフィックをユーザーからアプリケーションエンドポイントに向かわせる一方、クライアントは地理的な位置、アプリケーションの健全さ、カスタム設定可能なルーティング規則に基づいて最適なアプリケーションエンドポイントに振り分けられます。また、AWS Global Acceleratorは、アプリケーション毎に異なり、変化することのない静的なAnycast IPアドレス群を割り当てることで、アプリケーションを拡張した時にクライアントをアップデートする必要がなくなります。アプリケーションエンドポイントは継続的に管理され、問題が生じた時はAWS Global Acceleratorがクライアントの設定を変更することなく、該当するクライアントを健全なエンドポイントに向かわせることもできます。

アマゾン ウェブ サービスについて
アマゾン ウェブ サービス(AWS)は12年の間に、世界で最も包括的かつ幅広く採用されたクラウドプラットフォームになっています。AWSは、米国、オーストラリア、ブラジル、カナダ、中国、フランス、ドイツ、インド、アイルランド、日本、韓国、シンガポールおよび英国の19のAWSリージョン、1つのローカルリージョンと57 のアベイラビリティーゾーン(AZ)で、コンピューティング、ストレージ、データベース、ネットワーキング、アナリティクス、マシンラーニング、人工知能(AI)、モノのインターネット(IoT)、モバイル、セキュリティ、ハイブリッド、仮想現実および拡張現実(VR/AR)、メディア、アプリケーションディベロプメント、デプロイメントおよびマネージメントに関する125種類以上の十分な機能を有するサービスを提供しています。AWSのサービスは、アジリティを高めながら同時にコストを削減できるインフラエンジンとして、急速に成長しているスタートアップや大手企業、および有数の政府機関を含む数百万以上のアクティブなお客様から信頼を獲得しています。AWSの詳細については以下のURLをご参照ください。https://aws.amazon.com/


Amazon.comについて
Amazonは4つの理念を指針としています。競合他社ではなくお客様を起点にすること、創造への情熱、優れた運営へのこだわり、そして長期的な発想です。カスタマーレビュー、1-Click注文、パーソナライズされたおすすめ商品機能、Amazonプライム、フルフィルメント by Amazon(FBA)、アマゾン ウェブ サービス(AWS)、Kindle ダイレクト・パブリッシング、Kindle、Fire タブレット、Fire TV、Amazon Echo、Alexaなどは、Amazonが先駆けて提供している商品やサービスです。