Run your core applications on Azure
This week at Microsoft Ignite, we discussed how a growing number of customers and independent software vendors (ISVs) are running their mission and business-critical applications on Azure.
This week at Microsoft Ignite, we discussed how a growing number of customers and independent software vendors (ISVs) are running their mission and business-critical applications on Azure.
大量のタスクの原動力として大規模な AI モデルを利用しようとするトレンドにより、AI が構築される方法が変わりつつあります。当社は Microsoft Build 2020 で、Azure の最先端 AI スーパーコンピューティング (英語) と、次世代の AI を実現する新たなクラスの大規模 AI モデルを利用する、「AI at Scale (大規模な AI) (英語)」と呼ばれるマイクロソフトのビジョンをご紹介しました。大規模モデルの利点は、AI スーパーコンピューティングを使用して大量のデータでトレーニングを一度行うだけで済むことです。これにより、異なるタスクや分野に対しては、はるかに少量のデータセットとリソースで "微調整" を行えば利用できます。モデルに含まれるパラメーターの数が増すほど、データが持つわかりにくい微妙な差異をとらえるモデルの能力が上がることは、170 億のパラメータを持つ当社の Turing Natural Language Generation (T-NLG) モデルと、最初から質問に答えたり初見のドキュメントを要約したりできるこのモデルの言語理解能力によって実証されているとおりです。1 年前の最先端モデルよりもはるかに大規模で、以前の画像中心のモデルとは桁違いのサイズを誇るこのような自然言語モデルが、今や Bing、Word、Outlook、Dynamics 全体にわたって多様なタスクの原動力となっています。 この規模のトレーニング モデルには、内部もマシン間も高帯域幅ネットワークによって相互接続された、専用の AI アクセラレータを搭載する数百台のマシンから成る大規模クラスターが不可欠です。マイクロソフトはこのようなクラスターを Azure で構築することで、マイクロソフト製品全体で新たな自然言語の生成機能と理解機能を実現すると共に、安全な汎用人工知能の構築を目指すマイクロソフト製品のミッションにおいて OpenAI を推進してきました。当社最大規模のクラスター群は、AI スーパーコンピューターと呼ばれる非常に集約されたコンピューティング能力を提供しています。そのうち OpenAI
業務のニーズが増大し、業務に不可欠なアプリケーションがクラウド規模でデプロイされると、それらのアプリケーションを管理する際の複雑さと管理上のオーバーヘッドが大幅に増加する可能性があります。この管理オーバーヘッドを削減できるように、Azure では、アプリケーションの更新プログラムを構築して分散型クラウド環境全体へ配布することが簡単になる新しい機能に対して継続的に投資が行われています。 カスタム イメージのイメージベースの自動アップグレードが一般提供になったことが最近発表されて、新しいバージョンの仮想マシン (VM) イメージを仮想マシン スケール セットに自動的にデプロイできるようになりました。イメージの自動アップグレードは Shared Image Gallery とネイティブに統合されているため、VM イメージのスケーラブルな配布がインフラストラクチャの調整された更新の容易さおよび安全性と組み合わさって、イメージの発行からワークロードのデプロイまでのエンドツーエンドのソリューションが提供されます。 このブログでは、統合された Azure サービスを使用して、アプリケーションの更新プログラムを含むカスタム イメージを構築して、それらのイメージを組織全体に配布し、新しいイメージを仮想マシン スケール セットに自動的にデプロイする方法について説明します。 アプリケーションの更新プログラムを含むイメージの構築 組織全体にアプリケーションとセキュリティの更新プログラムをデプロイすることは、まとまりのないシステム間における複数の段階のデプロイを含む複雑なプロセスになることがよくあります。標準化された VM イメージを使用すると、組織はデプロイ間で一貫性を保つことができます。これらのイメージには通常、あらかじめ定義されたセキュリティおよび構成の設定と、ソフトウェア ワークロードが含まれます。 標準化されたイメージの構築は、独自のイメージング パイプラインで行うこともできますし、Azure VM Image Builder サービスを使用することもできます。Azure VM Image Builder (プレビュー中) を使用すると、独自のイメージング パイプラインを設定する必要がなく、標準化されたイメージの構築をすぐに開始できます。イメージを記述したシンプルな構成を提供し、Image Builder サービスに送信するだけで、イメージが構築されて配布されます。 Azure VM Image Builder を使用すると、Windows または Linux
先日、マイクロソフトは、Azure Virtual Machine Scale Sets の 3 つの機能の一般提供開始を発表しました。インスタンスの保護、カスタム スケールイン ポリシー、および終了通知の 3 機能を使用することで、スケールイン時の仮想マシン インスタンスの管理を簡素化できます。 Azure Virtual Machine Scale Sets は、多くの仮想マシン (VM) インスタンスをグループでまとめて展開し、簡単に管理する手段です。スケール セットの自動スケール ルールの構成も可能です。これにより、ワークロードの需要に基づいて、インスタンス数を動的に増減できます。 これらの新機能で、スケールイン時のインスタンスの削除の正常な処理をより細かく制御が可能になり、アプリケーションやサービスのユーザー エクスペリエンスが向上します。これらの新機能は、パブリック クラウドとソブリン クラウド向けにすべての Azure リージョンで提供されます。Azure Virtual Machine Scale Sets でのご利用には追加料金はかかりません。 それでは、これらの機能がスケールイン時のより細かい制御を実現する仕組みについて見ていきましょう。 インスタンスの保護 - 1 つまたは複数のインスタンスをスケールインから保護 スケールイン時に 1 つまたは複数のインスタンスを削除したくない場合、スケール セットの当該インスタンスにスケールインから保護ポリシーを適用できます。これは、スケール セットの他のインスタンスを動的にスケールイン/スケールアウトしながら、特殊なインスタンスを少し保持したい場合に便利です。たとえば、これらのインスタンスがスケール セットの他のインスタンスと異なる特殊なタスクを実行しており、当該インスタンスをスケール
Spinnaker は、ソフトウェアの変更を高速かつ確実にリリースするための、オープン ソースでマルチクラウドに対応した継続的デリバリー プラットフォームです。この製品は、アプリケーション デプロイを最新化するためのオープン ソースの継続的デプロイのプラットフォームとして数多くの企業によって選ばれています。それらの企業の多くは、アプリケーションを複数のクラウドにデプロイしています。Spinnaker の機能の 1 つは、ベスト プラクティスと実証済みのデプロイ戦略を使用して、ユーザーがアプリケーションをさまざまなクラウドにデプロイするのを可能にすることです。 今まで、Spinnaker で標準化したお客様は、カスタム ツールや異なるツールを使用してアプリケーションを Azure にデプロイしなければなりませんでした。 マイクロソフトと Spinnaker の中核チームとの連携により Azure デプロイが Spinnaker に確実に統合されたことを、このブログ記事と Spinnaker の最新リリース (1.13) で発表します。 これらの統合により、既存のオープン ソースの CI/CD パイプラインのツールチェーンが強化され、Spinnaker に依存してきたお客様のご利用が可能になります。 最初のリリース (1.
ハイパフォーマンス コンピューティング (HPC) を対象とする H シリーズの Azure 仮想マシンに、新しく 2 つのサイズが追加されました。新しい H シリーズの VM は、実際に存在する多様な HPC ワークロードを想定し、リーダー クラスのパフォーマンス、MPI スケーラビリティ、コスト効率を発揮するように設計されています。1 つ目は、HB シリーズ VM です。流体動力学、陽解法有限要素法解析、気象モデリングなど、メモリ帯域幅が要となるアプリケーション向けに最適化されています。HB VM は 60 個の AMD EPYC 7551 プロセッサ コア、CPU コアあたり 4 GB の RAM を搭載し、ハイパースレッディングはありません。AMD EPYC プラットフォームは、260 GB/秒を超えるメモリ帯域幅を特徴としています。これは x86 の同等のプラットフォームに比べて 33% 高速であり、今日ほとんどの HPC
Infrastructure scale and complexityWhen Azure virtual machine scale sets were introduced, we made it easy to deploy and manage cloud infrastructure at very large scale.
Today we are announcing a set of networking enhancements for Azure virtual machine scale sets, adding new ways to assign IP addresses, configure DNS, and assign network security.