の論理 vSphere ネットワーク設計

vSphere ネットワークを設計する場合は、
環境内の vSphere Distributed Switch、分散ポート グループ、および VMkernel アダプタの構成を考慮します。

vSphere Distributed Switch の設計

ワークロード ドメイン内のデフォルトクラスタは、単一のvSphere Distributed Switchを使用し、システム トラフィック タイプ、NIC チーミング、および MTU サイズの構成を行います。
は、クラスタごとに単一の vSphere Distributed Switch を介した NSX オーバーレイ トラフィックをサポートします。他のトラフィック タイプでは、追加の Distributed Switch がサポートされます。
vSAN ReadyNode を使用する場合は、ワークロード ドメインのデプロイ時に distributed Switch の数vSphere定義する必要があります。デプロイ後に Distributed Switch vSphereを追加することはできません。
の vSphere Distributed Switch の構成オプション
vSphere Distributed Switch 構成
管理ドメイン オプション
VI ワークロード ドメイン オプション
メリット
デメリット
2 つの物理 NIC を持つホストの単一の vSphere Distributed Switch
  • すべてのトラフィックが 2 つのアップリンクを使用するクラスタごとに 1 つの vSphere Distributed Switch。
  • すべてのトラフィックが 2 つのアップリンクを使用するクラスタごとに 1 つの vSphere Distributed Switch。
必要な物理 NIC とスイッチ ポートの数が最小です。
すべてのトラフィックが同じ 2 つのアップリンクを共有します。
4 つまたは 6 つの物理 NIC を持つホストの単一の vSphere Distributed Switch
  • 4 つのアップリンクを持つクラスタごとに 1 つの vSphere Distributed Switch。VMware Cloud Builder の
    展開パラメータ ワークブック
    の事前定義プロファイルを使用してデフォルトの管理クラスタを展開します。
  • 4 つまたは 6 つのアップリンクを持つクラスタごとに 1 つの vSphere Distributed Switch。VMware Cloud Builder API を使用してデフォルトの管理クラスタを展開します。
  • 4 つまたは 6 つのアップリンクを持つクラスタごとに 1 つの vSphere Distributed Switch。
  • 異なるアップリンク間のトラフィックの分離をサポートします。
  • 追加の物理 NIC とスイッチ ポートを指定する必要があります。
複数の vSphere Distributed Switch
  • 最大 2 つの vSphere Distributed Switch。VMware Cloud Builder の
    展開パラメータ ワークブック
    の事前定義プロファイルを使用してデフォルトの管理クラスタを展開します。
  • クラスタごとに最大 16 の vSphere Distributed Switch。VMware Cloud Builder API を使用して、vSphere Distributed Switch と物理 NIC 構成の組み合わせを使用してデフォルトの管理クラスタを展開します。これらは、
    展開パラメータ ワークブック
    の事前定義プロファイルとして使用できません。
  • NSX オーバーレイ トラフィックには、vSphere Distributed Switch の 1 つのみを使用できます。
  • クラスタごとに最大 16 の vSphere Distributed Switch。
  • NSX オーバーレイ トラフィックには、vSphere Distributed Switch の 1 つのみを使用できます。
  • 異なるアップリンクまたは vSphere Distributed Switch 間のトラフィック分離をサポートします。
  • 異なる物理ネットワーク ファブリックへのトラフィックの分離をサポートします。
  • 追加の物理 NIC とスイッチ ポートを指定する必要があります。
  • 追加の構成と管理オーバーヘッドにより複雑さが増します。

分散ポート グループの設計

には、ワークロード ドメインの vSphere Distributed Switch に複数のポート グループが必要です。NSX ホスト TEP の VMkernel アダプタはホスト オーバーレイ ネットワークに接続されていますが、Distributed Switch の専用ポート グループは必要ありません。
が ESXi ホストを NSX トランスポート ノードとして構成すると、NSX ホスト TEP の VMkernel ネットワーク アダプタが自動的に作成されます。
の分散ポート グループ構成
機能
チーミング ポリシー
構成
  • 仮想マシン管理
  • ホストの管理
  • vSphere vMotion
  • vSAN
  • NFS(管理ドメインのデフォルト クラスタには適用されません)
物理 NIC ロードに基づいたルート。
推奨。
  • フェイルオーバー検出: リンク ステータスのみ
  • フェイルバック:はい
    アクティブ アップリンクの飽和状態でのみ発生します。
  • スイッチへの通知:はい
推奨。
  • ホスト オーバーレイ
該当なし
該当なし
  • Edge アップリンクとオーバーレイ
明示的なフェイルオーバー順序を使用します。
必須。
  • Edge RTEP(NSX フェデレーションのみ)
該当なし
該当なし

VMkernel ネットワーク アダプタの設計

VMkernel ネットワーク レイヤーは、ホストへの接続を提供し、管理、vSphere vMotion、vSphere HA、vSAN、NFS などのシステム トラフィックを処理します。
ワークロード ドメイン ホストの VMkernel アダプタ
VMkernel アダプタ サービス
接続されたポート グループ
有効化されたサービス
推奨される MTU サイズ(バイト)
管理
管理ポート グループ
管理トラフィック
1,500(デフォルト)
vMotion
vMotion ポート グループ
vMotion のトラフィック
9000
vSAN
vSAN ポート グループ
vSAN
9000
NFS
NFS ポート グループ
NFS
9000
ホスト TEP
該当なし
該当なし
9000

vSphere Distributed Switch のデータ パス モード

vSphere Distributed Switch は、標準データパス、拡張データパス割り込み、拡張データパスの 3 つのデータ パス モードをサポートします。データ パスは、ESXi クラスタへの NSX のインストール中に NSX トランスポート ノード プロファイルが適用されたときに、vSphere Distributed Switch で構成されるネットワーク スタック モードです。各データ パス モードには、クラスタで実行されている特定のワークロードに適したパフォーマンス特性があります。次の表に、
で使用可能なさまざまなモードと、各モードで推奨されるクラスタ ワークロード タイプの詳細を示します。
のデータ パス モード
データ パス モード名
説明
ユースケース
要件
標準
  • デフォルトでは、標準データパスがインストールされます。これは、大きなフローを含むアプリケーションに対処するように設計されています。
  • 標準データパスの CPU 使用率はオンデマンドです。NSX Edge などの高いパケット処理要件を持つアプリケーションの場合、標準データパスでは大幅な調整が必要です。
コンピューティング ワークロード ドメインまたはクラスタ
ドライバとファームウェアの組み合わせは、I/O デバイスの VMware 互換性ガイドに記載されていて、次の機能をサポートしている必要があります。
  • Geneve オフロード
  • Geneve Rx/Tx フィルタまたは RSS
拡張データパス割り込み
(NSX Manager ユーザー インターフェイスでは
拡張データパス - 標準
と呼ばれます)
  • 拡張データパス割り込みは、既存の標準データパスのオンデマンド CPU 使用率の柔軟性と、パフォーマンスのためのデータ プレーン開発キット (DPDK) のような機能を組み合わせたパフォーマンス指向のデータ パスです。
  • このモードでは、必要に応じて、パケット処理のコア使用率が自動的にスケールアップおよびスケールダウンされます。
  • 拡張データパス割り込みは、特に、NSX Edge などのパケット処理に重点を置く小規模なフローに対してパフォーマンス特性が実証されており、追加の調整は必要ありません。
NSX Edge ノードを実行している vSphere クラスタ
ドライバとファームウェアの組み合わせは、拡張データパス - 割り込みモードのサポートを備えた I/O デバイスの VMware 互換性ガイドに記載されている必要があります。
拡張データパス
(NSX Manager ユーザー インターフェイスでは
拡張データパス - パフォーマンス
と呼ばれます)
  • 拡張データパス モードは、ネットワーク データ パス処理用の専用 CPU コアを含む、DPDK のようなパフォーマンス機能を利用するパフォーマンス指向のデータ パスです。
  • このモードは、トラフィック パターンとパフォーマンス要件が適切に定義されているワークロードに最適です。
  • このモードは、コア割り当ての観点から修正され、必要に応じて自動スケールアップまたはスケールダウンを行うことはしません。ネットワーク トラフィックがない場合でも、データ パスに割り当てられたコアはワークロードで使用できません。
  • コアにワークロードの正確なサイジングが事前に割り当てられていない限り、パケット処理に十分なコアがない可能性があります。
Telco または NFV ワークロード
ドライバとファームウェアの組み合わせは、拡張データパス - ポーリング モードのサポートを備えた I/O デバイスの VMware 互換性ガイドに記載されている必要があります。
Portgroup Types
ネットワーク モデル
説明
メリット
デメリット
VLAN-backed vSphere Distributed Portgroups
NSX オーバーレイ
オーバーレイによってバッキングされた NSX セグメント
  • Supports deployment of NSX Edge clusters.
  • NSX Edge ノードからトラフィックをルーティングするには、物理ネットワーク ファブリックでルーティングを構成する必要があります。
NSX VLAN によってバッキング
VLAN によってバッキングされた NSX セグメント
  • NSX Edge クラスタの展開は必要ありません。
  • NSX Edge ノードの ToR スイッチのルーティング構成は必要ありません。
  • 新しいネットワークと VLAN を追加するには、物理ネットワーク ファブリックを変更する必要があります。