Distributed Port Group and VMkernel Adapter Design for the Management Domain

The design of a distributed port group specifies port configuration options for each member port on a vSphere Distributed Switch. Distributed port groups define how a connection is made to a network.

Port Group Configuration

The port group configuration of the distributed switch for the management domain follows the network configuration for the domain in VMware Cloud Foundation.
Networks Connected to the Management vSphere Distributed Switch
The two NICs of a management ESXi host are connected to the management VDS. The switch has VLAN port groups for management, vSphere vMotion, vSAN, NFS (optional), and edge uplink traffic.
Port Group Binding and Teaming on the Management vSphere Distributed Switch
Networks
Port Group Function
Port Binding
Teaming Policy
Active Uplinks
Failover Detection
Notify Switches
Failback
Management VLAN
Management
Ephemeral Port Binding
Route based on physical NIC load
1, 2
Link status only
Yes
Yes
vSphere vMotion VLAN
vSphere vMotion
Static Port Binding
Route based on physical NIC load
1, 2
Link status only
Yes
Yes
vSAN VLAN
vSAN
Static Port Binding
Route based on physical NIC load
1, 2
Link status only
Yes
Yes
NFS VLAN
NFS (Optional/ Manually created)
Static Port Binding
Route based on physical NIC load
1, 2
Link status only
Yes
Yes
Hot overlay (TEP) VLAN
The host overlay (TEP) traffic is not assigned a distributed port group. It is directly mapped to the switch uplinks. See のオーバーレイ設計.
  • Edge Uplink VLANs
  • Edge overlay (TEP and RTEP) VLANs
Edge Uplink01
Edge Uplink02

NIC Teaming

For a predictable level of performance and for high availability, use multiple network adapters in one of the following configurations.
  • An active-standby configuration that uses explicit failover when connected to two separate switches.
  • An active-active configuration in which two or more physical NICs in the server are assigned the active role.
の vSphere ネットワーク設計の推奨事項
推奨 ID
設計の推奨事項
理由
影響
VCF-VDS-RCMD-CFG-001
1 つのクラスタに 1 つの vSphere Distributed Switch を使用します。
ネットワーク設計の複雑さを減らします。
管理する必要がある vSphere Distributed Switch の数を増やします。
VCF-VDS-RCMD-CFG-002
クラスタ間で vSphere Distributed Switch を共有しないでください。
  • クラスタごとに vSphere Distributed Switch の独立したライフサイクル管理を有効にします。
  • フォルト ドメインのサイズを減らします。
複数のクラスタの場合は、より多くの vSphere Distributed Switch を管理します。
VCF-VDS-RCMD-CFG-003
Configure the MTU size of the vSphere Distributed Switch to 9000 bytes for jumbo frames.
  • システム トラフィック タイプに必要な MTU サイズをサポートします。
  • トラフィックのスループットを向上します。
MTU パケット サイズを調整する場合は、ネットワーク パス全体(VMkernel ポート、仮想スイッチ、物理スイッチ、ルーター)も同じ MTU パケット サイズをサポートするように構成する必要があります。
VCF-VDS-RCMD-DPG-001
仮想マシン管理ポート グループに短期ポート バインドを使用します。
短期ポート バインドを使用すると、分散スイッチを管理している vCenter Server インスタンスをリカバリできます。
仮想マシン管理ネットワークは、VI ワークロード ドメイン内のマルチラック コンピューティング専用クラスタには必要ありません。
ポート レベルの権限およびコントロールはパワーオフすると失われます。そのため、履歴コンテキストが保存されません。
VCF-VDS-RCMD-DPG-002
すべての非管理ポート グループに静的ポートのバインドを使用します。
静的バインドにより、仮想マシンが vSphere Distributed Switch 上の同じポートに確実に接続されます。これにより、履歴データとポート レベルの監視が可能になります。
なし。
VCF-VDS-RCMD-DPG-003
仮想マシン管理ポート グループに
Route based on physical NIC load
チーミング アルゴリズムを使用します。
The VM management port group is not required for a multi-rack compute VI workload domain cluster.
ネットワーク設計の複雑さを減らし、回復性を高め、変動するワークロードに合わせて調整できます。
なし。
VCF-VDS-RCMD-DPG-004
ESXi 管理ポート グループに
Route based on physical NIC load
チーミング アルゴリズムを使用します。
ネットワーク設計の複雑さを減らし、回復性を高め、変動するワークロードに合わせて調整できます。
なし。
VCF-VDS-RCMD-DPG-005
vSphere vMotion ポート グループに
Route based on physical NIC load
チーミング アルゴリズムを使用します。
ネットワーク設計の複雑さを減らし、回復性を高め、変動するワークロードに合わせて調整できます。
なし。
VCF-VDS-RCMD-DPG-006
vSAN ポート グループに
Route based on physical NIC load
チーミング アルゴリズムを使用します。
ネットワーク設計の複雑さを減らし、回復性を高め、変動するワークロードに合わせて調整できます。
なし。
VCF-VDS-RCMD-NIO-001
Enable Network I/O Control on vSphere Distributed Switch of the management domain cluster.
ネットワークの回復性とパフォーマンスを向上します。
正しく構成されていない場合、Network I/O Control は重要なトラフィック タイプのネットワーク パフォーマンスに影響を与える可能性があります。
VCF-VDS-RCMD-NIO-002
管理トラフィックのシェア値を [標準] に設定します。
デフォルト設定の [標準] を維持することで、管理トラフィックの優先順位は vSphere vMotion よりも高くなりますが、vSAN トラフィックよりも低くなります。管理トラフィックは、ネットワークの競合時にホストを引き続き管理できるようにするため重要です。
なし。
VCF-VDS-RCMD-NIO-003
vSphere vMotion トラフィックのシェア値を [低] に設定します。
ネットワーク競合が発生している間、vSphere vMotion トラフィックは仮想マシンまたはストレージ トラフィックほど重要ではありません。
ネットワーク競合が発生している間、vMotion は、完了するまでに通常よりも長い時間がかかります。
VCF-VDS-RCMD-NIO-004
仮想マシンのシェア値を [高] に設定します。
仮想マシンは、SDDC で最も重要な資産です。デフォルト設定の [高] のままにしておくと、必要なときにいつでもネットワーク リソースにアクセスできます。
なし。
VCF-VDS-RCMD-NIO-005
vSAN トラフィックのシェア値を [高] に設定します。
ネットワーク競合が発生している間、vSAN トラフィックは、仮想マシンのパフォーマンスをサポートするため、保証された帯域幅を必要とします。
なし。
VCF-VDS-RCMD-NIO-006
他のトラフィック タイプのシェア値を [低] に設定します。
By default, V
does not use other traffic types, like vSphere FT traffic. したがって、これらのトラフィック タイプには最も低い優先順位を設定できます。
なし。

VMkernel Network Adapter Configuration

The VMkernel networking layer provides connectivity to hosts and handles the system traffic for management, vSphere vMotion, vSphere HA, vSAN, and others.
Default VMkernel Adapters for a Management Domain with a Single Availability Zone
VMkernel Adapter Service
Connected Port Group
Activated Services
MTU Size (Bytes)
Management
Management Port Group
Management Traffic
1500 (Default)
vMotion
vMotion Port Group
vMotion Traffic
9000
vSAN
vSAN Port Group
vSAN
9000
Default VMkernel Adapters for a Management Domain with Multiple Availability Zones
Availability Zones
VMkernel Adapter Service
Connected Port Group
Activated Services
MTU Size (Bytes)
First availability zone
Management
Management port group for the first availability zone
Management Traffic
1500 (Default)
vMotion
vSphere vMotion port group for the first availability zone
vMotion Traffic
9000
vSAN
vSAN port group for the first availability zone
vSAN
9000
Second availability zone
Management
Management port group for the second availability zone
Management Traffic
1500 (Default)
vMotion
vSphere vMotion port group for the second availability zone
vMotion Traffic
9000
vSAN
vSAN port group for the second availability zone
vSAN
9000