iT邦幫忙

DAY 22
7

Linux及虛擬化平台維運分享系列 第 19

[Day22 - VMware] Configure iSCSI MPIO

本文分享於VMware ESXi 5.0實作iSCSI Multi Path Input/Output(MPIO)之設定
[LACP vs MPIO]
實作前可先了解LACP與MPIO兩者用途,可參閱weithenn blogJohnny blog,皆有詳細說明,以下將簡述:
LACP(Link Aggregation Control Protocol)
主要是啓用Network Switch的IEEE 802.3ad(Link Aggregation Control Protocol,LACP)功能,並配合ESXi NIC Teaming設定達成iSCSI多重路徑的failover需求,但無法達成負載平衡需求
原因為大多數的iSCSI Target只有一個 IP 位址,故只會產生1個 Hash值,因而無法達成負載平衡需求
較適合於Outbound的目標是多個 IP 位址的環境,即可過 IP Hash 雜湊出不同 Hash 值並存取不同路徑進而顯現出它的效益,適合屬於File Level的服務
MPIO(Multi Path Input/Output)
針對IP-SAN及FC-SAN故障切換及負載平衡進行設計,因此iSCSI Initiator會使用多個 Session並透過多個實體網路卡,做到故障切換及負載平衡方式來登入iSCSI Target進行存取,適合屬於Block Level的服務

[Lab Information]
此次實作環境資訊如下:
ESXi Host version: 5.0
ESXi root password: 12345678
ESXi Host SSH service: Enable
ESXi Host vmnic type: 10GB
ESXi Host VMkernel Port IP(iSCSI Initiator): 192.168.1.185、192.168.1.186
iSCSI Target IP: 192.168.1.170
LUN Size: 1TB

[Create VMkernel Port]
設定iSCSI Initiator前須建立VMkernel Port,步驟如下:

  1. 使用帳號:root登入ESXi Host,並點選至「Inventory」
  2. 點選『Configuration』>『Networking』>『Add Network...』,選擇『VMkernel』,按『Next』進行下一步驟,如下圖紅框處示:
  3. 選擇欲使用的實體網卡,此範例為:vmnic10及vmnic11,並按『Next』進行下一步驟,如下圖紅框處示:
  4. 於「Network Label」填寫欲辨識的VMkernel Port名稱,此範例命名為:iSCSI-1及iSCSI-2,並按『Next』進行下一步驟,如下圖紅框處示:
  5. 於「IP Address」及「Subnet Mask」填寫欲使用之IP,並按『Next』進行下一步驟,如下圖紅框處示:
  6. 點選『Finish』完成設定
  7. 重複Step 2,選擇已建立完成的vSwitch,此範例為:vSwitch1,並按『Next』進行下一步驟,如下圖紅框處示:
  8. 重複Step 4~6,即可完成設定,如下圖示:

[Configure VMkernel Port]
設定VMkernel Port以1對1的方式對應實體網路卡 (vmnic10、vmnic11)步驟如下:

  1. 點選『Configuration』>『Networking』,於先前所建立的vSwitch點選『Properties...』,如下圖紅框處示:
  2. 選擇iSCSI-1,點選『Edit』>『NIC Teaming』,勾選「Override switch failover order」,將vmnic11調整為Unused Adapters,並按『OK』完成異動作業,如下圖紅框處示:
  3. 重複Step 3,將iSCSI-2的vmnic10調整為Unused Adapters即可

[Create Software iSCSI Adapter]
下列步驟為建立iSCSI Initiator所使用的Software iSCSI Adapter:
點選『Configuration』>『Storage Adapters』>『Add...』,選擇『Add Software iSCSI Adapter』,並按『OK』完成建立,此範例為vmhba37,如下圖紅框處示:

[Configure Software iSCSI Adapter]
下列步驟開始設定iSCSI Initiator:

  1. 點選『Configuration』>『Storage Adapters』,於先前所建立的vmhba點選右鍵選擇『Properties...』
  2. 點選『General』Sheet可觀看現階段iSCSI Initiator狀態,若需進行異動可點選『Configure...』,點選『OK』則立即異動,如下圖紅框處示:
    ・「iSCSI Name」可自行命名,若iSCSI Target綁定iqn name,則需將iSCSI Target更新
    ・「Status」可關閉或啓用該iSCSI Initiator
  3. 點選『Network Configuration』Sheet,並按『Add』,選擇先前所建立的VMkernel Port:iSCSI-1,並點選『OK』,如下圖紅框處示:
  4. 重複Step 3,將VMkernel Port:iSCSI-2加入即可
  5. 點選『Dynamic Discovery』Sheet,並按『Add』,於「iSCSI Server」輸入iSCSI Target IP,並點選『OK』,如下圖紅框處示:
  6. 點選『Close』完成設定
  7. 此時系統將跳出「Rescan」需求,點選『是(Y)』即開始Rescan iSCSI Target

[Create Datastore]
透過iSCSI Target所配發的LUN,建立Datastore,步驟如下:

  1. 點選『Configuration』>『Storage』>『Add Storage...』,選擇『Disk/LUN』,按『Next』進行下一步驟,如下圖紅框處示:
  2. 此時系統將搜尋到尚未使用的LUN,按『Next』進行下一步驟

    3.「File System Version」選擇VMFS-5,按『Next』進行下一步驟

    4.「Enter a datastore name」請自行命名,此範例為:mpio_test,按『Next』進行下一步驟

    5.「Capacity」選擇Maximum available space,按『Next』即可建立Datastore
  3. 於新增的Datastore:mpio_test點選右鍵選擇『Properties...』,並點選『Manager Paths...』
    7.「Path Selection」由原先的Most Recently Used (VMware)調整為Round Robin (VMware),並按『Change』
  4. 此時「Paths」將由Active/Standby異動為Active/Active,即可點選『Close』完成設定

[Reference]
VMware MPIO
NIC Teaming
實戰ESXi 5設置MPIO 打造IP-SAN負載平衡容錯
vSphere 的 iSCSI Multipathing 配置


上一篇
[Day21 - Splunk] Nagios and Splunk integration - 4/4
下一篇
[Day23 - Citrix] Error: Could not parse sgdisk output line
系列文
Linux及虛擬化平台維運分享27

尚未有邦友留言

立即登入留言