308
vSphere-Speicher Update 2 VMware vSphere 5.5 VMware ESXi 5.5 vCenter Server 5.5 Dieses Dokument unterstützt die aufgeführten Produktversionen sowie alle folgenden Versionen, bis das Dokument durch eine neue Auflage ersetzt wird. Die neuesten Versionen dieses Doku- ments finden Sie unter http://www.vmware.com/de/support/pubs. DE-001523-05

vSphere-Speicher - VMware vSphere 5 · 9 Best Practices für Fibre-Channel-Speicher 69 Vermeiden von Fibre-Channel-SAN-Problemen 69 Deaktivieren der automatischen Hostregistrierung

  • Upload
    others

  • View
    19

  • Download
    0

Embed Size (px)

Citation preview

vSphere-SpeicherUpdate 2

VMware vSphere 5.5VMware ESXi 5.5

vCenter Server 5.5

Dieses Dokument unterstützt die aufgeführten Produktversionensowie alle folgenden Versionen, bis das Dokument durch eineneue Auflage ersetzt wird. Die neuesten Versionen dieses Doku-ments finden Sie unter http://www.vmware.com/de/support/pubs.

DE-001523-05

vSphere-Speicher

2 VMware, Inc.

Die neueste technische Dokumentation finden Sie auf der VMware-Website unter:

http://www.vmware.com/de/support/

Auf der VMware-Website finden Sie auch die aktuellen Produkt-Updates.

Falls Sie Anmerkungen zu dieser Dokumentation haben, senden Sie Ihre Kommentare und Vorschläge an:

[email protected]

Copyright © 2009–2017 VMware, Inc. Alle Rechte vorbehalten. Informationen zu Copyright und Marken.

VMware, Inc.3401 Hillview Ave.Palo Alto, CA 94304www.vmware.com

VMware Global, Inc.Zweigniederlassung DeutschlandFreisinger Str. 385716 Unterschleißheim/LohhofGermanyTel.: +49 (0) 89 3706 17000Fax: +49 (0) 89 3706 17333www.vmware.com/de

Inhalt

Grundlegende Informationen zum vSphere-Speicher 9

Aktualisierte Informationen 11

1 Einführung in die Speicherung 13

Speichervirtualisierung 13Physische Speichertypen 14Ziel- und Gerätedarstellungen 18Eigenschaften des Speichergeräts 19Unterstützte Speicheradapter 21Merkmale von Datenspeichern 22Speicherzugriff durch virtuelle Maschinen 25Vergleich der Speichertypen 26

2 Übersicht über die Verwendung von ESXi in einem SAN 29

Anwendungsbeispiele für ESXi und SAN 30Besonderheiten bei der Verwendung von SAN-Speicher mit ESXi 30ESXi-Hosts und mehrere Speicher-Arrays 31Entscheidungen zur Verwendung von LUNs 31Auswählen von Speicherorten für virtuelle Maschinen 33Mehrschichtige Anwendungen 33Verwaltungsanwendungen von Drittanbietern 34Überlegungen zu SAN-Speichersicherungen 35

3 Verwenden von ESXi mit Fibre-Channel-SAN 37

Fibre-Channel-SAN-Konzepte 37Verwenden von Zoning mit Fibre-Channel-SANs 39Zugriff auf Daten in einem Fibre-Channel-SAN durch virtuelle Maschinen 39

4 Konfigurieren des Fibre-Channel-Speichers 41

Anforderungen des Fibre-Channel-SAN von ESXi 41Installations- und Konfigurationsschritte 43N-Port-ID-Virtualisierung 43

5 Konfigurieren von Fibre-Channel über Ethernet 47

Adapter für Fibre-Channel über Ethernet 47Konfigurationsrichtlinien für Software-FCoE 48Einrichten des Netzwerks für Software-FCoE im vSphere Web Client 48Hinzufügen von Software-FCoE-Adaptern in vSphere Web Client 49

VMware, Inc. 3

6 Ändern des Fibre-Channel-Speichers für ESXi 51Testen der ESXi -SAN-Konfigurationen 52Allgemeine Überlegungen zur Einrichtung für Fibre-Channel-SAN-Arrays 52EMC CLARiiON-Speichersysteme in Fibre-Channel-SAN-Konfigurationen 53EMC Symmetrix-Speichersysteme 53IBM System Storage DS4800-Speichersysteme 54IBM Systems Storage 8000 und IBM ESS800 55HP StorageWorks-Speichersysteme 56Hitachi Data Systems-Speicher 56NetApp-Speicher 57LSI-basierte Speichersysteme 57

7 Starten von ESXi von einem Fibre-Channel-SAN 59

Vorteile beim Starten über ein SAN 59Anforderungen und Überlegungen beim Starten von Fibre-Channel-SAN 60Vorbereiten für das Starten über ein SAN 60Konfigurieren des Emulex HBAs für das Starten über ein SAN 62Konfigurieren des QLogic-HBAs für das Starten über ein SAN 63

8 Starten von ESXi mit Software FCoE 65

Anforderungen und Überlegungen für das Starten mit Software FCoE 65Best Practices für Software FCoE Boot 66Einrichten des Startens mit Software FCoE 66Durchführen der Fehlerbehebung für die Installation und Starten von Software-FCoE 68

9 Best Practices für Fibre-Channel-Speicher 69

Vermeiden von Fibre-Channel-SAN-Problemen 69Deaktivieren der automatischen Hostregistrierung im vSphere Web Client 70Optimieren der Fibre-Channel-SAN-Speicherleistung 70SAN-Konfiguration für Fibre-Channel - Checkliste 72

10 Verwenden von ESXi mit iSCSI-SAN 73

iSCSI-SAN-Konzepte 73Zugriff auf Daten in einem iSCSI-SAN durch virtuelle Maschinen 78

11 Konfigurieren von iSCSI-Adaptern und -Speichern 81

Anforderungen an ESXi -iSCSI-SAN 82Einschränkungen bei ESXi -iSCSI-SAN 82Festlegen der LUN-Zuordnungen für iSCSI 82Netzwerkkonfiguration und Authentifizierung 83Einrichten von unabhängigen Hardware-iSCSI-Adaptern 83Konfigurieren von abhängigen Hardware-iSCSI-Adaptern 85Konfigurieren des Software-iSCSI-Adapters 87Ändern der allgemeinen Eigenschaften für iSCSI-Adapter 89Einrichten des iSCSI-Netzwerks 89Verwenden von Jumbo-Frames mit iSCSI 97Konfigurieren von Erkennungsadressen für iSCSI-Adapter 98Konfigurieren von CHAP-Parametern für iSCSI-Adapter 100

vSphere-Speicher

4 VMware, Inc.

Konfigurieren erweiterter Parameter für iSCSI 104iSCSI-Sitzungsverwaltung 106

12 Ändern von iSCSI-Speichersystemen für ESXi 109

Testen der ESXi -iSCSI-SAN-Konfigurationen 109Allgemeine Überlegungen zu iSCSI-SAN-Speichersystemen 110EMC CLARiiON-Speichersysteme 110EMC Symmetrix-Speichersysteme 111Aktivieren von HP StorageWorks MSA1510i für die Kommunikation mit ESXi 111HP StorageWorks EVA-Speichersysteme 112NetApp-Speichersysteme 113Dell EqualLogic-Speichersysteme 113HP StorageWorks SAN/iQ-Speichersysteme 114iSCSI-Ziele in vApps 114

13 Starten von einem iSCSI-SAN 115

Allgemeine Empfehlungen für das Starten von einem iSCSI-SAN 115Vorbereiten des iSCSI-SAN 116Konfigurieren eines unabhängigen Hardware-iSCSI-Adapters für das Starten von einem SAN 117iBFT-iSCSI-Start - Überblick 118

14 Best Practices für iSCSI-Speicher 125

Vermeiden von iSCSI-SAN-Problemen 125Optimieren der iSCSI-SAN-Speicherleistung 126Überprüfen von Ethernet-Switch-Statistiken 130iSCSI SAN-Konfiguration - Checkliste 130

15 Verwalten von Speichergeräten 133

Grundlegendes zur Benennung von Speichergeräten 133Vorgänge zum Aktualisieren und zur erneuten Prüfung von Speichern 135Identifizieren von Problemen hinsichtlich der Gerätekonnektivität 137

16 Arbeiten mit Datenspeichern 147

Grundlegendes VMFS-Datenspeicher 148Grundlegendes zu NFS-Datenspeichern 152Erstellen von Datenspeichern 154Ändern des Datenspeichernamens im vSphere Web Client 156Verwalten von duplizierten VMFS-Datenspeichern 156Upgrade von VMFS-Datenspeichern 158Erhöhen der VMFS-Datenspeicherkapazität 159Unmounten von VMFS- oder NFS-Datenspeichern 161Mounten von VMFS-Datenspeichern 162Entfernen des VMFS-Datenspeichers im vSphere Web Client 162Speicherfilterung 163Dynamische Festplattenspiegelung einrichten 164Erfassen von Diagnoseinformationen für ESXi -Hosts auf einem Speichergerät 165Überprüfen der Metadatenkonsistenz mit VOMA 168Konfigurieren des Cachespeichers für VMFS-Zeigerblöcke 169

Inhalt

VMware, Inc. 5

17 Raw-Gerätezuordnung 171

Wissenswertes zur Raw-Gerätezuordnung 171Raw-Gerätezuordnungseigenschaften 175Erstellen von virtuellen Maschinen mit RDMs im vSphere Web Client 177Verwalten von Pfaden für eine zugeordnete LUN im vSphere Web Client 178

18 Arbeiten mit Solid State Disks 181

Vorteile der Aktivierung von SSDs 182Automatische Erkennung von SSD-Geräten 182Markieren von Geräten als SSD-Gerät 182Entfernen der Markierung eines SSD-Geräts 183Aufheben des Tags eines automatisch erkannten SSD-Geräts 184Markieren von Geräten als lokal 185Überwachen von SSD-Geräten 185Ermitteln der SSD-Geräte 186Identifizieren eines virtuellen SSD-Geräts 186Best Practices für SSD-Geräte 187In den Host-Cache auslagern 188Lokale SSDs werden nicht gefunden 189

19 Arbeiten mit Virtual SAN 191

Über Virtual SAN 191Aktivierung vom Virtual SAN 199Verwalten von Festplattengruppen 203Überwachung vom Virtual SAN 206Verwaltung vom Virtual SAN 207Virtual SAN und speicherrichtlinienbasiertes Management 211

20 Infos zu VM-Speicherrichtlinien 215

Grundlegendes zu Speicherfunktionen 215Grundlegendes zu VM-Speicherrichtlinien 217

21 Informationen zu VMware vSphere Flash-Lesecache 227

DRS-Unterstützung für Flash-Lesecache 228vSphere High Availability-Unterstützung für Flash-Lesecache 228Verwenden einer vFlash-Ressource zum Konfigurieren eines Auslagerungs-Caches 228Volume-Limits für virtuellen Flash 228Einrichten der vFlash-Ressource 229Einrichten mehrerer vFlash-Ressourcen 229Konfigurieren des Hostauslagerungs-Cache mit der vFlash-Ressource 230Konfigurieren des Flash-Lesecaches für eine virtuelle Maschine 230Entfernen der vFlash-Ressource 231Migrieren von virtuellen Maschinen mit Flash Read Cache 231Verwendung von esxcli-Befehlen mit virtuellem Flash 232

22 VMkernel und Speicher 235

Speicher-APIs 236

vSphere-Speicher

6 VMware, Inc.

23 Grundlegendes zu Multipathing und Failover 239

Failover mit Fibre-Channel 240Hostbasiertes Failover mit iSCSI 240Array-basiertes Failover mit iSCSI 242Pfad-Failover und virtuelle Maschinen 243Verwalten mehrerer Pfade 244VMware Multipathing-Modul 245Prüfen und Beanspruchen von Pfaden 247Verwalten von Speicherpfaden und Multipathing-Plug-Ins 251

24 Speicherhardware-Beschleunigung 261

Vorteile der Hardwarebeschleunigung 261Anforderungen der Hardwarebeschleunigung 262Status der Hardwarebeschleunigungs-Unterstützung 262Hardwarebeschleunigung für Blockspeichergeräte 262Hardwarebeschleunigung auf NAS-Geräten 268Überlegungen bei der Hardwarebeschleunigung 270

25 Thin Provisioning von Speicher 273

Datenspeicher-Überbuchung 273Thin Provisioning virtueller Festplatten 273Array-Thin Provisioning und VMFS-Datenspeicher 278

26 Verwenden von Speicheranbietern 281

Speicheranbieter und Darstellung von Speicherdaten 282Anforderungen und Überlegungen hinsichtlich Speicheranbietern 282Speicherstatusberichte 283Registrieren von Speicheranbietern 283Absichern der Kommunikation mit Speicheranbietern 284Anzeigen von Speicheranbieterinformationen im vSphere Web Client 284Registrierung von Speicheranbietern im vSphere Web Client aufheben 285Aktualisieren von Speicheranbietern im vSphere Web Client 285

27 Verwenden von „vmkfstools“ 287

vmkfstools-Befehlssyntax 287vmkfstools-Optionen 288

Index 299

Inhalt

VMware, Inc. 7

vSphere-Speicher

8 VMware, Inc.

Grundlegende Informationen zum vSphere-Speicher

Die Dokumentation zu vSphere-Speicher beschreibt die Speicheroptionen für VMware® ESXi und erläutert,wie das ESXi-System konfiguriert wird, damit es verschiedene Speichertypen verwenden und verwaltenkann. Zudem befasst sich die Dokumentation zu vSphere-Speicher explizit mit den Fibre-Channel- und iSCSI-SANs (SAN, Storage Area Network) als Speicheroptionen und behandelt die Besonderheiten der Verwen-dung von ESXi in Fibre-Channel- und iSCSI-Umgebungen.

ZielgruppeDiese Informationen sind für erfahrene Systemadministratoren bestimmt, die mit der Technologie virtuellerMaschinen, den Vorgängen von Datencentern und SAN-Speicherkonzepten vertraut sind.

VMware, Inc. 9

vSphere-Speicher

10 VMware, Inc.

Aktualisierte Informationen

vSphere-Speicher wird mit jeder Produktversion oder bei Bedarf aktualisiert.

Diese Tabelle enthält den Update-Verlauf für vSphere-Speicher.

Revision Beschreibung

DE-001523-05 n „Beispiel für das Klonen oder Konvertieren einer virtuellen Festplatte“, auf Seite 294 wurde aktuali-siert und enthält nun Informationen zum Ändern des Formats einer virtuellen Festplatte oder einesAdapters zur Verwendung mit der Festplatte.

n „Geschätzte Lebensdauer von Flash-Geräten“, auf Seite 187 wurde mit zusätzlichen Details aktuali-siert.

n „Speicherfilterung“, auf Seite 163 wurde aktualisiert, um den Wert für „Filter für dieselben Hostsund Transporte“ zu korrigieren. Der korrigierte Wert lautet config.vpxd.filter.SameHostsAndT-ransportsFilter.

DE-001523-04 „Migrieren von virtuellen Maschinen mit Flash Read Cache“, auf Seite 231 wurde korrigiert, um eineÜbereinstimmung der Konfigurationsoptionen für vSphere Web Client zu erzielen.

DE-001523-03 Nebenversionen.

DE-001523-02 n „Über Virtual SAN“, auf Seite 191 und „Anforderungen an Virtual SAN“, auf Seite 195 wurden aktu-alisiert, um deutlicher hervorzuheben, dass jede Festplattengruppe nur eine SSD-Festplatte und min-destens eine HDD enthalten kann.

n „Anforderungen an Virtual SAN“, auf Seite 195 und „Verwalten von Festplattengruppen“, auf Sei-te 203 wurden aktualisiert, um deutlicher hervorzuheben, dass die SSD-Kapazität mindestens 10 Pro-zent der insgesamt verbrauchten HDD-Kapazität in jeder Festplattengruppe betragen sollte.

n „Gemeinsames Nutzen eines VMFS-Datenspeichers durch mehrere Hosts“, auf Seite 150verweist jetztauf Maximalwerte für die Konfiguration als zuverlässige Informationsquelle für die maximale Anzahlder Hosts, die eine Verbindung mit einem einzelnen VMFS-Datenspeicher herstellen können.

n „Grundlegendes zu NFS-Datenspeichern“, auf Seite 152 gibt nun an, dass ESXi IPv6 mit NFS nichtunterstützt wird.

DE-001523-01 n „Netzwerkkonfiguration und Authentifizierung“, auf Seite 83 hat eine falsche Anforderung enthal-ten. Demnach sollten sich physische Netzwerkadapter zur Verwendung für Software oder abhängigeHardware-iSCSI-Adapter auf demselben Subnetz wie ein iSCSI-Ziel befinden. Diese Anforderung giltnur bei Verwendung von Port-Bindung. Die Anweisung wurde aus dem Thema entfernt.

n „Erfassen von Diagnoseinformationen für ESXi-Hosts auf einem Speichergerät“, auf Seite 165 wurdezwecks weiterer Informationen zur Core-Dump-Datei aktualisiert.

DE-001523 Erstversion.

VMware, Inc. 11

vSphere-Speicher

12 VMware, Inc.

Einführung in die Speicherung 1Diese Einführung beschreibt die Speichermöglichkeiten in vSphere und erklärt, wie Sie Ihren Host konfigu-rieren müssen, damit er verschiedene Speichertypen verwenden und verwalten kann.

Dieses Kapitel behandelt die folgenden Themen:

n „Speichervirtualisierung“, auf Seite 13

n „Physische Speichertypen“, auf Seite 14

n „Ziel- und Gerätedarstellungen“, auf Seite 18

n „Eigenschaften des Speichergeräts“, auf Seite 19

n „Unterstützte Speicheradapter“, auf Seite 21

n „Merkmale von Datenspeichern“, auf Seite 22

n „Speicherzugriff durch virtuelle Maschinen“, auf Seite 25

n „Vergleich der Speichertypen“, auf Seite 26

SpeichervirtualisierungESXi bietet eine Speichervirtualisierung auf Hostebene, die die physische Speicherebene von virtuellen Ma-schinen logisch abstrahiert.

Eine virtuelle Maschine in ESXi verwendet eine virtuelle Festplatte, um das Betriebssystem, die Programm-dateien und andere Daten für ihren Betrieb zu speichern. Eine virtuelle Festplatte ist eine große physischeDatei bzw. Zusammenstellung von Dateien, die sich so einfach wie jede andere Datei kopieren, verschieben,archivieren und sichern lässt. Sie können virtuelle Maschinen mit mehreren virtuellen Festplatten konfigu-rieren.

Für den Zugriff auf virtuelle Festplatten verwendet eine virtuelle Maschine virtuelle SCSI-Controller. Zudiesen virtuellen Controllern gehören BusLogic Parallel, LSI Logic Parallel, LSI Logic SAS und VMware Pa-ravirtual. Diese Controller sind die einzigen SCSI-Controllertypen, die eine virtuelle Maschine anzeigen undauf die sie zugreifen kann.

Jede virtuelle Festplatte befindet sich in einem Datenspeicher, der auf physischem Speicher bereitgestelltwird. Jede virtuelle Festplatte wird vom Standpunkt der virtuellen Maschine aus so angezeigt, als wäre einSCSI-Laufwerk mit einem SCSI-Controller verbunden. Ob auf den tatsächlichen physischen Speicher überparallele Speicher- oder Netzwerkadapter auf dem Host zugegriffen wird, wird normalerweise auf demGastbetriebssystem und den Anwendungen, die auf der virtuellen Maschine ausgeführt werden, angezeigt.

Zusätzlich zu virtuellen Festplatten bietet vSphere einen Mechanismus, der als Raw Device Mapping (RDM)bezeichnet wird. RDM ist nützlich, wenn ein Gastbetriebssystem in einer virtuellen Maschine direkten Zu-griff auf ein Speichergerät anfordert. Informationen zu RDMs finden Sie unter Kapitel 17, „Raw-Gerätezu-ordnung“, auf Seite 171.

VMware, Inc. 13

Physische SpeichertypenDie Verwaltung des ESXi-Datenspeichers beginnt mit dem Speicherplatz, den der Speicheradministrator aufverschiedenen Speichersystemen zuweist.

ESXi unterstützt folgende Speichertypen:

Lokaler Speicher Speichert die Dateien virtueller Maschinen auf internen oder direkt verbun-denen externen Speicherfestplatten.

Netzwerkspeicher Speichert die Dateien virtueller Maschinen auf externen Speicherfestplattenoder Arrays, die über eine Direktverbindung oder ein Hochgeschwindig-keitsnetzwerk an Ihren Host angeschlossen sind.

Lokaler SpeicherLokale Speichergeräte können interne Festplatten innerhalb Ihres ESXi-Hosts oder externe Speichersystemesein, die sich außerhalb des Hosts befinden und über Protokolle wie SAS oder SATA direkt mit ihm verbun-den sind.

Lokale Speichergeräte benötigen kein Speichernetzwerk für die Kommunikation mit Ihrem Host. Sie benöti-gen ein an die Speichereinheit angeschlossenes Kabel und möglicherweise einen kompatiblen HBA in IhremHost.

In der folgenden Abbildung wird eine virtuelle Maschine angezeigt, die lokalen SCSI-Speicher verwendet.

Abbildung 1‑1. Lokaler Speicher

Host

VMFS

SCSI

VirtuelleMaschine

Bei diesem Beispiel einer lokalen Speichertopologie verwendet der Host eine einzelne Verbindung zu einerSpeicherfestplatte. Auf dieser Festplatte können Sie einen VMFS-Datenspeicher erstellen, der zur Speiche-rung der Festplattendateien der virtuellen Maschine verwendet wird.

Wenngleich diese Speicherkonfiguration möglich ist, wird sie nicht empfohlen. Das Verwenden einzelnerVerbindungen zwischen Speicher-Arrays und Hosts sorgt für einzelne Ausfallstellen, die Störungen verur-sachen können, wenn eine Verbindung unzuverlässig wird oder ausfällt. Da die meisten lokalen Speicherge-räte jedoch keine Unterstützung für mehrere Verbindungen bieten, können Sie für den Zugriff auf den loka-len Speicher nicht mehrere Pfade verwenden.

ESXi unterstützt verschiedene lokale Speichergeräte, einschließlich SCSI-, IDE-, SATA-, USB- und SAS-Spei-chersystemen. Unabhängig vom gewählten Speichertyp verbirgt der Host eine physische Speicherebene vorden virtuellen Maschinen.

Hinweis Virtuelle Maschinen können nicht auf IDE-/ATA- oder USB-Laufwerken gespeichert werden.

vSphere-Speicher

14 VMware, Inc.

Lokaler Speicher unterstützt die gemeinsame Nutzung auf mehreren Hosts nicht. Nur ein Host hat Zugriffauf einen Datenspeicher auf einem lokalen Speichergerät. Infolgedessen können Sie zwar lokalen Speicherverwenden, um virtuelle Maschinen zu erstellen, werden aber daran gehindert, VMware-Funktionen zu ver-wenden, die gemeinsam genutzten Speicher erfordern, z. B. HA und vMotion.

Wenn Sie jedoch einen Cluster von Hosts verwenden, die nur über lokale Speichergeräte verfügen, könnenSie Virtual SAN oder vSphere Storage Appliance implementieren. Beide Technologien wandeln lokale Spei-cherressourcen in gemeinsam genutzten softwaredefinierten Speicher um und ermöglichen Ihnen die Ver-wendung der Funktionen, die gemeinsam genutzten Speicher voraussetzen. Weitere Informationen findenSie unter Kapitel 19, „Arbeiten mit Virtual SAN“, auf Seite 191 oder in der vSphere Storage Appliance-Doku-mentation.

NetzwerkspeicherNetzwerkspeicher bestehen aus externen Speichersystemen, die Ihr ESXi-Host zur Remotespeicherung vonDateien der virtuellen Maschinen verwendet. In der Regel greift der Host über ein Hochgeschwindigkeits-netzwerk auf diese Systeme zu.

Netzwerkspeichergeräte werden gemeinsam genutzt. Auf Datenspeicher auf Netzwerkspeichergeräten kön-nen mehrere Hosts gleichzeitig zugreifen. ESXi unterstützt mehrere Netzwerkspeichertechnologien.

Zusätzlich zu dem in diesem Thema behandelten traditionellen Netzwerkspeicher unterstützt VMwareTechnologien virtualisierten gemeinsam genutzten Speichers. Diese Technologien wandeln die internenSpeicherressourcen Ihrer ESXi-Hosts in gemeinsam genutzten Speicher, der Funktionen wie High Availabili-ty und vMotion für virtuelle Maschinen bereitstellt. Weitere Informationen finden Sie unter Kapitel 19, „Ar-beiten mit Virtual SAN“, auf Seite 191 oder in der vSphere Storage Appliance-Dokumentation.

Hinweis Dieselbe LUN kann einem ESXi-Host oder mehreren Hosts nicht von verschiedenen Speicherpro-tokollen präsentiert werden. Um auf die LUN zuzugreifen, müssen Hosts immer ein einziges Protokoll, z. B.entweder nur Fibre-Channel oder nur iSCSI verwenden.

Fibre-Channel (FC)Speichert Dateien virtueller Maschinen extern in einem FC-Speichernetzwerk (Storage Area Network, SAN).Ein FC-SAN ist ein spezielles Hochgeschwindigkeitsnetzwerk, das Ihre Hosts mit Hochleistungsspeicherge-räten verbindet. Das Netzwerk nutzt das Fibre-Channel-Protokoll zur Übertragung von SCSI-Datenverkehrvirtueller Maschinen an FC-SAN-Geräte.

Für den Anschluss an das FC-SAN muss der Host mit Fibre-Channel-HBAs (Hostbusadaptern) ausgestattetsein. Sofern Sie nicht mit Fibre-Channel-Direktverbindungsspeicher arbeiten, benötigen Sie Fibre-Channel-Switches für die Weiterleitung der zu speichernden Daten. Wenn der Host FCoE-Adapter (Fibre Channel-over-Ethernet-Adapter) enthält, können Sie mithilfe eines Ethernet-Netzwerks eine Verbindung zu Ihren ge-meinsam genutzten Fibre-Channel-Geräten herstellen.

Fibre-Channel-Speicher zeigt virtuelle Maschinen, die einen Fibre-Channel-Speicher verwenden.

Kapitel 1 Einführung in die Speicherung

VMware, Inc. 15

Abbildung 1‑2. Fibre-Channel-Speicher

Fibre-Array

VMFS

VirtuelleMaschine

SAN

Fibre-Channel-HBA

Host

Bei dieser Konfiguration ist der Host mithilfe eines Fibre-Channel-Adapters mit einem SAN-Fabric verbun-den, das aus Fibre-Channel-Switches und Speicher-Arrays besteht. LUNs eines Speicherarrays können vomHost verwendet werden. Sie können auf die LUNs zugreifen und Datenspeicher für Ihre Speicheranforde-rungen erstellen. Die Datenspeicher verwenden das VMFS-Format.

Weitere Informationen über das Einrichten des Fibre-Channel-SANs finden Sie unter Kapitel 3, „Verwendenvon ESXi mit Fibre-Channel-SAN“, auf Seite 37.

Internet-SCSI (iSCSI)Speichert Dateien virtueller Maschinen auf Remote-iSCSI-Speichergeräten. iSCSI packt SCSI-Speicherdaten-verkehr in das TCP/IP-Protokoll, sodass dieser über standardmäßige TCP/IP-Netzwerke anstatt über einspezielles Fibre-Channel-Netzwerk übertragen werden kann. Bei einer iSCSI-Verbindung dient der Host alsInitiator, der mit einem Ziel kommuniziert, das sich in externen iSCSI-Speichersystemen befindet.

ESXi unterstützt die folgenden iSCSI-Verbindungstypen:

Hardware-iSCSI Der Host stellt eine Verbindung mit dem Speicher über einen Drittanbieter-Adapter her, der zur Auslagerung der iSCSI- und Netzwerkverarbeitung ge-eignet ist. Hardwareadapter können sowohl abhängig als auch unabhängigsein.

Software-iSCSI Ihr Host verwendet einen auf Software basierenden iSCSI-Initiator imVMkernel für die Verbindung mit dem Speicher. Bei diesem iSCSI-Verbin-dungstyp benötigt der Host nur einen Standardnetzwerkadapter zum Her-stellen der Netzwerkverbindung.

Sie müssen iSCSI-Initiatoren konfigurieren, damit der Host auf iSCSI-Speichergeräte zugreifen und dieseanzeigen kann.

iSCSI-Speicher stellt verschiedene Typen von iSCSI-Initiatoren dar.

vSphere-Speicher

16 VMware, Inc.

Abbildung 1‑3. iSCSI-Speicher

iSCSI-Array

VMFS

VirtuelleMaschine

VirtuelleMaschine

LAN LAN

iSCSI-HBA Ethernet-

Netzwerkkarte

Host

Software-adapter

Im linken Beispiel verwendet der Host einen Hardware-iSCSI-Adapter für die Verbindung zum iSCSI-Spei-chersystem.

Im rechten Beispiel verwendet der Host zum Verbinden mit dem iSCSI-Speicher einen Software-iSCSI-Adapter und eine Ethernet-Netzwerkkarte.

Die iSCSI-Speichergeräte des Speichersystems stehen dem Host nun zur Verfügung. Sie können auf dieSpeichergeräte zugreifen und VMFS-Datenspeicher erstellen, die Sie zur Speicherung benötigen.

Weitere Informationen über das Einrichten des iSCSI-SANs finden Sie unter Kapitel 10, „Verwenden von ES-Xi mit iSCSI-SAN“, auf Seite 73.

Network-Attached Storage (NAS)Speichert Dateien von virtuellen Maschinen auf Remotedateiservern, auf die über ein standardmäßigesTCP/IP-Netzwerk zugegriffen wird. Der in ESXi integrierte NFS-Client verwendet das NFS-Protokoll, Versi-on 3, (Network File System), um mit den NAS-/NFS-Servern zu kommunizieren. Für die Netzwerkverbin-dung benötigt der Host einen Standardnetzwerkadapter.

Hinweis ESXi unterstützt nicht die Funktion für delegierte Benutzer, die den Zugriff auf NFS-Volumes mitNicht-Root-Anmeldeinformationen ermöglicht.

NFS-Speicher zeigt eine virtuelle Maschine, die ein NFS-Volume zur Speicherung ihrer Dateien verwendet.In dieser Konfiguration stellt der Host über einen regulären Netzwerkadapter eine Verbindung zu demNFS-Server her, auf dem die virtuellen Festplattendateien gespeichert sind.

Kapitel 1 Einführung in die Speicherung

VMware, Inc. 17

Abbildung 1‑4. NFS-Speicher

NAS-Appliance

NFS

VirtuelleMaschine

LAN

Ethernet-Netzwerkkarte

Host

Gemeinsam genutztes Serial Attached SCSI (SAS)Speichert virtuelle Maschinen auf direkt angeschlossenen SAS-Speichersystemen, die gemeinsamen Zugriffauf mehrere Hosts bieten. Diese Art des Zugriffs ermöglicht mehreren Hosts, auf denselben VMFS-Datei-speicher auf eine LUN zuzugreifen.

Ziel- und GerätedarstellungenIm ESXi-Kontext beschreibt der Begriff „Ziel“ eine einzelne Speichereinheit, auf die der Host zugreifenkann. Die Begriffe „Gerät“ und „LUN“ beschreiben ein logisches Laufwerk, das Speicherplatz auf einemZiel darstellt. In der Regel stehen die Begriffe „Gerät“ und „LUN“ im ESXi-Kontext für ein Spreicher-Volu-me, das dem Host von einem Speicherziel angeboten wird und formatiert werden kann.

Verschiedene Speicheranbieter bieten ESXi-Hosts die Speichersysteme unterschiedlich an. Einige Anbieterbieten mehrere Speichergeräte bzw. LUNs auf einem einzigen Ziel, während andere Anbieter mehrere Zielemit je einer LUN verknüpfen.

Abbildung 1‑5. Ziel- und LUN-Darstellungen

Speicher-Array

Ziel

LUN LUN LUN

Speicher-Array

Ziel Ziel Ziel

LUN LUN LUN

In der vorliegenden Abbildung sind in jeder dieser Konfigurationen drei LUNs verfügbar. Im ersten Fall er-kennt der Host ein Ziel, obwohl in diesem Ziel drei LUNs vorhanden sind, die verwendet werden können.Jede LUN steht für ein einzelnes Speicher-Volume. Im zweiten Fall werden dem Host drei unterschiedlicheZiele mit je einer LUN angezeigt.

vSphere-Speicher

18 VMware, Inc.

Ziele, auf die über das Netzwerk zugegriffen wird, besitzen eindeutige Namen, die von den Speichersyste-men angegeben werden. Die iSCSI-Ziele verwenden die iSCSI-Namen, während Fibre-Channel-Ziele WorldWide Names (WWNs) verwenden.

Hinweis ESXi unterstützt keinen Zugriff auf dieselbe LUN über unterschiedliche Übertragungsprotokollewie iSCSI und Fibre-Channel.

Ein Gerät oder eine LUN wird durch den UUID-Namen identifiziert. Wenn eine LUN von mehreren Hostsgemeinsam verwendet wird, muss sie für alle Hosts mit der gleichen UUID bereitgestellt werden.

Eigenschaften des SpeichergerätsSie können alle auf dem Host verfügbaren Speichergeräte oder LUNs, einschließlich Netzwerk- und lokaleGeräte, anzeigen. Wenn Sie Multipathing-Plug-Ins von Drittanbietern verwenden, werden die durch diePlug-Ins verfügbaren Speichergeräte ebenfalls in der Liste angezeigt.

Sie können für jeden Speicheradapter eine separate Liste von Speichergeräten anzeigen, die für diesenAdapter verfügbar sind.

In der Regel wird Ihnen beim Überprüfen von Speichergeräten Folgendes angezeigt.

Tabelle 1‑1. Informationen zum Speichergerät

Informationen zum Spei-chergerät Beschreibung

Name Auch als Anzeigename bezeichnet. Es ist ein Name, den der ESXi-Host dem Gerät an-hand des Speichertyps und Herstellers zuweist. Sie können diesen Namen ändern.

Bezeichner Eine für ein bestimmtes Gerät spezifische UUID.

Betriebszustand Gibt an, ob das Gerät gemountet bzw. nicht gemountet ist. Weitere Informationen fin-den Sie unter „Speichergeräte trennen“, auf Seite 139.

LUN Logical Unit Number (LUN) innerhalb des SCSI-Ziels. Die LUN-Nummer wird vomSpeichersystem bereitgestellt. Wenn ein Ziel nur über eine LUN verfügt, ist die LUN-Nummer immer Null (0).

Typ Gerätetyp, z. B. Festplatte oder CD-ROM-Laufwerk.

Laufwerkstyp Informationen darüber, ob das Gerät ein Solid-State Drive (SSD) oder eine normaleNicht-SSD-Festplatte ist. Weitere Informationen finden Sie unter Kapitel 18, „Arbeitenmit Solid State Disks“, auf Seite 181.

Transport Das Transportprotokoll, das Ihr Host für den Zugriff auf das Gerät verwendet.

Kapazität Gesamtkapazität des Speichergeräts.

Besitzer Das vom Host zum Verwalten der Pfade zum Speichergerät verwendete Plug-In, z. B.das NMP oder ein Drittanbieter-Plug-In. Weitere Informationen finden Sie unter „Ver-walten mehrerer Pfade“, auf Seite 244.

Hardwarebeschleunigung Informationen dazu, ob das Speichergerät den Host bei Vorgängen für die Verwaltungvirtueller Maschinen unterstützt. Der Status kann „Unterstützt“, „Nicht unterstützt“oder „Unbekannt“ lauten. Weitere Informationen finden Sie unter Kapitel 24, „Speicher-hardware-Beschleunigung“, auf Seite 261.

Speicherort Ein Pfad zum Speichergerät im Verzeichnis /vmfs/devices/.

Partitionsformat Ein Partitionsschema, das vom Speichergerät verwendet wird. Es kann sich hierbei umeinen Master Boot Record (MBR) oder eine GUID-Partitionstabelle (GPT) handeln. DieGPT-Geräte unterstützen Datenspeicher größer als 2 TB. Weitere Informationen findenSie unter „VMFS-Datenspeicher und Speicherfestplattenformate“, auf Seite 149.

Partitionen Primäre und logische Partitionen, einschließlich eines VMFS-Datenspeichers, sofernkonfiguriert.

Kapitel 1 Einführung in die Speicherung

VMware, Inc. 19

Tabelle 1‑1. Informationen zum Speichergerät (Fortsetzung)

Informationen zum Spei-chergerät Beschreibung

Multipathing-Richtlinien(VMFS-Datenspeicher)

Pfadauswahlrichtlinie und Speicher-Array-Typ-Richtlinie, die der Host für die Pfadezum Speicher verwendet. Weitere Informationen finden Sie unter Kapitel 23, „Grundle-gendes zu Multipathing und Failover“, auf Seite 239.

Pfade (VMFS-Datenspeicher) Pfade, die zum Zugriff auf den Speicher verwendet werden, und ihr Status.

Anzeigen von Speichergeräten für einen Host im vSphere Web ClientZeigen Sie alle für einen Host verfügbaren Speichergeräte an. Wenn Sie Multipathing-Plug-Ins von Drittan-bietern verwenden, werden die durch die Plug-Ins verfügbaren Speichergeräte ebenfalls in der Liste ange-zeigt.

In der Ansicht „Speichergeräte“ können Sie die Speichergeräte des Hosts anzeigen, ihre Informationen ana-lysieren und ihre Eigenschaften ändern.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speichergeräte.

Alle für den Host verfügbaren Speichergeräte werden unter „Speichergeräte“ aufgeführt.

4 Wählen Sie ein Gerät in der Liste aus, um Details zu diesem Gerät anzuzeigen.

5 Auf den Registerkarten unter „Gerätedetails“ können Sie auf zusätzliche Informationen zugreifen undEigenschaften für das ausgewählte Gerät ändern.

Registerkarte Beschreibung

Eigenschaften Anzeigen von Geräteeigenschaften und -merkmalen. Anzeigen und Än-dern von Multipathing-Richtlinien für das Gerät.

Pfade Anzeigen der für das Gerät verfügbaren Pfade. Deaktivieren oder Aktivie-ren eines ausgewählten Pfads.

Anzeigen von Speichergeräten für einen Adapter im vSphere Web ClientZeigen Sie eine Liste der Speichergeräte an, auf die über einen bestimmten Speicheradapter auf dem Hostzugegriffen werden kann.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf „Speicheradapter“.

Alle auf dem Host installierten Speicheradapter werden unter „Speicheradapter“ aufgeführt.

4 Wählen Sie den Adapter in der Liste aus und klicken Sie auf die Registerkarte Geräte.

Die Speichergeräte, auf die der Host über den Adapter zugreifen kann, werden angezeigt.

vSphere-Speicher

20 VMware, Inc.

Unterstützte SpeicheradapterSpeicheradapter bieten Konnektivität für Ihren ESXi-Host zu einer bestimmten Speichereinheit oder zu ei-nem bestimmten Netzwerk.

ESXi unterstützt verschiedene Adapterklassen, darunter SCSI, iSCSI, RAID, Fibre Channel, Fibre Channelover Ethernet (FCoE) und Ethernet. ESXi greift auf die Adapter direkt über Gerätetreiber im VMkernel zu.

Je nachdem, welchen Speichertyp Sie verwenden, müssen Sie möglicherweise einen Speicheradapter auf Ih-rem Host aktivieren und konfigurieren.

Weitere Informationen zur Einrichtung von Software-FCoE-Adaptern finden Sie unter Kapitel 5, „Konfigu-rieren von Fibre-Channel über Ethernet“, auf Seite 47.

Weitere Informationen über das Konfigurieren verschiedener iSCSI-Adaptertypen finden Sie unter Kapitel11, „Konfigurieren von iSCSI-Adaptern und -Speichern“, auf Seite 81.

Eigenschaften des SpeicheradaptersIhr Host verwendet Speicheradapter zum Zugreifen auf verschiedene Speichergeräte. Sie können Details zuden verfügbaren Speicheradaptern anzeigen und die Informationen überprüfen.

Sie müssen bestimmte Adapter aktiveren, beispielsweise Software-iSCSI oder FCoE, bevor Sie deren Infor-mationen anzeigen können.

Tabelle 1‑2. Informationen zu Speicheradaptern

Adapterinformationen Beschreibung

Modell Adaptermodell.

Ziele (Fibre-Channel undSCSI)

Die Anzahl der Ziele, auf die über den Adapter zugegriffen wurde.

Verbundene Ziele (iSCSI) Anzahl an verbundenen Zielen auf einem iSCSI-Adapter.

WWN (Fibre-Channel) Ein in Übereinstimmung mit den Fibre-Channel-Standards erstellter World Wide Name,der den FC-Adapter eindeutig identifiziert.

iSCSI-Name (iSCSI) Ein in Übereinstimmung mit den iSCSI-Standards erstellter eindeutiger Name, der denFC-Adapter eindeutig identifiziert.

iSCSI-Alias (iSCSI) Ein benutzerfreundlicher Name, der anstelle des iSCSI-Namens verwendet wird.

IP-Adresse (unabhängigeHardware-iSCSI)

Eine dem iSCSI-HBA zugewiesene Adresse.

Geräte Alle Speichergeräte oder LUNs, auf die der Adapter zugreifen kann.

Pfade Alle vom Adapter zum Zugreifen auf Speichergeräte verwendeten Pfade.

Eigenschaften Link, der angibt, dass für den Adapter eine zusätzliche Konfiguration erforderlich ist. BeiiSCSI- und FCoE-Adapterm wird dieser Link angezeigt.

Anzeigen der Speicheradapterinformationen im vSphere Web ClientSie können von Ihrem Host verwendete Speicheradapter anzeigen und deren Informationen überprüfen.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter.

4 Wählen Sie einen Adapter in der Liste aus, um Details dazu anzuzeigen.

Kapitel 1 Einführung in die Speicherung

VMware, Inc. 21

Merkmale von DatenspeichernDatenspeicher sind besondere logische Container (analog zu Dateisystemen), bei denen Angaben zu deneinzelnen Speichergeräten verborgen bleiben und die ein einheitliches Modell für die Speicherung der Da-teien virtueller Maschinen bieten. Sie können alle auf den Hosts verfügbaren Datenspeicher anzeigen undderen Eigenschaften analysieren.

Es gibt folgende Möglichkeiten, Datenspeicher zu vCenter Server hinzuzufügen:

n Sie können VMFS- oder NFS-Datenspeicher mit dem Assistenten für neue Datenspeicher erstellen. EinVirtual SAN-Datenspeicher wird automatisch erstellt, wenn Sie Virtual SAN aktivieren.

n Wenn Sie einen Host zum vCenter Server hinzufügen, werden alle Datenspeicher auf dem Host zumvCenter Server hinzugefügt.

In der folgenden Tabelle werden Datenspeicherdetails aufgeführt, die Ihnen beim Prüfen von Datenspei-chern angezeigt werden. Bestimmte Eigenschaften sind möglicherweise nicht für alle Typen von Datenspei-chern verfügbar oder anwendbar.

Tabelle 1‑3. Informationen zu Datenspeichern

Informationen zuDatenspeichern Anwendbarer Datenspeichertyp Beschreibung

Name VMFSNFSVirtual SAN

Bearbeitbarer Name, den Sie einem Datenspeicher zu-weisen können. Weitere Informationen zum Umbenen-nen eines Datenspeichers finden Sie unter „Ändern desDatenspeichernamens im vSphere Web Client“, auf Sei-te 156.

Dateisystemtyp VMFSNFSVirtual SAN

Das vom Datenspeicher verwendete Dateisystem. Weite-re Informationen über VMFS- und NFS-Datenspeicherund deren Verwaltung finden Sie unter Kapitel 16, „Ar-beiten mit Datenspeichern“, auf Seite 147. Weitere Infor-mationen zu Datenspeichern für Virtual SAN (VSAN)finden Sie unter Kapitel 19, „Arbeiten mit Virtual SAN“,auf Seite 191.

Geräte-Backing VMFSNFSVirtual SAN

Weitere Informationen zum zugrunde liegenden Spei-cher, z. B. einem Speichergerät, auf dem der Datenspei-cher bereitgestellt wird (VMFS), Server und Ordner(NFS) oder Festplattengruppen (Virtual SAN).

Erweiterungen VMFS Einzelne Erweiterungen, aus denen der Datenspeicherbesteht, samt Kapazität.

Laufwerkstyp VMFSNFS

Typ des zugrunde liegenden Speichergeräts: ein Solid-State Drive (SSD) oder eine normale Nicht-SSD-Festplat-te. Weitere Informationen finden Sie unter Kapitel 18,„Arbeiten mit Solid State Disks“, auf Seite 181.

Kapazität VMFSNFSVirtual SAN

Umfasst die Gesamtkapazität, bereitgestellten Speicher-platz und freien Speicherplatz.

Standort (Mount-Punkt)

VMFSNFSVirtual SAN

Ein Pfad zum Datenspeicher im Verzeichnis /vmfs/vo-lumes/.

Server NFS Name oder IP-Adresse eines NAS-Servers.

Ordner NFS Name eines gemounteten Ordners.

vSphere-Speicher

22 VMware, Inc.

Tabelle 1‑3. Informationen zu Datenspeichern (Fortsetzung)

Informationen zuDatenspeichern Anwendbarer Datenspeichertyp Beschreibung

Datenspeicherfunkti-onen

VMFSHinweis Ein VMFS-Datenspeichermit mehreren Erweiterungen über-nimmt die Funktionalität von nur ei-ner seiner Erweiterungen.NFSVirtual SAN

Die von physischem Speicher gemeldeten und von denDatenspeichern übernommenen Speicherfunktionen. Siekönnen sie nicht ändern.

Storage I/O Control VMFSNFS

Informationen darüber, ob die clusterweite Speicher-E/A-Priorisierung aktiviert ist. Informationen finden Siein der Dokumentation Handbuch zur vSphere-Ressourcen-verwaltung.

Hardwarebeschleuni-gung

VMFSNFSVirtual SAN

Informationen darüber, ob das zugrunde liegende Spei-chergerät die Hardwarebeschleunigung unterstützt. DerStatus kann „Unterstützt“, „Nicht unterstützt“ oder„Unbekannt“ lauten. Weitere Informationen finden Sieunter Kapitel 24, „Speicherhardware-Beschleunigung“,auf Seite 261.

Tags VMFSNFSVirtual SAN

Datenspeicherfunktionen, die Sie definieren und inForm von Tags Datenspeichern zuordnen. Weitere Infor-mationen hierzu finden Sie unter „Grundlegendes zuSpeicherfunktionen“, auf Seite 215.

Konnektivität VMFSNFS

Hosts, auf denen der Datenspeicher gemountet wird.

Mehrfachpfad-Richt-linien

VMFS Pfadauswahlrichtlinie, die der Host zum Zugriff auf denSpeicher verwendet. Weitere Informationen finden Sieunter Kapitel 23, „Grundlegendes zu Multipathing undFailover“, auf Seite 239.

Pfade VMFS Anzahl der Pfade, die zum Zugriff auf den Speicher ver-wendet werden, und deren Status.

Anzeigen von Datenspeicherinformationen im vSphere Web ClientGreifen Sie mit dem vSphere Web Client-Navigator auf die Datenspeicheransicht zu. In der Datenspeicher-ansicht, die Sie über den Navigator anzeigen, können Sie alle Datenspeicher auflisten, die in der vSphere-Infrastruktur verfügbar sind, die Informationen analysieren und die Eigenschaften ändern. Sie können auchdie Ansicht verwenden, um Datenspeicher zu erstellen.

Um Datenspeicher für ein spezifisches übergeordnetes Objekt aufzulisten, beispielsweise ein Datencenter,einen Cluster oder einen Host, siehe „Listen von Datenspeichern für ein Infrastrukturobjekt“, auf Seite 24.

Vorgehensweise

1 Klicken Sie auf der Startseite von vSphere Web Client auf vCenter.

2 Klicken Sie unter „Bestandslisten“ auf die Kategorie Datenspeicher.

Datenspeicher, die in der Bestandsliste verfügbar sind, werden im mittleren Datenspeicherbereich ange-zeigt.

Kapitel 1 Einführung in die Speicherung

VMware, Inc. 23

3 Verwenden Sie die Symbole, um einen Datenspeicher zu erstellen oder grundlegende Aufgaben für ei-nen ausgewählten Datenspeicher auszuführen.

Symbol Beschreibung

Erstellen eines Datenspeichers.

Erhöhen der Datenspeicherkapazität.

Mounten eines Datenspeichers auf bestimmten Hosts.

Entfernen eines Datenspeichers.

Unmounten eines Datenspeichers aus bestimmten Hosts.

4 Um spezifische Datenspeicherdetails anzuzeigen, doppelklicken Sie auf einen ausgewählten Datenspei-cher.

5 Verwenden Sie Registerkarten, um auf zusätzliche Informationen zuzugreifen und Datenspeichereigen-schaften zu ändern.

Registerkarte Beschreibung

Erste Schritte Anzeigen einführender Informationen und Zugriff auf grundlegende Aktionen.

Übersicht Zeigen Sie Statistiken und die Konfiguration für den ausgewählten Datenspeicher an.

Überwachen Anzeigen von Alarmen, Leistungsdaten, Ressourcenzuteilung, Ereignissen und anderen Statu-sinformationen für den Datenspeicher.

Verwalten Anzeigen und Ändern von Datenspeichereigenschaften, Alarmdefinitionen, Tags und Berechti-gungen. Verwenden Sie diese Registerkarte, um auf Speichergeräte zuzugreifen, die die Daten-bank absichert, und um Mehrfachpfad-Details für die Datenspeichergeräte anzuzeigen.

Verwandte Ob‐jekte

Anzeigen von Objekten, die mit dem Datenspeicher verbunden sind. Die Objekte umfassen vir-tuelle Maschinen, die auf dem Datenspeicher und den Hosts untergebracht sind, auf denen derDatenspeicher gemountet ist.

Listen von Datenspeichern für ein InfrastrukturobjektZeigen Sie Datenspeicher für ein spezifisches übergeordnetes Objekt an, beispielsweise ein Datencenter, ei-nen Cluster oder einen Host.

Vorgehensweise

1 Klicken Sie auf der Startseite von vSphere Web Client auf vCenter.

2 Verwenden Sie den vSphere Web Client-Objektnavigator, um zu einem Objekt zu navigieren, das eingültiges übergeordnetes Objekt eines Datenspeichers ist, beispielsweise ein Datencenter, ein Clusteroder ein Host.

3 Klicken Sie auf der Registerkarte Verwandte Objekte und klicken Sie auf Datenspeicher.

Wenn Datenspeicher für dieses Objekt konfiguriert sind, werden sie im mittleren Bereich „Datenspei-cher" angezeigt.

4 Verwenden Sie die Symbole, um einen Datenspeicher zu erstellen oder grundlegende Aufgaben für ei-nen ausgewählten Datenspeicher auszuführen.

Symbol Beschreibung

Erstellen eines Datenspeichers.

Erhöhen der Datenspeicherkapazität.

vSphere-Speicher

24 VMware, Inc.

Symbol Beschreibung

Mounten eines Datenspeichers auf bestimmten Hosts.

Entfernen eines Datenspeichers.

Unmounten eines Datenspeichers aus bestimmten Hosts.

5 Verwenden Sie Registerkarten, um auf zusätzliche Informationen zuzugreifen und Datenspeichereigen-schaften zu ändern.

Registerkarte Beschreibung

Erste Schritte Anzeigen einführender Informationen und Zugriff auf grundlegende Aktionen.

Übersicht Zeigen Sie Statistiken und die Konfiguration für den ausgewählten Datenspeicher an.

Überwachen Anzeigen von Alarmen, Leistungsdaten, Ressourcenzuteilung, Ereignissen und anderen Statu-sinformationen für den Datenspeicher.

Verwalten Anzeigen und Ändern von Datenspeichereigenschaften, Alarmdefinitionen, Tags und Berechti-gungen. Verwenden Sie diese Registerkarte, um auf Speichergeräte zuzugreifen, die die Daten-bank absichert, und um Mehrfachpfad-Details für die Datenspeichergeräte anzuzeigen.

Verwandte Ob‐jekte

Anzeigen von Objekten, die mit dem Datenspeicher verbunden sind. Die Objekte umfassen vir-tuelle Maschinen, die auf dem Datenspeicher und den Hosts untergebracht sind, auf denen derDatenspeicher gemountet ist.

Speicherzugriff durch virtuelle MaschinenWenn eine virtuelle Maschine mit ihrer virtuellen Festplatte kommuniziert, die in einem Datenspeicher ge-speichert sind, ruft sie SCSI-Befehle auf. Da sich die Datenspeicher auf verschiedenen Arten physischerSpeicher befinden können, werden diese Befehle je nach Protokoll, das der ESXi-Host zur Anbindung an einSpeichergerät verwendet, umgewandelt.

ESXi unterstützt die Protokolle Fibre Channel (FC), Internet SCSI (iSCSI), Fibre Channel over Ethernet(FCoE) und NFS. Die virtuelle Festplatte wird unabhängig vom Typ des Speichergeräts, den Ihr Host ver-wendet, immer als gemountetes SCSI-Gerät angezeigt. Die virtuelle Festplatte verbirgt die physische Spei-cherebene vor dem Betriebssystem der virtuellen Maschine. Dadurch können in der virtuellen Maschine Be-triebssysteme ausgeführt werden, die nicht für bestimmte Speichersysteme, z. B. SAN, zertifiziert sind.

Die folgende Abbildung zeigt die Unterschiede zwischen den Speichertypen: Fünf virtuelle Maschinen ver-wenden unterschiedliche Arten von Speichern.

Kapitel 1 Einführung in die Speicherung

VMware, Inc. 25

Abbildung 1‑6. Virtuelle Maschinen mit Zugriff auf verschiedene Speichertypen

iSCSI-Array NAS-ApplianceFibre-Array

Host

VMFS

SCSI

VMFS VMFS NFS

VirtuelleMaschine

VirtuelleMaschine

VirtuelleMaschine

VirtuelleMaschine

VirtuelleMaschine

SAN LAN LAN LAN

iSCSI-HBA

Fibre-Channel-HBA

Ethernet-Netzwerkkarte

Ethernet-Netzwerkkarte

Software-adapter

benötigt TCP/IP-Verbindung

Schlüssel

PhysischeFestplatte

Daten- speicher

VirtuelleFestplatte

Hinweis Diese Abbildung dient nur zur Veranschaulichung. Es handelt sich nicht um eine empfohleneKonfiguration.

Sie können auf der Registerkarte Speicheransichten Zuordnungen verwenden, um die Beziehungen zwi-schen den virtuellen Maschinen auf dem Host und allen verfügbaren virtuellen und physischen Speicherres-sourcen visuell darzustellen und besser zu verstehen. Weitere Informationen finden Sie unter vSphere-Über-wachung und -Leistung.

Vergleich der SpeichertypenWelche vSphere-Funktionen unterstützt werden ist abhängig von der verwendeten Speichertechnologie.

In der folgenden Tabelle werden die Netzwerkspeichertechnologien verglichen, die ESXi unterstützt.

Tabelle 1‑4. Von ESXi unterstützter Netzwerkspeicher

Technologie Protokolle Übertragungen Schnittstelle

Fibre-Channel FC/SCSI Blockzugriff für Daten/LUN FC-HBA

Fibre-Channel überEthernet

FCoE/SCSI Blockzugriff für Daten/LUN n Converged Network Adapter (Hardware-FCoE)

n Netzwerkkarte mit FCoE-Unterstützung(Software-FCoE)

iSCSI IP/SCSI Blockzugriff für Daten/LUN n iSCSI-HBA oder iSCSI-fähige Netzwerkkar-te (Hardware-iSCSI)

n Netzwerkadapter (Software-iSCSI)

NAS IP/NFS Datei (kein direkter LUN-Zugriff)

Netzwerkadapter

In der folgenden Tabelle werden die von verschiedenen Speichertypen unterstützen vSphere-Funktionenverglichen.

vSphere-Speicher

26 VMware, Inc.

Tabelle 1‑5. Von Speichertypen unterstützte vSphere-Funktionen

SpeichertypStarten vonVMs vMotion

Datenspei-cher RDM VM-Cluster

vSphereHA undDRS

StorageAPIs -Data Pro-tection

Lokaler Spei-cher

Ja Nein VMFS Nein Ja Nein Ja

Fibre-Channel Ja Ja VMFS Ja Ja Ja Ja

iSCSI Ja Ja VMFS Ja Ja Ja Ja

NAS über NFS Ja Ja NFS Nein Nein Ja Ja

Hinweis Der lokale Speicher unterstützt einen Cluster von virtuellen Maschinen auf einem einzelnen Host(auch als „systeminterner Cluster“ bekannt). Eine gemeinsam genutzte virtuelle Festplatte ist erforderlich.Weitere Informationen zu dieser Konfiguration finden Sie in der Dokumentation Handbuch zur vSphere-Res-sourcenverwaltung.

Kapitel 1 Einführung in die Speicherung

VMware, Inc. 27

vSphere-Speicher

28 VMware, Inc.

Übersicht über die Verwendung vonESXi in einem SAN 2

Die Verwendung von ESXi in einem SAN erhöht die Flexibilität, Effizienz und Zuverlässigkeit. Bei der Ver-wendung von ESXi mit einem SAN werden eine zentrale Verwaltung sowie Failover- und Lastausgleichs-technologien ebenfalls unterstützt.

Im Folgenden werden die Vorteile der Verwendung von ESXi mit einem SAN zusammengefasst:

n Sie haben die Möglichkeit, Daten sicher zu speichern und mehrere Pfade zu Ihrem Speicher zu konfigu-rieren, um solch eine Fehlerquelle auszuschließen.

n Die Fehlerresistenz wird durch die Verwendung eines SAN mit ESXi-Systemen auf die Server erweitert.Wenn Sie einen SAN-Speicher einsetzen, können alle Anwendungen nach einem Ausfall des ursprün-glichen Hosts umgehend auf einem anderen Host neu gestartet werden.

n Mit VMware VMotion können Sie während des laufenden Systembetriebs Migrationen virtueller Ma-schinen durchführen.

n Verwenden Sie VMware High Availability (HA) zusammen mit einem SAN, um die virtuellen Maschi-nen mit ihrem zuletzt bekannten Status auf einem anderen Server neu zu starten, falls ihr Host ausfällt.

n Verwenden Sie VMware Fault Tolerance (FT), um geschützte virtuelle Maschinen auf zwei unterschied-lichen Hosts zu replizieren. Die virtuellen Maschinen werden weiterhin unterbrechungsfrei auf dem se-kundären Host ausgeführt, falls der primäre Host ausfällt.

n Verwenden Sie VMware DRS (Distributed Resource Scheduler), um virtuelle Maschinen für den Last-ausgleich von einem Host auf einen anderen Host zu migrieren. Da sich der Speicher in einem freigege-benen SAN-Array befindet, werden Anwendungen ohne Unterbrechung weiter ausgeführt.

n Wenn Sie VMware DRS-Cluster verwenden, versetzen Sie einen ESXi-Host in den Wartungsmodus, da-mit das System alle laufenden virtuellen Maschinen auf andere ESXi-Hosts migriert. Anschließend kön-nen Sie auf dem ursprünglichen Host Upgrades oder andere Wartungsvorgänge durchführen.

Die Portabilität und Kapselung von virtuellen VMware-Maschinen ergänzt die Eigenschaften des Speichershinsichtlich der gemeinsamen Nutzung. Wenn sich virtuelle Maschinen in einem SAN-basierten Speicherbefinden, können Sie eine virtuelle Maschine auf einem Server herunterfahren und diese auf einem anderenServer starten oder diese auf einem Server anhalten und den Betrieb auf einem anderen Server im selbenNetzwerk wieder aufnehmen – und das in nur wenigen Minuten. Auf diese Weise können Sie Rechenres-sourcen migrieren und gleichzeitig einen konsistenten gemeinsamen Zugriff aufrechterhalten.

Dieses Kapitel behandelt die folgenden Themen:

n „Anwendungsbeispiele für ESXi und SAN“, auf Seite 30

n „Besonderheiten bei der Verwendung von SAN-Speicher mit ESXi“, auf Seite 30

n „ESXi-Hosts und mehrere Speicher-Arrays“, auf Seite 31

n „Entscheidungen zur Verwendung von LUNs“, auf Seite 31

VMware, Inc. 29

n „Auswählen von Speicherorten für virtuelle Maschinen“, auf Seite 33

n „Mehrschichtige Anwendungen“, auf Seite 33

n „Verwaltungsanwendungen von Drittanbietern“, auf Seite 34

n „Überlegungen zu SAN-Speichersicherungen“, auf Seite 35

Anwendungsbeispiele für ESXi und SANWenn mit einem SAN verwendet, kann ESXi von mehreren vSphere-Funktionen profitieren, wie z. B. Stora-ge vMotion, DRS (Distributed Resource Scheduler), HA (High Availability) usw.

Die Verwendung von ESXi in Verbindung mit einem SAN ist für die folgenden Aufgaben hilfreich:

Speicherkonsolidierungund Vereinfachung desSpeicherlayouts

Wenn Sie mit mehreren Hosts arbeiten und auf jedem Host mehrere virtuelleMaschinen ausgeführt werden, reicht der Speicher des Hosts nicht mehr ausund es wird externer Speicher benötigt. Wählen Sie ein SAN für die externeDatenspeicherung, um eine einfachere Systemarchitektur und gleichzeitigandere Vorteile bereitzustellen.

Wartung ohne Ausfall-zeiten

Verwenden Sie bei der Wartung von ESXi-Hosts oder -Infrastrukturen vMoti-on für die Migration virtueller Maschinen auf einen anderen Host. Falls imSAN ein gemeinsamer Speicher vorhanden ist, kann die Wartung für Benut-zer virtueller Maschinen ohne Unterbrechungen durchgeführt werden. Dieaktiven Prozesse der virtuellen Maschine werden während einer Migrationweiterhin ausgeführt.

Lastenausgleich Sie können einen Host zu einem DRS-Cluster hinzufügen. Die Hostressour-cen werden dann Teil der Clusterressourcen. Die Verteilung und Verwen-dung von CPU- und Arbeitsspeicherressourcen für alle Hosts und virtuelleMaschinen im Cluster werden kontinuierlich überwacht. DRS vergleicht die-se Metriken mit denen einer idealen Ressourcennutzung. Die ideale Ressour-cennutzung berücksichtigt die Attribute der Ressourcenpools und der virtu-ellen Maschinen des Clusters, des aktuellen Bedarfs sowie des Ziels des Un-gleichgewichts. DRS migriert daraufhin die virtuellen Maschinen entspre-chend (oder schlägt ihre Migration vor).

Notfallwiederherstel-lung

Sie können VMware High Availability zum Konfigurieren von mehrerenESXi-Hosts als Cluster verwenden, um eine schnelle Wiederherstellung nachAusfällen und kosteneffektive hohe Verfügbarkeit für Anwendungen zu bie-ten, die in virtuellen Maschinen ausgeführt werden.

Vereinfachte Array-Mi-grationen und Speicher-Upgrades

Wenn Sie neue Speichersysteme oder -Arrays erwerben, verwenden Sie Sto-rage vMotion, um eine automatisierte Migration der Festplattendateien vir-tueller Maschinen vom vorhandenen Speicher zum neuen Speicherziel ohneUnterbrechungen für die Benutzer virtueller Maschinen durchzuführen.

Besonderheiten bei der Verwendung von SAN-Speicher mit ESXiDie Verwendung eines SANs in Verbindung mit einem ESXi-Host unterscheidet sich von der herkömmli-chen SAN-Verwendung in vielerlei Hinsicht.

Beachten Sie bei der Verwendung von SAN-Speicher mit ESXi folgende Punkte:

n Sie können SAN-Verwaltungstools nicht verwenden, um direkt auf Betriebssysteme von virtuellen Ma-schinen zuzugreifen, die den Speicher verwenden. Mit herkömmlichen Tools können Sie ausschließlichdas VMware ESXi-Betriebssystem überwachen. Über den vSphere Web Client können Sie virtuelle Ma-schinen überwachen.

vSphere-Speicher

30 VMware, Inc.

n Der für die SAN-Verwaltungstools sichtbare HBA gehört zum ESXi-System und nicht zum Teil der vir-tuellen Maschine.

n Das ESXi-System führt in der Regel für Sie ein Multipathing durch.

ESXi-Hosts und mehrere Speicher-ArraysEin ESXi-Host kann auf Speichergeräte aus mehreren Speicher-Arrays zugreifen, auch auf Speicher von ver-schiedenen Anbietern.

Wenn Sie mehrere Arrays von verschiedenen Anbietern verwenden, gilt Folgendes:

n Wenn Ihr Host das gleiche Speicher-Array-Typ-Plug-In (SATP) für mehrere Arrays verwendet, seien Sievorsichtig, wenn Sie die standardmäßige Pfadauswahlrichtlinie (PSP) für diesen SATP ändern müssen.Die Änderung wird auf sämtlichen Arrays wirksam. Weitere Information über SATP und PSP findenSie unter Kapitel 23, „Grundlegendes zu Multipathing und Failover“, auf Seite 239.

n Einige Speicher-Arrays empfehlen spezifische Warteschlangentiefen und andere Einstellungen. In derRegel werden diese Einstellungen global auf ESXi-Hostebene konfiguriert. Eine Änderung für ein Arraybeeinflusst andere Arrays, die LUN für den Host präsentieren. Weitere Informationen zur Warteschlan-gentiefe finden Sie im VMware-Knowledgebase-Artikel unter http://kb.vmware.com/kb/1267.

n Verwenden Sie das Einzel-Initiator-Einzel-Ziel-Zoning, wenn Sie ESXi-Hosts in Fibre-Channel-Arrayseinteilen. Bei dieser Art der Konfiguration beeinflussen Hersteller-spezifische Ereignisse, die in einemArray auftreten, nicht die anderen Arrays. Weitere Informationen zum Zoning finden Sie unter „Ver-wenden von Zoning mit Fibre-Channel-SANs“, auf Seite 39.

Entscheidungen zur Verwendung von LUNsBevor Sie LUNs mit einem VMFS-Datenspeicher formatieren, müssen Sie zunächst festlegen, wie Sie denSpeicher für Ihre ESXi-Systeme einrichten möchten.

Bei der Wahl der richtigen Größe und Anzahl der zu verwendenden LUNs sollten Sie folgende Aspekte be-rücksichtigen:

n Jede LUN sollte über das richtige RAID-Level und die richtigen Speichermerkmale für die Anwendun-gen verfügen, die in virtuellen Maschinen ausgeführt werden, die die LUN verwenden.

n Jede LUN darf nur einen einzigen VMFS-Datenspeicher enthalten.

n Wenn mehrere virtuelle Maschinen auf dieselbe VMFS zugreifen, lassen sich mithilfe von Festplattenf-reigaben Prioritäten für virtuelle Maschinen festlegen.

Die folgenden Gründe sprechen für weniger und dafür größere LUNs:

n Mehr Flexibilität beim Erstellen virtueller Maschinen, ohne beim Speicheradministrator mehr Speicher-platz anfordern zu müssen.

n Mehr Flexibilität bei der Größenänderung virtueller Festplatten, dem Erstellen von Snapshots usw.

n Weniger zu verwaltende VMFS-Datenspeicher.

Die folgenden Gründe sprechen für mehr und dafür kleinere LUNs:

n Weniger falsch genutzter Speicherplatz.

n Unterschiedliche Anwendungen könnten unterschiedliche RAID-Merkmale erfordern.

n Mehr Flexibilität, da die Multipathing-Richtlinie und gemeinsam genutzte Festplattenfreigaben proLUN festgelegt werden.

n Für den Einsatz von Microsoft Clusterdienst muss jede Clusterfestplattenressource in ihrer eigenenLUN eingerichtet sein.

n Bessere Leistung aufgrund weniger Konflikte auf den einzelnen Volumes.

Kapitel 2 Übersicht über die Verwendung von ESXi in einem SAN

VMware, Inc. 31

Wenn für eine virtuelle Maschine keine Speicherbeschreibung vorliegt, gibt es häufig keine einfache Metho-de zum Bestimmen der Anzahl und Größe der bereitzustellenden LUNs. Sie können experimentieren, indemSie entweder ein Vorhersagemodell oder ein adaptives Modell verwenden.

Verwenden eines Vorhersagemodells zur richtigen LUN-WahlWenn Sie Speicher für ESXi-Systeme einrichten, müssen Sie vor dem Erstellen von VMFS-Datenspeichernentscheiden, wie viele LUNs bereitgestellt werden und welche Größe diese besitzen sollen. Sie können expe-rimentieren, indem Sie das Vorhersagemodell verwenden.

Vorgehensweise

1 Stellen Sie mehrere LUNs mit unterschiedlichen Speichereigenschaften bereit.

2 Erstellen Sie einen VMFS-Datenspeicher in jeder LUN und benennen Sie jedes Volume entsprechendseinen Eigenschaften.

3 Erstellen Sie virtuelle Festplatten, um Kapazität für die Daten der Anwendungen virtueller Maschinenin den VMFS-Datenspeichern zu schaffen, die auf LUNs mit dem entsprechenden RAID-Level für dieAnwendungsanforderungen erstellt wurden.

4 Sie verwenden Festplattenfreigaben, um virtuelle Maschinen mit hoher Priorität von denen mit niedri-ger Priorität zu unterscheiden.

Hinweis Festplattenfreigaben sind nur innerhalb eines bestimmten Hosts entscheidend. Die den virtu-ellen Maschinen auf einem Host zugeordneten Freigaben haben keine Auswirkungen auf virtuelle Ma-schinen auf anderen Hosts.

5 Sie führen die Anwendungen aus, um zu ermitteln, ob die Leistung der virtuellen Maschine zufrieden-stellend ist.

Verwenden des adaptiven Modells zur richtigen LUN-WahlWenn Sie Speicher für ESXi-Hosts einrichten, müssen Sie vor dem Erstellen von VMFS-Datenspeichern ent-scheiden, wie viele LUNs bereitgestellt werden und welche Größe sie besitzen sollen. Sie können experimen-tieren, indem Sie das adaptive Modell verwenden.

Vorgehensweise

1 Stellen Sie eine große LUN (RAID 1+0 oder RAID 5) mit aktiviertem Schreibcache bereit.

2 Erstellen Sie in dieser LUN ein VMFS.

3 Erstellen Sie vier oder fünf virtuelle Festplatten im VMFS.

4 Sie führen die Anwendungen aus, um zu ermitteln, ob die Festplattenleistung ausreichend ist.

Wenn die Leistung ausreicht, können Sie zusätzliche virtuelle Festplatten im VMFS einrichten. Reicht dieLeistung nicht aus, haben Sie die Möglichkeit, eine neue, große LUN zu erstellen (eventuell mit einer ande-ren RAID-Ebene) und den Vorgang zu wiederholen. Verwenden Sie die Migrationsfunktion, damit keineDaten virtueller Maschinen bei der Neuerstellung der LUN verloren gehen.

vSphere-Speicher

32 VMware, Inc.

Auswählen von Speicherorten für virtuelle MaschinenBei der Leistungsoptimierung der virtuellen Maschinen ist der Speicherort ein wichtiger Faktor. Es mussstets zwischen kostenintensivem Speicher, der eine optimale Leistung und hohe Verfügbarkeit bietet, undkostengünstigem Speicher mit niedrigerer Leistung abgewogen werden.

Die Speichereinteilung in verschiedene Qualitätsstufen ist von zahlreichen Faktoren abhängig:

n Hoch. Bietet hohe Leistung und Verfügbarkeit. Bietet unter Umständen auch integrierte Snapshots, umSicherungen und PiT-Wiederherstellungen (Point-in-Time) zu vereinfachen. Unterstützt Replizierun-gen, vollständige Speicherprozessorredundanz und SAS-Laufwerke. Verwendet teure Spindeln.

n Mittel. Bietet durchschnittliche Leistung, niedrigere Verfügbarkeit, geringe Speicherprozessorredun-danz und SCSI- bzw. SAS-Laufwerke. Bietet möglicherweise Snapshots. Verwendet Spindeln mit durch-schnittlichen Kosten.

n Niedrig. Bietet niedrige Leistung, geringe interne Speicherredundanz. Verwendet kostengünstige SCSI-Laufwerke oder SATA (serielle kostengünstige Spindeln).

Nicht alle Anwendungen müssen auf dem Speicher mit der höchsten Leistung und Verfügbarkeit ausge-führt werden – zumindest nicht während ihres gesamten Lebenszyklus.

Hinweis Wenn Sie einige der von hochwertigen Speichern bereitgestellten Funktionen, z. B. Snapshots, be-nötigen, die Kosten aber gering halten möchten, können Sie die gewünschten Funktionen eventuell über denEinsatz von Software erreichen. Beispielsweise können Sie Snapshots auch mit einer Software erstellen.

Bevor Sie entscheiden, wo Sie eine virtuelle Maschine platzieren möchten, sollten Sie sich die folgenden Fra-gen stellen:

n Wie wichtig ist die virtuelle Maschine?

n Welche Leistungs- und Verfügbarkeitsanforderungen gelten für sie?

n Welche PiT-Wiederherstellungsanforderungen gelten für sie?

n Welche Sicherungsanforderungen gelten für sie?

n Welche Wiederherstellungsanforderungen gelten für sie?

Die Einstufung einer virtuellen Maschine kann während ihres Lebenszyklus wechseln, z. B. wenn Prioritä-ten oder Technologien geändert wurden, die eine höhere oder niedrigere Einstufung zur Folge haben. DieWichtigkeit ist relativ und kann sich aus verschiedenen Gründen ändern, z. B. bei Änderungen im Unter-nehmen, betriebswirtschaftlichen Abläufen, gesetzlichen Anforderungen oder Erstellung eines Notfallplans.

Mehrschichtige AnwendungenSAN-Administratoren verwenden üblicherweise spezialisierte Array-basierte Software für Sicherung, Not-fallwiederherstellung, Data-Mining, Diagnose und Konfigurationstests.

Speicheranbieter stellen typischerweise zwei Arten von erweiterten Diensten für ihre LUNs bereit: Snaps-hot-Erstellung und Replikation.

n Bei der Snapshot-Erstellung wird durch effiziente Kopien von LUNs mit gemeinsamen DatenblöckenSpeicherplatz geschaffen. Im Allgemeinen wird die Snapshot-Erstellung für schnelle Sicherungen, An-wendungstests, Diagnose oder Data-Mining lokal auf denselben Speichersystemen verwendet wie dieprimäre LUN.

Kapitel 2 Übersicht über die Verwendung von ESXi in einem SAN

VMware, Inc. 33

n Bei der Replikation werden vollständige Kopien von LUNs erstellt. Replikationen werden üblicherwei-se auf separaten Speichersystemen oder sogar an separaten Standorten gespeichert, um ein System beigrößeren Ausfällen zu schützen, durch die ein Array oder Standort vollständig zerstört wird.

Wenn Sie ein ESXi-System in Verbindung mit einem SAN verwenden, ermitteln Sie, ob sich Array-basierteTools oder hostbasierte Tools für Ihre individuelle Situation besser eignen.

Array-basierte Lösung (Drittanbieter)Wenn Sie ein ESXi-System in Verbindung mit einem SAN verwenden, ermitteln Sie, ob sich Array-basierteTools für Ihre individuelle Situation besser eignen.

Wenn Sie eine Array-basierte Lösung in Betracht ziehen, berücksichtigen Sie Folgendes:

n Array-basierte Lösungen bieten meist umfangreichere Statistiken. Da Daten bei RDMs immer über den-selben Pfad übermittelt werden, ist die Leistungsverwaltung vereinfacht.

n Die Sicherheit ist für den Speicheradministrator bei Verwendung von RDM und einer Array-basiertenLösung transparenter, da virtuelle Maschinen mit RDMs eher mit physischen Maschinen vergleichbarsind.

n Bei Einsatz einer Array-basierten Lösung werden RDMs im physischen Kompatibilitätsmodus häufigzum Speichern von virtuellen Maschinen verwendet. wenn keine Raw-Gerätezuordnungen (RDMs)verwendet werden sollen, erfahren Sie in der Dokumentation des Speicheranbieters, ob Vorgänge aufLUNs mit VMFS-Volumes unterstützt werden. Lesen Sie bei Verwendung von Array-Vorgängen aufVMFS-LUNs ferner den Abschnitt zur Neusignierung sorgfältig.

Dateibasierte Lösung (VMFS)Wenn Sie ein ESXi-System in Verbindung mit einem SAN verwenden, ermitteln Sie, ob sich dateibasierteTools für Ihre individuelle Situation besser eignen.

Wenn Sie den Einsatz einer dateibasierten Lösung erwägen, welche die VMware Tools und VMFS anstelleder Array-Tools verwendet, beachten Sie die folgenden Punkte:

n Die Verwendung der VMware Tools mit VMFS bietet eine bessere Bereitstellung. Es wird eine großeLUN zugeteilt, und mehrere .vmdk-Dateien können in dieser LUN platziert werden. Bei einer RDM istfür jede virtuelle Maschine eine neue LUN erforderlich.

n Eine Funktion zur Snapshot-Erstellung ist auf Ihrem ESXi-Host ohne zusätzliche Kosten enthalten.

n Die Verwendung von VMFS ist einfacher für ESXi-Administratoren.

n ESXi-Administratoren, die eine dateibasierte Lösung einsetzen, sind vom SAN-Administrator unabhän-giger.

Verwaltungsanwendungen von DrittanbieternSie können Verwaltungssoftware von Drittanbietern in Verbindung mit Ihrem ESXi-Host verwenden.

Häufig ist im Lieferumfang der SAN-Hardware eine Speicherverwaltungssoftware enthalten. Hierbei han-delt es sich in der Regel um eine Webanwendung, die mit einem beliebigen Webbrowser ausgeführt werdenkann, der mit dem Netzwerk verbunden ist. In anderen Fällen wird die Software typischerweise auf demSpeichersystem oder einem Einzelserver ausgeführt, der unabhängig von den Servern betrieben wird, diedas SAN zum Speichern nutzen.

Verwenden Sie diese Verwaltungssoftware von Drittanbietern für die folgenden Aufgaben:

n Speicher-Array-Verwaltung, einschließlich LUN-Erstellung, Cacheverwaltung des Arrays, LUN-Zuord-nung und LUN-Sicherheit.

n Einrichtung von Replikations-, Prüfpunkt-, Snapshot- bzw. Spiegelungsfunktionen.

vSphere-Speicher

34 VMware, Inc.

Wenn Sie die SAN-Verwaltungssoftware auf einer virtuellen Maschine verwenden, können Sie die Vorteileder Ausführung einer virtuellen Maschine nutzen, einschließlich Failover mit vMotion, Failover mit vSphereHA. Aufgrund der zusätzlichen Indirektionsebene ist das SAN jedoch für die Verwaltungssoftware mögli-cherweise nicht sichtbar. In diesem Fall können Sie eine RDM verwenden.

Hinweis Die erfolgreiche Ausführung der Verwaltungssoftware durch eine virtuelle Maschine hängt letzt-lich von dem betreffenden Speichersystem ab.

Überlegungen zu SAN-SpeichersicherungenDas Vorhandensein einer guten Sicherungsstrategie ist einer der wichtigsten Aspekte der SAN-Verwaltung.In der SAN-Umgebung haben Sicherungen zwei Ziele. Das erste Ziel ist die Archivierung von Onlinedatenals Offlinemedien. Dieser Vorgang wird gemäß eines festgelegten Zeitplans regelmäßig für alle Onlinedatenwiederholt. Das zweite Ziel ist der Zugriff auf Offlinedaten zu Wiederherstellungszwecken. Für die Daten-bankwiederherstellung müssen z. B. häufig archivierte Protokolldateien abgerufen werden, die gegenwärtignicht online sind.

Die Planung von Sicherungen hängt von verschiedenen Faktoren ab:

n Ermittlung von kritischen Anwendungen, die häufigere Sicherungszyklen innerhalb eines bestimmtenZeitraums erfordern.

n Ziele für Wiederherstellungspunkte und -zeiten. Überlegen Sie, wie präzise Ihr Wiederherstellungs-punkt sein muss und wie lange Sie darauf warten können.

n Die mit den Daten verknüpfte Änderungsrate (Rate of Change, RoC). Wenn Sie beispielsweise die syn-chrone bzw. asynchrone Replikation verwenden, beeinflusst die RoC die erforderliche Bandbreite zwi-schen den primären und den sekundären Speichergeräten.

n Auswirkungen insgesamt auf die SAN-Umgebung, Speicherleistung (während der Sicherung) und an-dere Anwendungen.

n Ermittlung von Spitzenzeiten für den Datenverkehr im SAN (Sicherungen, die während dieser Spitzen-zeiten geplant werden, können die Anwendungen und den Sicherungsprozess verlangsamen).

n Zeit für das Planen aller Sicherungen im Datencenter.

n Zeit für das Sichern einer einzelnen Anwendung.

n Ressourcenverfügbarkeit für die Datenarchivierung; üblicherweise Zugriff auf Offlinedaten (Band).

Planen Sie für jede Anwendung ein Wiederherstellungszeitziel (Recovery Time Objective, RTO), wenn Siedie Sicherungsstrategie entwerfen. Das heißt, berücksichtigen Sie die Zeit und Ressourcen, die zum Durch-führen einer Sicherung benötigt werden. Wenn eine geplante Sicherung beispielsweise eine so große Daten-menge speichert, dass die Wiederherstellung sehr lange dauert, überprüfen Sie die geplante Sicherung. Füh-ren Sie die Sicherung häufiger durch, um die gespeicherte Datenmenge pro Sicherungsvorgang und dieWiederherstellungszeit zu reduzieren.

Wenn eine Anwendung innerhalb eines bestimmten Zeitraums wiederhergestellt werden muss, muss der Si-cherungsvorgang einen Zeitplan und eine spezielle Datenverarbeitung bieten, um diese Anforderung zu er-füllen. Eine schnelle Wiederherstellung kann die Verwendung von Wiederherstellungs-Volumes in einemOnlinespeicher erfordern, um die Notwendigkeit des Zugriffs auf langsame Offlinemedien für fehlende Da-tenkomponenten zu minimieren oder zu eliminieren.

Kapitel 2 Übersicht über die Verwendung von ESXi in einem SAN

VMware, Inc. 35

Verwenden von Drittanbieter-SicherungspaketenSie können in Ihren virtuellen Maschinen Sicherungslösungen von Drittanbietern zum Schutz des Systems,der Anwendung und der Benutzerdaten verwenden.

VMware bietet in Verbindung mit Drittanbieterprodukten „Storage APIs - Data Protection“. Bei Verwen-dung von APIs kann Drittanbietersoftware Sicherungen durchführen, ohne dass ESXi-Hosts mit der Verar-beitung der Sicherungsaufgaben belastet werden.

Die Drittanbieterprodukte, die „Storage APIs - Data Protection“ verwenden, können die folgenden Siche-rungsaufgaben durchführen:

n Vollständige, differenzielle und inkrementelle Image-Sicherung und Wiederherstellen virtueller Ma-schinen.

n Sicherung virtueller Maschinen, die unterstützte Windows- und Linux-Betriebssysteme verwenden, aufDateiebene.

n Sicherstellen der Datenkonsistenz durch Verwendung von Microsoft Volume Shadow Copy Service(VSS) für virtuelle Maschinen, die unterstützte Microsoft Windows-Betriebssysteme ausführen.

Da „Storage APIs - Data Protection“ die Snapshot-Funktionen von VMFS nutzt, treten bei Sicherungen, dieSie durchführen können, keine Ausfallzeiten bei virtuellen Maschinen auf. Diese Sicherungen wirken sichnicht störend aus, können jederzeit durchgeführt werden und benötigen keine erweiterten Sicherungsfens-ter.

Weitere Informationen zu „Storage APIs - Data Protection“ und zur Integration mit Sicherungsproduktenfinden Sie auf der VMware-Website oder wenden Sie sich an den Anbieter Ihrer Sicherungslösung.

vSphere-Speicher

36 VMware, Inc.

Verwenden von ESXi mit Fibre-Channel-SAN 3

Bei der Einrichtung von ESXi-Hosts für die Verwendung von FC-SAN-Speicher-Arrays sollten Sie bestimm-te Überlegungen anstellen. In diesem Abschnitt finden Sie Informationen zur Verwendung von ESXi mit ei-nem FC-SAN-Array.

Dieses Kapitel behandelt die folgenden Themen:

n „Fibre-Channel-SAN-Konzepte“, auf Seite 37

n „Verwenden von Zoning mit Fibre-Channel-SANs“, auf Seite 39

n „Zugriff auf Daten in einem Fibre-Channel-SAN durch virtuelle Maschinen“, auf Seite 39

Fibre-Channel-SAN-KonzepteWenn Sie ein ESXi-Administrator sind, der Hosts zusammen mit SANs einsetzen möchte, müssen Sie überAnwendungserfahrungen mit SAN-Konzepten verfügen. Weitere Informationen zur SAN-Technologie fin-den Sie in Printmedien oder dem Internet. Rufen Sie diese Quellen regelmäßig ab, um sich über Neuerun-gen in dieser Branche zu informieren.

Falls Sie sich mit der SAN-Technologie noch nicht auskennen, sollten Sie sich mit den Grundbegriffen ver-traut machen.

Ein SAN (Storage Area Network) ist ein spezielles Hochgeschwindigkeitsnetzwerk, das Computersystemeoder Hostserver mit Hochleistungsspeicher-Subsystemen verbindet. Zu den SAN-Komponenten zählenHostbusadapter (HBAs) in den Hostservern, Switches, die Speicherdatenverkehr weiterleiten, Verkabelung,Speicherprozessoren (SP) und Festplattenspeicher-Arrays.

Eine SAN-Topologie mit mindestens einem Switch im Netzwerk stellt ein SAN-Fabric dar.

Für den Datentransfer von Hostservern auf gemeinsamen Speicher wird vom SAN das Fibre-Channel-Proto-koll verwendet, das SCSI-Befehle in Fibre-Channel-Frames bündelt.

Um den Serverzugriff auf Speicher-Arrays einzuschränken, die diesem Server nicht zugeteilt sind, wird imSAN das Zoning verwendet. Normalerweise werden Zonen für jede Servergruppe erstellt, die auf eine ge-meinsam genutzte Gruppe von Speichergeräten und LUNs zugreift. Über Zonen wird festgelegt, welcheHBAs mit welchen Speicherprozessoren verbunden werden können. Geräte außerhalb einer Zone sind fürGeräte in einer Zone nicht sichtbar.

Das Zoning ist mit der LUN-Maskierung vergleichbar, die häufig zur Verwaltung von Berechtigungen ver-wendet wird. LUN-Maskierung ist ein Prozess, über den eine LUN für einige Hosts bereitgestellt wird – fürandere Hosts jedoch nicht.

Bei der Datenübertragung zwischen dem Hostserver und dem Speicher nutzt das SAN eine Technik, die alsMultipathing bezeichnet wird. Multipathing bietet die Möglichkeit, mehr als einen physischen Pfad vomESXi-Host zu einer LUN in einem Speichersystem bereitzustellen.

VMware, Inc. 37

In der Regel besteht ein einzelner Pfad von einem Host zu einer LUN aus einem HBA, Switch-Ports, Verbin-dungskabeln und dem Speicher-Controller-Port. Falls eine Komponente des Pfads ausfällt, wählt der Hostfür E/A-Vorgänge einen anderen verfügbaren Pfad. Der Prozess der Erkennung eines ausgefallenen Pfadsund des Wechsels auf einen anderen Pfad wird als Pfad-Failover bezeichnet.

Ports in Fibre-Channel-SANIm Kontext dieses Dokuments versteht man unter einem Port die Verbindung von einem Gerät im SAN. Je-der Knoten im SAN, wie z. B. ein Host, ein Speichergerät oder eine Fabric-Komponente, verfügt über min-destens einen Port, über den er mit dem SAN verbunden ist. Ports werden auf mehrere Arten ermittelt.

WWPN (World Wide PortName)

Ein globaler eindeutiger Bezeichner für einen Port, der den Zugriff bestimm-ter Anwendungen auf den Port ermöglicht. Die FC-Switches erkennen denWWPN eines Geräts oder Hosts und weisen dem Gerät eine Portadresse zu.

Port_ID (oder Portadres-se)

In einem SAN verfügt jeder Port über eine eindeutige Port-ID, die als FC-Ad-resse für den Port dient. Diese eindeutige ID ermöglicht die Weiterleitungvon Daten über das SAN zu diesem Port. Die Zuweisung der Port-ID durchdie FC-Switches erfolgt beim Anmelden des Geräts am Fabric. Die Port-IDgilt nur solange das Gerät angemeldet ist.

Bei der N-Port-ID-Virtualisierung (NPIV) kann sich ein einzelner FC-HBA-Port (N-Port) mit dem Fabricüber mehrere WWPNs verbinden. Auf diese Weise kann ein N-Port mehrere Fabric-Adressen beanspruchen,von denen jede als ein eindeutiges Element angezeigt wird. Im Kontext eines von ESXi-Hosts verwendetenSANs ermöglichen diese eindeutigen Bezeichner, einzelnen virtuellen Maschinen bei deren KonfigurationWWNs zuzuweisen.

Typen von Fibre-Channel-Speicher-ArraysESXi unterstützt verschiedene Speichersysteme und Arrays.

Zu den Speichertypen, die Ihr Host unterstützt, gehören Aktiv-Aktiv, Aktiv-Passiv und ALUA-konform.

Aktiv-Aktiv-Speicher-system

Ermöglicht den gleichzeitigen Zugriff auf die LUNs über alle Speicherports,die ohne wesentlichen Leistungsabfall verfügbar sind. Alle Pfade sind jeder-zeit aktiv (es sei denn, ein Pfad fällt aus).

Aktiv-Passiv-Speicher-system

Ein System, in dem ein Speicherprozessor aktiv den Zugriff auf eine vorhan-dene LUN ermöglicht. Die anderen Prozessoren fungieren als Sicherung fürdie LUN und können den Zugriff auf andere LUN-E/A-Vorgänge aktiv be-reitstellen. E/A-Daten können ausschließlich an einen aktiven Port gesendetwerden. Falls der Zugriff über den aktiven Speicherport fehlschlägt, kann ei-ner der passiven Speicherprozessoren durch die Server, die auf ihn zugrei-fen, aktiviert werden.

Asymmetrisches Spei-chersystem

Unterstützt Asymmetric Logical Unit Access (ALUA). ALUA-konforme Spei-chersysteme bieten verschiedene Zugriffsebenen für einzelne Ports. ALUAermöglicht es Hosts, den Status von Zielports festzustellen und Pfade zu pri-orisieren. Der Host verwendet einige der aktiven Pfade als primäre Pfade,andere als sekundäre Pfade.

vSphere-Speicher

38 VMware, Inc.

Verwenden von Zoning mit Fibre-Channel-SANsDas Zoning ermöglicht die Zugriffssteuerung in der SAN-Topologie. Über Zonen wird festgelegt, welcheHBAs mit welchen Zielen verbunden werden können. Wenn Sie bei der SAN-Konfiguration Zoning verwen-den, sind Geräte außerhalb einer Zone für Geräte in einer Zone nicht sichtbar.

Zoning wirkt sich folgendermaßen aus:

n Verringert die Anzahl an Zielen und LUNs, die einem Host angegeben werden.

n Steuert und isoliert Pfade in einem Fabric.

n Kann verhindern, dass andere Systeme als das ESXi-System auf ein bestimmtes Speichersystem zugrei-fen und möglicherweise VMFS-Daten löschen.

n Kann zum Trennen verschiedener Umgebungen verwendet werden, z. B. zum Trennen einer Testumge-bung von einer Produktionsumgebung.

Verwenden Sie für ESXi-Hosts ein Zoning mit einem einzelnen Initiator oder ein Zoning mit einem einzel-nen Initiator und einem einzelnen Ziel. Letzteres ist eine bevorzugte Vorgehensweise für das Zoning. DieVerwendung des restriktiveren Zonings verhindert Probleme und falsche Konfigurationen, die im SAN auf-treten können.

Ausführliche Anweisungen und die besten Vorgehensweisen für das Zoning erhalten Sie beim Speicher-Ar-ray- oder Switch-Anbieter.

Zugriff auf Daten in einem Fibre-Channel-SAN durch virtuelleMaschinen

ESXi speichert Festplattendateien einer virtuellen Maschine in einem VMFS-Datenspeicher, der sich auf ei-nem SAN-Speichergerät befindet. Sobald Gastbetriebssysteme der virtuellen Maschine SCSI-Befehle an dievirtuellen Festplatten senden, übersetzt die SCSI-Virtualisierungsebene diese Befehle in VMFS-Dateivorgän-ge.

Wenn eine virtuelle Maschine mit seinen auf einem SAN gespeicherten virtuellen Festplatten interagiert,finden die folgenden Prozesse statt:

1 Wenn das Gastbetriebssystem in einer virtuellen Maschine zum Lesen oder Schreiben auf eine SCSI-Festplatte zugreifen muss, sendet dieses SCSI-Befehle an die virtuelle Festplatte.

2 Gerätetreiber im Betriebssystem der virtuellen Maschine kommunizieren mit den virtuellen SCSI-Con-trollern.

3 Der virtuelle SCSI-Controller leitet den Befehl an den VMkernel weiter.

4 Der VMkernel führt die folgenden Aufgaben aus.

a speichert die Datei im VMFS-Volume, das der Gastbetriebssystem-Festplatte der virtuellen Maschi-ne entspricht.

b ordnet die Anforderungen für die Blöcke auf der virtuellen Festplatte den Blöcken auf dem ent-sprechenden physischen Gerät zu.

c Sendet die geänderte E/A-Anforderung vom Gerätetreiber im VMkernel an den physischen HBA.

5 Der physische HBA führt die folgenden Aufgaben aus.

a Bündelt die E/A-Anforderungen gemäß den Regeln des FC-Protokolls in Pakete.

b übermittelt die Anforderung an das SAN.

Kapitel 3 Verwenden von ESXi mit Fibre-Channel-SAN

VMware, Inc. 39

6 Abhängig von dem Port, den der HBA für die Verbindung zum Fabric verwendet, empfängt einer derSAN-Switches die Anforderung und leitet sie an das Speichergerät weiter, auf das der Host zugreifenmöchte.

vSphere-Speicher

40 VMware, Inc.

Konfigurieren des Fibre-Channel-Speichers 4

Wenn Sie ESXi-Systeme mit SAN-Speicher verwenden, müssen bestimmte Hardware- und Systemanforde-rungen eingehalten werden.

Dieses Kapitel behandelt die folgenden Themen:

n „Anforderungen des Fibre-Channel-SAN von ESXi“, auf Seite 41

n „Installations- und Konfigurationsschritte“, auf Seite 43

n „N-Port-ID-Virtualisierung“, auf Seite 43

Anforderungen des Fibre-Channel-SAN von ESXiUm die Konfiguration des SAN und die Einrichtung des ESXi-Systems für die Verwendung eines SAN-Spei-chers vorzubereiten, sollten Sie die Anforderungen und Empfehlungen lesen.

n Stellen Sie sicher, dass die SAN-Speicherhardware- und Firmware-Kombinationen in Verbindung mitESXi-Systemen unterstützt werden. Eine aktuelle Liste finden Sie unter vSphere-Kompatibilitätshandbuch.

n Konfigurieren Sie Ihr System, sodass nur ein VMFS-Volume pro LUN vorhanden ist.

n Wenn Sie keine Server ohne Festplatte verwenden, dürfen Sie keine Diagnosepartition auf einer SAN-LUN einrichten.

Sollten Sie jedoch Server ohne Festplatte verwenden, die über ein SAN gestartet werden, ist eine ge-meinsame Diagnosepartition angebracht.

n Verwenden Sie RDMs für den Zugriff auf Raw-Festplatten. Weitere Informationen hierzu finden Sie un-ter Kapitel 17, „Raw-Gerätezuordnung“, auf Seite 171.

n Damit das Multipathing ordnungsgemäß funktioniert, muss jede LUN allen ESXi-Hosts dieselbe LUN-ID-Nummer anzeigen.

n Stellen Sie sicher, dass für das Speichergerät eine ausreichend große Warteschlange angegeben ist. DieWarteschlangentiefe für den physischen HBA können Sie während der Systeminstallation festlegen.Weitere Informationen über das Ändern der Warteschlangentiefe für HBAs und virtuelle Maschinenfinden Sie unter vSphere-Fehlerbehebungshandbuch.

n Erhöhen Sie den Wert des SCSI-Parameters TimeoutValue auf 60 für virtuelle Maschinen, auf denen Mic-rosoft Windows ausgeführt wird, damit Windows aus Pfad-Failover resultierende E/A-Verzögerungenbesser toleriert. Weitere Informationen hierzu finden Sie unter „Festlegen der Zeitüberschreitung beiWindows-Gastbetriebssystemen“, auf Seite 243.

VMware, Inc. 41

Einschränkungen des Fibre-Channel-SAN von ESXiFür die Verwendung von ESXi in einem SAN gelten gewisse Einschränkungen.

n ESXi unterstützt keine über FC verbundenen Bandlaufwerke.

n Sie können keine Multipathing-Software für virtuelle Maschinen verwenden, um einen E/A-Lastenaus-gleich für eine einzelne physische LUN durchzuführen. Wenn jedoch Ihre virtuelle Microsoft Windows-Maschine dynamische Datenträger verwendet, gilt diese Einschränkung nicht. Weitere Informationenüber das Konfigurieren dynamischer Datenträger finden Sie unter „Dynamische Festplattenspiegelungeinrichten“, auf Seite 164.

Festlegen der LUN-ZuordnungenDieses Thema bietet einige grundlegende Informationen zum Zuweisen von LUNs bei Ausführung des ESXiin Verbindung mit einem SAN.

Beachten Sie beim Festlegen von LUN-Zuordnungen die folgenden Punkte:

Bereitstellen von Spei-cher

Damit das ESXi-System die LUNs beim Start erkennt, müssen alle LUNs fürdie entsprechenden HBAs bereitgestellt werden, bevor das SAN mit demESXi-System verbunden wird.

VMware empfiehlt die gleichzeitige Bereitstellung aller LUNs für alle ESXi-HBAs. HBA-Failover funktioniert nur, wenn für alle HBAs dieselben LUNssichtbar sind.

Stellen Sie für LUNs, die von mehreren Hosts gemeinsam genutzt werden, si-cher, dass die LUN-IDs über alle Hosts hinweg konsistent sind. Beispielswei-se sollte LUN 5 Host 1, Host 2 und Host 3 als LUN 5 zugeordnet werden.

vMotion und VMwareDRS

Wenn Sie vCenter Server und vMotion oder DRS verwenden, sollten Sie si-cherstellen, dass die LUNs für die virtuellen Maschinen allen ESXi-Hosts be-reitgestellt werden. Dies bietet die höchste Flexibilität beim Verschieben vir-tueller Maschinen.

Aktiv/Aktiv- im Ver-gleich zu Aktiv/Passiv-Arrays

Bei der Verwendung von vMotion oder DRS mit einem SAN-Speichergerätvom Typ „Aktiv/Passiv“ sollten Sie sicherstellen, dass alle ESXi-Systeme übereinheitliche Pfade zu allen Speicherprozessoren verfügen. Anderenfalls kannes bei vMotion-Migrationen zu einem Pfad-Thrashing kommen.

Für Aktiv/Passiv-Speicher-Arrays, die in der Speicher-/SAN-Kompatibilitätnicht aufgelistet sind, werden keine Speicherport-Failover von VMware un-terstützt. In solchen Fällen, müssen Sie den Server am aktiven Port des Spei-cher-Arrays anschließen. Durch diese Konfiguration wird sichergestellt, dassdie LUNs dem ESXi-Host angezeigt werden.

Festlegen von Fibre-Channel-HBAsIn der Regel funktionieren FC-HBAs, die Sie auf Ihrem ESXi-Host verwenden, mit den Standardkonfigurati-onseinstellungen ordnungsgemäß.

Sie sollten die von Ihrem Speicher-Array-Anbieter bereitgestellten Konfigurationsrichtlinien befolgen. Be-achten Sie beim Einrichten von Fibre-Channel-HBA die folgenden Aspekte.

n Verwenden Sie in einem einzelnen Host keine FC-HBAs von verschiedenen Anbietern. Zwar wird derEinsatz verschiedener Modelle desselben HBAs unterstützt, auf eine einzelne LUN kann jedoch nur vonHBAs desselben Typs zugegriffen werden.

n Stellen Sie sicher, dass die Firmware-Ebenen aller HBAs einheitlich sind.

vSphere-Speicher

42 VMware, Inc.

n Legen Sie den Zeitüberschreitungswert für das Erkennen eines Failovers fest. Um eine optimale Leis-tung zu erzielen, ändern Sie den Standardwert nicht.

n ESXi unterstützt End-to-End-Konnektivität für Fibre Channel (16 GB).

Installations- und KonfigurationsschritteDieses Kapitel bietet eine Übersicht über Installations- und Konfigurationsschritte zur Einrichtung IhrerSAN-Umgebung für die Kompatibilität mit ESXi.

Führen Sie zur Konfiguration Ihrer ESXi SAN-Umgebung die folgenden Schritte aus.

1 Entwerfen Sie Ihr SAN, falls noch nicht konfiguriert. Die meisten SANs erfordern für die Kompatibilitätmit ESXi nur geringe Änderungen.

2 Stellen Sie sicher, dass alle SAN-Komponenten die Anforderungen erfüllen.

3 Nehmen Sie die erforderlichen Änderungen am Speicher-Array vor.

Für die Konfiguration eines SAN zur Verwendung mit VMware ESXi bieten die meisten Anbieter spezi-fische Dokumentationen.

4 Richten Sie die HBAs für die Hosts ein, die mit dem SAN verbunden sind.

5 Installieren Sie ESXi auf den Hosts.

6 Erstellen Sie virtuelle Maschinen und installieren Sie Gastbetriebssysteme.

7 (Optional) Konfigurieren Sie das System für vSphere HA-Failover oder für die Verwendung von Micro-soft Cluster-Diensten.

8 Aktualisieren oder ändern Sie ggf. die Umgebung.

N-Port-ID-VirtualisierungN-Port-ID-Virtualisierung (NPIV) ist ein ANSI T11-Standard, der beschreibt, wie ein einzelner Fibre-Chan-nel-HBA-Port mit dem Fabric über mehrere WWPNs (Worldwide Port Names) verbunden werden kann.Auf diese Weise kann ein Fabric-gebundener N-Port mehrere Fabric-Adressen beanspruchen. Jede Adressezeigt eine eindeutige Entität auf dem Fibre-Channel-Fabric.

Funktionsweise des NPIV-basierten LUN-ZugriffsNPIV bietet die Möglichkeit, dass ein einziger FC-HBA-Port mehrere eindeutige WWNs mit dem Fabric re-gistriert, von denen jeder einer einzelnen virtuellen Maschine zugewiesen werden kann.

SAN-Objekte wie Switches, HBAs, Speichergeräte oder virtuelle Maschinen können WWN-Bezeichnern(World Wide Name) zugewiesen werden. WWNs dienen als eindeutige Bezeichner solcher Objekte im Fibre-Channel-Fabric. Verfügen virtuelle Maschinen über WWN-Zuweisungen, verwenden sie diese für den ge-samten RDM-Verkehr, sodass die damit verknüpften LUNs von RDMs auf der virtuellen Maschine für dieentsprechenden WWNs nicht maskiert sein dürfen. Sind für virtuelle Maschinen keine WWN-Zuweisungenvorhanden, erfolgt der Zugriff auf Speicher-LUNs über die WWNs der physischen HBAs des Hosts. Durchdie Verwendung von NPIV kann ein SAN-Administrator jedoch den Speicherzugriff für jede virtuelle Ma-schinen überwachen und weiterleiten. Die entsprechende Funktionsweise wird im folgenden Abschnitt be-schrieben.

Wenn einer virtuellen Maschine ein WWN zugewiesen ist, wird die Konfigurationsdatei der virtuellen Ma-schine (.vmx) aktualisiert, sodass sie ein WWN-Paar (bestehend aus World Wide Port Name (WWPN) undWorld Wide Node Name (WWNN)) enthält. Da diese virtuelle Maschine eingeschaltet ist, instanziiert derVMkernel einen virtuellen Port (VPORT) auf dem physischen HBA, der für den Zugriff auf die LUN ver-wendet wird. Beim VPORT handelt es sich um einen virtuellen HBA, der dem FC-Fabric als physischerHBA angezeigt wird. Demnach verfügt er über einen eigenen eindeutigen Bezeichner – dem WWN-Paar,

Kapitel 4 Konfigurieren des Fibre-Channel-Speichers

VMware, Inc. 43

das der virtuellen Maschine zugewiesen wurde. Für die virtuelle Maschine ist jeder VPORT spezifisch. So-bald die virtuelle Maschine ausgeschaltet ist, wird der VPORT auf dem Host gelöscht und dem FC-Fabricnicht mehr angezeigt. Wenn eine virtuelle Maschine von einem Host zu einem anderen migriert wird, wirdder VPORT auf dem ersten Host geschlossen und auf dem Zielhost geöffnet.

Wenn NPIV aktiviert ist, werden zur Erstellungszeit WWN-Paare (WWPN & WWNN) für jede virtuelle Ma-schine angegeben. Wenn eine virtuelle Maschine, die NPIV verwendet, eingeschaltet wird, verwendet sie je-de dieser WWN-Paare nacheinander, um einen Zugriffspfad auf den Speicher zu ermitteln. Die Anzahl aninstanziierten VPORTs entspricht der Anzahl an im Host vorhandenen physischen HBAs. Auf jedem physi-schen HBA, zu dem ein physischer Pfad gefunden wird, wird ein VPORT erstellt. Jeder physische Pfad wirdverwendet, um den virtuellen Pfad zu ermitteln, der für den Zugriff auf die LUN verwendet werden soll.Beachten Sie, dass in diesem Ermittlungsprozess HBAs, die NPIV nicht erkennen, übersprungen werden,weil darauf keine VPORTs instanziiert werden können.

Anforderungen für die Verwendung von NPIVWenn Sie NPIV auf Ihren virtuellen Maschinen aktivieren möchten, sollten Sie bestimmte Anforderungenberücksichtigen.

Es bestehen die folgenden Anforderungen:

n NPIV wird nur für virtuelle Maschinen mit Raw-Gerätezuordnungsfestplatten unterstützt. VirtuelleMaschinen mit herkömmlichen virtuellen Festplatten verwenden die WWNs der physischen HBAs desHosts.

n Die HBAs auf Ihrem Host müssen NPIV unterstützen.

Hinweise finden Sie unter vSphere-Kompatibilitätshandbuch und in der Dokumentation des Anbieters.

n Verwenden Sie HBAs des gleichen Typs, entweder ausschließlich QLogic oder ausschließlich Emu-lex. VMware unterstützt den Zugriff von heterogenen HBAs auf dieselben LUNs auf demselbenHost nicht.

n Wenn ein Host mehrere physische HBAs als Speicherpfade verwendet, teilen Sie alle physischenPfade auf die virtuelle Maschine in Zonen auf. Dies ist erforderlich, damit das Multipathing selbstdann unterstützt wird, wenn nur ein Pfad aktiv ist.

n Stellen Sie sicher, dass die physischen HBAs auf dem Host auf alle LUNs zugreifen können, auf dievon NPIV-aktivierten virtuellen Maschinen zugegriffen wird, die auf dem Host ausgeführt werden.

n Die Switches in der Fabric müssen NPIV erkennen können.

n Stellen Sie bei der Konfiguration einer LUN für den NPIV-Zugriff auf Speicherebene sicher, dass dieNPIV-LUN-Nummer und die NPIV-Ziel-ID mit der physischen LUN und der Ziel-ID übereinstimmen.

NPIV-Funktionen und -EinschränkungenErfahren Sie mehr über die spezifischen Funktionen und Einschränkungen der Verwendung von NPIV mitESXi.

ESXi mit NPIV unterstützt die folgenden Elemente:

n NPIV unterstützt vMotion. Wenn Sie vMotion zum Migrieren einer virtuellen Maschine verwenden,wird der zugewiesene WWN beibehalten.

Wenn Sie eine NPIV-aktivierte virtuelle Maschine auf einen Host migrieren, der NPIV nicht unterstützt,verwendet VMkernel wieder einen physischen HBA zum Weiterleiten des E/A.

n Wenn Ihre FC-SAN-Umgebung die gleichzeitige E/A auf den Festplatten eines Aktiv-Aktiv-Arrays un-terstützt, wird die gleichzeitige E/A auf zwei verschieden NPIV-Ports ebenfalls unterstützt.

vSphere-Speicher

44 VMware, Inc.

Für die Verwendung von ESXi mit NPIV gelten folgende Einschränkungen:

n Weil die NPIV-Technologie eine Erweiterung des FC-Protokolls ist, benötigt sie einen FC-Switch undfunktioniert nicht auf den direkt angehängten FC-Festplatten.

n Wenn eine virtuelle Maschine oder Vorlage mit einer WWN-Zuweisung geklont wird, behält der Klonden WWN nicht bei.

n NPIV unterstützt nicht Storage vMotion.

n Wenn während der Laufzeit virtueller Maschinen die NPIV-Fähigkeit eines FC-Switches deaktiviertund anschließend erneut aktiviert wird, kann ein FC-Link fehlschlagen und die Ein-/Ausgabe gestopptwerden.

Zuweisen von WWNs zu virtuellen MaschinenWeisen Sie der virtuellen Maschine mit einer RDM-Festplatte die WWN-Einstellungen zu.

Sie können bis zu 16 WWN-Paare erstellen, die jeweils den ersten 16 physischen FC-HBAs auf dem Hostzugeordnet werden können.

Voraussetzungen

Erstellen Sie eine virtuelle Maschine mit einer RDM-Festplatte. Weitere Informationen hierzu finden Sie un-ter „Erstellen von virtuellen Maschinen mit RDMs im vSphere Web Client“, auf Seite 177.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

2 Klicken Sie mit der rechten Maustaste auf die virtuelle Maschine und wählen Sie Einstellungen bear‐beiten.

3 Klicken Sie auf VM‐Optionen.

4 Klicken Sie auf das Dreieck „Fibre-Channel-NPIV“, um die NPIV-Optionen zu erweitern.

5 Deaktivieren Sie das Kontrollkästchen NPIV für diese virtuelle Maschine vorübergehend deaktivie‐ren.

6 Wählen Sie Neue WWNs generieren.

7 Geben Sie die Anzahl der WWNNs und WWPNs an.

Mindestens zwei WWPNs werden benötigt, um Failover mit NPIV zu unterstützen. In der Regel wirdnur ein WWNN für jede virtuelle Maschine erstellt.

Der Host erstellt WWN-Zuweisungen für die virtuelle Maschine.

Weiter

Registrieren Sie den neu erstellten WWNs in der Fabric, sodass sich die virtuelle Maschine beim Switch an-melden kann, und weisen Sie den WWNs Speicher-LUNs zu.

Ändern von WWN-ZuweisungenFür eine virtuelle Maschine mit einer RDM können Sie WWN-Zuweisungen ändern.

In der Regel müssen Sie die vorhandenen WWN-Zuweisungen auf Ihrer virtuellen Maschine nicht ändern.Unter bestimmten Umständen, wenn beispielsweise manuell zugewiesene WWNs Konflikte auf dem SANverursachen, müssen Sie möglicherweise WWNs ändern oder entfernen.

Kapitel 4 Konfigurieren des Fibre-Channel-Speichers

VMware, Inc. 45

Voraussetzungen

Stellen Sie hierzu sicher, dass die virtuelle Maschine ausgeschaltet ist, bevor Sie die vorhandenen WWNsbearbeiten.

Stellen Sie vor Beginn sicher, dass der SAN-Administrator die Speicher-LUN-ACL bereitgestellt hat, damitder ESXi-Host der virtuellen Maschine darauf zugreifen kann.

Vorgehensweise

1 Öffnen Sie das Eigenschaftendialogfeld der virtuellen Maschine, indem Sie auf den Link Einstellungenbearbeiten für die ausgewählte virtuelle Maschine klicken.

2 Klicken Sie auf die Registerkarte Optionen und wählen Sie Fibre‐Channel‐NPIV.

Das Dialogfeld Eigenschaften der virtuellen Maschinen wird geöffnet.

3 Bearbeiten Sie die WWN-Zuweisungen, indem Sie eine der folgenden Optionen auswählen:

Option Beschreibung

NPIV für diese virtuelle Maschinevorübergehend deaktivieren

Deaktivieren Sie die WWN-Zuweisungen für die virtuelle Maschine.

Unverändert lassen Die vorhandenen WWN-Zuweisungen werden beibehalten. Im Abschnittmit den schreibgeschützten WWN-Zuweisungen in diesem Dialogfensterwerden die Knoten- und die Portwerte aller vorhandenen WWN-Zuwei-sungen angezeigt.

Neue WWNs generieren Neue WWNs werden generiert und der virtuellen Maschine zugewiesen,wobei vorhandene WWNs überschrieben werden (dies betrifft nicht dieHBA-WWNs).

WWN-Zuweisungen entfernen Die der virtuellen Maschine zugewiesenen WWNs werden entfernt und eswerden die HBA-WWNs für den Zugriff auf die Speicher-LUNs verwen-det. Diese Option ist nicht verfügbar, wenn Sie eine neue virtuelle Maschi-ne erstellen.

4 Klicken Sie auf OK, um Ihre Änderungen zu speichern.

vSphere-Speicher

46 VMware, Inc.

Konfigurieren von Fibre-Channelüber Ethernet 5

Mithilfe des Fibre Channel over Ethernet-(FCoE-)Protokolls kann ein ESXi-Host auf den Fibre-Channel-Spei-cher zugreifen.

Das FCoE-Protokoll kapselt Fibre-Channel-Frames in Ethernet-Frames ein. Deshalb benötigt Ihr Host keinespeziellen Fibre-Channel-Links zum Herstellen einer Verbindung mit dem Fibre-Channel-Speicher, kannaber 10 Gbit Lossless Ethernet zum Zustellen des Fibre-Channel-Datenverkehrs verwenden.

Dieses Kapitel behandelt die folgenden Themen:

n „Adapter für Fibre-Channel über Ethernet“, auf Seite 47

n „Konfigurationsrichtlinien für Software-FCoE“, auf Seite 48

n „Einrichten des Netzwerks für Software-FCoE im vSphere Web Client“, auf Seite 48

n „Hinzufügen von Software-FCoE-Adaptern in vSphere Web Client“, auf Seite 49

Adapter für Fibre-Channel über EthernetUm Fibre-Channel über Ethernet (FCoE) zu verwenden, müssen Sie FCoE-Adapter auf dem Host installie-ren.

Die von VMware unterstützten Adapter lassen sich in der Regel in zwei Kategorien einteilen: Hardware-FCoE-Adapter und Software-FCoE-Adapter, die den nativen FCoE-Stack in ESXi verwenden.

Hardware-FCoE-AdapterDiese Kategorie enthält vollständig verlagerte spezialisierte Converged Network Adapters (CNAs), dieNetzwerk- und Fibre-Channel-Funktionalität auf derselben Karte enthalten.

Wenn solch ein Adapter installiert ist, erkennt Ihr Host beide CNA-Komponenten und kann diese verwen-den. Im Client wird die Netzwerkkomponente als Standardnetzwerkadapter (vmnic) und die Fibre-Chan-nel-Komponente als FCoE-Adapter (vmhba) angezeigt. Sie müssen den Hardware-FCoE-Adapter zum Ver-wenden nicht konfigurieren.

Software-FCoE-AdapterEin Software-FCoE-Adapter verwendet den nativen FCoE-Protokoll-Stack in ESXi zum Verarbeiten von Pro-tokollen. Der Software-FCoE-Adapter wird mit einer Netzwerkkarte verwendet, die DCB- (Data CenterBridging-) und E/A-Offload-Funktionen bietet. Intel X520 ist ein Beispiel für eine Netzwerkkarte dieser Art.Weitere Informationen zu Netzwerkkarten, die Software-FCoE unterstützen, finden Sie unter vSphere-Kompa-tibilitätshandbuch.

VMware, Inc. 47

Für den Software-FCoE-Adapter müssen Sie das Netzwerk ordnungsgemäß konfigurieren und anschließendden Adapter aktivieren.

Hinweis Die Anzahl an Software-FCoE-Adaptern, die Sie aktivieren, entspricht der Anzahl der physischenNetzwerkkarten-Ports. ESXi unterstützt maximal vier Software-FCoE-Adapter auf einem Host.

Konfigurationsrichtlinien für Software-FCoEBefolgen Sie beim Einrichten einer Netzwerkumgebung für ESXi-Software-FCoE die Richtlinien und BestPractices von VMware.

Richtlinien für Netzwerk-SwitchesBefolgen Sie diese Richtlinien, wenn Sie einen Netzwerk-Switch für eine FCoE-Softwareumgebung konfigu-rieren:n Deaktivieren Sie das Spanning-Tree-Protokoll (STP) auf den Ports, die mit Ihrem ESXi-Host kommuni-

zieren. Durch das Aktivieren des STP wird möglicherweise die Antwort des FCoE-Initialisierungsproto-kolls (FIP) am Switch verzögert und der Zustand „Keine Pfade verfügbar“ verursacht.

FIP ist ein Protokoll, das FCoE zum Ermitteln und Initialisieren von FCoE-Elementen im Ethernet ver-wendet.

n Schalten Sie die prioritätsbasierte Flusssteuerung (Priority-based Flow Control, PFC) ein und legen Siesie auf „AUTO“ fest.

Es wird empfohlen, die folgende Firmware für den FCoE-Switch zu verwenden:n Cisco Nexus 5000: Version 4.1(3)N2 oder höher.

n Brocade FCoE-Switch: Version 6.3.1 oder höher.

Netzwerkadapter - Best PracticesWenn Sie planen, Software-FCoE-Adapter für den Einsatz mit Netzwerkadaptern zu aktivieren, gelten be-sondere Erwägungen.

n Stellen Sie sicher, dass auf dem FCoE-Netzwerkadapter der neueste Microcode installiert ist.

n Wenn der Netzwerkadapter über mehrere Ports verfügt, fügen Sie bei der Konfiguration von Netzwer-ken jeden Port zu einem eigenen vSwitch hinzu. Dadurch vermeiden Sie den Zustand „Keine Pfade ver-fügbar“, wenn ein störendes Ereignis, wie z. B. eine MTU-Änderung, eintritt.

n Verschieben Sie einen Netzwerkadapter-Port nicht von einem vSwitch zu einem anderen vSwitch, wennder FCoE-Datenverkehr aktiv ist. Falls Sie diese Änderung vornehmen müssen, starten Sie danach denHost neu.

n Falls das Ändern des vSwitches für einen Netzwerkadapter-Port einen Ausfall verursacht, verschiebenSie den Port auf den ursprünglichen vSwitch zurück, um das Problem zu beheben.

Einrichten des Netzwerks für Software-FCoE im vSphere Web ClientBevor Sie die Software-FCoE-Adapter aktivieren, müssen Sie VMkernel-Netzwerkadapter für alle physi-schen FCoE-Netzerkkarten erstellen, die auf dem Host installiert sind.

Dieses Verfahren erklärt, wie ein einzelner VMkernel-Netzwerkadapter erstellt wird, der mit einem einzel-nen physischen FCoE-Netzwerkadapter über einen vSphere Standard-Switch verbunden ist. Wenn Ihr Hostmehrere Netzwerkadapter oder mehrere Ports auf dem Adapter hat, verbinden Sie jede FCoE-Netzwerkkar-te mit einem getrennten Standard Switch. Weitere Informationen finden Sie in der Dokumentation vSphere-Netzwerk.

Hinweis ESXi unterstützt maximal vier Netzwerkadapter-Ports, die für Software-FCoE verwendet werden.

vSphere-Speicher

48 VMware, Inc.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf Aktionen, und wählen Sie Alle vCenter‐Aktionen > Netzwerk hinzufügen aus.

3 Wählen Sie VMkernel-Netzwerkadapter aus und klicken Sie auf Weiter.

4 Wählen Sie Neuer Standard‐Switch aus, um einen vSphere Standard-Switch zu erstellen.

5 Wählen Sie unter „Freie Adapter“ den Netzwerkadapter (vmnic#) aus, der FCoE unterstützt, und kli-cken Sie auf Zuweisen.

Stellen Sie sicher, dass die Adapter den aktiven Adaptern zugewiesen werden.

6 Geben Sie eine Netzwerkbezeichnung ein.

Eine Netzwerkbezeichnung ist ein aussagekräftiger Name, der den VMkernel-Adapter identifiziert, denSie erstellen, z. B. „FCoE“.

7 Geben Sie eine VLAN-ID an und klicken Sie auf Weiter.

Da der FCoE-Datenverkehr ein isoliertes Netzwerk benötigt, stellen Sie sicher, dass sich die von Ihnenangegebene VLAN-ID von der ID unterscheidet, die für das reguläre Netzwerk auf Ihrem Host verwen-det wird. Weitere Informationen finden Sie in der Dokumentation vSphere-Netzwerk.

8 Nach dem Abschließen der Konfiguration prüfen Sie die Informationen, und klicken Sie auf Beenden.

Sie haben den virtuellen VMkernel-Adapter für den auf Ihrem Host installierten physischen FCoE-Netzwer-kadapter erstellt.

Hinweis Um Störungen im FCoE-Datenverkehr zu vermeiden, sollten Sie den FCoE-Netzwerkadapter(vmnic #) nicht aus dem vSphere Standard-Switch entfernen, nachdem Sie das FCoE-Netzwerk eingerichtethaben.

Hinzufügen von Software-FCoE-Adaptern in vSphere Web ClientSie müssen Software-FCoE-Adapter aktivieren, damit der Host sie für den Zugriff auf den Fibre-Channel-Speicher verwenden kann.

Die Anzahl der Software-FCoE-Adapter, die Sie aktivieren können, entspricht der Anzahl der physischenFCoE-Netzwerkkarten-Ports auf Ihrem Host. ESXi unterstützt maximal vier Software-FCoE-Adapter auf ei-nem Host.

Voraussetzungen

Richten Sie das Netzwerk für den Software-FCoE-Adapter ein.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter und anschließend auf Hinzufügen.

4 Wählen Sie Software‐FCoE‐Adapter.

5 Wählen Sie im Dialogfeld „Hinzufügen von Software-FCoE-Adaptern“ eine entsprechende vmnic ausder Dropdown-Liste der physischen Netzwerkadapter aus.

Nur diejenigen Adapter, die noch nicht für den FCoE-Datenverkehr verwendet werden, werden aufge-listet.

Kapitel 5 Konfigurieren von Fibre-Channel über Ethernet

VMware, Inc. 49

6 Klicken Sie auf OK.

Der Software-FCoE-Adapter wird in der Liste der Speicheradapter angezeigt.

Nachdem Sie den Software-FCoE-Adapter aktiviert haben, können Sie seine Eigenschaften anzeigen. WennSie den Adapter nicht verwenden, können Sie ihn aus der Liste der Adapter entfernen.

vSphere-Speicher

50 VMware, Inc.

Ändern des Fibre-Channel-Speichersfür ESXi 6

In diesem Abschnitt werden viele der in Verbindung mit VMware ESXi unterstützten Speichergeräte vorge-stellt. Für jedes Gerät werden die wichtigsten bekannten Probleme, Herstellerinformationen (sofern verfüg-bar) sowie Informationen aus Artikeln der VMware-Knowledgebase aufgeführt.

Hinweis Die Informationen zu bestimmten Speichergeräten werden nur mit jeder neuen Version aktuali-siert. Unter Umständen sind neuere Informationen bereits verfügbar. Informationen hierzu können Sie demaktuellen Handbuch zur SAN-/Speicherkompatibilität oder den Artikeln der VMware-Knowledgebase ent-nehmen, oder Sie wenden sich an den Speicher-Array-Anbieter.

Dieses Kapitel behandelt die folgenden Themen:

n „Testen der ESXi-SAN-Konfigurationen“, auf Seite 52

n „Allgemeine Überlegungen zur Einrichtung für Fibre-Channel-SAN-Arrays“, auf Seite 52

n „EMC CLARiiON-Speichersysteme in Fibre-Channel-SAN-Konfigurationen“, auf Seite 53

n „EMC Symmetrix-Speichersysteme“, auf Seite 53

n „IBM System Storage DS4800-Speichersysteme“, auf Seite 54

n „IBM Systems Storage 8000 und IBM ESS800“, auf Seite 55

n „HP StorageWorks-Speichersysteme“, auf Seite 56

n „Hitachi Data Systems-Speicher“, auf Seite 56

n „NetApp-Speicher“, auf Seite 57

n „LSI-basierte Speichersysteme“, auf Seite 57

VMware, Inc. 51

Testen der ESXi -SAN-KonfigurationenESXi Server unterstützt zahlreiche SAN-Speichersysteme mit unterschiedlichen Konfigurationen. VMwaretestet ESXi normalerweise mit unterstützten Speichersystemen im Bezug auf die grundlegende Konnektivi-tät, HBA-Failover usw.

Es sind nicht alle Speichergeräte für alle Funktionen und Möglichkeiten von ESXi zertifiziert und die unter-schiedlichen Anbieter haben ggf. spezifische Schwerpunkte im Hinblick auf den Support für ESXi.

Grundlegende Konnek-tivität

Es wird getestet, ob ESXi das Speicher-Array erkennt und damit ausgeführtwerden kann. Bei dieser Konfiguration sind Multipathing oder andere Failo-ver-Arten nicht zulässig.

HBA-Failover Der Server verfügt über mehrere HBAs, die eine Verbindung zu einem odermehreren SAN-Switches herstellen. Der Server arbeitet nur bei HBA- undSwitchausfällen zuverlässig.

Speicherport-Failover Der Server ist mehreren Speicherports angehängt und verhält sich bei Spei-cherport- und Switch-Ausfällen zuverlässig.

Starten über ein SAN Der Host startet von einer über ein SAN konfigurierten LUN und nicht vomServer aus.

Direktverbindung Der Server stellt ohne die Verwendung von Switches eine Verbindung zumArray neu her. Für alle anderen Tests wird eine Fabric-Verbindung verwen-det. FC-AL (Abritated Loop) wird nicht unterstützt.

Clusterbildung Beim Testen des Systems wird Microsoft Cluster Service in der virtuellen Ma-schine ausgeführt.

Allgemeine Überlegungen zur Einrichtung für Fibre-Channel-SAN-Arrays

Wenn Sie den FC-SAN-Speicher für den Einsatz mit ESXi vorbereiten, müssen die für alle Speicher-Arraysgeltenden allgemeinen Anforderungen erfüllt sein.

Stellen Sie bei allen Speicher-Arrays sicher, dass die folgenden Anforderungen erfüllt werden:

n LUNs müssen für jeden HBA auf jedem Host mit der gleichen LUN-ID-Nummer bereitgestellt werden.

Da die Anweisungen zur Konfiguration identischer SAN-LUN-IDs herstellerabhängig sind, sollten Sieweitere Informationen zu diesem Thema der Dokumentation Ihres Speicher-Arrays entnehmen.

n Legen Sie, sofern für bestimmte Speicher-Arrays keine abweichenden Angaben gemacht werden, denHosttyp für LUNs, die ESXi präsentiert werden, auf Linux, Linux Cluster oder, falls verfügbar, aufvmware oder esx fest.

n Wenn Sie vMotion, DRS oder HA verwenden, stellen Sie sicher, dass auf den Quell- und Zielhosts fürvirtuelle Maschinen die gleichen LUNs mit identischen LUN-IDs angezeigt werden.

SAN-Administratoren mag es unüblich erscheinen, mehreren Hosts die gleichen LUNs bereitzustellen,da sie besorgt sind, dass dies zu einer Datenbeschädigung führen könnte. Da VMFS jedoch verhindert,dass mehrere virtuelle Maschinen gleichzeitig in die gleiche Datei schreiben, können die LUNs allen er-forderlichen ESXi-Systemen bereitgestellt werden.

vSphere-Speicher

52 VMware, Inc.

EMC CLARiiON-Speichersysteme in Fibre-Channel-SAN-Konfigurationen

EMC CLARiiON-Speichersysteme arbeiten mit ESXi-Hosts in SAN-Konfigurationen.

Die grundlegende Konfiguration umfasst die folgenden Schritte:

1 Installieren und Konfigurieren des Speichergeräts

2 Konfigurieren der Zonen auf Switchebene

3 Erstellen von RAID-Gruppen

4 Erstellen und Binden von LUNs

5 Registrieren der mit dem SAN verbundenen Server Der Host führt diesen Schritt standardmäßig aus.

6 Erstellen von Speichergruppen, die die Server und LUNs enthalten

Verwenden Sie die EMC-Speicherverwaltungssoftware zum Durchführen der Konfiguration. Weitere Infor-mationen finden Sie in der EMC-Dokumentation.

ESXi sendet automatisch den Namen und die IP-Adresse des Hosts an das Array und registriert den Hostbei dem Array. Sie müssen keine manuelle Registrierung des Hosts mehr durchführen. Falls Sie allerdingsSpeicherverwaltungssoftware, z. B. EMC Navisphere, verwenden möchten, um eine manuelle Registrierungdurchzuführen, schalten Sie die ESXi-Funktion für die automatische Registrierung aus. Wenn Sie sie aus-schalten, vermeiden Sie, dass die manuelle Benutzerregistrierung überschrieben wird. Weitere Informatio-nen hierzu finden Sie unter „Deaktivieren der automatischen Hostregistrierung im vSphere Web Client“,auf Seite 70.

Da es sich bei diesem Array um ein Aktiv-Passiv-Festplatten-Array handelt, treffen die folgenden allgemei-nen Überlegungen zu.

n Die Standard-Multipathing-Richtlinie für CLARiiON-Arrays, die ALUA nicht unterstützen, ist „Zuletztverwendet“. Für CLARiiON-Arrays, die ALUA unterstützen, lautet die Standard-Multipathing-Richtli-nie „VMW_PSP_FIXED“. Das ESXi-System legt die Standardrichtlinie fest, sobald ein Array ermitteltwird.

n Um einen Startvorgang über ein SAN durchzuführen, muss im HBA-BIOS der aktive Speicherprozessorfür das Ziel der Start-LUN gewählt sein.

Wichtig Um sicherzugehen, dass ESXi EMC CLARiiON mit ALUA unterstützt, überprüfen Sie die HCLs.Damit die richtige Firmware-Version für das Speicher-Array verwendet wird. Weitere Informationen erhal-ten Sie von Ihrem Speicheranbieter.

EMC Symmetrix-SpeichersystemeEMC Symmetrix-Speichersysteme arbeiten mit ESXi-Hosts in FC-SAN-Konfigurationen. Verwenden Sie inder Regel die EMC-Software zum Durchführen der Konfiguration.

Die folgenden Einstellungen sind auf Symmetrix-Netzwerkspeichersystemen erfordrelich. Weitere Informa-tionen finden Sie in der EMC-Dokumentation.

n Allgemeine Seriennummer (C)

n Automatische Aushandlung (EAN) aktiviert

n Fibrepath auf diesem Port aktiviert (VCM)

n SCSI 3 (SC3) aktivieren

n Eindeutiger World Wide Name (UWN)

Kapitel 6 Ändern des Fibre-Channel-Speichers für ESXi

VMware, Inc. 53

n SPC-2 (Decal) (SPC2) SPC-2-Flag ist erforderlich

Der ESXi-Host betrachtet LUNs eines Symmetrix-Speicher-Arrays, die über eine maximale Kapazität von 50MB verfügen, als Verwaltungs-LUNs. Diese LUNs werden auch als Pseudo-LUNs oder Gatekeeper-LUNsbezeichnet. Sie werden auf der EMC Symmetrix-Verwaltungsschnittstelle dargestellt, sollten jedoch nichtzum Speichern von Daten verwendet werden.

IBM System Storage DS4800-SpeichersystemeIBM System Storage DS4800-Systeme wurden bisher als IBM FAStT bezeichnet. Zahlreiche Speicher-Array-Hersteller (wie LSI und StorageTek) stellen SAN-Speicher-Arrays her, die mit DS4800 kompatibel sind.

Damit der Host mit IBM DS4800 und anderen kompatiblen Systemen arbeiten kann, setzen Sie die Multipa-thing-Richtlinie auf dem Host auf „Zuletzt verwendet“.

Hardwarekonfiguration für SAN-Failover mit DS4800-SpeicherservernDieses Thema bietet Informationen zum Einrichten einer hochverfügbaren SAN-Failover-Konfiguration mitESXi-Host und DS4800-Speicher.

Sie müssen über folgende Hardwarekomponenten verfügen:

n Zwei FC-HBAs (wie QLogic oder Emulex) auf jeder ESXi-Maschine.

n Zwei FC-Switches, über die die HBAs mit dem SAN verbunden sind (z. B. FC-Switch 1 und FC-Switch2).

n Zwei Speicherprozessoren (z. B. SP1 und SP2).

Jeder SP muss über mindestens zwei mit dem SAN verbundene Ports verfügen.

Verwenden Sie die folgenden Verbindungseinstellungen für den ESXi-Host, wie in SAN-Failover gezeigt:

n Verbinden Sie jeden HBA auf jeder ESXi-Maschine mit einem separaten Switch. Schließen Sie beispiels-weise HBA1 an FC-Switch 1 und HBA2 an FC-Switch 2 an.

Abbildung 6‑1. SAN-Failover

Speicher

SP1 SP2

FC-Switch 2FC-Switch 1

HBA2HBA1 HBA4HBA3

Host 1 Host 2

Diese Konfiguration bietet zwei Pfade von jedem HBA, sodass für jedes Element der Verbindung ein Failo-ver auf einen redundanten Pfad durchgeführt werden kann. Durch die Pfadreihenfolge dieser Konfigurationist ein HBA- und Switch-Failover möglich, ohne dass ein SP-Failover ausgelöst werden muss. Die LUNsmüssen zum Speicherprozessor gehören, mit dem die bevorzugten Pfade verbunden sind. In der vorangeh-enden Beispielkonfiguration ist SP1 der LUN-Besitzer.

Hinweis Im vorangehenden Beispiel wird angenommen, dass die Switches nicht durch einen ISL (Inter-Switch Link) in einem Fabric verbunden sind.

vSphere-Speicher

54 VMware, Inc.

Deaktivieren der automatischen Volume-Übertragung (AVT)Um ein Pfad-Thrashing zu verhindern, sollten Sie AVT (automatische Volume-Übertragung) für die SAN-Speicherprozessoren deaktivieren. Wenn AVT aktiviert ist, können beide Speicherprozessoren ggf. den Be-sitz der LUN wechseln, was zu einem Leistungsabfall führt. AVT wird auch als ADT (Auto Disk Transfer)bezeichnet.

Um AVT im DS 4800-Speicher-Manager für jeden Port zu deaktivieren, der in jeder Hostgruppe definiert ist,die HBAs für mindestens einen ESXi-Host enthält, setzen Sie den Hosttyp auf LNXCL bzw. in späteren Versio-nen auf VMware.

Nach dem Ändern der AVT-Konfiguration ist ein Neustart des Hosts erforderlich.

Konfigurieren der Sense-Daten von SpeicherprozessorenEin DS4800-SP, der Windows als Gastbetriebssystem ausführt, sollte im Ruhezustand die Sense-Daten NotReady zurückgeben. Das Zurückgeben von Unit Attention kann zu einem Absturz des Windows-Gastbet-riebssystems während eines Failovers führen.

Vorgehensweise

1 Legen Sie den Index für den Hosttyp LNXCL fest, indem Sie die folgenden Befehle in das Shell-Fenstereingeben.

Drücken Sie nach jedem Befehl die Eingabetaste.

SMcli.exe ip-addr-for-SPA show hosttopology; Eingabe SMcli.exe ip-addr-for-SPB show hosttopo-

logy

Bei den folgenden Befehlen wird davon ausgegangen, dass 13 dem Index von LNXCL in den NVSRAM-Hosttypdefinitionen entspricht. Wenn die Speicherprozessoren einen anderen Index für LNXCL aufwei-sen, ersetzen Sie diesen Index in den folgenden Befehlen durch 13.

2 Führen Sie diese Befehle für SPA aus, damit dieser die Sense-Daten Not Ready zurückgibt.

Drücken Sie die Eingabetaste nur dann, nachdem Sie alle Befehle eingegeben ha-ben.SMcli.exe ip-addr-for-SPA set controller [a] HostNVSRAMBYTE [13,0x12]=0x01; set control-ler [a] HostNVSRAMBYTE [13,0x13]=0x00; reset Controller [a]

3 Führen Sie diese Befehle für SPB aus, damit dieser die Sense-Daten Not Ready zurückgibt.

Drücken Sie die Eingabetaste nur dann, nachdem Sie alle Befehle eingegeben ha-ben.SMcli.exe ip-addr-for-SPB set controller [b] HostNVSRAMBYTE [13,0x12]=0x01; set control-ler [b] HostNVSRAMBYTE [13,0x13]=0x00; reset Controller [b]

Hinweis Wenn Sie die DS4800-Speicher-Manager-GUI verwenden, fügen Sie die Konfigurationsbefeh-le für beide Speicherprozessoren in ein Skript ein und konfigurieren die Speicherprozessoren gleichzei-tig. Verwenden Sie SMcli.exe, müssen Sie mit jedem SP einzelne Verbindungen herstellen.

IBM Systems Storage 8000 und IBM ESS800Die IBM Systems Storage 8000- und IBM ESS800-Systeme verwenden ein Aktiv/Aktiv-Array, das in Verbin-dung mit VMware ESXi keiner speziellen Konfiguration bedarf.

Die folgenden Überlegungen gelten für die Verwendung dieser Systeme:

n Die automatische Neusignierung wird für Systeme nicht unterstützt.

n Eine erfolgreiche Verwendung von RDMs setzt voraus, dass für eine bestimmte LUN für jeden ESXi-Host im Cluster die gleiche LUN-ID verwendet wird.

Kapitel 6 Ändern des Fibre-Channel-Speichers für ESXi

VMware, Inc. 55

n Aktivieren Sie im ESS800 Configuration Management-Tool die Option Use same ID for LUN in sourceand target.

n Wenn Sie den Host für den Systemstart über ein SAN aus diesen Arrays konfigurieren, deaktivieren Sieden internen Fibre-Port für das entsprechende Blade, bis die Installation abgeschlossen ist.

HP StorageWorks-SpeichersystemeIn diesem Abschnitt sind Informationen zur Konfiguration von verschiedenen HP StorageWorks-Speicher-systemen enthalten.

Weitere Informationen zu diesem Thema finden Sie in den HP ActiveAnswers im Abschnitt zu VMwareESXi auf der HP-Website.

HP StorageWorks EVADamit Sie ein HP StorageWorks EVA-System mit ESXi verwenden können, müssen Sie den richtigen Host-modustyp konfigurieren.

Legen Sie für den Verbindungstyp „Benutzerdefiniert“ fest, wenn Sie eine LUN für einen Host bereitstellen.Hierbei wird einer der folgenden Werte verwendet:

n Verwenden Sie für EVA4000/6000/8000-Aktiv-Aktiv-Arrays mit Firmwareversionen vor 5.031 den Host-modustyp 000000202200083E.

n Verwenden Sie für EVA4000/6000/8000-Aktiv-Aktiv-Arrays mit Firmware der Version 5.031 und höherden Hostmodustyp VMware.

Ansonsten erfordern EVA-Systeme keine besonderen Konfigurationsänderungen für die Verwendung miteinem ESXi-System.

Weitere Informationen zu diesem Thema finden Sie in den empfohlenen Vorgehensweisen zur Verwendungvon VMware Infrastructure 3 und HP StorageWorks auf der Website von HP.

HP StorageWorks XPFür HP StorageWorks XP müssen Sie den Hostmodus auf bestimmte Parameter festlegen.

n Legen Sie auf XP128/1024/10000/12000 den Hostmodus auf Windows (0x0C) fest.

n Legen Sie auf XP24000/20000 den Hostmodus auf 0x01 fest.

Hitachi Data Systems-SpeicherDieser Abschnitt bietet einen Überblick über die Einrichtung von Hitachi Data Systems-Speichern. DieseSpeicherlösung ist ebenfalls von Sun und als HP XP-Speicher erhältlich.

LUN-Maskierung Um optimale Ergebnisse bei der LUN-Maskierung auf einem ESXi-Host zuerzielen, sollten Sie die HDS Storage Navigator-Software verwenden.

Microcode und Konfigu-rationen

Informationen zu der für die Interoperabilität mit ESXi erforderlichen genau-en Konfiguration und den benötigten Microcode-Level erhalten Sie von HDS.Wenn Ihr Microcode nicht unterstützt wird, ist eine Interaktion mit ESXi nor-malerweise nicht möglich.

Modi Die festzulegenden Modi hängen vom verwendeten Modell ab, z. B.:

n 9900 und 9900v verwenden den Netware-Hostmodus.

vSphere-Speicher

56 VMware, Inc.

n Die 9500v-Serie verwendet den Hostmodus 1: Standard und Hostmodus2: SUN-Cluster.

Hostmoduseinstellungen für die an dieser Stelle nicht aufgeführten Modelleerhalten Sie von Ihrem HDS-Vertreter.

NetApp-SpeicherLegen Sie bei der Konfiguration eines NetApp-Speichergeräts zunächst den entsprechenden LUN-Typ undden Initiator-Gruppentyp für das Speicher-Array fest.

LUN-Typ VMware (wenn VMware-Typ nicht verfügbar ist, verwenden Sie Linux).

Initiatorgruppentyp VMware (wenn VMware-Typ nicht verfügbar ist, verwenden Sie Linux).

Anschließend müssen Sie Speicher bereitstellen.

LSI-basierte SpeichersystemePräsentieren Sie während der ESXi-Installation dem Host keine Management-LUN (auch als Zugriffs-LUNbekannt) von den LSI-basierte Arrays.

Andernfalls schlägt die ESXi-Installation möglicherweise fehl.

Kapitel 6 Ändern des Fibre-Channel-Speichers für ESXi

VMware, Inc. 57

vSphere-Speicher

58 VMware, Inc.

Starten von ESXi von einem Fibre-Channel-SAN 7

Wenn Sie Ihren Host so einrichten, dass er von einem SAN gestartet wird, wird das Start-Image des Hostsauf einer oder mehreren LUNs im SAN-Speichersystem gespeichert. Wenn der Host startet, wird er nichtvon seiner lokalen Festplatte aus, sondern von der LUN im SAN aus gestartet.

ESXi unterstützt das Starten über einen Fibre-Channel-HBA oder einen FCoE-CNA.

Dieses Kapitel behandelt die folgenden Themen:

n „Vorteile beim Starten über ein SAN“, auf Seite 59

n „Anforderungen und Überlegungen beim Starten von Fibre-Channel-SAN“, auf Seite 60

n „Vorbereiten für das Starten über ein SAN“, auf Seite 60

n „Konfigurieren des Emulex HBAs für das Starten über ein SAN“, auf Seite 62

n „Konfigurieren des QLogic-HBAs für das Starten über ein SAN“, auf Seite 63

Vorteile beim Starten über ein SANDas Starten von SAN kann Ihrer Umgebung viele Vorteile bieten. In einigen Fällen sollten Sie das Startenvon SAN jedoch nicht für ESXi-Hosts verwenden. Bevor Sie Ihr System zum Starten von einem SAN einrich-ten, sollten Sie zunächst überlegen, ob dies Ihrer Umgebung angemessen ist.

Vorsicht Wenn das Starten von SAN mit mehreren ESXi-Hosts erfolgt, muss jeder Host über eine eigeneStart-LUN verfügen. Wenn Sie mehrere Hosts für die Verwendung derselben Start-LUN konfigurieren, wer-den wahrscheinlich ESXi-Images beschädigt.

Wenn Sie von SAN starten, gibt es u.a. folgende Vorteile für Ihre Umgebung:

n Günstigere Server. Höhere Serverdichte und bessere Ausführung ohne internen Speicher.

n Einfacherer Serveraustausch. Sie können Server problemlos austauschen und den neuen Server so ein-richten, dass sie auf den alten Speicherort der Start-Image-Datei verweisen.

n Weniger ungenutzter Platz. Server ohne lokale Festplatten benötigen oft weniger Speicherplatz.

n Einfachere Sicherungsvorgänge. Sie können die Systemstart-Images im SAN als Teil der allgemeinenSAN-Sicherungsverfahren sichern. Außerdem können Sie fortschrittliche Array-Funktionen verwenden,wie z. B. Snapshots auf dem Start-Image.

n Verbesserte Verwaltung. Das Erstellen und Verwalten des Betriebssystem-Images ist einfacher und effi-zienter.

n Noch zuverlässiger. Sie können über mehrere Pfade auf das Startlaufwerk zugreifen, was verhindert,dass das Laufwerk zur einzelnen Fehlerquelle wird.

VMware, Inc. 59

Anforderungen und Überlegungen beim Starten von Fibre-Channel-SAN

Ihre ESXi-Startkonfiguration muss bestimmte Anforderungen erfüllen.

Tabelle 7‑1. Anforderungen für das Starten über ein SAN

Anforderung Beschreibung

Anforderungen andas ESXi-System

Halten Sie sich an die Herstellerempfehlungen für das Starten des Servers über ein SAN.

Adapteranforderun-gen

Aktivieren und konfigurieren Sie den Adapter ordnungsgemäß, damit er auf die Start-LUN zu-greifen kann. Informationen finden Sie in der Dokumentation des Anbieters.

Zugriffssteuerung n Jeder Host darf nur auf seine eigene LUN zugreifen, nicht auf die Start-LUNs anderer Hosts.Verwenden Sie Speichersystemsoftware, um sicherzustellen, dass der Host nur auf die desig-nierte LUNs zugreift.

n Eine Diagnosepartition kann von mehreren Servern gemeinsam genutzt werden. Um dies zuerreichen, können Sie eine arrayspezifische LUN-Maskierung verwenden.

Unterstützung vonMultipathing

Das Multipathing auf eine Start-LUN auf Aktiv-Passiv-Arrays wird nicht unterstützt, weil das BI-OS Multipathing nicht unterstützt und keinen Standby-Pfad aktivieren kann.

Überlegungen zumSAN

SAN-Verbindungen müssen über eine Switch-Topologie hergestellt werden, wenn das Arraynicht für direkte Verbindungstopologie zertifiziert ist. Wenn das Array für direkte Verbindungs-topologie zertifiziert ist, können die SAN-Verbindungen direkt zum Array hergestellt werden.Das Starten über SAN wird für die Switch-Topologie und für die direkte Verbindungstopologieunterstützt, wenn diese Toplogien für das jeweilige Array zertifiziert sind.

Hardware-spezifi-sche Überlegungen

Wenn sie ein eServer BladeCenter von IBM ausführen und das System über das SAN starten,müssen Sie die IDE-Laufwerke der Blades deaktivieren.

Vorbereiten für das Starten über ein SANWenn Sie Ihren Host für das Starten von einer SAN-Umgebung einrichten, führen Sie mehrere Aufgabendurch.

In diesem Abschnitt wird der generische Aktivierungsprozess zum Starten vom SAN auf den im Rack mon-tierten Servern beschrieben. Weitere Informationen über das Aktivieren des Startens vom SAN auf CiscoUnified Computing System FCoE-Blade-Servern finden Sie in der Cisco-Dokumentation.

1 Konfigurieren von SAN-Komponenten und des Speichersystems auf Seite 60Bevor Sie Ihren ESXi-Host zum Starten von einer SAN-LUN einrichten, konfigurieren Sie die SAN-Komponenten und ein Speichersystem.

2 Konfigurieren eines Speicheradapters für das Starten über ein SAN auf Seite 61Wenn Sie Ihren Host zum Starten über ein SAN einrichten, aktivieren Sie den Startadapter im BIOSdes Hosts. Sie können den Startadapter zum Initiieren einer einfachen Verbindung mit der Ziel-Start-LUN konfigurieren.

3 Einrichten des Systems zum Starten vom Installationsmedium auf Seite 61Wenn Sie Ihren Host zum Starten vom SAN einrichten, starten Sie den Host zuerst vom VMware-In-stallationsmedium. Ändern Sie hierzu die Startreihenfolge in den BIOS-Einstellungen des Systems.

Konfigurieren von SAN-Komponenten und des SpeichersystemsBevor Sie Ihren ESXi-Host zum Starten von einer SAN-LUN einrichten, konfigurieren Sie die SAN-Kompo-nenten und ein Speichersystem.

Weil das Konfigurieren der SAN-Komponenten herstellerspezifisch ist, sollten Sie die Produktdokumentati-on eines jeden Elements zu Rate ziehen.

vSphere-Speicher

60 VMware, Inc.

Vorgehensweise

1 Schließen Sie das Netzwerkkabel an, wie in den Handbüchern der betreffenden Geräte beschrieben.

Überprüfen Sie ggf. die Switch-Verkabelung.

2 Konfigurieren Sie das Speicher-Array.

a Machen Sie den ESXi-Host über das SAN-Speicher-Array für das SAN sichtbar. Dieser Vorgangwird häufig als das Erstellen eines Objekts bezeichnet.

b Richten Sie den Host über das SAN-Speicher-Array so ein, sodass dieser die WWPNs der Hosta-dapter als Port- oder Knotennamen verwendet.

c Erstellen Sie LUNs.

d Weisen Sie LUNs zu.

e Erfassen Sie die IP-Adressen der Switches und der Speicher-Arrays.

f Erfassen Sie den WWPN für jeden Speicherprozessor.

Vorsicht Wenn die Installation von ESXi im Modus zum Starten über SAN per Skript erfolgt, müssenSie bestimmte Schritte ausführen, um einen unerwünschten Datenverlust zu vermeiden.

Konfigurieren eines Speicheradapters für das Starten über ein SANWenn Sie Ihren Host zum Starten über ein SAN einrichten, aktivieren Sie den Startadapter im BIOS desHosts. Sie können den Startadapter zum Initiieren einer einfachen Verbindung mit der Ziel-Start-LUN konfi-gurieren.

Voraussetzungen

Bestimmen Sie den WWPN für den Speicheradapter.

Vorgehensweise

u Konfigurieren Sie den Speicheradapter für das Starten über ein SAN

Da die Konfiguration von Startadaptern herstellerabhängig ist, lesen Sie die Anweisungen in der Doku-mentation Ihres Herstellers.

Einrichten des Systems zum Starten vom InstallationsmediumWenn Sie Ihren Host zum Starten vom SAN einrichten, starten Sie den Host zuerst vom VMware-Installati-onsmedium. Ändern Sie hierzu die Startreihenfolge in den BIOS-Einstellungen des Systems.

Weil das Ändern der Startsequenz im BIOS herstellerspezifisch ist, sollten Sie die entsprechenden Anwei-sungen in der Herstellerdokumentation zu Rate ziehen. Der folgende Vorgang erläutert, wie Sie die Startse-quenz auf einem IBM-Host ändern können.

Vorgehensweise

1 Wechseln Sie beim Hochfahren des Systems in das Konfigurations- bzw. Installationsprogramm desSystem-BIOS.

2 Wählen Sie Startup Options, und drücken Sie die Eingabetaste.

3 Wählen Sie Startup Sequence Options, und drücken Sie die Eingabetaste.

4 Setzen Sie die Option von First Startup Device auf [CD‐ROM].

Sie können jetzt ESXi installieren.

Kapitel 7 Starten von ESXi von einem Fibre-Channel-SAN

VMware, Inc. 61

Konfigurieren des Emulex HBAs für das Starten über ein SANDie Konfiguration des Emulex-BA-IOS zum Starten von einem SAN beinhaltet die Aktivierung der BIOS-Einstellung zur Startauswahl und die Aktivierung des BIOS.

Vorgehensweise

1 Aktivieren der BIOS-Einstellung zur Startauswahl auf Seite 62Wenn Sie das Emulex-HBA-BIOS zum Starten von ESXi über ein SAN konfigurieren, müssen Sie dieBIOS-Einstellung zur Startauswahl aktivieren.

2 Aktivieren des BIOS auf Seite 62Wenn Sie das Emulex-HBA-BIOS zum Starten von ESXi über ein SAN konfigurieren, müssen Sie dasBIOS aktivieren.

Aktivieren der BIOS-Einstellung zur StartauswahlWenn Sie das Emulex-HBA-BIOS zum Starten von ESXi über ein SAN konfigurieren, müssen Sie die BIOS-Einstellung zur Startauswahl aktivieren.

Vorgehensweise

1 Führen Sie lputil aus.

2 Wählen Sie 3. Firmware Maintenance.

3 Wählen Sie einen Adapter.

4 Wählen Sie 6. Boot BIOS Maintenance.

5 Wählen Sie 1. Enable Boot BIOS.

Aktivieren des BIOSWenn Sie das Emulex-HBA-BIOS zum Starten von ESXi über ein SAN konfigurieren, müssen Sie das BIOSaktivieren.

Vorgehensweise

1 Starten Sie den Host neu.

2 Drücken Sie zum Konfigurieren der Adapterparameter ALT+E an der Emulex-Eingabeaufforderungund führen Sie diese Schritte aus.

a Wählen Sie einen Adapter (mit BIOS-Unterstützung).

b Wählen Sie 2. Configure This Adapter's Parameters.

c Wählen Sie 1. Enable or Disable BIOS.

d Wählen Sie 1, um das BIOS zu aktivieren.

e Wählen Sie x zum Beenden und Esc, um zum Hauptmenü zurückzukehren.

3 Führen Sie zum Konfigurieren des Startgeräts diese Schritte vom Emulex-Hauptmenü aus.

a Wählen Sie denselben Adapter.

b Wählen Sie 1. Configure Boot Devices.

c Wählen Sie den Speicherort für den Starteintrag aus.

d Geben Sie das zweistellige Startgerät ein.

e Geben Sie die zweistellige (HEX) Start-LUN ein (z. B. 08).

vSphere-Speicher

62 VMware, Inc.

f Wählen Sie die Start-LUN.

g Wählen Sie 1. WWPN. (Starten Sie dieses Gerät mit WWPN, nicht DID).

h Wählen Sie x zum Beenden und Y, um neu zu starten.

4 Starten Sie im System-BIOS, und entfernen Sie zunächst Emulex aus der Start-Controller-Reihenfolge.

5 Führen Sie einen Neustart und die Installation auf einer SAN-LUN durch.

Konfigurieren des QLogic-HBAs für das Starten über ein SANMit diesem Beispiel wird erläutert, wie der QLogic-HBA für das Starten von ESXi über ein SAN konfiguriertwird. Die Prozedur umfasst die Aktivierung des QLogic-HBA-BIOS, die Aktivierung der Startauswahlopti-on sowie die Auswahl der Start-LUN.

Vorgehensweise

1 Drücken Sie beim Starten des Servers STRG+Q, um das Fast!UTIL-Konfigurationsdienstprogramm zustarten.

2 Führen Sie, abhängig von der Anzahl an HBAs, die entsprechende Aktion aus.

Option Beschreibung

Ein HBA Wenn Sie über nur einen HBA (Host Bus Adapter) verfügen, wird die Seitemit den Fast!UTIL-Optionen angezeigt. Wechseln Sie zu Schritt 3.

Mehrere HBAs Wenn mehr als ein HBA vorhanden ist, wählen Sie den HBA manuell aus.a Verwenden Sie auf der Seite „Select Host Adapter“ die Pfeiltasten, um

den Cursor auf dem gewünschten HBA zu positionieren.b Drücken Sie die Eingabetaste.

3 Wählen Sie auf der Seite mit den Fast!UTIL Options Konfigurationseinstellungen und drücken Sie die

Eingabetaste.

4 Wählen Sie auf der Seite mit den Konfigurationseinstellungen die Option Adaptereinstellungen unddrücken Sie die Eingabetaste.

5 Stellen Sie das BIOS so ein, dass eine Suche nach SCSI-Geräten ausgeführt wird.

a Wählen Sie auf der Seite mit den Hostadaptereinstellungen die Option Host Adapter BIOS.

b Drücken Sie die Eingabetaste, um den Wert auf Aktiviert zu setzen.

c Drücken Sie zum Beenden die Esc-Taste.

6 Aktivieren Sie die Startauswahl.

a Wählen Sie Startauswahleinstellung aus und drücken Sie die Eingabetaste.

b Wählen Sie auf der Seite für das auswählbare Starten die Option Startauswahl.

c Drücken Sie die Eingabetaste, um den Wert auf Aktiviert zu setzen.

7 Verwenden Sie die Pfeiltasten, um den Eintrag für den Namen des Startports in der Liste der Speicher-prozessoren (SPs) auszuwählen, und drücken Sie die Eingabetaste, um den Bildschirm zur Auswahldes Fibre-Channel-Geräts zu öffnen.

Kapitel 7 Starten von ESXi von einem Fibre-Channel-SAN

VMware, Inc. 63

8 Wählen Sie über die Pfeiltasten den gewünschten Speicherprozessor aus und drücken Sie die Eingabe‐taste.

Bei Verwendung eines Aktiv-Passiv-Speicher-Arrays muss sich der ausgewählte Speicherprozessor aufdem bevorzugten (aktiven) Pfad zur Start-LUN befinden. Wenn Sie nicht sicher sind, welcher Speicher-prozessor sich auf dem aktiven Pfad befindet, können Sie diesen mithilfe der Speicher-Array-Verwal-tungssoftware ermitteln. Die Ziel-IDs werden vom BIOS erstellt und können sich bei jedem Neustart än-dern.

9 Führen Sie, abhängig von der Anzahl der dem Speicherprozessor zugeordneten HBAs, die entsprechen-de Aktion aus.

Option Beschreibung

Eine LUN Die LUN ist als Start-LUN ausgewählt. Sie müssen im Bildschirm für dieAuswahl der LUN keine Auswahl vornehmen.

Mehrere LUNs Der Bildschirm für die Auswahl der LUN wird geöffnet. Wählen Sie überdie Pfeiltasten die Start-LUN aus und drücken Sie die Eingabetaste.

10 Sollten weitere Speicherprozessoren in der Liste angezeigt werden, drücken Sie C, um die Daten zu lö-

schen.

11 Drücken Sie ESC zwei Mal, um den Bildschirm zu verlassen, und drücken Sie die Eingabetaste, um dieEinstellung zu speichern.

vSphere-Speicher

64 VMware, Inc.

Starten von ESXi mit Software FCoE 8ESXi unterstützt das Starten von FCoE-fähigen Netzwerkadaptern.

Wenn Sie ESXi von einem FCoE LUN installieren und starten, kann der Host einen VMware-Software FCoE-Adapter und einen Netzwerkadapter mit FCoE-Funktionen verwenden. Der Host benötigt keinen dedizier-ten FCoE HBA.

Sie führen die meisten Konfigurationen über die Option-ROM im Netzwerkadapter aus. Die Netzwerkadap-ter müssen eines der folgenden Formate unterstützen, die die Parameter über ein FCoE-Startgerät anVMkernel kommunizieren.

n FCoE Boot Firmware Table (FBFT). FBFT ist Eigentum von Intel.

n FCoE Boot Parameter Table (FBPT). FBPT wird von VMware für Drittanbieter definiert, um SoftwareFCoE Boot zu implementieren.

Die Konfigurationsparameter werden im Option-ROM des Adapters festgelegt. Während einer ESXi-Instal-lation oder einem nachfolgenden Startvorgang werden diese Parameter entweder im FBFT-Format oder imFBPT-Format in den Systemspeicher exportiert. Der VMkernel kann die Konfigurationseinstellungen lesenund diese zum Zugriff auf das Start-LUN verwenden.

Dieses Kapitel behandelt die folgenden Themen:

n „Anforderungen und Überlegungen für das Starten mit Software FCoE“, auf Seite 65

n „Best Practices für Software FCoE Boot“, auf Seite 66

n „Einrichten des Startens mit Software FCoE“, auf Seite 66

n „Durchführen der Fehlerbehebung für die Installation und Starten von Software-FCoE“, auf Seite 68

Anforderungen und Überlegungen für das Starten mit Software FCoEWenn Sie den ESXi-Host aus SAN mit Software FCoE starten, gelten bestimmte Anforderungen und Überle-gungen.

Anforderungenn ESXi 5.1 oder höher.

n Der Netzwerkadapter muss folgende Fähigkeiten aufweisen:

n Er muss FCoE-fähig sein.

n Er muss ESXi 5.x Open FCoE Stack unterstützen.

n Er muss FCoE-Start-Firmware enthalten, die Startinformationen im FBFT-Format oder FBPT-For-mat exportieren kann.

VMware, Inc. 65

Überlegungenn Sie können die Software FCoE-Startkonfiguration aus ESXi nicht ändern.

n Coredump wird auf keinen Software FCoE LUNs unterstützt, einschließlich der Start-LUN.

n Mehrfachpfade werden vor dem Start nicht unterstützt.

n Start-LUN kann mit anderen Hosts auch bei gemeinsam genutztem Speicher nicht gemeinsam genutztwerden.

Best Practices für Software FCoE BootMehrere Best Practices werden empfohlen, wenn Sie das System von einer Software FCoE LUN starten.

n Stellen Sie sicher, dass der Host Zugriff auf die gesamte Start-LUN hat. Die Start-LUN kann nicht mitanderen Hosts gemeinsam genutzt werden, auch nicht bei gemeinsam genutztem Speicher.

n Wenn Sie den Intel 10 Gigabit Ethernet Controller (Niantec) mit einem Cisco-Switch verwenden, konfi-gurieren Sie den Switch-Port in folgender Weise:

n Aktivieren Sie das Spanning-Tree-Protokoll (STP).

n Deaktivieren Sie switchport trunk native vlan für das VLAN, das für FCoE verwendet wird.

Einrichten des Startens mit Software FCoEIhr ESXi-Host kann von einer FCoE LUN mit dem Software FCoE-Adapter einen Netzwerkadapter starten.

Wenn Sie Ihren Host für einen Software FCoE-Start konfigurieren, führen Sie eine Reihe von Aufgaben aus.

Voraussetzungen

Der Netzwerkadapter hat folgende Fähigkeiten:

n Unterstützt teilweisen FCoE Offload (Software FCoE).

n Enthält eine FCoE Boot Firmware Table (FBFT) oder eine FCoE Boot Parameter Table (FBPT).

Informationen über Netzwerkadapter, die Software FCoE-Starts unterstützen, finden Sie unter vSphere-Kom-patibilitätshandbuch.

Vorgehensweise

1 Konfigurieren der Parameter für das Starten mit Software FCoE auf Seite 67Ein Netzwerkadapter auf Ihrem Host muss über eine speziell konfigurierte FCoE-Start-Firmware ver-fügen, um einen Software-FCoE-Startvorgang zu unterstützen. Wenn Sie die Firmware konfigurieren,aktivieren Sie den Adapter für den Software-FCoE-Start und geben Sie die Start-LUN-Parameter an.

2 Installieren und Starten von ESXi von Software FCoE LUN auf Seite 67Wenn Sie ein System einrichten, das von einer Software FCoE LUN startet, installieren Sie das ESXi-Image auf der Ziel-LUN. Sie können dann Ihren Host von dieser LUN starten.

vSphere-Speicher

66 VMware, Inc.

Konfigurieren der Parameter für das Starten mit Software FCoEEin Netzwerkadapter auf Ihrem Host muss über eine speziell konfigurierte FCoE-Start-Firmware verfügen,um einen Software-FCoE-Startvorgang zu unterstützen. Wenn Sie die Firmware konfigurieren, aktivieren Sieden Adapter für den Software-FCoE-Start und geben Sie die Start-LUN-Parameter an.

Vorgehensweise

u Geben Sie in der Option ROM des Netzwerkadapters die Software-FCoE-Start-Parameter an.

Diese Parameter enthalten das Startziel, die Start-LUN, die VLAN-ID usw.

Da die Konfiguration des Netzwerkadapters anbieterabhängig ist, lesen Sie die Anweisungen in der Do-kumentation Ihres Anbieters.

Installieren und Starten von ESXi von Software FCoE LUNWenn Sie ein System einrichten, das von einer Software FCoE LUN startet, installieren Sie das ESXi-Imageauf der Ziel-LUN. Sie können dann Ihren Host von dieser LUN starten.

Voraussetzungen

n Konfigurieren Sie den Option-ROM des Netzwerkadapters so, dass er auf eine Ziel-LUN zeigt, die Sieals Start-LUN verwenden möchten. Achten Sie darauf, dass Sie die Informationen über die hochfahrba-re LUN haben.

n Ändern Sie die BIOS-Startsequenz im System-BIOS auf die folgende Sequenz:

a Netzwerkadapter, den Sie für das Starten mit Software FCoE benutzen.

b ESXi-Installationsmedien.

Weitere Informationen hierzu finden Sie in der Anbieterdokumentation für Ihr System.

Vorgehensweise

1 Starten Sie eine interaktive Installation von der ESXi-Installations-CD/DVD.

Das ESXi-Installationsprogramm überprüft, dass das Starten mit FCoE im BIOS aktiviert ist, und erstellterforderlichenfalls einen virtuellen Standard-Switch für den FCoE-fähigen Netzwerkadapter. Der Namedes vSwitch ist VMware_FCoE_vSwitch. Das Installationsprogramm verwendet dann vorkonfigurierteFCoE-Startparameter zum Erkennen und Anzeigen aller verfügbaren FCoE LUNs.

2 Wählen Sie im Bildschirm Festplatte auswählen die Software FCoE LUN aus, die Sie in der Startpara-metereinstellung angegeben haben.

Wenn die Start-LUN in diesem Menü nicht erscheint, vergewissern Sie sich, dass Sie die Startparameterim Option-ROM des Netzwerkadapters richtig konfiguriert haben.

3 Folgen Sie den Eingabeaufforderungen, um die Installation abzuschließen.

4 Starten Sie den Host neu.

5 Ändern Sie die Startreihenfolge im System-BIOS, sodass die FCoE-Boot-LUN das erste startbare Gerätist.

ESXi setzt das Starten von der Software FCoE LUN fort, bis die Betriebsbereitschaft hergestellt ist.

Weiter

Erforderlichenfalls können Sie den VMware_FCoE_vSwitch umbenennen und ändern, den das Installations-programm automatisch erstellt hat. Achten Sie darauf, dass der Cisco Discovery Protocol-Modus (CDP) auf„Überwachen“ oder „Beide“ eingestellt ist.

Kapitel 8 Starten von ESXi mit Software FCoE

VMware, Inc. 67

Durchführen der Fehlerbehebung für die Installation und Starten vonSoftware-FCoE

Wenn die Installation oder das Starten von ESXi über eine FCoE-LUN fehlschlägt, können Sie mehrere Feh-lerbehebungsmethoden verwenden.

Problem

Wenn Sie ESXi aus dem FCoE-Speicher mithilfe eines Software-FCoE-Adapters von VMware und einesNetzwerkadapters mit Funktionen für den teilweisen FCoE-Offload installieren oder starten, schlägt die In-stallation oder der Startvorgang fehl.

Lösung

n Stellen Sie sicher, dass Sie die Startparameter im Option-ROM des FCoE-Netzwerkadapters richtig kon-figuriert haben.

n Überwachen Sie während der Installation das BIOS des FCoE-Netzwerkadapters auf etwaige Fehler.

n Überprüfen Sie das VMkernel-Protokoll auf Fehler, falls dies möglich ist.

n Verwenden Sie den Befehl esxcli, um sich zu vergewissern, dass die Start-LUN vorhanden ist.

esxcli conn_options hardware bootdevice list

vSphere-Speicher

68 VMware, Inc.

Best Practices für Fibre-Channel-Speicher 9

Befolgen Sie bei der Verwendung von ESXi mit Fibre-Channel-SAN die Best Practices von VMware, umLeistungsbeeinträchtigungen zu verhindern.

Der vSphere Web Client bietet umfangreiche Funktionen für das Erfassen von Leistungsdaten. Die Informa-tionen werden grafisch angezeigt und ständig aktualisiert.

Zudem können Sie das resxtop- oder das esxtop-Befehlszeilenprogramm verwenden. Die Dienstprogram-me liefern detaillierte Informationen darüber, wie ESXi Ressourcen in Echtzeit verwendet. Weitere Informa-tionen finden Sie in der Dokumentation Handbuch zur vSphere-Ressourcenverwaltung.

Erkundigen Sie sich bei Ihrem Speicheranbieter, ob Ihr Speichersystem die Hardwarebeschleunigungsfunk-tionen der Storage-APIs für die Array-Integration unterstützt. Wenn ja, suchen Sie in der Dokumentation Ih-res Anbieters nach Informationen zur Aktivierung der Unterstützung für die Hardwarebeschleunigung aufdem Speichersystem. Weitere Informationen finden Sie unter Kapitel 24, „Speicherhardware-Beschleuni-gung“, auf Seite 261.

Dieses Kapitel behandelt die folgenden Themen:

n „Vermeiden von Fibre-Channel-SAN-Problemen“, auf Seite 69

n „Deaktivieren der automatischen Hostregistrierung im vSphere Web Client“, auf Seite 70

n „Optimieren der Fibre-Channel-SAN-Speicherleistung“, auf Seite 70

n „SAN-Konfiguration für Fibre-Channel - Checkliste“, auf Seite 72

Vermeiden von Fibre-Channel-SAN-ProblemenBei Verwendung von ESXi in Verbindung mit einem Fibre-Channel-SAN müssen Sie bestimmte Richtlinienbefolgen, um SAN-Probleme zu vermeiden.

In diesem Abschnitt erhalten Sie einige Tipps, wie sich Probleme mit der SAN-Konfiguration verhindernlassen:

n Platzieren Sie nur einen einzigen VMFS-Datenspeicher in jeder LUN.

n Ändern Sie die vom System festgelegte Pfadrichtlinie nur, wenn Sie die Auswirkungen dieser Ände-rung kennen und verstehen.

n Erstellen Sie eine ausführliche Dokumentation. Notieren Sie Informationen zu Zoning, Zugriffssteue-rung, Speicher, Switch, Server und FC-HBA-Konfiguration, Software- und Firmware-Versionen sowiezum Speicherkabelplan.

n Erstellen Sie einen Notfallplan bei Ausfällen:

n Kopieren Sie Ihre Topologiezuordnungen mehrfach. Ermitteln Sie für jedes Element, welche Aus-wirkungen ein Ausfall dieses Elements auf das SAN hat.

VMware, Inc. 69

n Stellen Sie mithilfe einer Liste aller Verbindungen, Switches, HBAs und anderen Elemente sicher,dass Sie keine wichtige Fehlerstelle in Ihrem Design übersehen haben.

n Stellen Sie sicher, dass die FC-HBAs an den geeigneten Steckplätzen des Hosts installiert sind (basie-rend auf Steckplatz- und Busgeschwindigkeit). Richten Sie einen PCI-Bus-Lastenausgleich für alle Bussedes Servers ein.

n Machen Sie sich mit den verschiedenen Überwachungspunkten in Ihrem Speichernetzwerk an allenSichtbarkeitspunkten vertraut (einschließlich Leistungsdiagrammen für Hosts sowie Statistiken zu FC-Switches und Speicherleistung).

n Seien Sie beim Ändern der IDs der LUNs vorsichtig, die über von Ihrem ESXi-Host verwendete VMFS-Datenspeicher verfügen. Wenn Sie die ID ändern, wird der Datenspeicher inaktiv und seine virtuellenMaschinen fallen aus. Sie können den Datenspeicher neu signieren, um ihn wieder zu aktivieren. Weite-re Informationen hierzu finden Sie unter „Verwalten von duplizierten VMFS-Datenspeichern“, auf Sei-te 156.

Wenn sich keine laufenden virtuellen Maschinen auf dem VMFS-Datenspeicher befinden, nachdem Siedie ID der LUN geändert haben, müssen Sie zum Zurücksetzen der ID auf dem Host eine erneute Prü-fung durchführen. Weitere Informationen über das erneute Prüfen finden Sie unter „Vorgänge zum Ak-tualisieren und zur erneuten Prüfung von Speichern“, auf Seite 135.

Deaktivieren der automatischen Hostregistrierung imvSphere Web Client

Wenn Sie EMC CLARiiON- oder Invista-Arrays verwenden, müssen sich die Hosts bei den Arrays registrie-ren. ESXi führt die Hostregistrierung automatisch aus, indem es den Namen und die IP-Adresse des Hostsan das Array sendet. Schalten Sie die ESXi-Funktion für die automatische Registrierung aus, wenn Sie esvorziehen, die Registrierung manuell mithilfe von Speicherverwaltungssoftware durchzuführen.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie unter „System“ auf Erweiterte Systemeinstellungen.

4 Wählen Sie unter „Erweiterte Systemeinstellungen“ den Parameter Disk.EnableNaviReg aus und kli-cken Sie auf das Symbol Bearbeiten.

5 Ändern Sie den Wert in 0.

Die standardmäßig aktivierte automatische Hostregistrierungsfunktion wird dadurch deaktiviert.

Optimieren der Fibre-Channel-SAN-SpeicherleistungBei der Optimierung einer typischen SAN-Umgebung müssen verschiedene Faktoren berücksichtigt wer-den.

Wenn die Umgebung ordnungsgemäß konfiguriert ist, leisten die SAN-Fabric-Komponenten (insbesonderedie SAN-Switches) aufgrund ihrer geringen Latenz im Vergleich zu Servern und Speicher-Arrays lediglicheinen geringen Beitrag. Stellen Sie sicher, dass die Pfade durch das Switch-Fabric nicht ausgelastet sind, d. h.das Switch-Fabric wird mit dem höchsten Durchsatz ausgeführt.

vSphere-Speicher

70 VMware, Inc.

Speicher-Array-LeistungEiner der wichtigsten Faktoren für die Optimierung einer kompletten iSCSI-Umgebung ist die Speicher-Ar-ray-Leistung.

Bei Problemen mit der Speicher-Array-Leistung sollten Sie unbedingt die entsprechende Dokumentationdes Speicher-Array-Herstellers lesen.

Befolgen Sie diese allgemeinen Richtlinien, um die Array-Leistung in der vSphere-Umgebung zu erhöhen:

n Bedenken Sie beim Zuweisen von LUNs, dass über verschiedene Hosts auf jede LUN zugegriffen wer-den kann und dass auf jedem Host mehrere virtuelle Maschinen ausgeführt werden können. Auf einerLUN, die von einem Host verwendet wird, sind E/A-Vorgänge von einer Vielzahl von unterschiedli-chen Anwendungen möglich, die unter verschiedenen Betriebssystemen ausgeführt werden. Aufgrunddieser unterschiedlichen Arbeitslast sollte die RAID-Gruppe mit den ESXi-LUNs keine LUNs enthalten,die von anderen Servern verwendet werden, auf denen nicht ESXi ausgeführt wird.

n Stellen Sie sicher, dass die Lese- oder Schreibcache aktiviert ist.

n SAN-Speicher-Arrays müssen kontinuierlich neu ausgelegt und optimiert werden, um sicherzustellen,dass die E/A-Last auf alle Speicher-Array-Pfade verteilt ist. Um diese Anforderung zu erfüllen, verteilenSie die Pfade zu den LUNs auf alle Speicherprozessoren. Das Ergebnis ist ein optimaler Lastenaus-gleich. Eine sorgfältige Überwachung zeigt an, wann die LUN-Verteilung ausgeglichen werden muss.

Bei der Optimierung von Speicher-Arrays mit statischem Lastenausgleich ist die Überwachung der spe-zifischen Leistungsstatistiken (beispielsweise E/A-Vorgänge pro Sekunde, Blocks pro Sekunde und Re-aktionszeit) und Verteilung der LUN-Arbeitslast auf alle Speicherprozessoren von größter Bedeutung.

Hinweis Der dynamische Lastenausgleich wird mit ESXi gegenwärtig nicht unterstützt.

Serverleistung mit Fibre-ChannelUm eine optimale Serverleistung sicherzustellen, müssen verschiedene Faktoren berücksichtigt werden.

Der Zugriff jeder Serveranwendung auf den integrierten Speicher muss mit den folgenden Bedingungen ge-währleistet sein:

n Hohe E/A-Rate (Anzahl an E/A-Vorgängen pro Sekunde)

n Hoher Durchsatz (MB pro Sekunde)

n Minimale Latenz (Reaktionszeiten)

Da für jede Anwendung andere Anforderungen gelten, können Sie diese Ziele erreichen, indem Sie eine ge-eignete RAID-Gruppe für das Speicher-Array wählen. Zum Erreichen von Leistungszielen führen Sie diefolgenden Aufgaben aus:

n Platzieren Sie jede LUN in einer RAID-Gruppe, welche die erforderlichen Leistungsebenen bietet. Be-achten Sie Aktivitäten und Ressourcennutzung von anderen LUNs in der zugewiesenen RAID-Gruppe.Mit einer hochleistungsfähigen RAID-Gruppe mit zu vielen Anwendungen, die eine E/A-Last verursa-chen, können die Leistungsziele möglicherweise nicht erreicht werden, die für eine Anwendung aufdem ESXi-Host erforderlich sind.

n Stellen Sie sicher, dass jeder Server über eine ausreichende Anzahl an HBAs verfügt, um einen maxima-len Durchsatz für alle Anwendungen zu ermöglichen, die während der Spitzenzeiten auf dem Servergehostet werden. Bei Verteilung der E/A-Last auf mehrere HBAs wird ein höherer Durchsatz und einegeringere Latenz für jede Anwendung erreicht.

n Um Redundanz für den Fall eines HBA-Ausfalls bereitzustellen, sollten Sie den Server mit einem dop-pelten redundanten Fabric verbinden.

Kapitel 9 Best Practices für Fibre-Channel-Speicher

VMware, Inc. 71

n Beim Zuweisen von LUNs oder RAID-Gruppen für ESXi-Systeme werden diese Ressourcen durch meh-rere Betriebssysteme gemeinsam verwendet. Daher kann die erforderliche Leistung jeder LUN im Spei-chersubsystem beim Einsatz von ESXi-Systemen deutlich höher sein als bei Verwendung von physi-schen Maschinen. Wenn Sie z. B. die Ausführung von vier E/A-intensiven Anwendungen planen, wei-sen Sie die vierfache Leistungskapazität für die ESXi-LUNs zu.

n Bei der gemeinsamen Verwendung mehrerer ESXi-Systeme mit vCenter Server steigt die erforderlicheLeistung für das Speichersubsystem entsprechend.

n Die Anzahl an ausstehenden E/A-Vorgängen von Anwendungen, die auf einem ESXi-System ausge-führt werden, sollte mit der Anzahl an E/A-Vorgängen übereinstimmen, die der HBA und das Speicher-Array verarbeiten können.

SAN-Konfiguration für Fibre-Channel - ChecklisteDieser Abschnitt bietet eine Checkliste mit speziellen Einrichtungsanforderungen für verschiedene Speicher-Arrays und ESXi-Hosts.

Tabelle 9‑1. Einrichtungsanforderungen für das Multipathing

Komponente Anmerkungen

Alle Speicher-Arrays Schreibcache muss deaktiviert sein, falls dieser nicht durch einen Akku gesichert ist.

Topologie Ein HBA- oder SP-Failover sollte nicht durch eine Einzelfehlerstelle verursacht werden,speziell bei Speicher-Arrays vom Typ „Aktiv/Passiv“.

IBM TotalStorage DS 4000(vormals FastT)

Hosttyp muss eine höhere Version von LNXCL oder VMware sein.AVT (Auto Volume Transfer) ist in diesem Hostmodus deaktiviert.

HDS 99xx- und 95xxV-Fami-lie

HDS 9500V-Familie (Thunder) erfordert zwei Hostmodi:n Hostmodus 1: Standard.n Hostmodus 2: Sun ClusterHDS 99xx-Familie (Lightning) und HDS Tabma (USP) erfordern, dass der Hostmodus aufNetware gesetzt wird.

EMC Symmetrix Aktivieren Sie die SPC2- und SC3-Einstellungen. Aktuelle Einstellungen erhalten Sie vonEMC.

EMC Clariion Legen Sie den EMC Clariion-Failover-Modus auf 1 oder 4 fest. Wenden Sie sich an EMCfür weitere Einzelheiten.

HP MSA Hosttyp muss Linux sein.Setzen Sie den Verbindungstyp für jeden HBA-Port auf Linux.

HP EVA Legen Sie für EVA4000/6000/8000 Firmware 5.031 und höher den Hosttyp auf VMwarefest.In allen anderen Fällen setzen Sie den Hostmodustyp auf Benutzerdefiniert. Der Wertlautet: 000000202200083E.

HP XP n Legen Sie auf XP128/1024/10000/12000 den Hostmodus auf Windows (0x0C) fest.n Legen Sie auf XP24000/20000 den Hostmodus auf 0x01 fest.

NetApp Keine spezifischen Anforderungen

ESXi-Konfiguration n Für alle LUNs, die Festplatten in Clustern auf Aktiv/Passiv-Arrays hosten, könnenSie die Pfadauswahlrichtlinie „Zuletzt verwendet“ verwenden.

n Für LUNs auf Aktiv/Aktiv-Arrays können Sie „Zuletzt verwendet“ oder das festePSP verwenden.

n Für Aktiv/Passiv- oder Aktiv/Aktiv-Arrays können Sie das Round Robin-PSP ver-wenden.

n Das Modell aller FC-HBAs muss identisch sein.n Legen Sie die folgenden erweiterten Software-Einstellungen für den Host fest: Setzen

Sie Disk.UseLunReset auf 1.

vSphere-Speicher

72 VMware, Inc.

Verwenden von ESXi mit iSCSI-SAN 10Sie können ESXi in Verbindung mit einem SAN (Storage Area Network) verwenden, einem speziellen Hoch-geschwindigkeitsnetzwerk, das Computersysteme mit Hochleistungsspeicher-Subsystemen verbindet. DerEinsatz von ESXi zusammen mit einem SAN bietet zusätzlichen Speicher für Konsolidierungen, steigert dieZuverlässigkeit und unterstützt Sie bei der Notfallwiederherstellung.

Die effiziente Nutzung von ESXi mit einem SAN setzt voraus, dass Sie über Anwendungserfahrungen mitESXi-Systemen und SAN-Konzepten verfügen. Darüber hinaus ist es erforderlich, bei der Einrichtung vonESXi-Hosts für die Verwendung von iSCSI (Internet SCSI)-SAN-Speichersystemen bestimmte Überlegungenanzustellen.

Dieses Kapitel behandelt die folgenden Themen:

n „iSCSI-SAN-Konzepte“, auf Seite 73

n „Zugriff auf Daten in einem iSCSI-SAN durch virtuelle Maschinen“, auf Seite 78

iSCSI-SAN-KonzepteWenn Sie Administrator sind und die ESXi-Hosts für die Zusammenarbeit mit iSCSI-SANs einrichten möch-ten, müssen Sie über Anwendungserfahrungen mit iSCSI-Konzepten verfügen.

iSCSI-SANs verwenden Ethernet-Verbindungen zwischen Computersystemen oder Hostservern und Hoch-leistungsspeichersystemen. Zu den SAN-Komponenten zählen iSCSI-Hostbusadapter (HBAs) oder Netz-werkkarten in den Hostservern, Switches und Routern, die Speicherdatenverkehr weiterleiten, in der Verka-belung, in den Speicherprozessoren (SP) und in den Festplattenspeichersystemen.

iSCSI-SAN verwendet eine Client-Server-Architektur. Der Client, der so genannte iSCSI-Initiator, ist auf Ih-rem Host in Betrieb. Er initiiert iSCSI-Sitzungen, indem er SCSI-Befehle ausgibt und diese in das iSCSI-Pro-tokoll eingekapselt an den Server überträgt. Der Server ist als iSCSI-Ziel bekannt. Dieses iSCSI-Ziel stellt einphysisches Speichersystem auf dem Netzwerk dar. Es kann auch von einem virtuellen iSCSI-SAN bereitge-stellt werden, z. B. einem in einer virtuellen Maschine ausgeführten iSCSI-Zielemulator. Das iSCSI-Ziel rea-giert auf die Befehle des Initiators, indem es die erforderlichen iSCSI-Daten überträgt.

iSCSI-MultipathingBei der Datenübertragung zwischen dem Hostserver und dem Speicher nutzt das SAN eine Technik, die alsMultipathing bezeichnet wird. Multipathing bietet die Möglichkeit, mehr als einen physischen Pfad vomESXi-Host zu einer LUN in einem Speichersystem bereitzustellen.

In der Regel besteht ein einzelner Pfad von einem Host zu einer LUN aus einem iSCSI-Adapter oder derNetzwerkkarte, Switch-Ports, Verbindungskabeln und dem Speicher-Controller-Port. Falls eine Komponentedes Pfads ausfällt, wählt der Host für E/A-Vorgänge einen anderen verfügbaren Pfad. Der Prozess der Er-kennung eines ausgefallenen Pfads und des Wechsels auf einen anderen Pfad wird als Pfad-Failover be-zeichnet.

VMware, Inc. 73

Weitere Informationen zum Multipathing finden Sie unter Kapitel 23, „Grundlegendes zu Multipathing undFailover“, auf Seite 239.

Ports im iSCSI-SANEin einzelnes erkennbares Element auf dem iSCSI-SAN, z. B. ein Initiator oder ein Ziel, stellt einen iSCSI-Knoten dar. Jeder Knoten besitzt mindestens einen Port, der mit dem SAN verbunden wird.

iSCSI-Ports sind Endpunkte einer iSCSI-Sitzung. Jeder Knoten kann auf mehrere Arten ermittelt werden.

IP-Adresse Jeder iSCSI-Knoten kann über eigene IP-Adresse verfügen, sodass Routerund Switches im Netzwerk eine Verbindung zwischen dem Server und demSpeicher aufbauen können. Diese Adresse ist mit der IP-Adresse vergleich-bar, die Sie Ihrem Computer zuweisen, um auf das Unternehmensnetzwerkoder das Internet zugreifen zu können.

iSCSI-Name Ein weltweit eindeutiger Name zum Identifizieren des Knotens. iSCSI ver-wendet die Formate IQN (iSCSI Qualified Name) und EUI (Extended UniqueIdentifier).

Standardmäßig generiert ESXi eindeutige iSCSI-Namen für Ihre iSCSI-Initia-toren, zum Beispiel iqn.1998-01.com.vmware:iscsitestox-68158ef2. DerStandardwert muss daher nicht geändert werden. Wenn Sie ihn dennoch än-dern, stellen Sie sicher, dasss der neue iSCSI-Name eindeutig ist.

iSCSI-Alias Ein Name für ein iSCSI-Gerät oder einen iSCSI-Port, der einfach zu verwal-ten ist und statt dem iSCSI-Namen verwendet wird. iSCSI-Aliase sind nichteindeutig und sollen als benutzerfreundliche Namen dienen, die mit einemPort verknüpft werden können.

iSCSI-BenennungskonventioneniSCSI verwendet einen speziellen, eindeutigen Bezeichner zum Identifizieren eines iSCSI-Knotens, sei es einZiel oder ein Initiator. Dieser Name entspricht dem WWN (WorldWide Name), der mit Fibre-Channel-Gerä-ten verknüpft ist und zur allgemeinen Knotenidentifikation dient.

iSCSI-Namen können zwei verschiedene Formate aufweisen. Das geläufigste Format ist IQN.

Weitere Informationen zu Benennungskonventionen und Zeichenfolgenprofilen finden Sie unter iSCSI-BenRFC 3721 und RFC 3722 auf der IETF-Website.

Das IQN-Format (iSCSI Qualified Name)IQN hat das Format iqn.jjjj-mm.Namensvergabestelle:eindeutiger Name, wobei:

n yyyy-mm gibt Jahr und Monat an, in dem die Stelle für die Namensvergabe (Naming Authority) einge-richtet wurde.

n Namensvergabestelle ist üblicherweise die Syntax des Internetdomänennames der Namensvergabestellein umgekehrter Reihenfolge. Zum Beispiel könnte die Namensvergabestelle iscsi.vmware.com den qua-lifizierten iSCSI-Namen „iqn.1998-01.com.vmware.iscsi“ haben. Der Name gibt an, dass der Domänen-name vmware.com im Januar 1998 registriert wurde und es sich bei „iscsi“ um eine Unterdomäne vonvmware.com handelt.

n eindeutiger_Name steht für einen beliebigen Namen, z. B. den Namen des Hosts. Die Namensvergabe-stelle muss sicherstellen, dass alle zugewiesenen Namen nach dem Doppelpunkt eindeutig sind, z. B.:n iqn.1998-01.com.vmware.iscsi:Name1

n iqn.1998-01.com.vmware.iscsi:Name2

n iqn.1998-01.com.vmware.iscsi:Name999

vSphere-Speicher

74 VMware, Inc.

Das EUI-Format (Enterprise Unique Identifier)EUI hat das Format eui.16 hexadezimale Ziffern.

Beispiel: eui.0123456789ABCDEF.

Bei den 16 Hexadezimalstellen handelt es sich um die Textdarstellung einer 64-Bit-Zahl eines IEEE-EUI-Schemas (Extended Unique Identifier). Die oberen 24 Bit identifizieren die Unternehmens-ID, die das IEEEeinem bestimmten Unternehmen zuordnet. Die unteren 40 Bit werden durch die Entität zugewiesen, derdiese Unternehmens-ID zugeordnet ist, und müssen eindeutig sein.

iSCSI-InitiatorenFür den Zugriff auf iSCSI-Ziele verwendet Ihr Host iSCSI-Initiatoren. Die Initiatoren übertragen SCSI-Anfor-derungen und Antworten, die in das iSCSI-Protokoll eingekapselt sind, zwischen dem Host und dem iSCSI-Ziel.

Ihr Host unterstützt verschiedene Initiatortypen.

Weitere Informationen zum Konfigurieren und Verwenden der iSCSI-Adapter finden Sie unter Kapitel 11,„Konfigurieren von iSCSI-Adaptern und -Speichern“, auf Seite 81.

Software-iSCSI-AdapterEin Software-iSCSI-Adapter ist ein im VMkernel integrierter VMware-Code. Er ermöglicht die VerbindungIhres Hosts mit dem iSCSI-Speichergerät über Standardnetzwerkadapter. Der Software iSCSI-Adapter dientder iSCSI-Verarbeitung und kommuniziert gleichzeitig mit dem Netzwerkadapter. Mit dem Software iSCSI-Adapter können Sie die iSCSI-Technologie verwenden, ohne besondere Hardware erwerben zu müssen.

Hardware iSCSI-AdapterBei einem Hardware-iSCSI-Adapter handelt es sich um einen Adapter eines Drittanbieters, der die gesamteiSCSI- und Netzwerkverarbeitung von Ihrem Host auslagert. Hardware-iSCSI-Adapter werden in Kategori-en unterteilt.

Abhängige Hardware-iSCSI-Adapter

Hängt vom VMware-Netzwerk sowie von den iSCSI-Konfigurations- und -Verwaltungsschnittstellen ab, die von VMware zur Verfügung gestellt wer-den.

Bei diesem Adaptertyp kann es sich um eine Karte handeln, die einen Stan-dard-Netzwerkadapter und die iSCSI-Offload-Funktion für denselben Portbietet. Die iSCSI-Offload-Funktion ist hinsichtlich des Abrufens der IP- undder MAC-Adresse sowie anderer Parameter für iSCSI-Sitzungen von derNetzwerkkonfiguration des Hosts abhängig. Ein Beispiel für einen abhängi-gen Adapter ist die iSCSI-lizenzierte Broadcom 5709-Netzwerkkarte.

Unabhängige Hardware-iSCSI-Adapter

Implementiert ein eigenes Netzwerk und eigene iSCSI-Konfigurations- und -Verwaltungsschnittstellen.

Ein Beispiel für einen unabhängigen Hardware-iSCSI-Adapter ist eine Karte,die entweder nur die iSCSI-Offload-Funktion oder die iSCSI-Offload-Funkti-on und die standardmäßige Netzwerkkarten-Funktion bietet. Die iSCSI-Off-load-Funktion besitzt eine unabhängige Konfigurationsverwaltung, die dieIP- und die MAC-Adresse sowie andere Parameter für die iSCSI-Sitzungenzuweist. Ein Beispiel für einen unabhängigen Adapter ist der QLogicQLA4052-Adapter.

Hardware-iSCSI-Adapter müssen möglicherweise lizenziert werden. Anderenfalls werden sie im Clientoder in vSphere-CLI nicht angezeigt. Fragen Sie Ihren Anbieter nach Lizenzierungsinformationen.

Kapitel 10 Verwenden von ESXi mit iSCSI-SAN

VMware, Inc. 75

Herstellen von iSCSI-VerbindungenIm ESXi-Kontext beschreibt der Begriff „Ziel“ eine einzelne Speichereinheit, auf die Ihr Host zugreifen kann.Die Begriffe „Speichergerät“ und „LUN“ beschreiben ein logisches Volume, das Speicherplatz auf einemZiel darstellt. In der Regel stehen die Begriffe „Gerät“ und „LUN“ im ESXi-Kontext für ein SCSI-Volume,das Ihrem Host von einem Speicherziel angeboten wird und formatiert werden kann.

Verschiedene iSCSI-Speicheranbieter verwenden unterschiedliche Methoden, um Speicher für Server bereit-zustellen. Einige Anbieter stellen mehrere LUNs auf einem einzigen Ziel dar, während andere Anbietermehrere Ziele mit je einer LUN verknüpfen. Wenngleich die Speichernutzung durch einen ESXi-Host ähn-lich ist, ist dennoch die Darstellungsweise der Informationen durch Verwaltungsprogramme unterschied-lich.

Abbildung 10‑1. Ziel im Vergleich zu LUN-Darstellungen

Speicher-Array

Ziel

LUN LUN LUN

Speicher-Array

Ziel Ziel Ziel

LUN LUN LUN

Im vorliegenden Beispiel sind in jeder dieser Konfigurationen drei LUNs verfügbar. Im ersten Fall erkenntder Host ein Ziel, obwohl in diesem Ziel drei LUNs vorhanden sind, die verwendet werden können. JedeLUN steht für ein einzelnes Speichervolume. Im zweiten Fall werden dem Host drei unterschiedliche Zielemit je einer LUN angezeigt.

Hostbasierte iSCSI-Initiatoren richten nur Verbindungen zu jedem Ziel ein. Das bedeutet, dass sich derLUN-Datenverkehr bei Speichersystemen mit einem Ziel, das mehrere LUNs umfasst, auf diese eine Verbin-dung konzentriert. Sind in einem System drei Ziele mit je einer LUN vorhanden, bestehen drei Verbindun-gen zwischen einem Host und den drei verfügbaren LUNs. Diese Information ist hilfreich, um den Speicher-datenverkehr auf mehreren Verbindungen des Hosts mit mehreren iSCSI-HBAs zusammenzufassen, wobeider Datenverkehr für ein Ziel auf einen bestimmten HBA festgelegt und gleichzeitig für den Datenverkehrzu einem anderen Ziel ein anderer HBA genutzt werden kann.

iSCSI-SpeichersystemtypenESXi unterstützt verschiedene Speichersysteme und Arrays.

Zu den Speichertypen, die Ihr Host unterstützt, gehören Aktiv-Aktiv, Aktiv-Passiv und ALUA-konform.

Aktiv-Aktiv-Speicher-system

Ermöglicht den gleichzeitigen Zugriff auf die LUNs über alle Speicherports,die ohne wesentlichen Leistungsabfall verfügbar sind. Alle Pfade sind jeder-zeit aktiv (es sei denn, ein Pfad fällt aus).

Aktiv-Passiv-Speicher-system

Ein System, in dem ein Speicherprozessor aktiv den Zugriff auf eine vorhan-dene LUN ermöglicht. Die anderen Prozessoren fungieren als Sicherung fürdie LUN und können den Zugriff auf andere LUN-E/A-Vorgänge aktiv be-reitstellen. E/A-Daten können ausschließlich an einen aktiven Port gesendetwerden. Falls der Zugriff über den aktiven Speicherport fehlschlägt, kann ei-ner der passiven Speicherprozessoren durch die Server, die auf ihn zugrei-fen, aktiviert werden.

vSphere-Speicher

76 VMware, Inc.

Asymmetrisches Spei-chersystem

Unterstützt Asymmetric Logical Unit Access (ALUA). ALUA-konforme Spei-chersysteme bieten verschiedene Zugriffsebenen für einzelne Ports. ALUAermöglicht es Hosts, den Status von Zielports festzustellen und Pfade zu pri-orisieren. Der Host verwendet einige der aktiven Pfade als primäre Pfade,andere als sekundäre Pfade.

Speichersystem mit vir-tuellem Port

Ermöglicht den Zugriff auf alle verfügbaren LUNs über einen einzigen virtu-ellen Port. Dies sind Aktiv/Aktiv-Speichergeräte, die jedoch die Vielzahl derVerbindungen durch einen einzigen Port verdecken. ESXi-Multipathing stelltnicht standardmäßig mehrere Verbindungen von einem bestimmten Port zudem Speichersystem her. Einige Speicheranbieter bieten Sitzungs-Manageran, um mehrere Verbindungen zu den von ihnen vertriebenen Speichersyste-men herzustellen und zu verwalten. Port-Failover und der Verbindungsaus-gleich werden von diesen Speichersystemen transparent verarbeitet. DieserVorgang wird häufig als „transparentes Failover“ bezeichnet.

Erkennung, Authentifizierung und ZugriffssteuerungSie können mehrere Mechanismen verwenden, um Ihren Speicher zu erkennen und den Zugriff darauf zubeschränken.

Damit die Richtlinie für die Speicherzugriffssteuerung unterstützt wird, müssen Sie den Host und das iSC-SI-Speichersystem konfigurieren.

ErkennungEine Erkennungssitzung ist Teil des iSCSI-Protokolls und gibt die auf einem iSCSI-Speichersystem verfügba-ren Ziele zurück. ESXi bietet zwei verschiedene Erkennungsmethoden: dynamisch und statisch. Bei der dy-namischen Erkennung wird eine Liste der verfügbaren Ziele aus dem iSCSI-Speichersystem abgerufen, wo-hingegen Sie bei der statischen Erkennung lediglich versuchen können, über den Zielnamen und die Adres-se auf ein bestimmtes Ziel zuzugreifen.

Weitere Informationen finden Sie unter „Konfigurieren von Erkennungsadressen für iSCSI-Adapter“,auf Seite 98.

AuthentifizierungDie Authentifizierung durch iSCSI-Speichersysteme erfolgt nach Name und Schlüsselpaar. ESXi unterstütztdas CHAP-Protokoll, das VMware für die SAN-Implementierung empfiehlt. Sowohl für den ESXi-Host alsauch für das iSCSI-Speichersystem muss das CHAP-Protokoll aktiviert sein und beide müssen die gleichenAnmeldeinformationen verwenden, um die CHAP-Authentifizierung verwenden zu können.

Informationen zum Aktivieren von CHAP finden Sie unter „Konfigurieren von CHAP-Parametern für iSC-SI-Adapter“, auf Seite 100.

ZugriffssteuerungZugriffssteuerung ist eine auf dem iSCSI-Speichersystem eingerichtete Richtlinie. Eine Vielzahl der Imple-mentierungen unterstützen mindestens eine der drei folgenden Arten der Zugriffssteuerung:

n Nach Initiatorname

n Nach IP-Adresse

n Nach dem CHAP-Protokoll

Nur Initiatoren, die alle Richtlinien einhalten, können auf das iSCSI-Volume zugreifen.

Kapitel 10 Verwenden von ESXi mit iSCSI-SAN

VMware, Inc. 77

Die ausschließliche Verwendung von CHAP für die Zugriffssteuerung kann zu einer Verlangsamung vonerneuten Prüfungen führen, da ESXi zwar alle Ziele ermitteln kann, aber bei der Authentifizierung fehl-schlägt. iSCSI kann schneller neu prüfen, wenn der Host nur die Ziele ermittelt, die er authentifizieren kann.

FehlerkorrekturUm die Integrität von iSCSI-Headern und -Daten zu schützen, legt das iSCSI-Protokoll Methoden zur Feh-lerkorrektur fest, die als Header- und Daten-Digests bezeichnet werden.

Beide Parameter sind standardmäßig deaktiviert, können aber von Benutzern aktiviert werden. Diese Di-gests beziehen sich auf den Header bzw. die SCSI-Daten, die zwischen iSCSI-Initiatoren und Zielen in bei-den Richtungen übertragen werden.

Header- und Daten-Digests überprüfen die durchgängige Integrität unverschlüsselter Daten. Diese Prüfunggeht über die Integritätsprüfungen hinaus, die andere Netzwerkebenen bereitstellen (z.B. TCP und Ether-net). Header- und Daten-Digests prüfen den gesamten Kommunikationspfad mit allen Elementen, die denDatenverkehr auf Netzwerkebene ändern können, wie Router, Switches und Proxys.

Die Bereitstellung und Art dieser Digests wird verhandelt, sobald eine iSCSI-Verbindung aufgebaut wird.Wenn der Initiator und das Ziel einer Digest-Konfiguration zustimmen, muss dieses Digest für den gesam-ten Datenverkehr zwischen diesem Initiator und dem Ziel verwendet werden.

Die Aktivierung von Header- und Daten-Digests erfordert eine zusätzliche Verarbeitung durch den Initiatorund das Ziel, was zu einer Beeinträchtigung des Durchsatzes und der CPU-Leistung führen kann.

Hinweis Systeme, die Intel Nehalem-Prozessoren einsetzen, lagern die iSCSI Digest-Berechnungen aus undreduzieren damit die Auswirkungen auf die Leistung.

Weitere Informationen zum Aktivieren von Header-Digests und Daten-Digests finden Sie unter „Konfigu-rieren erweiterter Parameter für iSCSI“, auf Seite 104.

Zugriff auf Daten in einem iSCSI-SAN durch virtuelle MaschinenESXi speichert Festplattendateien einer virtuellen Maschine in einem VMFS-Datenspeicher, der sich auf ei-nem SAN-Speichergerät befindet. Sobald Gastbetriebssysteme der virtuellen Maschine SCSI-Befehle an dievirtuellen Festplatten senden, übersetzt die SCSI-Virtualisierungsebene diese Befehle in VMFS-Dateivorgän-ge.

Wenn eine virtuelle Maschine mit seinen auf einem SAN gespeicherten virtuellen Festplatten interagiert,finden die folgenden Prozesse statt:

1 Wenn das Gastbetriebssystem in einer virtuellen Maschine zum Lesen oder Schreiben auf eine SCSI-Festplatte zugreifen muss, sendet dieses SCSI-Befehle an die virtuelle Festplatte.

2 Gerätetreiber im Betriebssystem der virtuellen Maschine kommunizieren mit den virtuellen SCSI-Con-trollern.

3 Der virtuelle SCSI-Controller leitet den Befehl an den VMkernel weiter.

4 Der VMkernel führt die folgenden Aufgaben aus.

a Sucht die Datei, die der Festplatte der virtuellen Gastmaschine entspricht, im VMFS-Volume.

b ordnet die Anforderungen für die Blöcke auf der virtuellen Festplatte den Blöcken auf dem ent-sprechenden physischen Gerät zu.

c sendet die geänderte E/A-Anforderung vom Gerätetreiber im VMkernel an den iSCSI-Initiator(Hardware oder Software).

vSphere-Speicher

78 VMware, Inc.

5 Handelt es sich bei dem iSCSI-Initiator um einen Hardware-iSCSI-Adapter (unabhängig oder abhän-gig), führt der Adapter die folgenden Aufgaben aus.

a kapselt die E/A-Anforderungen in iSCSI-PDUs (Protocol Data Units).

b kapselt iSCSI-PDUs in TCP/IP-Pakete.

c sendet IP-Pakete über Ethernet an das iSCSI-Speichersystem.

6 Handelt es sich bei dem iSCSI-Initiator um einen Software-iSCSI-Adapter, findet der folgende Prozessstatt.

a Der iSCSI-Initiator kapselt E/A-Anforderungen in iSCSI-PDUs.

b Der Initiator sendet SCSI-PDUs über TCP/IP-Verbindungen.

c Der VMkernel-TCP/IP-Stack gibt TCP/IP-Pakete an eine physische Netzwerkkarte weiter.

d Die physische Netzwerkkarte sendet IP-Pakete über Ethernet an das iSCSI-Speichersystem.

7 Abhängig davon, welchen Port der iSCSI-Initiator für die Verbindung zum Netzwerk verwendet, über-mitteln Ethernet-Switches und Router die Anforderung an das Speichergerät, auf das der Host zugrei-fen möchte.

Kapitel 10 Verwenden von ESXi mit iSCSI-SAN

VMware, Inc. 79

vSphere-Speicher

80 VMware, Inc.

Konfigurieren von iSCSI-Adapternund -Speichern 11

Bevor Sie ESXi in einem SAN verwenden können, müssen Sie die iSCSI-Adapter und -Speicher installieren.

Hierzu müssen Sie zunächst bestimmte Grundanforderungen und dann die die Best Practices zum Installie-ren und Einrichten von Hardware- oder Software-iSCSI-Adaptern beachten, um auf das SAN zuzugreifen.

In der folgenden Tabelle werden die iSCSI-Adapter (vmhbas) aufgelistet, die ESXi unterstützt. Zudem wirdangegeben, ob eine Netzwerkkonfiguration des VMkernels erforderlich ist.

Tabelle 11‑1. Unterstützte iSCSI-Adapter

iSCSI-Adapter (vmhba) Beschreibung VMkernel-Netzwerk

Software Verwendet Standardnetzwerkkarten,um Ihren Host mit einem Remote-iSCSI-Ziel auf dem IP-Netzwerk zuverbinden.

Erforderlich

Unabhängige Hardware Adapter eines Drittanbieters, der dieiSCSI- und Netzwerk-Verarbeitungund -Verwaltung vom Host verlagert.

Nicht erforderlich

Abhängige Hardware Adapter eines Drittanbieters, dervom VMware-Netzwerk sowie vonden iSCSI-Konfigurations- und -Ver-waltungsschnittstellen abhängt.

Erforderlich

Nach dem Einrichten der iSCSI-Adapter können Sie einen Datenspeicher auf dem iSCSI-Speicher erstellen.Weitere Informationen zum Erstellen und Verwalten von Datenspeichern finden Sie unter „Erstellen von Da-tenspeichern“, auf Seite 154.

Dieses Kapitel behandelt die folgenden Themen:

n „Anforderungen an ESXi-iSCSI-SAN“, auf Seite 82

n „Einschränkungen bei ESXi-iSCSI-SAN“, auf Seite 82

n „Festlegen der LUN-Zuordnungen für iSCSI“, auf Seite 82

n „Netzwerkkonfiguration und Authentifizierung“, auf Seite 83

n „Einrichten von unabhängigen Hardware-iSCSI-Adaptern“, auf Seite 83

n „Konfigurieren von abhängigen Hardware-iSCSI-Adaptern“, auf Seite 85

n „Konfigurieren des Software-iSCSI-Adapters“, auf Seite 87

n „Ändern der allgemeinen Eigenschaften für iSCSI-Adapter“, auf Seite 89

n „Einrichten des iSCSI-Netzwerks“, auf Seite 89

n „Verwenden von Jumbo-Frames mit iSCSI“, auf Seite 97

VMware, Inc. 81

n „Konfigurieren von Erkennungsadressen für iSCSI-Adapter“, auf Seite 98

n „Konfigurieren von CHAP-Parametern für iSCSI-Adapter“, auf Seite 100

n „Konfigurieren erweiterter Parameter für iSCSI“, auf Seite 104

n „iSCSI-Sitzungsverwaltung“, auf Seite 106

Anforderungen an ESXi -iSCSI-SANVor der ordnungsgemäßen Verwendung eines ESXi-Hosts mit einem SAN müssen bestimmte Anforderun-gen erfüllt sein.

n Stellen Sie sicher, dass die Hardware- und Firmware-Kombinationen für Ihren SAN-Speicher in Verbin-dung mit ESXi-Systemen unterstützt werden. Eine aktuelle Liste finden Sie unter vSphere-Kompatibilitäts-handbuch.

n Konfigurieren Sie Ihr System so, dass nur ein VMFS-Datenspeicher für jede LUN vorhanden ist.

n Sofern Sie keine festplattenlosen Server einsetzen, richten Sie eine Diagnose-Partition auf einem lokalenSpeicher ein. Wenn Sie über festplattenlose Server verfügen, die von einem iSCSI-SAN gestartet wer-den, finden Sie weitere Informationen über Diagnosepartitionen mit iSCSI unter „Allgemeine Empfeh-lungen für das Starten von einem iSCSI-SAN“, auf Seite 115.

n Verwenden Sie RDMs für den Zugriff auf eine beliebige Raw-Festplatte. Weitere Informationen hierzufinden Sie unter Kapitel 17, „Raw-Gerätezuordnung“, auf Seite 171.

n Installieren Sie den SCSI Controller-Treiber im Gastbetriebssystem, damit Sie eine ausreichende Größeder Warteschlange festlegen können. Weitere Informationen über das Ändern der Warteschlangentiefefür iSCSI-Adapter und virtuelle Maschinen finden Sie unter vSphere-Fehlerbehebungshandbuch.

n Erhöhen Sie den Wert des SCSI-Parameters TimeoutValue für virtuelle Maschinen, auf denen MicrosoftWindows ausgeführt wird, damit Windows aus Pfad-Failover resultierende E/A-Verzögerungen bessertoleriert. Weitere Informationen hierzu finden Sie unter „Festlegen der Zeitüberschreitung bei Wind-ows-Gastbetriebssystemen“, auf Seite 243.

Einschränkungen bei ESXi -iSCSI-SANBei der Verwendung von ESXi mit einem iSCSI-SAN gelten einige Einschränkungen.

n ESXi unterstützt keine über iSCSI verbundenen Bandlaufwerke.

n Sie können keine Multipathing-Software für virtuelle Maschinen verwenden, um einen E/A-Lastaus-gleich für eine einzelne physische LUN durchzuführen.

n ESXi unterstützt kein Multipathing, wenn Sie unabhängige Hardwareadapter mit Software- oder ab-hängigen Hardwareadaptern kombinieren.

n ESXi unterstützt IPv6 mit Software-iSCSI sowie abhängige Hardware-iSCSI nicht.

Festlegen der LUN-Zuordnungen für iSCSIWenn Sie Ihr ESXi-System zur Verwendung des iSCSI SAN-Speichers vorbereiten, müssen Sie zunächstLUN-Zuordnungen vornehmen.

Beachten Sie Folgendes:

n Speicherbereitstellung. Damit der Host die LUNs beim Start erkennt, müssen alle iSCSI-Speicherziele sokonfiguriert werden, dass Ihr Host darauf zugreifen und sie verwenden kann. Konfigurieren Sie IhrenHost auch in der Weise, dass er alle verfügbaren iSCSI-Ziele erkennen kann.

vSphere-Speicher

82 VMware, Inc.

n vMotion und VMware DRS. Wenn Sie vCenter Server und vMotion oder DRS verwenden, sollten Siesicherstellen, dass die LUNs für die virtuellen Maschinen allen Hosts bereitgestellt werden. Diese Kon-figuration bietet die höchste Flexibilität beim Verschieben virtueller Maschinen.

n Aktiv/Aktiv- im Vergleich zu Aktiv/Passiv-Arrays. Bei der Verwendung von vMotion oder DRS mit ei-nem SAN-Speichergerät vom Typ „Aktiv/Passiv“ sollten Sie sicherstellen, dass alle Hosts über einheitli-che Pfade zu allen Speicherprozessoren verfügen. Anderenfalls kann es bei vMotion-Migrationen zu ei-nem Pfad-Thrashing kommen.

Für Aktiv/Passiv-Speicher-Arrays, die in der Speicher-/SAN-Kompatibilität nicht aufgelistet sind, wer-den keine Speicherport-Failover von VMware unterstützt. Sie müssen den Server am aktiven Port desSpeichersystems anschließen. Durch diese Konfiguration wird sichergestellt, dass die LUNs dem Hostangezeigt werden.

Netzwerkkonfiguration und AuthentifizierungBevor Ihr ESXi-Host den iSCSI-Speicher erkennen kann, müssen die iSCSI-Initiatoren konfiguriert werden.Möglicherweise muss auch die Authentifizierung eingerichtet werden.

n Für Software- und abhängiges Hardware-iSCSI muss die Vernetzung für den VMkernel konfiguriertwerden. Mit dem Dienstprogramm vmkping können Sie die Netzwerkkonfiguration überprüfen.

n Für den Einsatz von unabhängigem Hardware-iSCSI müssen auf dem HBA Netzwerkparameter wie IP-Adresse, Subnetzmaske und Standard-Gateway konfiguriert werden.

n Überprüfen und ändern Sie ggf. den standardmäßigen Initiator-Namen.

n Die Adresse der dynamischen oder der statischen Erkennung und der Zielname des Speichersystemsmüssen festgelegt sein. Für Software- und abhängiges Hardware-iSCSI muss die Adresse mithilfe vonvmkping angepingt werden können.

n Um die CHAP-Authentifizierung zu verwenden, aktivieren Sie diese auf Seiten des Initiators und desSpeichersystems. Nach dem Aktivieren der Authentifizierung gilt diese ausschließlich für alle Ziele, dienoch nicht erkannt wurden (nicht aber für bereits erkannte Ziele). Wurde schließlich die Erkennungsad-resse festgelegt, werden die neu erkannten Ziele angezeigt und können verwendet werden.

Weitere Informationen zur Verwendung des Befehls vmkping finden Sie in der VMware-Knowledgebase.

Einrichten von unabhängigen Hardware-iSCSI-AdapternEin unabhängiger Hardware-iSCSI-Adapter ist ein spezielle Adapter von Drittanbietern, die über TCP/IPauf iSCSI-Speicher zugreifen kann. Dieser iSCSI-Adapter steuert die gesamte iSCSI- und Netzwerk-Verarbei-tung und -Verwaltung für das ESXi-System.

Der Installations- und Konfigurationsprozess für die unabhängigen Hardware-iSCSI-Adapter umfasst die-ses Schritte:

1 Prüfen Sie, ob der Adapter lizenziert werden muss.

Informationen finden Sie in der Dokumentation des Anbieters.

2 Installieren Sie den Adapter.

Informationen zur Installation sowie zu Firmware-Updates finden Sie in der Herstellerdokumentation.

3 Stellen Sie sicher, dass der Adapter ordnungsgemäß installiert wurde.

Weitere Informationen hierzu finden Sie unter „Anzeigen von unabhängigen Hardware-iSCSI-Adap-tern im vSphere Web Client“, auf Seite 84.

4 Konfigurieren Sie die Erkennungsinformationen.

Weitere Informationen hierzu finden Sie unter „Konfigurieren von Erkennungsadressen für iSCSI-Adapter“, auf Seite 98.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 83

5 (Optional) CHAP-Parameter konfigurieren.

Weitere Informationen hierzu finden Sie unter „Konfigurieren von CHAP-Parametern für iSCSI-Adap-ter“, auf Seite 100.

6 (Optional) Aktivieren Sie Jumbo-Frames.

Weitere Informationen hierzu finden Sie unter „Verwenden von Jumbo-Frames mit iSCSI“, auf Seite 97.

Anzeigen von unabhängigen Hardware-iSCSI-Adaptern im vSphere Web ClientZeigen Sie einen unabhängigen Hardware-iSCSI-Adapter an, um zu überprüfen, ob er korrekt installiertund konfigurationsbereit ist.

Nachdem Sie einen unabhängigen Hardware-iSCSI-Adapter auf einem Host installiert haben, wird er in derListe der Speicheradapter angezeigt, die zum Konfigurieren zur Verfügung stehen. Seine Eigenschaften kön-nen angezeigt werden.

Voraussetzungen

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter.

Falls installiert, sollte der Hardware-iSCSI-Adapter in der Liste der Speicheradapter angezeigt werden.

4 Wählen Sie die anzuzeigenden Adapter aus.

Die standardmäßigen Details für den Adapter werden angezeigt, darunter das Modell, der iSCSI-Name,iSCSI-Alias, IP-Adresse sowie Ziel- und Pfadinformationen.

Ändern der IP-Adresse und DNS-Einstellungen in vSphere Web ClientNach der Installation eines unabhängigen Hardware-iSCSI-Adapters müssen Sie möglicherweise die Stan-dard-IP-Einstellungen ändern, damit der Adapter ordnungsgemäß für IP SAN konfiguriert ist.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter und wählen Sie den zu konfigurierenden Adapter (vmhba#) aus.

4 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Eigenschaften und klicken Sie im Bereich„Konfiguration von IP-Adresse und DNS“ auf Bearbeiten.

5 Ändern Sie die Standard-IP-Einstellungen.

Wenden Sie sich an Ihren Netzwerkadministrator, um die richtige IP-Einstellung für den Adapter zuermitteln.

vSphere-Speicher

84 VMware, Inc.

Konfigurieren von abhängigen Hardware-iSCSI-AdapternEin abhängiger Hardware-iSCSI-Adapter ist ein Drittanbieter-Adapter, der vom VMware-Netzwerk sowievon den iSCSI-Konfigurations- und -Verwaltungsschnittstellen abhängt, die von VMware zur Verfügung ge-stellt werden.

Ein Beispiel für einen abhängigen iSCSI-Adapter ist eine Broadcom 5709-Netzwerkkarte. Wenn er auf einemHost installiert ist, präsentiert er seine beiden Komponenten, einen Standard-Netzwerkadapter und eineiSCSI-Engine, demselben Port. Die iSCSI-Engine wird als iSCSI-Adapter in der Liste der Speicheradapter(vmhba) angezeigt. Der iSCSI-Adapter ist zwar standardmäßig aktiviert. Damit er funktionsfähig ist, müs-sen Sie ihn jedoch zuerst über einen virtuellen VMkernel-Adapter (vmk) mit einem ihm zugeordneten phy-sischen Netzwerkadapter (vmnic) verbinden. Anschließend können Sie den iSCSI-Adapter konfigurieren.

Nachdem Sie den abhängigen Hardware-iSCSI-Adapter konfiguriert haben, werden die Ermittlungs- undAuthentifizierungsdaten über die Netzwerkverbindung geleitet, während der iSCSI-Datenverkehr unterUmgehung des Netzwerks über die iSCSI-Engine geleitet wird.

Der gesamte Installations- und Konfigurationsprozess für die abhängigen Hardware-iSCSI-Adapter bestehtaus diesen Schritten:

1 Zeigen Sie die abhängigen Hardware-Adapter an.

Weitere Informationen hierzu finden Sie unter „Abhängige Hardware-iSCSI-Adapter im vSphere WebClient anzeigen“, auf Seite 86.

Falls Ihre abhängigen Hardware-Adapter nicht in der Liste der Speicheradapter angezeigt werden,überprüfen Sie, ob sie lizenziert werden müssen. Informationen finden Sie in der Dokumentation desAnbieters.

2 Ermitteln Sie, welchen physischen Netzwerkkarten die abhängigen Hardware-Adapter zugeordnetsind.

Weitere Informationen hierzu finden Sie unter „Ermitteln der Zuordnung zwischen iSCSI- und Netz-werkadaptern im vSphere Web Client“, auf Seite 87.

Notieren Sie sich die Namen der zugehörigen physischen Netzwerkkarten. Beispielsweise gehört derAdapter „vmhba33“ zu „vmnic1“ und „vmhba34“ zu „vmnic2“.

3 Konfigurieren Sie das Netzwerk für iSCSI.

Weitere Informationen hierzu finden Sie unter „Einrichten des iSCSI-Netzwerks“, auf Seite 89.

Im Rahmen der Konfiguration des Netzwerks muss eine VMkernel-Schnittstelle für jeden physischenNetzwerkadapter erstellt und die Schnittstelle mit einem entsprechenden iSCSI-Adapter verknüpft wer-den.

4 (Optional) Aktivieren Sie Jumbo-Frames.

Weitere Informationen hierzu finden Sie unter „Verwenden von Jumbo-Frames mit iSCSI“, auf Seite 97.

5 Konfigurieren Sie die Erkennungsinformationen.

Weitere Informationen hierzu finden Sie unter „Konfigurieren von Erkennungsadressen für iSCSI-Adapter“, auf Seite 98.

6 (Optional) CHAP-Parameter konfigurieren.

Weitere Informationen hierzu finden Sie unter „Konfigurieren von CHAP-Parametern für iSCSI-Adap-ter“, auf Seite 100.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 85

Überlegungen zu abhängigen Hardware-iSCSI-AdapternWenn Sie abhängige Hardware-iSCSI-Adapter für ESXi verwenden, muss Folgendes beachtet werden.

n Wenn Sie einen abhängigen Hardware-iSCSI-Adapter verwenden, zeigt der Leistungsbericht für einedem Adapter zugewiesene Netzwerkkarte möglicherweise wenig oder keine Aktivität, selbst wenn einegroße Menge an iSCSI-Datenverkehr vorhanden ist. Dieses Verhalten tritt auf, weil der iSCSI-Datenver-kehr den regulären Netzwerkstack umgeht.

n Falls Sie einen virtuellen Switch eines Drittanbieters einsetzen, z. B. Cisco Nexus 1000V DVS, deaktivie-ren Sie das automatische Binden. Verwenden Sie stattdessen das manuelle Binden und stellen Sie dabeisicher, dass Sie einen VMkernel-Adapter (vmk) mit einer entsprechenden physischen Netzwerkkarte(vmnic) verbinden. Weitere Informationen finden Sie in der Herstellerdokumentation zu Ihrem virtuel-len Switch.

n Der Broadcom iSCSI-Adapter führt eine Datenumwandlung in Hardware mit begrenztem Pufferspei-cher durch. Wenn Sie den Broadcom iSCSI-Adapter in einem ausgelasteten oder überlasteten Netzwerkverwenden, aktivieren Sie die Flusssteuerung, damit die Leistung nicht beeinträchtigt wird.

Die Flusssteuerung überwacht die Datenübertragungsrate zwischen zwei Knoten und verhindert, dassein langsamer Empfänger von einem schnellen Sender überrannt wird. Um optimale Ergebnisse zu er-zielen, aktivieren Sie die Flusssteuerung an den Endpunkten des E/A-Pfads, d. h. auf den Hosts undden iSCSI-Speichersystemen.

Verwenden Sie den Befehl esxcli system module parameters, um die Flusskontrolle für den Host zuaktivieren. Weitere Informationen hierzu finden Sie im VMware-Knowledgebase-Artikel unter http://kb.vmware.com/kb/1013413.

n IPv6 wird von Broadcom iSCSI-Adaptern nicht unterstützt.

Abhängige Hardware-iSCSI-Adapter im vSphere Web Client anzeigenZeigen Sie einen abhängigen Hardware-iSCSI-Adapter an, um zu überprüfen, ob er korrekt geladen ist.

Der abhängige Hardware-iSCSI-Adapter (vmhba#) wird, wenn er installiert ist, in der Liste der Speicher-adapter unter Kategorien wie z. B. „Broadcom iSCSI Adapter“ angezeigt. Falls der abhängige Hardware-Adapter nicht in der Liste der Speicheradapter angezeigt wird, überprüfen Sie, ob er lizenziert werdenmuss. Informationen finden Sie in der Dokumentation des Anbieters.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter.

4 Wählen Sie die anzuzeigenden Adapter (vmhba#) aus.

Es werden die standardmäßigen Detailinformationen zu dem Adapter angezeigt, etwa iSCSI-Namen,iSCSI-Alias und Status.

Weiter

Obwohl der abhängige iSCSI-Adapter standardmäßig aktiviert ist, müssen Sie, damit er funktionsbereit ist,eine Vernetzung für den iSCSI-Datenverkehr einrichten und den Adapter an den entsprechenden VMkernel-iSCSI-Port binden. Konfigurieren Sie dann die Erkennungsadressen und die CHAP-Parameter.

vSphere-Speicher

86 VMware, Inc.

Ermitteln der Zuordnung zwischen iSCSI- und Netzwerkadaptern imvSphere Web Client

Netzwerkverbindungen dienen dazu, abhängige iSCSI- und physische Netzwerkadapter zu binden. Um dieVerbindungen ordnungsgemäß zu erstellen, müssen Sie den Namen der physischen Netzwerkkarte ermit-teln, der der abhängige Hardware-iSCSI-Adapter zugewiesen werden soll.

Voraussetzungen

Navigieren Sie im vSphere Web Client zum abhängigen Hardware-iSCSI-Adapter (vmhba#). Weitere Infor-mationen hierzu finden Sie unter „Abhängige Hardware-iSCSI-Adapter im vSphere Web Client anzeigen“,auf Seite 86.

Vorgehensweise

1 Wählen Sie den iSCSI-Adapter (vmhba#) aus und klicken Sie auf die Registerkarte Netzwerk-Port-Bin-dung unter „Adapterdetails“.

2 Klicken Sie auf Hinzufügen.

Der Netzwerkadapter (vmnic#), der dem abhängigen iSCSI-Adapter zugeordnet ist, wird in der Spalte„Physischer Netzwerkadapter“ aufgeführt.

Weiter

Wenn die Spalte „VMkernel-Adapter“ leer ist, erstellen Sie einen VMkernel-Adapter (vmk#) für den physi-schen Netzwerkadapter (vmnic#) und binden Sie beide an den zugewiesenen abhängigen Hardware-iSCSI.Weitere Informationen hierzu finden Sie unter „Einrichten des iSCSI-Netzwerks“, auf Seite 89.

Konfigurieren des Software-iSCSI-AdaptersBei der softwarebasierten iSCSI-Implementierung können Sie Standard-Netzwerkkarten verwenden, um Ih-ren Host mit einem externen iSCSI-Ziel im IP-Netzwerk zu verbinden. Der in ESXi integrierte Software-iSC-SI-Adapter ermöglicht diese Verbindung, indem er über den Netzwerkstapel mit den physischen Netzwerk-karten kommuniziert.

Bevor Sie den Software-iSCSI-Adapter verwenden können, müssen Sie ein Netzwerk einrichten, den Adap-ter aktivieren und Parameter, wie z. B. Erkennungsadressen und CHAP, konfigurieren.

Hinweis Legen Sie einen separaten Netzwerkadapter für iSCSI fest. Verwenden Sie iSCSI nicht bei Adap-tern mit 100 MBit/s oder weniger.

Der Workflow zur Konfiguration des Software-iSCSI-Adapters umfasst die folgenden Schritte:

1 Aktivieren Sie den Software-iSCSI-Adapter.

Weitere Informationen hierzu finden Sie unter „Aktivieren des Software-iSCSI-Adapters in vSphereWeb Client“, auf Seite 88.

2 Konfigurieren Sie das Netzwerk für iSCSI.

Weitere Informationen hierzu finden Sie unter „Einrichten des iSCSI-Netzwerks“, auf Seite 89.

Im Rahmen der Konfiguration des Netzwerks muss für jeden physischen Netzwerkadapter, den Sie füriSCSI verwenden, eine VMkernel-Schnittstelle erstellt und alle Schnittstellen müssen mit dem Software-iSCSI-Adapter müssen verknüpft werden.

3 (Optional) Aktivieren Sie Jumbo-Frames.

Weitere Informationen hierzu finden Sie unter „Verwenden von Jumbo-Frames mit iSCSI“, auf Seite 97.

4 Konfigurieren Sie die Erkennungsinformationen.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 87

Weitere Informationen hierzu finden Sie unter „Konfigurieren von Erkennungsadressen für iSCSI-Adapter“, auf Seite 98.

5 (Optional) CHAP-Parameter konfigurieren.

Weitere Informationen hierzu finden Sie unter „Konfigurieren von CHAP-Parametern für iSCSI-Adap-ter“, auf Seite 100.

Aktivieren des Software-iSCSI-Adapters in vSphere Web ClientSie müssen Ihren Software-iSCSI-Adapter aktivieren, damit er von Ihrem Host für den Zugriff auf den iSC-SI-Speicher verwendet werden kann.

Sie können nur einen Software-iSCSI-Adapter aktivieren.

Voraussetzungen

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Hinweis Wenn Sie von iSCSI mithilfe des Software-iSCSI-Adapters starten, wird der Adapter aktiviert unddie Netzwerkkonfiguration wird beim ersten Boot-Vorgang erstellt. Wenn Sie den Adapter deaktivieren,wird er bei jedem Neustart des Hosts erneut aktiviert.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter und anschließend auf Hinzufügen.

4 Wählen Sie Software‐iSCSI‐Adapter aus und bestätigen Sie, dass Sie den Adapter hinzufügen möch-ten.

Der Software-iSCSI-Adapter (vmhba#) wird aktiviert und erscheint in der Liste der Speicheradapter. Nach-dem Sie den Adapter aktiviert haben, weist ihm der Host den Standard-iSCSI-Namen zu. Falls Sie den Stan-dardnamen ändern müssen, befolgen Sie die iSCSI-Namenskonventionen.

Weiter

Wählen Sie den Adapter aus und verwenden Sie zum Konfigurieren den Abschnitt „Adapterdetails“.

Deaktivieren des Software-iSCSI-Adapters im vSphere Web ClientWenn Sie den Software-iSCSI-Adapter nicht benötigen, können Sie ihn deaktivieren.

Durch Deaktivierung des Software-iSCSI-Adapters wird dieser zum Entfernen markiert. Der Adapter wirdbeim nächsten Neustart des Hosts vom Host entfernt. Nach dem Entfernen kann der Host nicht mehr aufdie virtuellen Maschinen und die anderen Daten auf den Speichergeräten zugreifen, die diesem Adapter zu-geordnet sind.

Voraussetzungen

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter und wählen Sie den Software-iSCSI-Adapter aus der Liste aus.

vSphere-Speicher

88 VMware, Inc.

4 Klicken Sie unter Adapterdetails auf Deaktivieren und bestätigen Sie, dass Sie den Adapter deaktivie-ren möchten.

Der Status zeigt an, dass der Adapter deaktiviert wurde.

5 Starten Sie den Host neu.

Nach dem Neustart wird der Adapter nicht mehr in der Liste der Speicheradapter angezeigt.

Der iSCSI-Software-Adapter ist nicht mehr verfügbar und auf die diesem Adapter zugeordneten Speicher-geräte kann nicht mehr zugegriffen werden. Sie können den Adapter zu einem späteren Zeitpunkt aktivie-ren.

Ändern der allgemeinen Eigenschaften für iSCSI-AdapterSie können den Standard-iSCSI-Namen und den Alias ändern, die Ihren iSCSI-Adaptern zugewiesen wur-den. Für die unabhängigen Hardware-iSCSI-Adapter können Sie auch die Standard-IP-Einstellungen än-dern.

Wichtig Wenn Sie Standardeigenschaften für Ihre iSCSI-Adapter ändern, achten Sie darauf, dass ihre Na-men und IP-Adressen das richtige Format haben.

Voraussetzungen

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter und wählen Sie den zu konfigurierenden Adapter (vmhba#) aus.

4 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Eigenschaften und klicken Sie auf Bearbeitenim Bereich „Allgemein".

5 Um den Standard-iSCSI-Namen für den Adapter zu ändern, geben Sie einen neuen Namen ein.

Stellen Sie sicher, dass der eingegebene Name weltweit eindeutig und ordnungsgemäß formatiert ist,anderenfalls wird der iSCSI-Adapter möglicherweise von bestimmten Speichergeräten nicht erkannt.

6 (Optional) Geben Sie das iSCSI-Alias ein.

Das Alias ist ein Name, der zur Identifizierung des iSCSI-Adapters verwendet wird.

Wenn Sie den iSCSI-Namen ändern, wird der angegebene Name für neue iSCSI-Sitzungen verwendet. Fürbestehende Sitzungen werden die neuen Einstellungen erst nach der Ab- und erneuten Anmeldung verwen-det.

Einrichten des iSCSI-NetzwerksSoftware- und abhängige Hardware-iSCSI-Adapter sind vom VMkernel-Netzwerk abhängig. Wenn Sie dieSoftware- oder abhängigen Hardware-iSCSI-Adapter verwenden, müssen Sie Verbindungen für den Daten-verkehr zwischen der iSCSI-Komponente und den physischen Netzwerkadaptern konfigurieren.

Zum Konfigurieren der Netzwerkverbindung muss für jeden physischen Netzwerkadapter ein virtuellerVMkernel-Adapter erstellt werden. Anschließend muss der VMkernel-Adapter mit einem entsprechendeniSCSI-Adapter verknüpft werden. Dieser Vorgang wird Port-Bindung genannt.

Spezifische Überlegungen, wann und wie Netzwerkverbindungen mit Software-iSCSI verwendet werden,finden Sie im VMware-Knowledgebase-Artikel unter http://kb.vmware.com/kb/2038869.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 89

Mehrere Netzwerkadapter in der iSCSI-KonfigurationWenn Ihr Host mehrere physische Netzwerkadapter für Software- und abhängige Hardware-iSCSI hat, ver-wenden Sie die Adapter für das Multipathing.

Sie können den Software-iSCSI-Adapter mit allen auf Ihrem Host verfügbaren physischen Netzwerkkartenverbinden. Die abhängigen iSCSI-Adapter müssen nur mit ihren eigenen physischen Netzwerkkarten ver-bunden sein.

Hinweis Physische Netzwerkkarten müssen sich in demselben Subnetz befinden wie das iSCSI-Speicher-system, mit dem sie verbunden werden.

Abbildung 11‑1. Netzwerk mit iSCSI

Physische NICs

vmnic1 vmnic2 vmnic1 vmnic2

Physische NICsmit iSCSI-Offload-

Funktionalität

Host1

Host1

Host2

Host2

VirtuelleAdapter

Software-iSCSI-Adapter Abhängige Hardware-iSCSI-Adapter

vSwitch

vmk1 vmk2 vmk1

vmhba33vmhba# vmhba34

vmk2

vSwitch

Virtuell

Physisch

Zwei physische NICs, die mit demSoftware-iSCSI-Adapter verbunden sind

Zwei physische NICs mit iSCSI-Offload-Funktionalität

IP-Netzwerk

iSCSI-Speicher iSCSI-Speicher

Der iSCSI-Adapter und die physische Netzwerkkarte werden über einen virtuellen VMkernel-Adapter ver-bunden, der auch als virtueller Netzwerkadapter oder VMkernel-Port bezeichnet wird. Sie erstellen einenVMkernel-Adapter (vmk) auf einem vSphere-Switch (vSwitch) mithilfe einer 1:1-Zuordnung zwischen je-dem virtuellen und physischen Netzwerkadapter.

Eine Möglichkeit, die 1:1-Zuordnung zu erreichen, wenn mehrere Netzwerkkarten vorhanden sind, bestehtdarin, für jedes V2P-Adapterpaar (Virtual-To-Physical) einen separaten vSphere-Switch auszuwählen.

Hinweis Wenn Sie separate vSphere-Switches verwenden, müssen Sie sie mit unterschiedlichen IP-Subnet-zen verbinden. Anderenfalls können bei VMkernel-Adaptern Verbindungsprobleme auftreten und der Hostkann keine iSCSI-LUNs erkennen.

Die folgenden Beispiele zeigen Konfigurationen, die vSphere Standard-Switches verwenden. Sie können je-doch auch Distributed Switches verwenden. Weitere Informationen zu vSphere Distributed Switches findenSie in der Dokumentation vSphere-Netzwerk.

vSphere-Speicher

90 VMware, Inc.

Abbildung 11‑2. 1:1-Adapterzuordnung auf separaten vSphere Standard-Switches

VMkernel-Adapter Physische Adapter

vmnic1iSCSI1

vmk1

vSwitch1

VMkernel-Adapter Physische Adapter

vmnic2iSCSI2

vmk2

vSwitch2

Eine Alternative besteht darin, alle Netzwerkkarten und VMkernel-Adapter zu einem einzelnen vSphereStandard-Switch hinzuzufügen. In diesem Fall müssen Sie die Standardnetzwerkeinrichtung außer Kraftsetzen und sicherstellen, dass jeder VMkernel-Adapter nur einem entsprechenden aktiven physischenAdapter zugeordnet wird.

Hinweis Sie müssen die Konfiguration mit einem einzelnen vSwitch verwenden, wenn sich VMkernel-Adapter in demselben Subnetz befinden.

Abbildung 11‑3. 1:1-Adapterzuordnung auf einem einzelnen vSphere Standard-Switch

VMkernel-Adapter Physische Adapter

vmnic2

vmnic1

iSCSI2

vmk2

iSCSI1

vmk1

vSwitch1

Die folgende Tabelle fasst die in diesem Thema beschriebene iSCSI-Netzwerkkonfiguration zusammen.

Tabelle 11‑2. Netzwerkkonfiguration für iSCSI

iSCSI-Adapter VMkernel-Adapter (Ports) Physische Adapter (NICs)

Software-iSCSI

vmhba32 vmk1 vmnic1

vmk2 vmnic2

Abhängige Hardware-iSCSI

vmhba33 vmk1 vmnic1

vmhba34 vmk2 vmnic2

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 91

Richtlinien für die Verwendung der iSCSI-Port-Bindung in ESXiSie können mehrere an iSCSI gebundene VMkernel-Adapter verwenden, um über mehrere Pfade zu einemiSCSI-Array zu verfügen, das eine einzelne IP-Adresse übermittelt.

Wenn Sie Port-Bindung für Multipathing verwenden, befolgen Sie diese Leitlinien:

n Die iSCSI-Ports des Array-Ziels müssen sich in derselben Broadcast-Domäne und demselben IP-Sub-netz wie die VMkernel-Adapter befinden.

n Alle für die iSCSI-Port-Bindung verwendeten VMkernel-Adapter müssen sich in derselben Broadcast-Domäne und demselben IP-Subnetz befinden.

n Alle für die iSCSI-Konnektivität verwendeten VMkernel-Adapter müssen sich in demselben virtuellenSwitch befinden.

n Die Port-Bindung unterstützt das Netzwerk-Routing nicht.

Verwenden Sie die Port-Bindung nicht, wenn eine oder mehrere der folgenden Bedingungen zutreffen:

n Array-Ziel-iSCSI-Ports befinden sich in einer anderen Broadcast-Domäne und einem anderen IP-Sub-netz.

n Für die iSCSI-Konnektivität verwendete VMkernel-Adapter befinden sich in verschiedenen Broadcast-Domänen und IP-Subnetzen oder verwenden verschiedene virtuelle Switches.

n Für den Zugriff auf das iSCSI-Array ist Routing erforderlich.

Erstellen von Netzwerkverbindungen für iSCSI im vSphere Web ClientKonfigurieren Sie Verbindungen für den Datenverkehr zwischen den Software- oder den abhängigen Hard-ware-iSCSI-Adaptern und den physischen Netzwerkadaptern.

Die folgenden Aufgaben beschreiben die iSCSI-Netzwerkkonfiguration mit einem vSphere Standard-Switch.

Wenn Sie einen vSphere Distributed Switch mit mehreren Uplink-Ports für die Port-Bindung verwenden, er-stellen Sie für jede physische Netzwerkkarte eine separate verteilte Portgruppe. Legen Sie anschließend dieTeamrichtlinie so fest, dass jede verteilte Portgruppe nur einen aktiven Uplink-Port besitzt. Weitere Informa-tionen zu vSphere Distributed Switches finden Sie in der Dokumentation zu vSphere-Netzwerk.

Vorgehensweise

1 Erstellen eines einzelnen VMkernel-Adapters für iSCSI im vSphere Web Client auf Seite 93Schließen Sie den VMkernel, der Dienste für den iSCSI-Speicher ausführt, an eine physische Netz-werkkarte an.

2 Erstellen zusätzlicher VMkernel-Adapter für iSCSI im vSphere Web Client auf Seite 93Verwenden Sie dieses Verfahren, wenn zwei oder mehr physische Netzwerkadapter für iSCSI vorhan-den sind und Sie alle physischen Adapter mit einem einzigen vSphere Standard-Switch verbindenmöchten. In dieser Aufgabe fügen Sie physische Adapter und VMkernel-Adapter zu einem vorhande-nen vSphere Standard-Switch hinzu.

3 Ändern der Netzwerkrichtlinie für iSCSI im vSphere Web Client auf Seite 94Wenn Sie über einen einzelnen vSphere Standard-Switch mehrere VMkernel-Adapter an mehrereNetzwerkadapter anschließen, richten Sie die Netzwerkrichtlinie ein, sodass nur ein physischer Netz-werkadapter für jeden VMkernel-Adapter aktiv ist.

4 Binden von iSCSI- und VMkernel-Adaptern im vSphere Web Client auf Seite 95Binden Sie einen iSCSI-Adapter an einen VMkernel-Adapter.

vSphere-Speicher

92 VMware, Inc.

5 Überprüfen der Port-Bindungsdetails in vSphere Web Client auf Seite 96Überprüfen Sie die Netzwerkdetails des VMkernel-Adapters, der mit dem iSCSI-Adapter verbundenist.

Erstellen eines einzelnen VMkernel-Adapters für iSCSI im vSphere Web ClientSchließen Sie den VMkernel, der Dienste für den iSCSI-Speicher ausführt, an eine physische Netzwerkkartean.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf Aktionen, und wählen Sie Alle vCenter‐Aktionen > Netzwerk hinzufügen aus.

3 Wählen Sie VMkernel-Netzwerkadapter aus und klicken Sie auf Weiter.

4 Wählen Sie Neuer Standard‐Switch aus, um einen vSphere Standard-Switch zu erstellen.

5 Klicken Sie auf das Symbol Adapter hinzufügen und wählen Sie den Netzwerkadapter (vmnic#) aus,den Sie für iSCSI verwenden möchten.

Stellen Sie sicher, dass die Adapter den aktiven Adaptern zugewiesen werden.

Wichtig Wenn Sie einen VMkernel-Adapter für den abhängigen Hardware-iSCSI-Adapter erstellen,wählen Sie den Netzwerkadapter aus, der zu der iSCSI-Komponente gehört. Weitere Informationenhierzu finden Sie unter „Ermitteln der Zuordnung zwischen iSCSI- und Netzwerkadaptern im vSphereWeb Client“, auf Seite 87.

6 Geben Sie eine Netzwerkbezeichnung ein.

Eine Netzwerkbezeichnung ist ein aussagekräftiger Name, der den VMkernel-Adapter identifiziert, denSie erstellen, z. B. iSCSI.

7 Geben Sie die IP-Einstellungen an.

8 Überprüfen Sie die Informationen und klicken Sie auf Beenden.

Sie haben den virtuellen VMkernel-Adapter (vmk#) für einen physischen Netzwerkadapter (vmnic#) auf Ih-rem Host erstellt.

Weiter

Wenn Ihr Host über einen physischen Netzwerkadapter für iSCSI-Datenverkehr verfügt, müssen Sie den vir-tuellen Adapter, den Sie erstellt haben, an den iSCSI-Adapter binden.

Wenn Sie über mehrere Netzwerkadapter verfügen, erstellen Sie zusätzliche VMkernel-Adapter und führenSie dann die iSCSI-Bindung durch. Die Anzahl an virtuellen Adaptern muss mit der Anzahl an physischenAdaptern auf dem Host übereinstimmen.

Erstellen zusätzlicher VMkernel-Adapter für iSCSI im vSphere Web ClientVerwenden Sie dieses Verfahren, wenn zwei oder mehr physische Netzwerkadapter für iSCSI vorhandensind und Sie alle physischen Adapter mit einem einzigen vSphere Standard-Switch verbinden möchten. Indieser Aufgabe fügen Sie physische Adapter und VMkernel-Adapter zu einem vorhandenen vSphere Stan-dard-Switch hinzu.

Voraussetzungen

Erstellen Sie einen vSphere Standard-Switch, der einen VMkernel-iSCSI-Adapter einem einzelnen physi-schen Netzwerkadapter zuordnet, der für den iSCSI-Datenverkehr vorgesehen ist.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 93

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Netzwerk.

3 Klicken Sie auf Virtuelle Switches und wählen Sie aus der Liste den vSphere-Switch aus, den Sie än-dern möchten.

4 Verbinden Sie zusätzliche Netzwerkadapter mit dem Switch.

a Klicken Sie auf das Symbol Hostnetzwerk hinzufügen.

b Wählen Sie Physische Netzwerkadapter aus und klicken Sie auf Weiter.

c Stellen Sie sicher, dass Sie den vorhandenen Switch verwenden, und klicken Sie auf Weiter.

d Klicken Sie auf das Symbol Adapter hinzufügen und wählen Sie mindestens einen Netzwerkadap-ter (vmnic#) aus, den Sie für iSCSI verwenden möchten.

Wählen Sie für abhängige Hardware-iSCSI-Adapter nur die Netzwerkkarten aus, die eine entspre-chende iSCSI-Komponente besitzen.

e Führen Sie die Konfiguration durch und klicken Sie auf Beenden.

5 Erstellen Sie iSCSI-VMkernel-Adapter für alle hinzugefügten physischen Netzwerkadapter.

Die Anzahl an VMkernel-Schnittstellen muss mit der Anzahl an physischen Netzwerkadaptern auf demvSphere Standard-Switch übereinstimmen.

a Klicken Sie auf das Symbol Hostnetzwerk hinzufügen.

b Wählen Sie VMkernel-Netzwerkadapter aus und klicken Sie auf Weiter.

c Stellen Sie sicher, dass Sie den vorhandenen Switch verwenden, und klicken Sie auf Weiter.

d Führen Sie die Konfiguration durch und klicken Sie auf Beenden.

Weiter

Ändern Sie die Netzwerkrichtlinie für alle VMkernel-Adapter dahin gehend, dass pro VMkernel-Adapternur ein physischer Netzwerkadapter aktiv ist. Sie können dann die iSCSI-VMkernel-Adapter an die Soft-ware-iSCSI- oder an die abhängigen Hardware-iSCSI-Adapter binden.

Ändern der Netzwerkrichtlinie für iSCSI im vSphere Web ClientWenn Sie über einen einzelnen vSphere Standard-Switch mehrere VMkernel-Adapter an mehrere Netzwer-kadapter anschließen, richten Sie die Netzwerkrichtlinie ein, sodass nur ein physischer Netzwerkadapter fürjeden VMkernel-Adapter aktiv ist.

Standardmäßig werden für jeden VMkernal-Adapter auf dem vSphere Standard-Switch alle Netzwerkadap-ter als aktiv angezeigt. Sie müssen dieses Setup überschreiben, damit jeder VMkernel-Adapter lediglich ei-ner aktiven physischen Netzwerkkarte zugeordnet wird. Beispielsweise wird „vmk1“ der Netzwerkkarte„vmnic1“ zugeordnet, „vmk2“ wird „vmnic2“ zugeordnet usw.

Voraussetzungen

Erstellen Sie einen vSphere Standard-Switch, der VMkernel mit physischen Netzwerkadaptern verbindet,die für den iSCSI-Datenverkehr vorgesehen sind. Die Anzahl an VMkernel-Adaptern muss mit der Anzahlan physischen Adaptern auf dem vSphere Standard-Switch übereinstimmen.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Netzwerk.

vSphere-Speicher

94 VMware, Inc.

3 Klicken Sie auf Virtuelle Switches und wählen Sie aus der Liste den vSphere-Switch aus, den Sie än-dern möchten.

4 Wählen Sie auf dem vSwitch-Diagramm den VMkernel-Adapter aus und klicken Sie auf das SymbolEinstellungen bearbeiten.

5 Klicken Sie im Assistenten Einstellungen bearbeiten auf Teaming und Failover und klicken Sie unter„Failover-Reihenfolge“ auf Außer Kraft setzen.

6 Wählen Sie nur einen physischen Adapter als aktiv aus und verschieben Sie alle übrigen Adapter in dieKategorie Nicht verwendete Adapter.

7 Wiederholen Sie Schritt 4 bis Schritt 6 für jede iSCSI-VMkernel-Schnittstelle auf dem vSphere Standard-Switch.

Beispiel: iSCSI-Netzwerkrichtlinie

Die folgende Tabelle illustriert die ordnungsgemäße iSCSI-Zuordnung, bei der nur ein physischer Netzwer-kadapter für jeden VMkernel-Adapter aktiv ist.

VMkernel-Adapter (vmk#) Physischer Netzwerkadapter (vmnic#)

vmk1 Aktive Adaptervmnic1Nicht verwendete Adaptervmnic2

vmk2 Aktive Adaptervmnic2Nicht verwendete Adaptervmnic1

Weiter

Binden Sie nach dem Ausführen dieser Aufgabe die virtuellen VMkernel-Adapter an die Software-iSCSI-oder abhängigen Hardware-iSCSI-Adapter.

Binden von iSCSI- und VMkernel-Adaptern im vSphere Web ClientBinden Sie einen iSCSI-Adapter an einen VMkernel-Adapter.

Voraussetzungen

Erstellen Sie einen virtuellen VMkernel-Adapter für jeden physischen Netzwerkadapter auf Ihrem Host.Wenn Sie mehrere VMkernel-Adapter verwenden, richten Sie die korrekte Netzwerkrichtlinie ein.

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter und wählen Sie die zu konfigurierende Software oder den abhängigeniSCSI-Adapter aus der Liste aus.

4 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Netzwerk-Port-Bindung und klicken Sie dannauf Hinzufügen.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 95

5 Wählen Sie einen VMkernel-Adapter zur Bindung mit dem iSCSI-Adapter aus.

Hinweis Stellen Sie sicher, dass die Netzwerkrichtlinie für den VMkernel-Adapter die Anforderungenfür das Binden erfüllt.

Sie können den Software-iSCSI-Adapter an einen oder mehrere VMkernel-Adapter binden. Für einenabhängigen Hardware-iSCSI-Adapter ist nur ein VMkernel-Adapter verfügbar, der mit der richtigenphysischen Netzwerkkarte verknüpft ist.

6 Klicken Sie auf OK.

Die Netzwerkverbindung wird in der Liste der VMkernel-Portbindungen für den iSCSI-Adapter angezeigt.

Überprüfen der Port-Bindungsdetails in vSphere Web ClientÜberprüfen Sie die Netzwerkdetails des VMkernel-Adapters, der mit dem iSCSI-Adapter verbunden ist.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter, und wählen Sie die Software oder den abhängigen iSCSI-Adapter ausder Liste aus.

4 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Netzwerk-Port-Bindung, und klicken Sie aufDetailansicht.

5 Prüfen Sie die VMkernelAdapterinformationen durch das Wechseln zwischen verfügbaren Registerkar-ten.

Verwalten des iSCSI-NetzwerksBesondere Berücksichtigung finden sowohl physische als auch VMkernel-Netzwerkadapter, die einem iSC-SI-Adapter zugeordnet sind.

Nachdem Sie Netzwerkverbindungen für iSCSI erstellt haben, wird bei mehreren Netzwerk-Dialogfelderneine iSCSI-Kontrollanzeige aktiviert. Diese Kontrollanzeige zeigt, dass ein bestimmter virtueller oder physi-scher Netzwerkadapter iSCSI-gebunden ist. Befolgen Sie zur Vermeidung von Störungen des iSCSI-Daten-verkehrs diese Richtlinien und Überlegungen bei der Verwaltung von iSCSI-gebundenen virtuellen undphysischen Netzwerkadaptern:

n Stellen Sie sicher, dass den VMkernel-Netzwerkadaptern Adressen in dem Subnetz zugewiesen werden,in dem sich auch das iSCSI-Speicher-Portal befindet, zu dem sie eine Verbindung herstellen.

n iSCSI-Adapter, die VMkernel-Adapter verwenden, können keine Verbindungen zu iSCSI-Ports auf un-terschiedlichen Subnetzen herstellen, selbst wenn diese Ports von den iSCSI-Adaptern ermittelt wurden.

n Stellen Sie bei der Verwendung von separaten vSphere-Switches zum Verbinden von physischen Netz-werkadaptern und VMkernel-Adaptern sicher, dass die vSphere-Switches Verbindungen zu unter-schiedlichen IP-Subnetzen herstellen.

n Wenn sich VMkernel-Adapter in demselben Subnetz befinden, müssen Sie mit einem einzelnen vSwitchverbunden sein.

n Wenn Sie VMkernel-Adapter auf einen anderen vSphere-Switch migrieren, verschieben Sie die zuge-wiesenen physischen Adapter.

n Nehmen Sie keine Änderungen an der Konfiguration von iSCSI-gebundenen VMkernel-Adaptern oderphysischen Netzwerkadaptern vor.

vSphere-Speicher

96 VMware, Inc.

n Nehmen Sie keine Änderungen vor, die die Zuweisungen von VMkernel-Adaptern und physischenNetzwerkadaptern aufheben könnten. Sie können die Zuweisung aufheben, wenn Sie einen der Adap-ter oder den vSphere-Switch, der sie verbindet, entfernen oder die 1:1-Netzwerkrichtlinie für die Ver-bindung ändern.

Fehler im iSCSI-Netzwerk behebenEin Warnhinweis deutet auf eine nicht übereinstimmende Portgruppenrichtlinie für einen iSCSI-gebunde-nen VMkernel-Adapter hin.

Problem

Die Portgruppenrichtlinie des VMkernel-Adapters wird in den folgenden Fällen als nicht übereinstimmendbetrachtet:

n Der VMkernel-Adapter ist mit keinem aktiven physischen Netzwerkadapter verbunden.

n Der VMkernel-Adapter ist mit mehreren physischen Netzwerkadapter verbunden.

n Der VMkernel-Adapter ist mit mindestens einem physischen Standby-Adapter verbunden.

n Der aktive physische Adapter wurde geändert.

Lösung

Folgen Sie den Anweisungen in „Ändern der Netzwerkrichtlinie für iSCSI im vSphere Web Client“, auf Sei-te 94 zum Einrichten der richtigen Netzwerkrichtlinie für den iSCSI-gebundenen VMkernel-Adapter.

Verwenden von Jumbo-Frames mit iSCSIESXi unterstützt die Verwendung von Jumbo-Frames mit iSCSI.

Jumbo-Frames sind Ethernet-Frames mit einer Größe, die 1500 Byte überschreitet. Der Parameter „Maxi-mum Transmission Unit“ (MTU) wird in der Regel dazu verwendet, die Größe der Jumbo-Frames zu mes-sen. ESXi ermöglicht Jumbo-Frames mit einer MTU von bis zu 9000 Byte.

Wenn Sie Jumbo-Frames für den iSCSI-Datenverkehr verwenden, sollten Sie Folgendes in Betracht ziehen:

n Das Netzwerk muss Jumbo-Frames durchgängig unterstützen, damit diese Technologie eingesetzt wer-den kann.

n Informieren Sie sich bei Ihrem Anbieter, ob Ihre physischen Netzwerkkarten und iSCSI-HBAs Jumbo-Frames unterstützen.

n Zu Fragen zum Einrichten und Überprüfen physischer Netzwerk-Switches für Jumbo-Frames konsultie-ren Sie Ihre Anbieterdokumentation.

Die folgende Tabelle erläutert den Grad der Unterstützung, den ESXi für Jumbo-Frames bietet.

Tabelle 11‑3. Unterstützung für Jumbo-Frames

Typ des iSCSI-Adapters Unterstützung für Jumbo-Frames

Software-iSCSI Unterstützt

Abhängige Hardware-iSCSI Wird unterstützt. Fragen Sie den Anbieter.

Unabhängige Hardware-iSCSI Wird unterstützt. Fragen Sie den Anbieter.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 97

Aktivieren von Jumbo-Frames für Software-iSCSI und abhängige Hardware-iSCSI

Um Jumbo-Frames für Software- und abhängige Hardware-iSCSI-Adapter im vSphere Web Client zu akti-vieren, ändern Sie den Standardwert des MTU-Parameters (maximale Übertragungseinheiten).

Sie ändern den MTU-Parameter auf dem vSphere-Switch, den Sie für iSCSI-Datenverkehr verwenden. Wei-tere Informationen finden Sie in der Dokumentation vSphere-Netzwerk.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Netzwerk.

3 Klicken Sie auf Virtuelle Switches und wählen Sie aus der Liste den vSphere-Switch aus, den Sie än-dern möchten.

4 Klicken Sie auf das Symbol Einstellungen bearbeiten.

5 Ändern Sie auf der Seite „Eigenschaften“ den MTU-Parameter.

Mit diesem Schritt wird die MTU für alle physischen Netzwerkkarten auf diesem Standard-Switch fest-gelegt. Legen Sie als MTU-Wert die größte MTU-Größe von allen Netzwerkkarten fest, die mit demStandard-Switch verbunden sind. ESXi unterstützt eine MTU-Größe von bis zu 9000 Byte.

Aktivieren von Jumbo-Frames für unabhängige Hardware-iSCSIUm Jumbo-Frames für unabhängige Hardware-iSCSI-Adapter im vSphere Web Client zu aktivieren, ändernSie den Standardwert des MTU-Parameters (maximale Übertragungseinheiten).

Verwenden Sie die Einstellungen unter „Erweiterte Optionen“, um den MTU-Parameter für den iSCSI-HBAzu ändern.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter, und wählen Sie in der Liste der Adapter den unabhängigen Hard-ware-iSCSI-Adapter aus.

4 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Erweiterte Optionen, und klicken Sie auf Be‐arbeiten.

5 Ändern Sie den Wert des MTU-Parameters.

ESXi unterstützt eine MTU-Größe von bis zu 9000 Byte.

Konfigurieren von Erkennungsadressen für iSCSI-AdapterSie müssen Zielerkennungsadressen einrichten, damit der iSCSI-Adapter erkennen kann, welche Speicher-ressourcen im Netzwerk zur Verfügung stehen.

Das ESXi-System unterstützt diese Erkennungsmethoden:

Dynamische Erkennung Wird auch als SendTargets-Erkennung bezeichnet. Immer wenn der Initiatoreinen angegebenen iSCSI-Server kontaktiert, übermittelt der Initiator eine„SendTargets“-Anforderung an den Server. Der Server liefert als Antwort ei-ne Liste verfügbarer Ziele an den Initiator zurück. Die Namen und IP-Adres-sen dieser Ziele werden auf der Registerkarte Statische Erkennung (Static

vSphere-Speicher

98 VMware, Inc.

Discovery) angezeigt. Wenn Sie ein von der dynamischen Erkennung hinzu-gefügtes statisches Ziel entfernen, kann das Ziel entweder bei einer erneutenÜberprüfung, beim Zurücksetzen des HBA oder durch einen Neustart desHosts erneut zur Liste hinzugefügt werden.

Statische Erkennung Der Initiator muss keine Erkennung durchführen. Der Initiator kennt bereitsalle Ziele, mit denen er Kontakt aufnehmen möchte, und verwendet ihre IP-Adressen und Domänennamen für die Kommunikation mit ihnen.

Einrichten der dynamischen Erkennung im vSphere Web ClientMit der dynamischen Erkennung wird jedes Mal, wenn der Initiator ein angegebenes iSCSI-Serversystemkontaktiert, eine „SendTargets“-Anforderung an das System übermittelt. Das iSCSI-System liefert als Ant-wort eine Liste verfügbarer Ziele an den Initiator zurück.

Wenn Sie die dynamische Erkennung einrichten, können Sie nur ein neues iSCSI-System hinzufügen. Siekönnen die IP-Adresse, den DNS-Namen oder die Portnummer eines vorhandenen iSCSI-Systems nicht än-dern. Wenn Sie Änderungen vornehmen möchten, entfernen Sie das vorhandene System, und fügen Sie einneues hinzu.

Voraussetzungen

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter, und wählen Sie den zu konfigurierenden iSCSI-Adapter aus der Listeaus.

4 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Ziele, und klicken Sie auf Dynamische Erken‐nung.

5 Klicken Sie auf Hinzufügen.

6 Geben Sie die IP-Adresse oder den DNS-Namen des Speichersystems ein und klicken Sie auf OK.

7 Führen Sie eine erneute Prüfung des iSCSI-Adapters durch.

Nach dem Einrichten der SendTargets-Sitzung mit dem iSCSI-System füllt Ihr Host die Liste „Statische Er-kennung“ mit allen neu erkannten Zielen.

Einrichten der statischen Erkennung im vSphere Web ClientBei iSCSI-Initiatoren können Sie neben der dynamischen Erkennungsmethode auch die statische Erkennungverwenden und Informationen für die Ziele manuell eingeben.

Wenn Sie die statische Erkennung einrichten, können Sie nur neue iSCSI-Ziele hinzufügen. Sie können dieIP-Adresse, den DNS-Namen, den iSCSI-Zielnamen oder die Portnummer eines vorhandenen Ziels nicht än-dern. Wenn Sie Änderungen vornehmen möchten, entfernen Sie das vorhandene Ziel und fügen Sie ein neu-es hinzu.

Voraussetzungen

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 99

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter, und wählen Sie den zu konfigurierenden iSCSI-Adapter aus der Listeaus.

4 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Ziele, und klicken Sie auf Statische Erken‐nung.

5 Klicken Sie auf Hinzufügen.

6 Geben Sie die Daten des Ziels ein, und klicken Sie auf OK.

7 Führen Sie eine erneute Prüfung des iSCSI-Adapters durch.

Entfernen von statischen Zielen in vSphere Web ClientEntfernen Sie Ziele, die in der Liste „Statische Erkennung“ erscheinen.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter, und wählen Sie den zu ändernden iSCSI-Adapter aus der Liste aus.

4 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Ziele, und klicken Sie auf Statische Erken‐nung.

5 Wählen Sie das zu entfernende statische Ziel aus, und klicken Sie auf Entfernen.

6 Führen Sie eine erneute Prüfung des iSCSI-Adapters durch.

Wenn das statische Ziel dynamisch erkannt wurde, müssen Sie es aus dem Speichersystem entfernen,bevor Sie das erneute Prüfen durchführen. Sonst erkennt Ihr Host das Ziel automatisch und fügt es derListe der statischen Ziele hinzu, wenn Sie den Adapter erneut prüfen.

Konfigurieren von CHAP-Parametern für iSCSI-AdapterDa die IP-Netzwerke, die die iSCSI-Technologie zum Verbinden mit Remotezielen verwendet, die von ihnenübertragenen Daten nicht schützen, muss die Sicherheit der Verbindung gewährleistet werden. Eines dervon iSCSI implementierten Protokolle ist das CHAP (Challenge Handshake Authentication Protocol), dasdie jeweiligen Berechtigungen der Initiatoren, die auf Ziele im Netzwerk zugreifen, überprüft.

CHAP verwendet einen dreiteiligen Handshake-Algorithmus, um die Identität Ihres Hosts und, sofern zu-treffend, des iSCSI-Ziels zu verifizieren, wenn der Host und das Ziel eine Verbindung herstellen. Die Verifi-zierung basiert auf einem vordefinierten privaten Wert, dem CHAP-Schlüssel, den der Initiator und das Zielgemeinsam verwenden.

ESXi unterstützt die CHAP-Authentifizierung auf der Adapterebene. In diesem Fall erhalten alle Ziele vomiSCSI-Initiator denselben CHAP-Namen und -Schlüssel. Für Software- und abhängige Hardware-iSCSI-Adapter unterstützt ESXi auch die zielbasierte CHAP-Authentifizierung, die Ihnen ermöglicht, unterschied-liche Anmeldedaten für die einzelnen Ziele zu konfigurieren und so die Sicherheit zu erhöhen.

Auswählen der CHAP-AuthentifizierungsmethodeESXi unterstützt unidirektionales CHAP für alle Typen von iSCSI-Initiatoren und bidirektionales CHAP fürSoftware- und abhängige Hardware-iSCSI.

Bevor Sie CHAP konfigurieren, überprüfen Sie, ob CHAP im iSCSI-Speichersystem aktiviert ist und welcheCHAP-Authentifizierungsmethode vom System unterstützt wird. Wenn CHAP aktiviert ist, müssen Sie esfür Ihre Initiatoren aktivieren und dabei sicherstellen, dass die Anmeldedaten für die CHAP-Authentifizie-rung mit den Anmeldedaten im iSCSI-Speicher übereinstimmen.

vSphere-Speicher

100 VMware, Inc.

ESXi unterstützt die folgenden CHAP-Authentifizierungsmethoden:

Unidirektionales CHAP Bei der unidirektionalen CHAP-Authentifizierung authentifiziert das Zielden Initiator, nicht jedoch der Initiator das Ziel.

Bidirektionales CHAP Bei der bidirektionalen CHAP-Authentifizierung ermöglicht eine zusätzlicheSicherheitsstufe dem Initiator die Authentifizierung des Ziels. VMware un-terstützt diese Methode nur für Software- und abhängige Hardware-iSCSI-Adapter.

Für Software- und abhängige Hardware-iSCSI-Adapter können Sie unidirektionales und bidirektionalesCHAP für die einzelnen Adapter oder auf der Zielebene festlegen. Unabhängige Hardware-iSCSI unter-stützt CHAP nur auf der Adapterebene.

Wenn Sie die CHAP-Parameter festlegen, geben Sie eine Sicherheitsstufe für CHAP an.

Hinweis Wenn Sie die CHAP-Sicherheitsebene angeben, ist die Reaktion des Speicher-Arrays anbieterspe-zifisch und hängt von der CHAP-Implementierung des Arrays ab. Weitere Informationen über das Verhal-ten der CHAP-Authentifizierung in verschiedenen Initiator- und Zielkonfigurationen finden Sie in der Ar-ray-Dokumentation.

Tabelle 11‑4. CHAP-Sicherheitsstufe

CHAP-Sicherheitsstufe Beschreibung Unterstützt

Keine Der Host verwendet keine CHAP-Authentifizierung.Wählen Sie diese Option aus, um die Authentifizierungzu deaktivieren, wenn sie derzeit aktiviert ist.

Software-iSCSIAbhängige Hardware-iSCSIUnabhängige Hardware-iSCSI

Unidirektionales CHAP ver-wenden, wenn vom Ziel gefor-dert

Der Host bevorzugt eine Nicht-CHAP-Verbindung, erkann jedoch eine CHAP-Verbindung verwenden, wenndas Ziel dies erfordert.

Software-iSCSIAbhängige Hardware-iSCSI

Unidirektionales CHAP ver-wenden, es sei denn, das Zielverbietet es

Der Host bevorzugt CHAP, er kann jedoch Nicht-CHAP-Verbindungen verwenden, wenn das ZielCHAP nicht unterstützt.

Software-iSCSIAbhängige Hardware-iSCSIUnabhängige Hardware-iSCSI

Unidirektionales CHAP ver-wenden

Für den Host ist eine erfolgreiche CHAP-Authentifizie-rung erforderlich. Die Verbindung schlägt fehl, wenndie CHAP-Aushandlung fehlschlägt.

Software-iSCSIAbhängige Hardware-iSCSIUnabhängige Hardware-iSCSI

Bidirektionales CHAP verwen-den

Der Host und das Ziel unterstützen bidirektionalesCHAP.

Software-iSCSIAbhängige Hardware-iSCSI

Einrichten von CHAP für iSCSI-Adapter im vSphere Web ClientWenn Sie den CHAP-Namen und -Schlüssel auf der Ebene des iSCSI-Adapters einrichten, empfangen alleZiele denselben Parameter vom Adapter. Standardmäßig übernehmen alle Erkennungsadressen und stati-schen Ziele die CHAP-Parameter, die Sie auf der Adapterebene einrichten.

Der CHAP-Name darf nicht mehr als 511 und der CHAP-Schlüssel nicht mehr als 255 alphanumerische Zei-chen umfassen. Einige Adapter, z. B. der QLogic-Adapter, haben möglicherweise niedrigere Grenzen: 255für den CHAP-Namen und 100 für den CHAP-Schlüssel.

Voraussetzungen

n Legen Sie vor dem Einrichten von CHAP-Parametern für Software-iSCSI oder abhängige Hardware-iSCSI fest, ob unidirektionales oder bidirektionales CHAP konfiguriert werden soll. Abhängige Hard-ware-iSCSI-Adapter unterstützen das bidirektionale CHAP nicht.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 101

n Überprüfen Sie die auf der Speicherseite konfigurierten CHAP-Parameter. Parameter, die Sie konfigu-rieren, müssen zu denen auf der Speicherseite passen.

n Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Zeigen Sie Speicheradapter an, und wählen Sie den zu konfigurierenden iSCSI-Adapter aus.

2 Klicken Sie unter „Adapterdetails“ auf die Registerkarte Eigenschaften, und klicken Sie auf Bearbeitenim Bereich „Authentifizierung".

3 Legen Sie die Authentifizierungsmethode fest.

n Keine

n Unidirektionales CHAP verwenden, wenn vom Ziel gefordert

n Unidirektionales CHAP verwenden, es sei denn, das Ziel verbietet es

n Unidirektionales CHAP verwenden

n Verwenden Sie bidirektionales CHAP. Um bidirektionales CHAP zu konfigurieren, müssen Siediese Option auswählen.

4 Geben Sie den ausgehenden CHAP-Namen an.

Stellen Sie sicher, dass der Name, den Sie angeben, mit dem auf der Speicherseite konfigurierten Na-men übereinstimmt.

n Wenn der CHAP-Name dem iSCSI-Adapternamen entsprechen soll, aktivieren Sie das Kontroll-kästchen Initiatornamen verwenden (Use initiator name).

n Wenn Sie den iSCSI-Initiatornamen nicht als CHAP-Namen verwenden möchten, deaktivieren SieInitiator‐Name verwenden und geben Sie einen Namen in das Textfeld Name ein.

5 Geben Sie einen ausgehenden CHAP-Schlüssel ein, der als Teil der Authentifizierung verwendet wer-den soll. Verwenden Sie denselben Schlüssel, den Sie auf der Speicherseite eingeben.

6 Wenn Sie bidirektionales CHAP konfigurieren, geben Sie eingehende CHAP-Anmeldedaten an.

Für ausgehendes und eingehendes CHAP müssen Sie verschiedene Schlüssel verwenden.

7 Klicken Sie auf OK.

8 Führen Sie eine erneute Prüfung des iSCSI-Adapters durch.

Wenn Sie die Parameter für CHAP ändern, werden die neuen Parameter für neue iSCSI-Sitzungen verwen-det. Für bestehende Sitzungen werden die neuen Einstellungen erst nach der Ab- und erneuten Anmeldungverwendet.

Einrichten von CHAP für Ziele im vSphere Web ClientWenn Sie Software- und abhängige Hardware-iSCSI-Adapter verwenden, können Sie verschiedene CHAP-Anmeldedaten für einzelne Erkennungsadressen oder statische Ziele konfigurieren.

Der CHAP-Name darf nicht mehr als 511 und der CHAP-Schlüssel nicht mehr als 255 alphanumerische Zei-chen umfassen.

Voraussetzungen

n Legen Sie vor dem Einrichten von CHAP-Parametern für Software-iSCSI oder abhängige Hardware-iSCSI fest, ob unidirektionales oder bidirektionales CHAP konfiguriert werden soll.

n Überprüfen Sie die auf der Speicherseite konfigurierten CHAP-Parameter. Parameter, die Sie konfigu-rieren, müssen zu denen auf der Speicherseite passen.

vSphere-Speicher

102 VMware, Inc.

n Greifen Sie auf Speicheradapter zu.

n Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Wählen Sie den zu konfigurierenden iSCSI-Adapter aus, und klicken Sie auf die Registerkarte Ziele un-ter „Adapterdetails".

2 Klicken Sie auf Dynamische Erkennung oder Statische Erkennung.

3 Wählen Sie in der Liste der verfügbaren Ziele ein Ziel aus, das Sie konfigurieren möchten, und klickenSie auf Authentifizierung.

4 Heben Sie die Auswahl von Einstellungen von übergeordnetem Element übernehmen auf und legenSie die Authentifizierungsmethode fest.

n Keine

n Unidirektionales CHAP verwenden, wenn vom Ziel gefordert

n Unidirektionales CHAP verwenden, es sei denn, das Ziel verbietet es

n Unidirektionales CHAP verwenden

n Verwenden Sie bidirektionales CHAP. Um bidirektionales CHAP zu konfigurieren, müssen Siediese Option auswählen.

5 Geben Sie den ausgehenden CHAP-Namen an.

Stellen Sie sicher, dass der Name, den Sie angeben, mit dem auf der Speicherseite konfigurierten Na-men übereinstimmt.

n Wenn der CHAP-Name dem iSCSI-Adapternamen entsprechen soll, aktivieren Sie das Kontroll-kästchen Initiatornamen verwenden (Use initiator name).

n Wenn Sie den iSCSI-Initiatornamen nicht als CHAP-Namen verwenden möchten, deaktivieren SieInitiator‐Name verwenden und geben Sie einen Namen in das Textfeld Name ein.

6 Geben Sie einen ausgehenden CHAP-Schlüssel ein, der als Teil der Authentifizierung verwendet wer-den soll. Verwenden Sie denselben Schlüssel, den Sie auf der Speicherseite eingeben.

7 Wenn Sie bidirektionales CHAP konfigurieren, geben Sie eingehende CHAP-Anmeldedaten an.

Für ausgehendes und eingehendes CHAP müssen Sie verschiedene Schlüssel verwenden.

8 Klicken Sie auf OK.

9 Führen Sie eine erneute Prüfung des iSCSI-Adapters durch.

Wenn Sie die Parameter für CHAP ändern, werden die neuen Parameter für neue iSCSI-Sitzungen verwen-det. Für bestehende Sitzungen werden die neuen Einstellungen erst nach der Ab- und erneuten Anmeldungverwendet.

Deaktivieren von CHAPSie können CHAP deaktivieren, wenn Ihr Speichersystem dieses nicht erfordert.

Wenn Sie CHAP auf einem System deaktivieren, das die CHAP-Authentifizierung benötigt, bleiben beste-hende iSCSI-Sitzungen so lange aktiv, bis Sie Ihren Host neu starten, Sie die Sitzung über die Befehlszeilebeenden oder das Speichersystem eine Abmeldung erzwingt. Nachdem die Sitzung beendet wurde, könnenSie keine Verbindungen mehr zu Zielen herstellen, die CHAP benötigen.

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 103

Vorgehensweise

1 Öffnen Sie das Dialogfeld „CHAP-Anmeldedaten“.

2 Wenn Sie für Software- und abhängige Hardware-iSCSI-Adapter nur das beiderseitige CHAP deaktivie-ren, das unidirektionale CHAP jedoch beibehalten möchten, wählen Sie im Bereich „BeiderseitigesCHAP“ CHAP nicht verwenden aus.

3 Wenn Sie das unidirektionale CHAP deaktivieren möchten, wählen Sie unter CHAP die Option CHAPnicht verwenden.

Wenn Sie das unidirektionale CHAP deaktivieren, wird für das beiderseitige CHAP, sofern dies einge-richtet ist, automatisch die Option CHAP nicht verwenden festgelegt.

4 Klicken Sie auf OK.

Konfigurieren erweiterter Parameter für iSCSIMöglicherweise müssen Sie für Ihre iSCSI-Initiatoren zusätzliche Parameter konfigurieren. Beispielsweiseerfordern einige iSCSI-Speichersysteme eine ARP-Umleitung (Address Resolution Protocol), um iSCSI-Da-tenverkehr dynamisch von einem Port auf einen anderen zu verschieben. In diesem Fall müssen Sie dieARP-Umleitung auf Ihrem Host aktivieren.

In der folgenden Tabelle sind die erweiterten iSCSI-Parameter aufgelistet, die Sie mit demvSphere Web Client konfigurieren können. Darüber hinaus können Sie die vSphere-CLI-Befehle verwenden,um einige der erweiterten Parameter zu konfigurieren. Weitere Informationen finden Sie in der Dokumenta-tion zu Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Wichtig Nehmen Sie keine Änderungen an den erweiterten iSCSI-Einstellungen vor, es sei denn, dies er-folgt unter Anleitung des VMware-Supports oder des Speicheranbieters.

Tabelle 11‑5. Zusätzliche Parameter für iSCSI-Initiatoren

Erweiterte Parameter Beschreibung Konfigurierbar auf

Header-Digest Erhöht die Datenintegrität. Wenn der Parameter „Header-Digest“aktiviert ist, berechnet das System für den Header-Teil jeder iSCSI-PDU (Protocol Data Unit) eine Prüfsumme und führt anhand desCRC32C-Algorithmus eine Verifizierung durch.

Software-iSCSIAbhängige Hardware-iSCSI

Daten-Digest Erhöht die Datenintegrität. Wenn der Parameter „Data Digest“ akti-viert ist, berechnet das System für den Data-Teil jeder PDU einePrüfsumme und führt anhand des CRC32C-Algorithmus eine Veri-fizierung durch.Hinweis Systeme, die Intel Nehalem-Prozessoren einsetzen, lagerndie iSCSI Digest-Berechnungen für Software-iSCSI aus und reduzie-ren damit die Auswirkungen auf die Leistung.

Software-iSCSIAbhängige Hardware-iSCSI

Maximal ausstehendesR2T

Legt fest, wie viele R2T-PDUs (Ready to Transfer) sich im Übergangbefinden können, bevor eine bestätigte PDU empfangen wird.

Software-iSCSIAbhängige Hardware-iSCSI

Erste Burstlänge Legt die maximale Menge an nicht angeforderten Daten in Byte fest,die ein iSCSI-Initiator während der Ausführung eines einzelnenSCSI-Befehls an das Ziel senden kann.

Software-iSCSIAbhängige Hardware-iSCSI

Maximale Burstlänge Die maximale SCSI-Datenlast in einer Data-In- oder einer angefor-derten Data-Out-iSCSI-Sequenz in Byte.

Software-iSCSIAbhängige Hardware-iSCSI

Maximal empfangbareDatensegmentlänge

Die maximale Datensegmentlänge in Byte, die in einer iSCSI-PDUempfangen werden kann.

Software-iSCSIAbhängige Hardware-iSCSI

vSphere-Speicher

104 VMware, Inc.

Tabelle 11‑5. Zusätzliche Parameter für iSCSI-Initiatoren (Fortsetzung)

Erweiterte Parameter Beschreibung Konfigurierbar auf

Zeitüberschreitung beider Sitzungswieder-herstellung

Gibt den Zeitraum in Sekunden an, der vergehen kann, bevor eineSitzung wiederhergestellt werden kann. Wird der angegebene Zeit-raum überschritten, beendet der iSCSI-Initiator die Sitzung.

Software-iSCSIAbhängige Hardware-iSCSI

No-Op-Intervall Gibt das Zeitintervall in Sekunden an, in dem NOP-Out-Anforde-rungen von Ihrem iSCSI-Initiator an ein iSCSI-Ziel gesendet wer-den. Mithilfe der NOP-Out-Anforderungen kann verifiziert werden,ob zwischen dem iSCSI-Initiator und dem iSCSI-Ziel eine aktiveVerbindung besteht.

Software-iSCSIAbhängige Hardware-iSCSI

No-Op-Zeitüberschrei-tung

Gibt den Zeitraum in Sekunden an, der vergehen kann, bevor IhrHost eine NOP-In-Meldung erhält. Die Meldung wird vom iSCSI-Ziel als Antwort auf die NOP-Out-Anforderung gesendet. Wennder Grenzwert für die No-Op-Zeitüberschreitung erreicht wurde,beendet der Initiator die aktuelle und startet eine neue Sitzung.

Software-iSCSIAbhängige Hardware-iSCSI

ARP-Weiterleitung Ermöglicht Speichersystemen das dynamische Verschieben voniSCSI-Datenverkehr von einem Port auf einen anderen. ARP wirdvon Speichersystemen benötigt, die Array-basiertes Failover durch-führen.

Software-iSCSIAbhängige Hardware-iSCSIUnabhängige Hardware-iSCSI

Verzögerte Quittie-rung (ACK)

Ermöglicht Systemen die Verzögerung der Bestätigung empfang-ener Datenpakete.

Software-iSCSIAbhängige Hardware-iSCSI

Konfigurieren erweiterter Parameter für iSCSI im vSphere Web ClientDie erweiterten iSCSI-Einstellungen steuern Parameter wie „Header-Digest“, „Data Digest“, „ARP-Umlei-tung“, „Verzögerte Quittierung (ACK)“ usw.

Vorsicht Sie sollten die erweiterten iSCSI-Einstellungen nur ändern, wenn Sie eng mit dem Support-Teamvon VMware zusammenarbeiten oder anderweitig über umfassende Informationen zu den Werten der ein-zelnen Einstellungen verfügen.

Voraussetzungen

Erforderliche Berechtigung: Host.Konfiguration.Konfiguration für Speicherpartition

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter und wählen Sie den zu konfigurierenden Adapter (vmhba#) aus.

4 Konfigurieren Sie die erweiterten Parameter.

n Klicken Sie zum Konfigurieren erweiterter Parameter auf der Adapterebene unter „Adapterdetails“auf die Registerkarte Erweiterte Optionen und klicken Sie dann auf Bearbeiten.

n Konfigurieren Sie erweiterte Parameter auf der Zielebene.

a Klicken Sie auf die Registerkarte Ziele und klicken Sie entweder auf Dynamische Erkennungoder auf Statische Erkennung.

b Wählen Sie in der Liste der verfügbaren Ziele ein Ziel aus, das Sie konfigurieren möchten, undklicken Sie auf Erweiterte Optionen.

5 Geben Sie die erforderlichen Werte für die erweiterten Parameter ein, die Sie ändern möchten.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 105

iSCSI-SitzungsverwaltungUm miteinander zu kommunizieren, richten iSCSI-Initiatoren und -Ziele iSCSI-Sitzungen ein. Sie könneniSCSI-Sitzungen mithilfe der vSphere-CLI prüfen und verwalten.

Standardmäßig starten Software-iSCSI- und abhängige Hardware-iSCSI-Initiatoren eine iSCSI-Sitzung zwi-schen jedem Initiatorport und jedem Zielport. Wenn Ihr iSCSI-Initiator oder -Ziel über mehrere Ports ver-fügt, können auf Ihrem Host mehrere Sitzungen eingerichtet sein. Die Standardanzahl an Sitzungen für je-des Ziel entspricht dem Produkt aus der Anzahl an Ports auf dem iSCSI-Adapter und der Anzahl an Ziel-ports.

Mit vSphere CLI können Sie alle aktuellen Sitzungen anzeigen, um sie zu analysieren und zu debuggen.Wenn Sie weitere Pfade zu Speichersystemen erstellen möchten, können Sie die Standardanzahl an Sitzun-gen erhöhen, indem Sie die bestehenden Sitzungen zwischen dem iSCSI-Adapter und den Zielports dupli-zieren.

Sie können auch eine Sitzung mit einem bestimmten Zielport einrichten. Diese Sitzung kann nützlich sein,wenn Ihr Host eine Verbindung zu einem Speichersystem mit einem einzigen Port herstellt, das Ihrem Initi-ator standardmäßig nur einen Zielport präsentiert, aber zusätzliche Sitzungen auf einen anderen Zielportumleiten kann. Durch das Einrichten einer neuen Sitzung zwischen Ihrem iSCSI-Initiator und einem ande-ren Zielport wird ein zusätzlicher Pfad zum Speichersystem erstellt.

Für die iSCSI-Sitzungsverwaltung muss Folgendes beachtet werden:

n Einige Speichersysteme bieten keine Unterstützung für mehrere Sitzungen von demselben Initiatorna-men oder Endpunkt aus. Wenn Sie versuchen, mehrere Sitzungen mit solchen Zielen zu erstellen, kanndies zu unvorhersehbarem Verhalten Ihrer iSCSI-Umgebung führen.

n Speicheranbieter können automatische Sitzungs-Manager bereitstellen. Die Verwendung des automati-schen Sitzungs-Managers zum Hinzufügen oder Löschen von Sitzungen garantiert keine nachhaltigenErgebnisse und kann die Speicherleistung beeinträchtigen.

Überprüfen von iSCSI-SitzungenVerwenden Sie den vCLI-Befehl, um iSCSI-Sitzungen zwischen einem iSCSI-Adapter und einem Speicher-system anzuzeigen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

vSphere-Speicher

106 VMware, Inc.

Vorgehensweise

u Führen Sie den folgenden Befehl aus, um iSCSI-Sitzungen aufzulisten:

esxcli --server=Servername iscsi session list

Der Befehl verfügt über diese Optionen:

Option Beschreibung

-A|--adapter=str Der Name des iSCSI-Adapters, z. B. vmhba34.

-s|--isid=str Der Bezeichner der iSCSI-Sitzung.

-n|--name=str Der Name des iSCSI-Ziels, z. B. iqn.X.

Hinzufügen von iSCSI-SitzungenVerwenden Sie die vCLI, um eine iSCSI-Sitzung für das von Ihnen angegebene Ziel hinzuzufügen oder umeine vorhandene Sitzung zu duplizieren. Durch das Duplizieren von Sitzungen erhöhen Sie die Standardan-zahl an Sitzungen und erstellen zusätzliche Pfade zu Speichersystemen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den folgenden Befehl aus, um eine iSCSI-Sitzung hinzuzufügen oder zu duplizieren:

esxcli --server=Servername iscsi session add

Der Befehl verfügt über diese Optionen:

Option Beschreibung

-A|--adapter=str Der Name des iSCSI-Adapters, z. B. vmhba34. Diese Option ist erforder-lich.

-s|--isid=str Die ISID einer zu duplizierenden Sitzung. Sie finden diese, indem Sie alleSitzungen auflisten.

-n|--name=str Der Name des iSCSI-Ziels, z. B. iqn.X.

Weiter

Führen Sie eine erneute Prüfung des iSCSI-Adapters durch.

Entfernen von iSCSI-SitzungenVerwenden Sie den vCLI-Befehl, um eine iSCSI-Sitzung zwischen einem iSCSI-Adapter und einem Ziel zuentfernen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Kapitel 11 Konfigurieren von iSCSI-Adaptern und -Speichern

VMware, Inc. 107

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den folgenden Befehl aus, um eine Sitzung zu entfernen:

esxcli --server=Servername iscsi session remove

Der Befehl verfügt über diese Optionen:

Option Beschreibung

-A|--adapter=str Der Name des iSCSI-Adapters, z. B. vmhba34. Diese Option ist erforder-lich.

-s|--isid=str Die ISID einer zu entfernenden Sitzung. Sie finden diese, indem Sie alleSitzungen auflisten.

-n|--name=str Der Name des iSCSI-Ziels, z. B. iqn.X.

Weiter

Führen Sie eine erneute Prüfung des iSCSI-Adapters durch.

vSphere-Speicher

108 VMware, Inc.

Ändern von iSCSI-Speichersystemenfür ESXi 12

Nach dem Konfigurieren Ihrer iSCSI-Initiatoren und des Speichers ist es unter Umständen erforderlich, Än-derungen an Ihrem Speichersystem vorzunehmen, um eine einwandfreie Funktionsweise mit Ihrer ESXi-Im-plementierung zu gewährleisten.

In diesem Abschnitt werden viele der in Verbindung mit VMware ESXi unterstützten iSCSI-Speichersystemevorgestellt. Für jedes Gerät werden die wichtigsten bekannten Probleme, Herstellerinformationen (sofernverfügbar) sowie Informationen aus Artikeln der VMware-Knowledgebase aufgeführt.

Hinweis Die in diesem Dokument enthaltenen Informationen werden nur für jede neue Version aktuali-siert. Unter Umständen sind neuere Informationen bereits verfügbar. Weitere iSCSI-Speichersysteme wer-den zwar unterstützt, diese werden jedoch nicht in diesem Kapitel behandelt. Informationen hierzu könnenSie dem aktuellen Handbuch zur SAN-/Speicherkompatibilität oder den Artikeln der VMware-Knowledgebaseentnehmen, oder Sie wenden sich an den Speicheranbieter.

Dieses Kapitel behandelt die folgenden Themen:

n „Testen der ESXi-iSCSI-SAN-Konfigurationen“, auf Seite 109

n „Allgemeine Überlegungen zu iSCSI-SAN-Speichersystemen“, auf Seite 110

n „EMC CLARiiON-Speichersysteme“, auf Seite 110

n „EMC Symmetrix-Speichersysteme“, auf Seite 111

n „Aktivieren von HP StorageWorks MSA1510i für die Kommunikation mit ESXi“, auf Seite 111

n „HP StorageWorks EVA-Speichersysteme“, auf Seite 112

n „NetApp-Speichersysteme“, auf Seite 113

n „Dell EqualLogic-Speichersysteme“, auf Seite 113

n „HP StorageWorks SAN/iQ-Speichersysteme“, auf Seite 114

n „iSCSI-Ziele in vApps“, auf Seite 114

Testen der ESXi -iSCSI-SAN-KonfigurationenESXi Server unterstützt zahlreiche SAN-Speichersysteme mit unterschiedlichen Konfigurationen. VMwaretestet ESXi normalerweise mit unterstützten Speichersystemen im Bezug auf die grundlegende Konnektivi-tät, HBA-Failover usw.

Es sind nicht alle Speichergeräte für alle Funktionen und Möglichkeiten von ESXi zertifiziert und die unter-schiedlichen Anbieter haben ggf. spezifische Schwerpunkte im Hinblick auf den Support für ESXi.

VMware, Inc. 109

VMware testet ESXi mit folgenden Speichersystemkonfigurationen:

Grundlegende Konnek-tivität

Es wird getestet, ob ESXi das Speichersystem erkennt und damit ausgeführtwerden kann. Bei dieser Konfiguration sind Multipathing oder andere Failo-ver-Arten nicht zulässig.

iSCSI-Failover Der Server ist mit mehreren iSCSI-HBAs oder -Netzwerkkarten ausgestattet.Der Server arbeitet bei HBA- oder Netzwerkkartenausfällen zuverlässig wei-ter.

Speicherport-Failover Der Server ist mehreren Speicherports angehängt und verhält sich bei Spei-cherport- und Switch-Ausfällen zuverlässig.

Starten über ein SAN Der Host wird erfolgreich von einer auf dem iSCSI-SAN konfigurierten LUNaus gestartet.

Allgemeine Überlegungen zu iSCSI-SAN-SpeichersystemenWenn Sie Ihr iSCSI-SAN-Speichersystem für den Einsatz mit ESXi vorbereiten, müssen Sie bestimmte allge-meine Anforderungen beachten, die für alle Speichersysteme gelten.

Die folgenden allgemeinen Anforderungen gelten für alle Speichersysteme:

n LUNs müssen für jeden HBA auf jedem Host mit der gleichen LUN-ID-Nummer bereitgestellt werden.Bei Verwendung unterschiedlicher Nummern erkennt der ESXi-Host keine unterschiedlichen Pfade zuderselben LUN. Da die Anweisungen zur Konfiguration identischer SAN-LUN-IDs Hersteller-abhängigsind, sollten Sie weitere Informationen zu diesem Thema der Dokumentation Ihres Speichers entneh-men.

n Legen Sie, sofern für bestimmte Speichersysteme in diesem Kapitel keine abweichenden Angaben ge-macht werden, den Hosttyp für LUNs, die ESXi präsentiert werden, auf Linux oder Linux-Cluster fest,sofern dies Ihr Speichersystem betrifft. Das vom ESXi angewandte Verfahren zum Zugreifen auf dasSpeichersystem ist meist mit dem Linux-Zugriff kompatibel, wobei hier das von Ihnen verwendeteSpeichersystem ausschlaggebend ist.

n Wenn Sie vMotion, DRS oder HA verwenden, stellen Sie sicher, dass für Quell- und Zielhosts für virtu-elle Maschinen die gleichen LUNs mit identischen LUN-IDs verfügbar sind. SAN-Administratoren mages unüblich erscheinen, mehreren Hosts die gleichen LUNs bereitzustellen, da sie besorgt sind, dassdies zu einer Datenbeschädigung führen könnte. Da VMFS jedoch verhindert, dass mehrere virtuelleMaschinen gleichzeitig in die gleiche Datei schreiben, können die LUNs allen erforderlichen ESXi-Sys-temen bereitgestellt werden.

n Wenn für die LUNs, auf die zugegriffen wird, keine CHAP-Authentifizierung festgelegt wurde, müssenSie CHAP auf dem ESXi-Host ebenfalls deaktivieren. Anderenfalls schlägt die Authentifizierung desSpeichersystems fehl, obwohl für die LUNs keine CHAP-Anforderungen bestehen.

EMC CLARiiON-SpeichersystemeEMC CLARiiON-Speichersysteme arbeiten mit ESXi-Hosts in iSCSI SAN-Konfigurationen. Verwenden Siein der Regel die EMC-Software zum Durchführen der Konfiguration.

Hierbei handelt es sich um ein Aktiv/Passiv-Festplatten-Array, sodass alle Probleme im Zusammenhang mitAktiv/Passiv-Festplatten-Arrays relevant sind. Beachten Sie weiterhin Folgendes:

n Um ein Pfad-Thrashing zu verhindern, ist die Multipathing-Richtlinie standardmäßig auf „Zuletzt ver-wendet“ und nicht auf „Fest“ gesetzt. Das ESXi-System legt die Standardrichtlinie fest, sobald ein Spei-chersystem ermittelt wird.

n Um einen Startvorgang von einem SAN durchzuführen, wählen Sie den aktiven Speicherprozessor fürdas Ziel der Start-LUN im HBA-BIOS.

vSphere-Speicher

110 VMware, Inc.

n Um sicherzugehen, dass ESXi EMC CLARiiON mit ALUA unterstützt, überprüfen Sie die HCLs. Damitdie richtige Firmware-Version für das Speicher-Array verwendet wird. Weitere Informationen erhaltenSie von Ihrem Speicheranbieter.

n Bestimmte EMC CLARiiON CX3-Modelle verhalten sich bei Netzwerküberlastung möglicherweisenicht wie erwartet. Weitere Informationen darüber, wie diesem Problem zu begegnen ist, finden Sie imVMware-Knowledgebase-Artikel unter http://kb.vmware.com/kb/1002598.

EMC Symmetrix-SpeichersystemeEMC Symmetrix-Speichersysteme benötigen bestimmte Einstellungen, um mit ESXi arbeiten zu können.Verwenden Sie EMC-Software, um das Speichersystem zu konfigurieren.

Für ESXi-Vorgänge auf einem Symmetrix-Netzwerkspeichersystem sind folgende Einstellungen erforder-lich:

n Allgemeine Seriennummer (C)

n Automatische Aushandlung (EAN) aktiviert

n SCSI 3 (SC3) festgelegt (aktiviert)

n Eindeutiger World Wide Name (UWN)

n SPC-2 (Decal) (SPC2) SPC-2-Flag ist erforderlich

Hinweis ESXi-Host betrachten LUNs eines Symmetrix-Speichersystems, die über eine Kapazität von 50 MBoder weniger verfügen, als Verwaltungs-LUNs. Diese LUNs werden auch als Pseudo-LUNs oder Gatekee-per-LUNs bezeichnet. Sie werden auf der EMC Symmetrix-Verwaltungsschnittstelle dargestellt, sollten je-doch nicht zum Speichern von Daten verwendet werden.

Aktivieren von HP StorageWorks MSA1510i für die Kommunikationmit ESXi

In diesem Abschnitt werden die Schritte für das Setup und die Konfiguration beschrieben, die erforderlichsind, um die Kommunikation des HP StorageWorks MSA1510i-Speichersystems mit ESXi-Hosts zu ermögli-chen.

Vorgehensweise

1 Installieren und verbinden Sie die Netzwerkgeräte entsprechend den Installationsanweisungen des An-bieters, und schalten Sie sie ein.

2 Ermitteln Sie die IP-Adresse, die dem Verwaltungsport des MSA1510i-Controllers zugeordnet ist.

a Gehen Sie die Meldungen auf dem LCD-Bildschirm durch, bis folgende Meldung angezeigt wird:603 Port MA0 IP Adresse

b Notieren Sie die unter den grundlegenden MSA1510i‐Informationen aufgeführte IP-Adresse desVerwaltungsports.

3 Öffnen Sie vom Server oder einer Workstation aus im MSA1510i LAN-Segment einen Webbrowser, undgeben Sie die in Schritt 2 besorgte Adresse ein.

4 Geben Sie bei Aufforderung die Standardzugriffsberechtigungen ein.

n Benutzername: root

n Kennwort: root

5 Legen Sie bei Aufforderung einen eindeutigen Benutzernamen und ein eindeutiges Kennwort fest.

Kapitel 12 Ändern von iSCSI-Speichersystemen für ESXi

VMware, Inc. 111

6 Schließen Sie mithilfe des Assistenten die folgenden Vorgänge ab.

Option Beschreibung

Speicherkonfiguration a Legen Sie den Fault Tolerancemodus (RAID-Modus) fest.b Weisen Sie der entsprechenden RAID-Ebene ungenutzten Speicher-

platz zu.

iSCSI-Konfiguration (Konfiguriereneines iSCSI-Portals)

a Wählen Sie einen Datenport.b Weisen Sie dem Datenport eine IP-Adresse zu.c VLANs werden auf dem Switch eingerichtet und als eine Methode zur

Steuerung des Speicherzugriffs verwendet. Wenn Sie VLANs verwen-den, geben Sie die zu verwendende VLAN-ID ein (0 = nicht verwen-det).

d Der Assistent schlägt einen standardmäßigen iSCSI-Zielnamen und ei-nen iSCSI-Zielalias vor. Übernehmen Sie die Standardwerte, oder ge-ben Sie benutzerdefinierte Werte ein.

Hinweis Um die verbleibenden Datenports zu konfigurieren, schließenSie den Assistenten für die erste Systemkonfiguration ab, und verwendenSie die auf der Registerkarte Konfigurieren (Configure) verfügbaren Auf-gaben.

Anmeldeeinstellungen Geben Sie die Anmeldeeinstellungen ein.

Verwaltungseinstellungen Geben Sie die Verwaltungseinstellungen ein.

7 Klicken Sie auf Beenden (Finish), um die Konfigurationseinstellungen zu übernehmen.

Hinweis Assistenten stehen nur für grundlegende Konfigurationsaufgaben zur Verfügung. Verwenden Siedie Registerkarten Verwalten und Konfigurieren, um die Konfiguration zu überprüfen und Änderungendaran vorzunehmen.

Weiter

Führen Sie nach der ersten Einrichtung die folgenden Aufgaben zum Abschließen der Konfiguration durch:

n Erstellen Sie ein Array.

n Erstellen Sie ein logisches Laufwerk.

n Erstellen Sie ein Ziel.

n Erstellen Sie eine Portalgruppe.

n Verbinden Sie die erstellten Portale mithilfe des Assistenten mit der erstellten Portalgruppe, oder wei-sen Sie diese zu.

n Ordnen Sie dem Ziel logische Laufwerke zu.

n Fügen Sie Initiatoren hinzu (IQN-Name und Alias des Initiators).

n Aktualisieren Sie die ACLs der logischen Laufwerke, um Zugriff auf die Initiatoren bereitzustellen(wählen Sie die Liste der Initiatoren, um auf das logische Laufwerk zuzugreifen).

HP StorageWorks EVA-SpeichersystemeBei den beiden Arten des HP StorageWorks-EVA-Systems handelt es sich um EVA_GL, ein Aktiv/Passiv-System, und EVA_XL, ein Aktiv/Aktiv-System. Der Einsatz von ESXi auf Systemen setzt die folgenden Ein-stellungen voraus.

Legen Sie für den Verbindungstyp Benutzerdefiniert fest, wenn Sie eine LUN für einen ESXi-Host bereitstel-len. Hierbei wird einer der folgenden Werte verwendet:

n Verwenden Sie für HP EVAgl 3000/5000 (Aktiv/Passiv) den Hostmodustyp 000000002200282E.

vSphere-Speicher

112 VMware, Inc.

n Verwenden Sie für HP EVAgl Firmware 4.001 (Aktiv/Aktiv-Firmware für die GL-Serie) und höher denHostmodustyp VMware.

n Verwenden Sie für EVA4000/6000/8000-Aktiv/Aktiv-Arrays mit Firmwareversionen vor 5.031 den Host-modustyp 000000202200083E.

n Verwenden Sie für EVA4000/6000/8000-Aktiv/Aktiv-Arrays mit Firmware der Version 5.031 und höherden Hostmodustyp VMware.

Ansonsten erfordern EVA-Systeme keine besonderen Konfigurationsänderungen für die Verwendung miteinem ESXi-System.

NetApp-SpeichersystemeZur Kommunikation zwischen NetApp-Speichersystemen in einer ESXi-Umgebung sind bestimmte Konfi-gurationsschritte erforderlich.

Zusätzliche Dokumentation zu NetApp- und VMware-Best-Practices sowie zu SAN-Lösungen finden Sieauf der Webseite von NetApp.

Tabelle 12‑1. Konfigurationsschritte

Konfigurationsschritt Beschreibung

Deaktivieren Sie ALUA für7-Modus.

Wenn einer Ihrer iSCSI-Initiatoren Teil der Initiatorgruppe ist (igroup), deaktivieren SieALUA auf dem 7-Modus-NetApp-Controller. „Clustered ONTAP“ ist nur ALUA.

Richten Sie Multipathing ein. Weisen Sie beim Einrichten von Multipathing zwischen zwei iSCSI-HBAs und mehrerenPorts auf einem NetApp-Speichersystem jedem HBA einen anderen iSCSI-Initiatornamenzu.Das NetApp-Speichersystem erlaubt nur eine Verbindung für jedes Ziel und jeden Initia-tor. Wenn Sie versuchen, weitere Verbindungen aufzubauen, bricht die erste Verbindungab. Daher sollte ein einzelner HBA nicht versuchen, eine Verbindung mit mehreren IP-Adressen herzustellen, die mit dem gleichen Network Appliance-Ziel verbunden sind.

Legen Sie den LUN-Typ undden Initiatorgruppentyp fest.

Legen Sie für das Speichersystem den geeigneten LUN- und Initiatorgruppentyp fest:n LUN-Typ (LUN Type) – VMware (verwenden Sie Linux, wenn der Typ VMware nicht

verfügbar ist).n Initiatorgruppentyp (Initiator Group Type) – VMware (verwenden Sie Linux, wenn

der Typ VMware nicht verfügbar ist).

Stellen Sie den Speicher be-reit.

Verwenden Sie entweder FilerView oder CLI.

Dell EqualLogic-SpeichersystemeBeim Einrichten des EqualLogic-Speichersystems für die Ausführung mit einer ESXi-Implementierung istFolgendes zu beachten:

Anforderungen:

n Sie brauchen keine spezielle Multipathing-Einrichtung. EqualLogic-Speichersysteme unterstützen einFailover von Speicherprozessoren, die für iSCSI transparent sind. Mehrere iSCSI-HBAs oder -Netzwerk-karten können eine Verbindung mit dem gleichen Ziel oder der gleichen LUN auf Speicherseite herstel-len. EqualLogic bietet ein Multipathing-Erweiterungsmodul, das auf ESXi installiert werden kann, umzusätzliche Funktionen bereitzustellen.

Informationen zu den Multipathing-Konfigurationspaketen erhalten Sie von Dell EqualLogic.

n Aktivieren Sie die ARP-Umleitung für ESXi-Hardware-iSCSI-HBAs. Weitere Informationen hierzu fin-den Sie unter „Konfigurieren erweiterter Parameter für iSCSI“, auf Seite 104.

n EqualLogic-Speichersysteme geben eine Obergrenze von 1024 iSCSI-Verbindungen pro Speicherpoolund 2048-Verbindungen pro Speichergruppe vor.

Kapitel 12 Ändern von iSCSI-Speichersystemen für ESXi

VMware, Inc. 113

n Erhöhen Sie die Zeitüberschreitung für die iSCSI-Anmeldung auf dem ESXi-Host auf 15 bis 30 Sekun-den. Weitere Informationen hierzu finden Sie unter „Konfigurieren erweiterter Parameter für iSCSI“,auf Seite 104.

Weitere Informationen zum Konfigurieren und Verwenden von EqualLogic-Speichersystemen finden Sie inder Dokumentation des Anbieters und im VMware-Knowledgebase-Artikel unter http://kb.vmware.com/kb/2007829.

HP StorageWorks SAN/iQ-SpeichersystemeHP StorageWorks (früher LeftHand) SAN/iQ-Systeme unterstützen ESXi-iSCSI-Verbindungen von einemSoftware-Initiator und Hardware-Initiator.

Aktivieren Sie bei der Konfiguration von SAN/iQ eine automatische Volume-Neusignierung für SAN/iQ-Speichergeräte, um Zugriff auf SAN/iQ-Snapshots und Remotekopien zu ermöglichen.

Weitere Informationen zum Konfigurieren von HP StorageWorks-Speicher für VMware vSphere finden Siein der Anbieterdokumentation unter „VMware“.

Grundlegende Schritte beinhalten verschiedene Aufgaben.

1 Installieren von SAN/iQ-Speicherknoten

2 Erstellen von SAN/iQ-Verwaltungsgruppen und Clustern

3 Erstellen von Volumes

4 Zuweisen von Volumes zu Authentifizierungsgruppen und Volume-Listen

5 Aktivieren der ARP-Umleitung für Hardware-iSCSI-HBAs.

Es wird empfohlen, einen virtuellen IP-Lastausgleich in SAN/iQ für alle ESXi-Authentifizierungsgruppenzu konfigurieren.

iSCSI-Ziele in vAppsWenn Sie ein iSCSI-Ziel in einer virtuellen Appliance verwenden, z. B. HP LeftHand P4000 VSA, sollte derHost über den Software-iSCSI-Adapter und nicht über einen Hardware-iSCSI-Adapter mit dem Ziel verbun-den werden.

vSphere-Speicher

114 VMware, Inc.

Starten von einem iSCSI-SAN 13Wenn Sie Ihren Host so einrichten, dass er von einem SAN gestartet wird, wird das Start-Image des Hostsauf einer oder mehreren LUNs im SAN-Speichersystem gespeichert. Wenn der Host startet, wird er nichtvon seiner lokalen Festplatte aus, sondern von der LUN im SAN aus gestartet.

Sie können das Starten vom SAN verwenden, wenn Sie keinen lokalen Speicher warten möchten oder Hard-warekonfigurationen ohne Festplatten haben, wie z. B. Blade-Systeme.

ESXi unterstützt verschiedene Methoden zum Starten vom iSCSI-SAN.

Tabelle 13‑1. Unterstützung für das Starten vom iSCSI-SAN

Unabhängige Hardware-iSCSI Software-iSCSI und abhängige Hardware-iSCSI

Konfigurieren Sie den iSCSI-HBA für das Startenvom SAN. Informationen zur HBA-Konfigurationfinden Sie unter „Konfigurieren eines unabhängi-gen Hardware-iSCSI-Adapters für das Starten voneinem SAN“, auf Seite 117

Verwenden Sie den Netzwerkadapter, der iBFT unterstützt. WeitereInformationen hierzu finden Sie unter „iBFT-iSCSI-Start - Über-blick“, auf Seite 118.

Dieses Kapitel behandelt die folgenden Themen:

n „Allgemeine Empfehlungen für das Starten von einem iSCSI-SAN“, auf Seite 115

n „Vorbereiten des iSCSI-SAN“, auf Seite 116

n „Konfigurieren eines unabhängigen Hardware-iSCSI-Adapters für das Starten von einem SAN“,auf Seite 117

n „iBFT-iSCSI-Start - Überblick“, auf Seite 118

Allgemeine Empfehlungen für das Starten von einem iSCSI-SANWenn Sie eine iSCSI-LUN als Startgerät für Ihren Host einrichten und verwenden möchten, müssen Sie eini-ge allgemeine Richtlinien befolgen.

Es gelten die folgenden Richtlinien für das Starten von unabhängigem Hardware-iSCSI und iBFT.

n Prüfen Sie die Herstellerempfehlungen für die Hardware, die Sie in Ihrer Startkonfiguration verwen-den.

n Weitere Informationen zu Installationsvoraussetzungen und -anforderungen finden Sie im Installations-und Einrichtungshandbuch für vSphere.

n Verwenden Sie statische IP-Adressen, um das Auftreten von DHCP-Konflikten zu vermeiden.

n Verwenden Sie für VMFS-Datenspeicher und Startpartitionen verschiedene LUNs.

VMware, Inc. 115

n Konfigurieren Sie auf Ihrem Speichersystem ordnungsgemäße ACLs.

n Die Start-LUN sollte nur für den Host sichtbar sein, der die LUN verwendet. Auf diese Start-LUNsollten andere Hosts im SAN nicht zugreifen dürfen.

n Wenn eine LUN für einen VMFS-Datenspeicher verwendet wird, kann sie von mehreren Hosts ge-meinsam verwendet werden. Dies wird durch ACLs im Speichersystem ermöglicht.

n Konfigurieren Sie eine Diagnosepartition.

n Nur bei unabhängigen Hardware-iSCSI können Sie die Diagnosepartition auf der Start-LUN plat-zieren. Wenn Sie die Diagnosepartition in der Start-LUN konfigurieren, kann diese LUN nicht vonmehreren Hosts verwendet werden. Wenn eine separate LUN für eine Diagnosepartition verwen-det wird, kann sie von mehreren Hosts gemeinsam verwendet werden.

n Wenn Sie mithlfe von iBFT vom SAN starten, können Sie keine Diagnosepartition auf einer SAN-LUN einrichten. Verwenden Sie vSphere ESXi Dump Collector auf einem Remoteserver, um die Di-agnoseinformationen Ihres Hosts zu erfassen. Informationen zu ESXi Dump Collector finden Sieunter Installations- und Einrichtungshandbuch für vSphere und vSphere-Netzwerk.

Vorbereiten des iSCSI-SANBevor Sie Ihren Host zum Starten von einer iSCSI-LUN konfigurieren, müssen Sie Ihr SAN vorbereiten undkonfigurieren.

Vorsicht Wenn Sie über ein SAN starten und die Installation von ESXi per Skript erfolgt, müssen Sie be-stimmte Schritte ausführen, um einen unerwünschten Datenverlust zu vermeiden.

Vorgehensweise

1 Schließen Sie die Netzwerkkabel an, wie in den Handbüchern der betreffenden Geräte beschrieben.

2 Stellen Sie die IP-Verbindung zwischen dem Speichersystem und dem Server sicher.

Hierzu gehört ebenfalls die ordnungsgemäße Konfiguration aller Router und Switches im Speichernetz-werk. Speichersysteme müssen ein Ping-Signal an die iSCSI-Adapter in den Hosts senden können.

3 Konfigurieren Sie das Speichersystem.

a Erstellen Sie ein Volume (oder eine LUN) im Speichersystem für Ihren Host, von dem gebootetwerden soll.

b Konfigurieren Sie das Speichersystem, sodass Ihr Host auf die zugewiesene LUN zugreifen kann.

Hierzu ist möglicherweise ein Update der ACLs mit den IP-Adressen, den iSCSI-Namen und demCHAP-Authentifizierungsparameter, den Sie auf Ihrem Host verwenden, erforderlich. Auf einigenSpeichersystemen müssen Sie nicht nur die Zugriffsdaten für den ESXi-Host angeben, sondernauch die zugewiesene LUN ausdrücklich mit dem Host verknüpfen.

c Stellen Sie sicher, dass die LUN dem Host ordnungsgemäß präsentiert wird.

d Stellen Sie sicher, dass kein anderes System auf die konfigurierte LUN zugreifen kann.

e Schreiben Sie sich den iSCSI-Namen und die IP-Adresse der Ziele auf, die dem Host zugewiesensind.

Sie benötigen diese Informationen für die Konfiguration Ihrer iSCSI-Adapter.

vSphere-Speicher

116 VMware, Inc.

Konfigurieren eines unabhängigen Hardware-iSCSI-Adapters für dasStarten von einem SAN

Wenn Ihr ESXi-Host einen unabhängigen Hardware-iSCSI-Adapter verwendet, wie z. B. einen QLogic-HBA,müssen Sie den Adapter so konfigurieren, dass er vom SAN startet.

Dieses Verfahren erläutert, wie der QLogic-iSCSI-HBA für das Starten vom SAN aktiviert wird. Weitere In-formationen und aktuelle Einzelheiten zu den QLogic-Adapter-Konfigurationseinstellungen finden Sie aufder QLogic-Website.

Voraussetzungen

Da Sie zuerst vom VMware-Installationsmedium starten müssen, richten Sie Ihren Host so ein, dass er vonCD/DVD-ROM startet. Ändern Sie hierzu die Startreihenfolge in den BIOS-Einstellungen des Systems.

Vorgehensweise

1 Legen Sie die Installations-CD/DVD in das CD/DVD-ROM-Laufwerk ein und starten Sie den Host neu.

2 Stellen Sie im BIOS ein, dass der Host zuerst vom CD/DVD-ROM-Laufwerk aus gestartet wird.

3 Drücken Sie während des Server-POST die Tastenkombination Strg+q, um das QLogic-iSCSI-HBA-Kon-figurationsmenü zu öffnen.

4 Wählen Sie den zu konfigurierenden E/A-Port.

Standardmäßig ist „Adapterstartmodus“ auf „Deaktivieren“ gesetzt.

5 Konfigurieren Sie den HBA.

a Wählen Sie aus dem Menü Fast!UTIL‐Optionen die Option Konfigurationseinstellungen > Hosta‐daptereinstellungen aus.

b Konfigurieren Sie die folgenden Einstellungen für Ihren Hostadapter: Initiator-IP-Adresse, Sub-netzmaske, Gateway, Initiator-iSCSI-Name und CHAP (falls erforderlich).

6 Konfigurieren Sie die iSCSI-Einstellungen.

Weitere Informationen hierzu finden Sie unter „Konfigurieren der iSCSI-Starteinstellungen“, auf Sei-te 117.

7 Speichern Sie die Änderungen, und starten Sie das System neu.

Konfigurieren der iSCSI-StarteinstellungenWenn Sie den ESXi-Host zum Starten von iSCSI einrichten, müssen Sie die iSCSI-Starteinstellungen konfigu-rieren.

Vorgehensweise

1 Wählen Sie aus dem Menü Fast!UTIL‐Optionen die Option Konfigurationseinstellungen > iSCSI‐Starteinstellungen aus.

2 Bevor Sie SendTargets festlegen können, setzen Sie „Adapterstartmodus“ auf Manuell.

Kapitel 13 Starten von einem iSCSI-SAN

VMware, Inc. 117

3 Aktivieren Sie Primäre Startgeräteinstellungen.

a Geben Sie Ziel‐IP und Zielport für die Zielerkennung ein.

b Die Felder Start‐LUN (Boot LUN) und iSCSI‐Name (iSCSI Name) müssen nicht ausgefüllt wer-den, wenn nur ein iSCSI-Ziel und eine LUN für die angegebene Adresse vorhanden sind, über dieder Start erfolgen soll. Anderenfalls müssen Sie diese Felder ausfüllen, um sicherzustellen, dass derStart nicht über ein Volume oder ein anderes System durchgeführt wird. Nachdem das Zielspei-chersystem erreicht wurde, werden diese Felder nach einem erneuten Prüfen ausgefüllt angezeigt.

c Speichern Sie die Änderungen.

4 Wählen Sie im Menü iSCSI‐Starteinstellungen (iSCSI Boot Settings) das primäre Startgerät. Zur Su-che nach neuen Ziel-LUNs wird ein erneuter Prüfvorgang des HBA ausgeführt.

5 Wählen Sie das iSCSI-Ziel.

Hinweis Wenn mehr als eine LUN im Ziel vorhanden ist, können Sie eine bestimmte LUN-ID wählen,indem Sie nach Auswahl des iSCSI-Gerätes die Eingabetaste drücken.

6 Öffnen Sie das Menü Primäre Startgeräteeinstellungen (Primary Boot Device Setting). Nach der er-neuten Prüfung sind die Felder Start‐LUN (Boot LUN) und iSCSI‐Name (iSCSI Name) ausgefüllt. Än-dern Sie den Wert von Start‐LUN (Boot LUN) in die gewünschte LUN-ID.

iBFT-iSCSI-Start - ÜberblickESXi-Hosts können mithilfe von Software- oder abhängigen Hardware-iSCSI-Adaptern und Netzwerkadap-tern von einer iSCSI-SAN gestartet werden.

Der Host muss über einen Netzwerkadapter verfügen, der das Starten von iSCSI und das iBFT-Format (iBFT,iSCSI-Start-Firmware-Tabelle) unterstützt, um ESXi bereitzustellen und vom iSCSI-SAN starten zu können.Die iBFT ist eine Methode zur Übermittlung von Parametern zum iSCSI-Startgerät an ein Betriebssystem.

Bevor Sie ESXi installieren und vom iSCSI-SAN starten, konfigurieren Sie das Netzwerk und die iSCSI-Start-parameter auf dem Netzwerkadapter und aktivieren Sie den Adapter für das Starten von iSCSI. Da die Kon-figuration des Netzwerkadapters herstellerabhängig ist, lesen Sie die Anweisungen in der DokumentationIhres Herstellers.

Beim ersten Starten über iSCSI verbindet sich die iSCSI-Start-Firmware auf Ihrem System mit einem iSCSI-Ziel. Wenn die Anmeldung erfolgreich ist, speichert die Firmware die Netzwerk- und iSCSI-Start-Parameterin der iBFT und die Tabelle im Arbeitsspeicher des Systems. Das System verwendet diese Tabelle zur Konfi-guration seiner eigenen iSCSI-Verbindung und seines iSCSI-Netzwerks sowie zum Starten.

Die iBFT-iSCSI-Startsequenz wird in der folgenden Liste beschrieben.

1 Beim Neustart erkennt das System-BIOS die iSCSI-Start-Firmware auf dem Netzwerkadapter.

2 Die iSCSI-Start-Firmware verwendet zum Verbinden mit dem angegebenen iSCSI-Ziel die vorkonfigu-rierten Startparameter.

3 Wenn die Verbindung mit dem iSCSI-Ziel hergestellt wurde, schreibt die iSCSI-Start-Firmware dieNetzwerk- und iSCSI-Startparameter in die iBFT und speichert die Tabelle im Systemarbeitsspeicher.

Hinweis Das System verwendet diese Tabelle zur Konfiguration seiner eigenen iSCSI-Verbindung undseines iSCSI-Netzwerks sowie zum Starten.

4 Das BIOS startet das Startgerät.

5 Der VMkernel startet den Ladevorgang und übernimmt den Startvorgang.

6 Der VMkernal verwendet die Startparameter aus der iBFT zum Herstellen einer Verbindung mit demiSCSI-Ziel.

vSphere-Speicher

118 VMware, Inc.

7 Nach Herstellung der iSCSI-Verbindung wird das System gestartet.

iBFT-iSCSI-Start - ÜberlegungenWenn Sie mithilfe von iBFT-aktivierten Netzwerkadaptern einen ESXi-Host von iSCSI starten, muss Folgen-des beachtet werden.

Der iBFT-iSCSI-Startvorgang unterstützt Folgendes nicht:

n IPv6

n Failover für die iBFT-aktivierten Netzwerkadapter

Hinweis Aktualisieren Sie mithilfe der vom Anbieter bereitgestellten Tools den Startcode Ihrer Netzwerk-karte und die iBFT-Firmware, bevor Sie versuchen, VMware ESXi zu installieren und zu starten. Informatio-nen über den unterstützten Startcode und die iBFT-Firmware-Versionen für den VMware ESXi-iBFT-Startfinden Sie in der Anbieterdokumentation und VMware HCL. Der Startcode und die iBFT-Firmware, die vonden Herstellern vor ESXi 4.1 freigegeben wurden, funktionieren möglicherweise nicht.

Nach dem Einrichten des Hosts für das Starten von iBFT-iSCSI gelten die folgenden Einschränkungen:

n Sie können den Software-iSCSI-Adapter nicht deaktivieren. Wenn die iBFT-Konfiguration im BIOS vor-handen ist, aktiviert der Host den Software-iSCSI-Adapter bei jedem Neustart neu.

Hinweis Wenn Sie den iBFT-fähigen Netzwerkadapter nicht für den iSCSI-Start verwenden und nichtmöchten, dass der Software-iSCSI-Adapter immer aktiviert ist, entfernen Sie die iBFT-Konfiguration ausdem Netzwerkadapter.

n Sie können das iBFT-iSCSI-Startziel nicht mit dem vSphere Web Client entfernen. Das Ziel erscheint aufder Liste der statischen Ziele des Adapters.

Konfigurieren des Startens von iBFT über ein SANSie können mithilfe des Software-iSCSI-Adapters oder eines abhängigen Hardware-iSCSI-Adapters und ei-nes Netzwerkadapters vom iSCSI-SAN aus starten. Der Netzwerkadapter muss die iBFT unterstützen.

Wenn Sie Ihren Host für das Starten mit iBFT einrichten, führen Sie mehrere Aufgaben durch.

1 Konfigurieren der iSCSI-Startparameter auf Seite 120Ein Netzwerkadapter auf Ihrem Host muss über eine speziell konfigurierte iSCSI-Start-Firmware ver-fügen, um den iSCSI-Startvorgang zu starten. Wenn Sie die Firmware konfigurieren, geben Sie dieNetzwerk- und iSCSI-Parameter an und aktivieren Sie den Adapter für den iSCSI-Start.

2 Ändern der Startsequenz im BIOS auf Seite 120Wenn Sie Ihren Host so einrichten, dass er vom iBFT-iSCSI gestartet wird, ändern Sie die Startsequenz,sodass Ihr Host in der entsprechenden Reihenfolge gestartet wird.

3 Installieren von ESXi auf dem iSCSI-Ziel auf Seite 120Sie müssen beim Einrichten Ihres Hosts zum Starten von iBFT-iSCSI das ESXi-Image auf der Ziel-LUNinstallieren.

4 Starten von ESXi vom iSCSI-Ziel auf Seite 121Nachdem Sie den Host für den iBFT-iSCSI-Start vorbereitet und die ESXi-Images auf das iSCSI-Zielkopiert haben, führen Sie den eigentlichen Startvorgang durch.

Kapitel 13 Starten von einem iSCSI-SAN

VMware, Inc. 119

Konfigurieren der iSCSI-StartparameterEin Netzwerkadapter auf Ihrem Host muss über eine speziell konfigurierte iSCSI-Start-Firmware verfügen,um den iSCSI-Startvorgang zu starten. Wenn Sie die Firmware konfigurieren, geben Sie die Netzwerk- undiSCSI-Parameter an und aktivieren Sie den Adapter für den iSCSI-Start.

Die Konfiguration auf dem Netzwerkadapter kann dynamisch oder statisch sein. Wenn Sie die dynamischeKonfiguration verwenden, geben Sie an, dass alle Ziel- und Initiator-Startparameter über DHCP bezogenwerden. Bei der statischen Konfiguration geben Sie Daten manuell ein, zu denen die IP-Adresse und der Ini-tiator-IQN Ihres Hosts sowie die Zielparameter gehören.

Vorgehensweise

u Geben Sie auf dem Netzwerkadapter, den Sie zum Starten von iSCSI verwenden, die Netzwerk- undiSCSI-Parameter an.

Da die Konfiguration des Netzwerkadapters herstellerabhängig ist, lesen Sie die Anweisungen in derDokumentation Ihres Herstellers.

Ändern der Startsequenz im BIOSWenn Sie Ihren Host so einrichten, dass er vom iBFT-iSCSI gestartet wird, ändern Sie die Startsequenz, so-dass Ihr Host in der entsprechenden Reihenfolge gestartet wird.

Ändern Sie die BIOS-Startsequenz auf die folgende Sequenz:

n iSCSI

n DVD-ROM

Weil das Ändern der Startsequenz im BIOS herstellerspezifisch ist, sollten Sie die entsprechenden Anwei-sungen in der Herstellerdokumentation zu Rate ziehen. In der nachfolgenden Beispielprozedur wird veran-schaulicht, wie die Startsequenz eines Dell-Hosts mit einem Broadcom-Netzwerkadapter geändert wird.

Vorgehensweise

1 Schalten Sie den Host ein.

2 Drücken Sie F2 während der Selbstdiagnose des Einschaltvorgangs (POST = Power-On Self-Test), umdas BIOS-Setup aufzurufen.

3 Wählen Sie im BIOS-Setup Boot Sequence und drücken Sie die Eingabetaste.

4 Ordnen Sie im Startsequenz-Menü die startbaren Elemente so, dass iSCSI dem DVD-ROM voransteht.

5 Drücken Sie ESC, um das Startsequenz-Menü zu verlassen.

6 Durcken Sie die ESC-Taste, um das BIOS-Setup zu beenden.

7 Wählen Sie Änderungen speichern und klicken Sie auf Beenden, um das BIOS-Setup-Menü zu been-den.

Installieren von ESXi auf dem iSCSI-ZielSie müssen beim Einrichten Ihres Hosts zum Starten von iBFT-iSCSI das ESXi-Image auf der Ziel-LUN in-stallieren.

Voraussetzungen

n Konfigurieren Sie die iSCSI-Start-Firmware auf Ihrer Start-Netzwerkkarte, um auf die Ziel-LUN zu ver-weisen, die Sie als Start-LUN verwenden möchten.

n Ändern Sie die Startsequenz im BIOS, sodass iSCSI dem DVD-Laufwerk vorangestellt wird.

n Falls Sie Broadcom-Adapter verwenden, legen Sie die Option Boot to iSCSI target auf Disabled fest

vSphere-Speicher

120 VMware, Inc.

Vorgehensweise

1 Legen Sie das Installationsmedium in das CD/DVD-ROM-Laufwerk ein und starten Sie den Host neu.

2 Wenn das Installationsprogramm startet, führen Sie die Standardinstallationsprozedur aus.

3 Wählen Sie die iSCSI-LUN als Installationsziel aus, wenn Sie dazu aufgefordert werden.

Das Installationsprogramm kopiert das ESXi-Start-Image in die iSCSI-LUN.

4 Entfernen Sie nach dem Neustart des Systems die Installations-DVD aus dem Laufwerk.

Starten von ESXi vom iSCSI-ZielNachdem Sie den Host für den iBFT-iSCSI-Start vorbereitet und die ESXi-Images auf das iSCSI-Ziel kopierthaben, führen Sie den eigentlichen Startvorgang durch.

Voraussetzungen

n Konfigurieren Sie die iSCSI-Start-Firmware auf Ihrer Start-Netzwerkkarte, um auf die Ziel-LUN zu ver-weisen.

n Ändern Sie die Startsequenz im BIOS, sodass iSCSI dem Startgerät vorangestellt wird.

n Falls Sie Broadcom-Adapter verwenden, legen Sie die Option Boot to iSCSI target auf Enabled fest

Vorgehensweise

1 Starten Sie den Host neu.

Der Host startet mithilfe von iBFT-Daten vom iSCSI-LUN. Beim Erststart richtet das iSCSI-Initialisie-rungsskript das Standardnetzwerk ein. Das Netzwerk-Setup überdauert nachfolgende Neustarts.

2 (Optional) Passen Sie die Netzwerkkonfiguration mithilfe des vSphere Web Client an.

Best Practices für NetzwerkeUm den ESXi-Host mithilfe von iBFT über iSCSI zu starten, müssen Sie das Netzwerk ordnungsgemäß kon-figurieren.

Für eine höhere Sicherheit und größere Leistung sollten auf dem Host redundante Netzwerkadapter vor-handen sein.

Wie Sie alle Netzwerkadapter einrichten, hängt davon ab, ob Ihre Umgebung für den iSCSI-Datenverkehrund den Hostverwaltungs-Datenverkehr freigegebene oder isolierte Netzwerke verwendet.

Freigegebene iSCSI- und VerwaltungsnetzwerkeKonfigurieren Sie die Netzwerk- und iSCSI-Parameter auf dem ersten Netzwerkadapter auf dem Host. Nachdem Starten des Hosts können Sie sekundäre Netzwerkadapter zur Standard-Portgruppe hinzufügen.

Isolierte iSCSI- und VerwaltungsnetzwerkeBefolgen Sie diese Richtlinien, wenn Sie isolierte iSCSI- und Verwaltungsnetzwerke konfigurieren.

n Ihre isolierten Netzwerke müssen sich in verschiedenen Subnetzen befinden.

n Wenn Sie zum Isolieren der Netzwerke VLANs verwenden, müssen diese verschiedene Subnetze haben,um die ordnungsgemäße Einrichtung der Routing-Tabellen sicherzustellen.

n Es wird empfohlen, die Konfiguration so vorzunehmen, dass sich der iSCSI-Adapter und das Ziel indemselben Subnetz befinden. Es gelten die folgenden Einschränkungen, wenn Sie den iSCSI-Adapterund das Ziel in unterschiedlichen Subnetzen einrichten:

n Das Standard-VMkernel-Gateway muss in der Lage sein, sowohl den Verwaltungs- als auch deniSCSI-Datenverkehr weiterzuleiten.

Kapitel 13 Starten von einem iSCSI-SAN

VMware, Inc. 121

n Nachdem Sie Ihren Host gestartet haben, können Sie den iBFT-aktivierten Netzwerkadapter nur füriBFT verwenden. Sie können den Adapter nicht für anderen iSCSI-Datenverkehr verwenden.

n Verwenden Sie den ersten physischen Netzwerkadapter für das Verwaltungsnetzwerk.

n Verwenden Sie den zweiten physischen Netzwerkadapter für das iSCSI-Netzwerk. Stellen Sie sicher,dass Sie die iBFT konfigurieren.

n Nach dem Starten des Hosts können Sie sekundäre Netzwerkadapter zu den Verwaltungs- und iSCSI-Netzwerken hinzufügen.

Ändern von iBFT-iSCSI-StarteinstellungenFalls sich auf dem iSCSI-Speicher oder Ihrem Host Einstellungen ändern, wie z. B. der IQN-Name oder dieIP-Adresse, aktualisieren Sie die iBFT. Für diese Aufgabe wird vorausgesetzt, dass die Start-LUN und dieauf der LUN gespeicherten Daten intakt bleiben.

Vorgehensweise

1 Fahren Sie den ESXi-Host herunter.

2 Ändern Sie die iSCSI-Speichereinstellungen.

3 Aktualisieren Sie die iBFT auf dem Host mit den neuen Einstellungen.

4 Starten Sie den Host neu.

Der Host startet mit den neuen Informationen, die in der iBFT gespeichert sind.

iBFT-iSCSI-Start - FehlerbehebungIn den Themen dieses Abschnitts wird beschrieben, wie Sie Probleme identifizieren und beheben, die beimVerwenden des iBFT-iSCSI-Startvorgangs auftreten können.

Verlust des Gateways des Systems verursacht einen Ausfall derNetzwerkverbindungDie Netzwerkverbindung geht verloren, wenn Sie eine dem iBFT-Netzwerkadapter zugewiesene Portgruppelöschen.

Problem

Die Netzwerkverbindung geht nach dem Löschen einer Portgruppe verloren.

Ursache

Wenn Sie während der Installation von ESXi ein Gateway im iBFT-aktivierten Netzwerkadapter angeben,wird dieses Gateway zum Standard-Gateway des Systems. Das Standard-Gateway des Systems geht verlo-ren, wenn Sie die dem Netzwerkadapter zugewiesene Portgruppe löschen. Diese Aktion verursacht den Ver-lust der Netzwerkverbindung.

Lösung

Legen Sie ein iBFT-Gateway daher nur dann fest, wenn es erforderlich ist. Wenn das Gateway erforderlichist, legen Sie nach der Installation das Standard-Gateway des Systems auf das Gateway fest, das das Verwal-tungsnetzwerk verwendet.

vSphere-Speicher

122 VMware, Inc.

Ändern der iSCSI-Startparameter sorgt dafür, dass ESXi in statusfreiem ModusstartetDurch das Ändern der iSCSI-Startparameter auf dem Netzwerkadapter nach dem Erststart wird die iSCSI-und Netzwerkkonfiguration auf dem ESXi-Host nicht aktualisiert.

Problem

Wenn Sie nach dem ersten ESXi-Start von iSCSI die iSCSI-Startparameter auf dem Netzwerkadapter ändern,startet der Host in einem statusfreien Modus.

Ursache

Die Firmware verwendet die aktualisierte Startkonfiguration und kann eine Verbindung mit dem iSCSI-Zielherstellen und das ESXi-Image laden. Wenn geladen, greift das System jedoch nicht auf die neuen Parameterzurück, sondern verwendet weiterhin die dauerhaften Netzwerk- und iSCSI-Parameter aus dem vorherigenStartvorgang. Infolgedessen kann der Host keine Verbindung zum Ziel herstellen und startet im statusfreienModus.

Lösung

1 Stellen Sie über den vSphere Web Client eine Verbindung mit dem ESXi-Host her.

2 Konfigurieren Sie iSCSI und das Netzwerk auf dem Host neu, sodass sie mit den iBFT-Parametern über-einstimmen.

3 Führen Sie eine erneute Prüfung durch.

Kapitel 13 Starten von einem iSCSI-SAN

VMware, Inc. 123

vSphere-Speicher

124 VMware, Inc.

Best Practices für iSCSI-Speicher 14Befolgen Sie bei der Verwendung von ESXi mit iSCSI-SAN die Best Practices von VMware, um Probleme zuvermeiden.

Erkundigen Sie sich bei Ihrem Speicheranbieter, ob Ihr Speichersystem die Hardwarebeschleunigungsfunk-tionen der Storage-APIs für die Array-Integration unterstützt. Wenn ja, suchen Sie in der Dokumentation Ih-res Anbieters nach Informationen zur Aktivierung der Unterstützung für die Hardwarebeschleunigung aufdem Speichersystem. Weitere Informationen finden Sie unter Kapitel 24, „Speicherhardware-Beschleuni-gung“, auf Seite 261.

Dieses Kapitel behandelt die folgenden Themen:

n „Vermeiden von iSCSI-SAN-Problemen“, auf Seite 125

n „Optimieren der iSCSI-SAN-Speicherleistung“, auf Seite 126

n „Überprüfen von Ethernet-Switch-Statistiken“, auf Seite 130

n „iSCSI SAN-Konfiguration - Checkliste“, auf Seite 130

Vermeiden von iSCSI-SAN-ProblemenBei Verwendung von ESXi in Verbindung mit einem SAN müssen Sie bestimmte Richtlinien befolgen, umSAN-Probleme zu vermeiden.

In diesem Abschnitt erhalten Sie einige Tipps, wie sich Probleme mit der SAN-Konfiguration vermeiden las-sen:

n Platzieren Sie nur einen einzigen VMFS-Datenspeicher in jeder LUN. Mehrere VMFS-Datenspeicher ineiner LUN werden nicht empfohlen.

n Ändern Sie die vom System festgelegte Pfadrichtlinie nur, wenn Sie die Auswirkungen dieser Ände-rung kennen und verstehen.

n Erstellen Sie eine ausführliche Dokumentation. Notieren Sie Informationen zu Konfiguration, Zugriffs-steuerung, Speicher, Switch, Server und iSCSI-HBA-Konfiguration, Software- und Firmware-Versionensowie zum Speicherkabelplan.

n Erstellen Sie einen Notfallplan bei Ausfällen:

n Kopieren Sie Ihre Topologiezuordnungen mehrfach. Ermitteln Sie für jedes Element, welche Aus-wirkungen ein Ausfall dieses Elements auf das SAN hat.

n Stellen Sie mithilfe einer Liste aller Verbindungen, Switches, HBAs und anderen Elemente sicher,dass Sie keine wichtige Fehlerstelle in Ihrem Design übersehen haben.

n Stellen Sie sicher, dass die iSCSI-HBAs an den geeigneten Steckplätzen des ESXi-Hosts installiert sind(basierend auf Steckplatz- und Busgeschwindigkeit). Richten Sie einen PCI-Bus-Lastenausgleich für alleBusse des Servers ein.

VMware, Inc. 125

n Machen Sie sich mit den verschiedenen Überwachungspunkten in Ihrem Speichernetzwerk an allenSichtbarkeitspunkten vertraut (einschließlich ESXi-Leistungsdiagramme sowie Statistiken zu Ethernet-Switches und Speicherleistung).

n Seien Sie beim Ändern der IDs der LUNs vorsichtig, die über von Ihrem Host verwendete VMFS-Daten-speicher verfügen. Wenn Sie die ID ändern, schlagen die auf dem VMFS-Datenspeicher ausgeführtenvirtuellen Maschinen fehl.

Wenn sich keine laufenden virtuellen Maschinen auf dem VMFS-Datenspeicher befinden, nachdem Siedie ID der LUN geändert haben, müssen Sie zum Zurücksetzen der ID auf dem Host eine erneute Prü-fung durchführen. Weitere Informationen über das erneute Prüfen finden Sie unter „Vorgänge zum Ak-tualisieren und zur erneuten Prüfung von Speichern“, auf Seite 135.

n Wenn Sie den standardmäßigen iSCSI-Namen Ihres iSCSI-Adapters ändern müssen, stellen Sie sicher,dass der Name, den Sie eingeben, weltweit eindeutig und ordnungsgemäß formatiert ist. Um Speicher-zugriffsprobleme zu vermeiden, weisen Sie unterschiedlichen Adaptern niemals denselben iSCSI-Na-men zu, auch nicht auf unterschiedlichen Hosts.

Optimieren der iSCSI-SAN-SpeicherleistungBei der Optimierung einer typischen SAN-Umgebung müssen verschiedene Faktoren berücksichtigt wer-den.

Bei ordnungsgemäßer Konfiguration der Netzwerkumgebung sollten die iSCSI-Komponenten einen aus-reichenden Durchsatz und eine ausreichend geringe Latenz für iSCSI-Initiatoren und -Ziele bieten. Wenndas Netzwerk überlastet und die maximale Leistung von Verbindungen, Switches oder Routern erreicht ist,ist die iSCSI-Leistung beeinträchtigt und möglicherweise nicht mehr ausreichend für ESXi-Umgebungen.

SpeichersystemleistungEiner der wichtigsten Faktoren für die Optimierung einer kompletten iSCSI-Umgebung ist die Speichersys-temleistung.

Bei Problemen mit der Speichersystemleistung lesen Sie die entsprechende Dokumentation des Speichersys-tem-Anbieters.

Bedenken Sie beim Zuweisen von LUNs, dass über verschiedene Hosts auf jede gemeinsam genutzte LUNzugegriffen werden kann und dass auf jedem Host mehrere virtuelle Maschinen ausgeführt werden können.Auf einer LUN, die vom ESXi-Host verwendet wird, sind E/A-Vorgänge von einer Vielzahl von unterschied-lichen Anwendungen möglich, die unter verschiedenen Betriebssystemen ausgeführt werden. Aufgrunddieser unterschiedlichen Arbeitslast sollte die RAID-Gruppe mit den ESXi-LUNs keine LUNs enthalten, dievon anderen Hosts verwendet werden, auf denen nicht ESXi für E/A-intensive Anwendungen ausgeführtwird.

Aktivieren Sie die Lese- und Schreibcache.

Lastenausgleich ist der Vorgang zum Verteilen von E/A-Anforderungen eines Servers auf alle verfügbarenSpeicherprozessoren und die verknüpften Hostserverpfade. Das Ziel ist die Optimierung der Leistung imHinblick auf den Durchsatz (E/A pro Sekunde, MB pro Sekunde oder Reaktionszeiten).

SAN-Speichersysteme müssen kontinuierlich neu ausgelegt und optimiert werden, um sicherzustellen, dassdie E/A-Last auf alle Speichersystempfade verteilt ist. Um diese Anforderung zu erfüllen, verteilen Sie diePfade zu den LUNs auf alle Speicherprozessoren. Das Ergebnis ist ein optimaler Lastenausgleich. Eine sorg-fältige Überwachung zeigt an, wenn die LUN-Verteilung manuell angepasst werden muss.

Bei der Optimierung von Speichersystemen mit statischem Lastenausgleich ist die Überwachung der spezifi-schen Leistungsstatistiken (beispielsweise E/A-Vorgänge pro Sekunde, Blocks pro Sekunde und Reaktions-zeit) und Verteilung der LUN-Arbeitslast auf alle Speicherprozessoren von größter Bedeutung.

vSphere-Speicher

126 VMware, Inc.

Serverleistung mit iSCSIUm eine optimale Serverleistung sicherzustellen, müssen verschiedene Faktoren berücksichtigt werden.

Der Zugriff jeder Serveranwendung auf den integrierten Speicher muss mit den folgenden Bedingungen ge-währleistet sein:

n Hohe E/A-Rate (Anzahl an E/A-Vorgängen pro Sekunde)

n Hoher Durchsatz (MB pro Sekunde)

n Minimale Latenz (Reaktionszeiten)

Da für jede Anwendung andere Anforderungen gelten, können Sie diese Ziele erreichen, indem Sie eine ge-eignete RAID-Gruppe für das Speichersystem wählen. Zum Erreichen von Leistungszielen führen Sie diefolgenden Aufgaben aus:

n Platzieren Sie jede LUN in einer RAID-Gruppe, welche die erforderlichen Leistungsebenen bietet. Be-achten Sie Aktivitäten und Ressourcennutzung von anderen LUNs in der zugewiesenen RAID-Gruppe.Mit einer hochleistungsfähigen RAID-Gruppe mit zu vielen Anwendungen, die eine E/A-Last verursa-chen, können die Leistungsziele möglicherweise nicht erreicht werden, die für eine Anwendung aufdem ESXi-Host erforderlich sind.

n Stellen Sie jeden Server mit einer ausreichenden Anzahl an iSCSI-Hardware-Adaptern bereit, um einenmaximalen Durchsatz für alle Anwendungen zu ermöglichen, die während der Spitzenzeiten auf demServer gehostet werden. Bei Verteilung der E/A-Last auf mehrere Ports wird ein höherer Durchsatz undeine geringere Latenz für jede Anwendung erreicht.

n Um für Software-iSCSI Redundanz zu bieten, verbinden Sie den Initiator mit allen Netzwerkadaptern,die für die iSCSI-Konnektivität verwendet werden.

n Beim Zuweisen von LUNs oder RAID-Gruppen für ESXi-Systeme werden diese Ressourcen durch meh-rere Betriebssysteme gemeinsam verwendet. Daher kann die erforderliche Leistung jeder LUN im Spei-chersubsystem beim Einsatz von ESXi-Systemen deutlich höher sein als bei Verwendung von physi-schen Maschinen. Wenn Sie z. B. die Ausführung von vier E/A-intensiven Anwendungen planen, wei-sen Sie die vierfache Leistungskapazität für die ESXi-LUNs zu.

n Bei der gemeinsamen Verwendung mehrerer ESXi-Systeme mit vCenter Server, steigt die erforderlicheLeistung für das Speichersubsystem entsprechend.

n Die Anzahl an ausstehenden E/A-Vorgängen von Anwendungen, die auf einem ESXi-System ausge-führt werden, sollte mit der Anzahl an E/A-Vorgängen übereinstimmen, die das SAN verarbeiten kann.

NetzwerkleistungEin typisches SAN umfasst verschiedene Computer, die über ein Netzwerk aus Switches mit verschiedenenSpeichersystemen verbunden sind. Mehrere Computer greifen häufig auf denselben Speicher zu.

„Eine einzige Ethernet-Verbindung mit dem Speicher“ zeigt mehrere Computersysteme, die über einenEthernet-Switch mit einem Speichersystem verbunden sind. In dieser Konfiguration sind die einzelnen Sys-teme über eine einzige Ethernet-Verbindung mit dem Switch verbunden, der ebenfalls über eine einzigeEthernet-Verbindung mit dem Speichersystem verbunden ist. In den meisten Konfigurationen, mit moder-nen Switches und typischem Datenverkehr, stellt dies kein Problem dar.

Kapitel 14 Best Practices für iSCSI-Speicher

VMware, Inc. 127

Abbildung 14‑1. Eine einzige Ethernet-Verbindung mit dem Speicher

Wenn Systeme Daten aus dem Speicher lesen, ist die maximale Antwort des Speichers, genügend Daten zusenden, um die Verbindung zwischen den Speichersystemen und dem Ethernet-Switch zu füllen. Es ist un-wahrscheinlich, dass ein einziges System oder eine einzige virtuelle Maschine die Netzwerkgeschwindigkeitvollständig nutzen kann. Wenn mehrere Systeme ein Speichergerät gemeinsam verwenden, ist dies jedochdie erwartete Situation.

Beim Schreiben von Daten in den Speicher versuchen möglicherweise mehrere Systeme oder virtuelle Ma-schinen, ihre Datenträger zu füllen. Wie „Verworfene Pakete“ zeigt, gehen in dieser Situation Daten zwi-schen den Systemen und dem Speichersystem verloren. Der Grund dafür ist, dass die zu übertragende Da-tenmenge die Kapazität einer einzigen Verbindung mit dem Speichersystem überschreitet. In diesem Fallverwirft der Switch Netzwerkpakete, da die Datenmenge, die übertragen werden kann, durch die Ge-schwindigkeit der Verbindung zwischen Switch und Speichersystem eingeschränkt ist.

Abbildung 14‑2. Verworfene Pakete

1 Gbit

1 Gbit

1 Gbit

Verworfene Pakete

Das Wiederherstellen von verworfenen Netzwerkpaketen führt zu einer erheblichen Leistungsbeeinträchti-gung. Neben der Zeit zur Ermittlung, dass Daten verloren gegangen sind, ist für die erneute ÜbermittlungNetzwerkbandbreite erforderlich, die anderenfalls für aktuelle Transaktionen verwendet werden könnte.

iSCSI-Datenverkehr wird innerhalb des Netzwerks über TCP (Transmission Control Protocol) übermittelt.Bei TCP handelt es sich um ein zuverlässiges Übertragungsprotokoll, mit dem Sie sicherstellen, dass wieder-holt versucht wird, verworfene Pakete zu übermitteln, bis diese ihr Ziel erreichen. TCP ist für eine Wieder-herstellung und schnelle und problemlose Übermittlung von verworfenen Paketen konzipiert. Wenn derSwitch jedoch regelmäßig Pakete verwirft, ist der Netzwerkdurchsatz deutlich reduziert. Das Netzwerk istaufgrund von Anforderungen für ein erneutes Senden der Daten und durch die erneut gesendeten Paketeüberlastet, und es werden letztendlich weniger Daten übertragen als in einem Netzwerk, das nicht überlastetist.

Die meisten Ethernet-Switches können Daten puffern oder speichern, sodass jedes Gerät, das versucht Datenzu senden, die gleiche Möglichkeit hat, dieses Ziel zu erreichen. Diese Möglichkeit zum Puffern von Über-tragungen erlaubt es, in Kombination mit einer Vielzahl an Systemen, die die Anzahl von ausstehenden Be-fehlen einschränken, kleine Datenpakete von mehreren Systemen der Reihe nach an ein Speichersystem zusenden.

vSphere-Speicher

128 VMware, Inc.

Wenn bei umfangreichen Transaktionen mehrere Server versuchen, Daten über einen einzigen Switch-Portzu senden, kann die Kapazität des Switches zum Puffern einer Anforderung überschritten werden, währendeine andere Anforderung übermittelt wird. In diesem Fall werden die Daten, die der Switch nicht sendenkann, verworfen, und das Speichersystem muss die erneute Übermittlung des verworfenen Pakets anfor-dern. Wenn ein Ethernet-Switch an einem Eingangsport beispielsweise 32 KB puffern kann, der mit demSwitch verbundene Server jedoch annimmt, das 256 KB an das Speichergerät gesendet werden können, ge-hen einige Daten verloren.

Die meisten verwalteten Switches bieten Informationen zu verworfenen Paketen, die in etwa den folgendenAngaben entsprechen:

*: interface is up

IHQ: pkts in input hold queue IQD: pkts dropped from input queue

OHQ: pkts in output hold queue OQD: pkts dropped from output queue

RXBS: rx rate (bits/sec) RXPS: rx rate (pkts/sec)

TXBS: tx rate (bits/sec) TXPS: tx rate (pkts/sec)

TRTL: throttle count

Tabelle 14‑1. Beispiel zu Switch-Informationen

Schnitt-stelle IHQ IQD OHQ OQD RXBS RXPS TXBS TXPS TRTL

* Gigabi-tEther-net0/1

3 9922 0 0 476303000

62273 477840000

63677 0

In diesem Beispiel eines Cisco-Switches lautet die verwendete Bandbreite 476303000 Bit/s, also weniger alsdie Hälfte der Kabelgeschwindigkeit. Trotzdem puffert die Schnittstelle eingehende Pakete, und es wurdeneinige Pakete verworfen. Die letzte Zeile dieser Schnittstellenübersicht zeigt, dass diese Schnittstelle bereitsfast 10.000 eingehende Pakete in der IQD-Spalte verworfen hat.

Um dieses Problem zu verhindern, sind Konfigurationsänderungen erforderlich. Stellen Sie dabei sicher,dass eingehende Ethernet-Verbindungen nicht zu einer ausgehenden Verbindung zusammengefasst wer-den, sodass die Verbindung „überbucht“ wird. Wenn mehrere Verbindungen, deren Datenverkehr bereitsfast die maximale Kapazität erreicht, zu einer kleineren Anzahl von Verbindungen zusammengefasst wer-den, ist eine Überbuchung möglich.

Im Allgemeinen sollten Anwendungen oder Systeme, die große Datenmengen in den Speicher schreiben (z.B. Datenerfassungs- oder Transaktionsprotokolliersysteme) keine gemeinsamen Ethernet-Verbindungen zueinem Speichergerät verwenden. Für diese Anwendungstypen wird mit mehreren Verbindungen zu Spei-chergeräten eine optimale Leistung erzielt.

„Mehrere Verbindungen zwischen Switch und Speicher“ zeigt mehrere Verbindungen vom Switch zumSpeicher.

Abbildung 14‑3. Mehrere Verbindungen zwischen Switch und Speicher

1 Gbit

1 Gbit

1 Gbit

1 Gbit

Die Verwendung von VLANs oder VPNs ist keine geeignete Lösung für das Problem von überlasteten Ver-bindungen in Konfigurationen mit gemeinsam verwendeten Komponenten. VLANs und andere Konfigura-tionen zur virtuellen Partitionierung von Netzwerken bieten eine Möglichkeit für den logischen Aufbau ei-nes Netzwerks, ändern jedoch nicht die physischen Kapazitäten von Verbindungen und Trunks zwischen

Kapitel 14 Best Practices für iSCSI-Speicher

VMware, Inc. 129

Switches. Wenn für den Speicherdatenverkehr und anderen Netzwerkverkehr gemeinsame physische Ver-bindungen verwendet werden (wie in einem VPN), besteht das Risiko von überlasteten Verbindungen undPaketverlust. Gleiches gilt für VLANs mit gemeinsamen Interswitch-Trunks. Für die Leistungsberechnun-gen in einem SAN müssen die physischen Grenzen des Netzwerks, nicht die logischen Zuordnungen be-rücksichtigt werden.

Überprüfen von Ethernet-Switch-StatistikenEine Vielzahl von Ethernet-Switches bieten verschiedene Methoden zur Überwachung des Switch-Status.

Switches mit Ports, welche die meiste Zeit einen fast maximalen Durchsatz erzielen, bieten keine optimaleLeistung. Wenn Sie in Ihrem iSCSI-SAN über solche Ports verfügen, reduzieren Sie die Last. Wenn der Portmit einem ESXi-System oder iSCSI-Speicher verbunden ist, kann die Last über einen manuellen Lastenaus-gleich reduziert werden.

Wenn der Port mit mehreren Switches oder Routern verbunden ist, ziehen Sie die Installation zusätzlicherVerbindungen zwischen diesen Komponenten in Betracht, um eine höhere Last verarbeiten zu können.Ethernet-Switches bieten darüber hinaus meist Informationen zu Übertragungsfehlern, in der Warteschlan-ge platzierten Paketen und verworfenen Ethernet-Paketen. Wenn ein Switch diese Bedingungen regelmäßigfür Ports anzeigt, die für den iSCSI-Datenverkehr verwendet werden, bietet das iSCSI-SAN eine schlechteLeistung.

iSCSI SAN-Konfiguration - ChecklisteDieser Abschnitt bietet eine Checkliste mit speziellen Einrichtungsanforderungen für verschiedene Speicher-systeme und ESXi-Hosts.

Tabelle 14‑2. iSCSI SAN-Konfigurationsanforderungen

Komponente Anmerkungen

Alle Speichersysteme Schreibcache muss deaktiviert sein, falls dieser nicht durch einen Akku gesichert ist.

Topologie Ein HBA- oder SP-Failover sollte nicht durch eine Einzelfehlerstelle verursacht werden,speziell bei Speicher-Arrays vom Typ „Aktiv/Passiv“.

EMC Symmetrix Aktivieren Sie die SPC2- und SC3-Einstellungen. Aktuelle Einstellungen erhalten Sie vonEMC.

EMC Clariion Legen Sie den EMC Clariion-Failover-Modus auf 1 oder 4 fest. Wenden Sie sich an EMCfür weitere Einzelheiten.

HP MSA Keine spezifischen Anforderungen

HP EVA Setzen Sie den Hosttyp für EVA3000/5000 mit Firmware der Version 4.001 oder höher undEVA4000/6000/8000 mit Firmware der Version 5.031 und höher auf VMware.In allen anderen Fällen setzen Sie den Hostmodustyp auf Benutzerdefiniert. Der Wertlautet:n EVA3000/5000 mit Firmware der Version 3.x: 000000002200282En EVA4000/6000/8000: 000000202200083E

NetApp Wenn einer Ihrer iSCSI-Initiatoren Teil einer Initiatorgruppe (igroup) ist, deaktivieren SieALUA aufdem NetApp-Array.

Dell EqualLogic Stellen Sie sicher, dass die ARP-Weiterleitung auf den unabhängigen Hardware-iSCSI-Adaptern aktiviert ist.

vSphere-Speicher

130 VMware, Inc.

Tabelle 14‑2. iSCSI SAN-Konfigurationsanforderungen (Fortsetzung)

Komponente Anmerkungen

HP StorageWorks (früherLeftHand)

Stellen Sie sicher, dass die ARP-Weiterleitung auf den unabhängigen Hardware-iSCSI-Adaptern aktiviert ist.

ESXi-Konfiguration Legen Sie die folgenden erweiterten Einstellungen für den ESXi-Host fest: Setzen SieDisk.UseLunReset auf 1.Für alle LUNs, die geclusterte Festplatten für Aktiv/Passiv-Arrays hosten, muss eine Mul-tipathing-Richtlinie des Typs „Zuletzt verwendet“ gesetzt werden. Für LUNs auf Ak-tiv/Aktiv-Arrays kann eine Multipathing-Richtlinie des Typs „Zuletzt verwendet“ oder„Fest“ festgelegt werden.Lassen Sie ARP-Umleitung zu, wenn das Speichersystem transparentes Failover unter-stützt.

Kapitel 14 Best Practices für iSCSI-Speicher

VMware, Inc. 131

vSphere-Speicher

132 VMware, Inc.

Verwalten von Speichergeräten 15Verwalten des lokalen und vernetzten Speichergeräts, auf das Ihr ESXi-Host zugreifen kann.

Dieses Kapitel behandelt die folgenden Themen:

n „Grundlegendes zur Benennung von Speichergeräten“, auf Seite 133

n „Vorgänge zum Aktualisieren und zur erneuten Prüfung von Speichern“, auf Seite 135

n „Identifizieren von Problemen hinsichtlich der Gerätekonnektivität“, auf Seite 137

Grundlegendes zur Benennung von SpeichergerätenJedes Speichergerät oder jede LUN wird durch mehrere Namen identifiziert.

GerätebezeichnerJe nach Art der Speicherung verwendet der ESXi-Host unterschiedliche Algorithmen und Konventionenzum Generieren eines Bezeichners für jedes Speichergerät.

SCSI INQUIRY-Bezeich-ner.

Der Host verwendet den SCSI INQUIRY-Befehl zum Abfragen eines Spei-chergeräts und verwendet die Ergebnisdaten, insbesondere die „Page 83“-In-formationen, zum Generieren eines eindeutigen Bezeichners. Gerätebezeich-ner auf Basis der „Page 83“-Informationen sind auf allen Hosts eindeutigund dauerhaft und verfügen über eines der folgenden Formate:

n naa.Nummer

n t10.Nummer

n eui.Nummer

Diese Formate entsprechen den Standards des T10 Committee. Weitere Infor-mationen finden Sie in der SCSI-3-Dokumentation auf der Website des T10Committee.

Pfadbasierter Bezeich-ner.

Wenn das Gerät nicht die „Page 83“-Informationen bietet, generiert der Hosteinen mpx.Pfad-Namen, wobei Pfad der erste Pfad zu dem Gerät ist. Beispiel:mpx.vmhba1:C0:T1:L3. Dieser Bezeichner kann auf dieselbe Weise verwen-det werden wie der SCSI INQUIRY-Bezeichner.

Der mpx.-Bezeichner wird für lokale Geräte unter der Annahme erstellt, dassihre Pfadnamen eindeutig sind. Allerdings ist dieser Bezeichner weder ein-deutig noch dauerhaft und kann sich nach jedem Start ändern.

In der Regel hat der Pfad zu dem Gerät das folgende Format:

VMware, Inc. 133

vmhbaAdapter:CKanal:TZiel:LLUN

n vmhbaAdapter ist der Name des Speicheradapters. Der Name beziehtsich auf den physischen Adapter auf dem Host, nicht auf den SCSI-Con-troller, den die virtuellen Maschinen verwenden.

n CChannel ist die Nummer des Speicherkanals.

Software-iSCSI-Adapter und abhängige Hardwareadapter verwendendie Kanalnummer, um mehrere Pfade zu demselben Ziel anzuzeigen.

n TZiel ist die Zielnummer. Die Zielnummerierung wird vom Host festge-legt und kann sich ändern, wenn es eine Änderung in der Zuordnungvon Zielen gibt, die für den Host sichtbar sind. Von verschiedenen Hostsgemeinsam verwendete Ziele verfügen möglicherweise nicht über dies-selbe Zielnummer.

n LLUN ist die LUN-Nummer, die die Position der LUN innerhalb desZiels angibt. Die LUN-Nummer wird vom Speichersystem bereitgestellt.Wenn ein Ziel nur über eine LUN verfügt, ist die LUN-Nummer immerNull (0).

Beispielsweise repräsentiert vmhba1:C0:T3:L1 LUN1 auf Ziel 3, auf die überden Speicheradapter vmhba1 und den Kanal 0 zugegriffen wird.

Legacy-BezeichnerZusätzlich zu SCSI INQUIRY- oder mpx.-Bezeichnern generiert ESXi für jedes Gerät einen alternativen Lega-cy-Namen. Der Bezeichner hat das folgende Format:

vml.Nummer

Der Legacy-Bezeichner enthält mehrere Ziffern, die das Gerät eindeutig identifizieren und teilweise von den„Page 83“-Informationen abgeleitet werden können, falls diese zur Verfügung stehen. Für nicht lokale Gerä-te, die die „Page 83“-Informationen nicht unterstützen, wird der vml.-Name als einzig verfügbarer eindeuti-ger Bezeichner verwendet.

Beispiel: Anzeigen von Gerätenamen in der vSphere-CLIMit dem Befehl esxcli --server=Servername storage core device list können Sie alle Gerätenamen inder vSphere-CLI anzeigen. Die Ausgabe lautet in etwa wie folgt:

# esxcli --server=server_name storage core device list

naa.number

Display Name: DGC Fibre Channel Disk(naa.number)

...

Other UIDs:vml.number

Umbenennen von SpeichergerätenSie können den Anzeigenamen eines Speichergeräts ändern. Der Anzeigename wird vom ESXi- Host basie-rend auf dem Speichertyp und dem Hersteller zugewiesen.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speichergeräte.

vSphere-Speicher

134 VMware, Inc.

4 Wählen Sie das umzubenennende Gerät und klicken Sie auf Umbenennen.

5 Ändern Sie den Gerätnamen auf einen aussagekräftigen Namen.

Vorgänge zum Aktualisieren und zur erneuten Prüfung von SpeichernMit dem Aktualisierungsvorgang für Datenspeicher, Speichergeräte und Speicheradapter werden die Listenund Speicherinformationen im vSphere Web Client aktualisiert. Es werden beispielsweise die Informationenzur Datenspeicherkapazität aktualisiert. Wenn Sie Datenspeichermanagementaufgaben durchführen oderÄnderungen an der SAN-Konfiguration vornehmen, müssen Sie möglicherweise Ihren Speicher erneut prü-fen.

Wenn Sie VMFS-Datenspeicherverwaltungsvorgänge ausführen, z. B. das Erstellen eines VMFS-Datenspei-chers oder RDMs, das Hinzufügen einer Erweiterung und das Vergrößern oder Löschen eines VMFS-Daten-speichers, wird Ihr Speicher von Ihrem Host oder dem vCenter Server automatisch neu geprüft und aktuali-siert. Sie können die Funktion für die automatische Neuprüfung deaktivieren, indem Sie den Filter für daserneute Prüfen eines Hosts ausschalten. Weitere Informationen hierzu finden Sie unter „Ausschalten vonSpeicherfiltern“, auf Seite 163.

In bestimmten Fällen müssen Sie die erneute Prüfung manuell durchführen. Sie können erneut alle verfüg-baren Speicher Ihres Hosts prüfen oder, wenn Sie den vCenter Server einsetzen, alle Hosts in einem Ordner,Cluster und Datencenter.

Wenn sich die von Ihnen vorgenommenen Änderungen auf Speicher beschränken, die über einen bestimm-ten Adapter verbunden sind, führen Sie eine erneute Prüfung dieses Adapters durch.

Führen Sie eine erneute manuelle Prüfung durch, wenn Sie eine der folgenden Änderungen vorgenommenhaben.

n Festlegen der Zone eines neuen Festplatten-Arrays auf einem SAN.

n Erstellen von neuen LUNs in einem SAN.

n Ändern Sie die Pfadmaskierung auf einem Host.

n Erneutes Verbinden eines Kabels.

n CHAP-Einstellungen ändern (nur iSCSI).

n Hinzufügen oder Entfernen von Erkennungsadressen oder statischen Adressen (nur iSCSI).

n Hinzufügen eines einzelnen Hosts zu vCenter Server, nachdem Sie einen Datenspeicher, der von denvCenter Server-Hosts und dem einzelnen Host gemeinsam genutzt wird, bearbeitet oder vom vCenterServer entfernt haben.

Wichtig Wenn bei einer erneuten Prüfung kein Pfad verfügbar ist, entfernt der Host den Pfad aus der Lis-te der Pfade zu dem Gerät. Der Pfad wird erneut in der Liste angezeigt, sobald er verfügbar und wiedereinsatzbereit ist.

Durchführen einer erneuten Speicherprüfung im vSphere Web ClientWenn Sie Änderungen an Ihrer Host- oder SAN-Konfiguration vornehmen, müssen Sie möglicherweise Ih-ren Speicher erneut prüfen. Sie können eine erneute Prüfung des für den Host, den Cluster oder das Daten-center verfügbaren Speichers durchführen. Wenn sich die von Ihnen vorgenommenen Änderungen auf Spei-cher beschränken, auf die über einen bestimmten Host zugegriffen wird, führen Sie eine erneute Prüfungnur dieses Hosts durch.

Vorgehensweise

1 Wählen Sie im Objektnavigator des vSphere Web Client einen Host, einen Cluster, ein Datencenter odereinen Ordner aus, der bzw. das Hosts enthält.

Kapitel 15 Verwalten von Speichergeräten

VMware, Inc. 135

2 Wählen Sie Aktionen > Alle vCenter‐Aktionen > Speicher erneut prüfen.

3 Geben Sie den Umfang der erneuten Prüfung an.

Option Beschreibung

Auf neue Speichergeräte prüfen Prüfen Sie alle Adapter erneut auf neu hinzugefügte Speichergeräte. Wennneue Geräte erkannt werden, werden sie in der Geräteliste angezeigt.

Auf neue VMFS-Volumes prüfen Prüfen Sie alle Speichergeräte neu, um neue Datenspeicher zu suchen, dieseit der letzten Prüfung hinzugefügt wurden. Alle neuen Datenspeicherwerden in der Datenspeicherliste angezeigt.

Durchführen einer erneuten Prüfung von Adaptern im vSphere Web ClientWenn Sie Änderungen an Ihrer SAN-Konfiguration vornehmen und diese Änderungen auf Speicher be-schränken, auf die über einen bestimmten Adapter zugegriffen wird, führen Sie eine erneute Prüfung nurdieses Adapters durch.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speicheradapter und wählen Sie den erneut zu prüfenden Adapter aus der Liste aus.

4 Klicken Sie auf Adapter erneut prüfen.

Ändern der Anzahl an LUNs, nach denen in vSphere Web Client gesucht wird.Der VMkernel prüft standardmäßig auf LUN 0 bis LUN 255 für jedes Ziel (insgesamt 256 LUNs). Sie könnenden Parameter Disk.MaxLUN ändern, um die LUN-Erkennungsgeschwindigkeit zu verbessern.

Wichtig LUNs mit einer höheren LUN-ID als 255 können nicht erkannt werden.

Durch das Verringern des Wertes kann die Zeit zum erneuten Prüfen und Starten verkürzt werden. Zeitzum erneuten Prüfen von LUNs hängt jedoch von verschiedenen Faktoren ab, u. a. davon, welcher Typ vonSpeichersystem verwendet wird und ob Unterstützung für Sparse-LUNs aktiviert ist.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie unter „System“ auf Erweiterte Systemeinstellungen.

4 Wählen Sie unter „Erweiterte Systemeinstellungen“ Disk.MaxLUN und klicken Sie auf das Symbol Be‐arbeiten.

5 Ändern Sie den vorhandenen Wert in einen Wert Ihrer Wahl und klicken Sie auf OK.

Der eingegebene Wert gibt die LUN nach der letzten LUN an, die Sie suchen möchten.

Wenn Sie beispielsweise nach LUNs von 0 bis 31 suchen möchten, setzten Sie Disk.MaxLUN auf 32.

vSphere-Speicher

136 VMware, Inc.

Identifizieren von Problemen hinsichtlich der GerätekonnektivitätWenn bei Ihrem ESXi-Host ein Problem bei der Verbindung mit einem Speichergerät auftritt, behandelt derHost das Problem abhängig von bestimmten Faktoren als permanent oder temporär.

Verbindungsprobleme bei Speichergeräten haben verschiedene Ursachen. Obwohl ESXi die Ursache für dieNichtverfügbarkeit eines Speichergeräts oder seiner Pfade nicht immer ermitteln kann, unterscheidet derHost zwischen dem Status des permanenten Geräteverlusts (Permanent Device Loss, PDL) des Geräts undeinem vorübergehenden Status „Keine Pfade verfügbar“ (All Paths Down, APD).

Permanenter Gerätever-lust (Permanent DeviceLoss, PDL)

Dies ist ein Zustand, der eintritt, wenn ein Speichergerät dauerhaft ausfälltoder vom Administrator entfernt oder ausgeschlossen wird. Es wird nicht er-wartet, dass es verfügbar wird. Wenn das Gerät dauerhaft nicht mehr zurVerfügung steht, empfängt ESXi Erkennungscodes oder eine Verweigerungder Anmeldung aus Speicher-Arrays und erkennt einen permanenten Gerä-teverlust.

Keine Pfade verfügbar(All Paths Down, APD)

Ein Zustand, der eintritt, wenn ein Speichergerät für den Host nicht mehrverfügbar ist und keine Pfade zu dem Gerät verfügbar sind. ESXi behandeltdies als flüchtigen Zustand, weil in der Regel die Probleme mit dem Gerättemporär sind und anzunehmen ist, dass das Gerät wieder verfügbar wird.

Erkennen von PDL-BedingungenEinem Speichergerät wird der Zustand PDL (Permanent Device Loss, dauerhafter Geräteverlust) zuge-schrieben, wenn es für den ESXi-Host dauerhaft nicht verfügbar ist.

Die PDL-Bedingung tritt typischerweise ein, wenn ein Gerät versehentlich entfernt wird, wenn seine eindeu-tige ID sich ändert oder wenn ein nicht behebbarer Hardwarefehler auftritt.

Wenn das Speicher-Array bestimmt, dass das Gerät dauerhaft nicht verfügbar ist, sendet es SCSI-Erken-nungscodes an den ESXi-Host. Anhand der Erkennungs-Codes kann der Host erkennen, dass das Gerät aus-gefallen ist, und den Gerätezustand PDL registrieren. Die Erkennungs-Codes müssen auf allen Pfaden zumGerät erhalten werden, damit es als dauerhaft verloren betrachtet wird.

Wenn für des Gerät der Zustand PDL registriert wurde, versucht der Host nicht mehr, eine Verbindung mitdem Gerät herzustellen oder Befehle an das Gerät zu senden, um nicht blockiert zu werden bzw. seine Reak-tionsfähigkeit nicht zu verlieren.

Der vSphere Web Client zeigt folgende Informationen für das Gerät an:

n Der Betriebszustand des Geräts wird in Verbindung unterbrochen geändert.

n Alle Pfade werden als Ausgefallen angezeigt.

n Die Datenspeicher auf dem Gerät werden grau dargestellt.

Der Host entfernt automatisch das PDL-Gerät und alle Pfade zu dem Gerät, falls keine offenen Verbindun-gen zu dem Gerät vorhanden sind, oder nachdem die letzte Verbindung getrennt wurde. Sie können das au-tomatische Entfernen von Pfaden deaktivieren, indem Sie den erweiterten Hostparameter Disk.Autoremove-OnPDL auf „0“ festlegen. Weitere Informationen finden Sie unter „Festlegen von erweiterten Hostattributenim vSphere Web Client“, auf Seite 145.

Wenn die PDL-Bedingung für das Gerät nicht mehr vorhanden ist, kann es vom Host erkannt werden, wirdaber als neues Gerät behandelt. Die Datenkonsistenz für virtuelle Maschinen auf dem wiederhergestelltenGerät ist nicht garantiert.

Hinweis Der Host kann die PDL-Bedingungen nicht erkennen und behandelt die Geräteverbindungspro-bleme weiterhin als APD, wenn ein Speichergerät dauerhaft ausfällt, ohne dass entsprechende SCSI-Erken-nungscodes zurückgegeben werden oder die iSCSI-Anmeldung abgelehnt wird.

Kapitel 15 Verwalten von Speichergeräten

VMware, Inc. 137

Permanenter Geräteverlust (Permanent Device Loss, PDL) und SCSI-ErkennungscodesIm folgenden Beispiel für ein VMkernel-Protokoll gibt ein SCSI-Erkennungscode an, dass das Gerät den Zu-stand PDL aufweist.

H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x25 0x0 or Logical Unit Not Supported

Informationen zu SCSI-Erkennungscodes finden Sie unter Fehlerbehebung beim Speicher in vSphere-Fehlerbehe-bungshandbuch.

Permanenter Geräteverlust (Permanent Device Loss, PDL) und iSCSIBei iSCSI-Arrays mit einer einzelnen LUN pro Ziel wird der Zustand PDL daran erkannt, dass die iSCSI-Anmeldung fehlschlägt. Ein iSCSI-Speicher-Array lehnt die Versuche des Hosts zum Starten einer iSCSI-Sit-zung mit dem Grund Ziel nicht verfügbar ab. Wie bei den Erkennungs-Codes muss diese Antwort auf al-len Pfaden empfangen werden, damit das Gerät als dauerhaft verloren betrachtet wird.

Permanenter Geräteverlust (Permanent Device Loss, PDL) und virtuelleMaschinenWenn für das Gerät der Zustand PDL registriert wurde, beendet der Host alle Eingaben/Ausgaben von vir-tuellen Maschinen. vSphere HA kann PDL erkennen und ausgefallene virtuelle Maschinen neu starten. Wei-tere Informationen finden Sie unter „PDL-Bedingungen und hohe Verfügbarkeit“, auf Seite 143.

Durchführen des geplanten Entfernens von SpeichergerätenFalls ein Speichergerät nicht ordnungsgemäß funktioniert, können Sie PDL- (Permanent Device Loss, „dau-erhafter Ausfall eines Geräts“) oder APD-Zustände (All Paths Down, „keine Pfade verfügbar“) vermeidenund eine geplante Entfernung und erneute Verbindung eines Speichergeräts durchführen.

Das geplante Entfernen eines Geräts ist eine beabsichtigte Trennung eines Speichergeräts. Sie können einGerät auch aus einem bestimmten Grund entfernen, zum Beispiel, weil Sie Ihre Hardware aktualisieren oderIhre Speichergeräte neu konfigurieren möchten. Wenn Sie eine ordnungsgemäße Entfernung und erneuteVerbindung eines Speichergeräts durchführen, führen Sie mehrere Aufgaben durch.

1 Migrieren Sie die virtuelle Maschinen von dem Gerät, das Sie trennen möchten.

Informationen finden Sie in der Dokumentation vCenter Server und Hostverwaltung.

2 Unmounten Sie den auf dem Gerät verwendeten Datenspeicher.

Weitere Informationen hierzu finden Sie unter „Unmounten von VMFS- oder NFS-Datenspeichern“,auf Seite 161.

3 Trennen Sie das Speichergerät.

Weitere Informationen hierzu finden Sie unter „Speichergeräte trennen“, auf Seite 139.

4 Im Falle eines iSCSI-Geräts mit einer einzelnen LUN pro Ziel löschen Sie den Eintrag für das statischeZiel aus jedem iSCSI-HBA, der einen Pfad zum Speichergerät aufweist.

Weitere Informationen hierzu finden Sie unter „Entfernen von statischen Zielen in vSphere Web Cli-ent“, auf Seite 100.

5 Über die Array-Konsole können Sie eine notwendige Neukonfiguration des Speichergeräts durchfüh-ren.

6 Schließen Sie das Speichergerät erneut an.

Weitere Informationen hierzu finden Sie unter „Speichergeräte anhängen“, auf Seite 139.

vSphere-Speicher

138 VMware, Inc.

7 Mounten Sie den Datenspeicher und starten Sie die virtuelle Maschinen neu. Weitere Informationenhierzu finden Sie unter „Mounten von VMFS-Datenspeichern“, auf Seite 162.

Speichergeräte trennenTrennen Sie das Speichergerät sicher von Ihrem Host.

Möglicherweise müssen Sie das Gerät trennen, um es für Ihren Host unzugänglich zu machen, wenn Sie bei-spielsweise ein Upgrade der Speicherhardware durchführen.

Voraussetzungen

n Das Gerät enthält keine Datenspeicher.

n Keine virtuelle Maschinen nutzen das Gerät als RDM-Festplatte.

n Das Gerät enthält keine Diagnosepartition oder Scratch-Partition.

Vorgehensweise

1 Zeigen Sie im vSphere Web Client Speichergeräte an.

2 Wählen Sie das zu trennende Gerät aus und klicken Sie auf das Symbol Trennen.

Auf das Gerät kann nicht mehr zugegriffen werden. Der Betriebszustand des Geräts wird in „Nicht ge-mountet“ geändert.

Weiter

Wenn mehrere Hosts das Gerät teilen, trennen Sie das Gerät von jedem Host.

Speichergeräte anhängenVerbinden Sie das Speichergerät wieder, das Sie zuvor getrennt haben.

Vorgehensweise

1 Zeigen Sie im vSphere Web Client Speichergeräte an.

2 Wählen Sie das getrennte Speichergerät aus und klicken Sie auf das Symbol Anhängen.

Das Gerät wird verfügbar.

Wiederherstellen nach PDL-BedingungenEin ungeplanter permanenter Geräteverlust (Permanent Device Loss, PDL) tritt ein, wenn ein Speichergerätdauerhaft nicht mehr verfügbar ist, ohne vom ESXi-Host getrennt worden zu sein.

Die folgenden Elemente in vSphere Web Client zeigen an, dass sich das Gerät im PDL-Status befindet:

n Der auf dem Gerät angezeigte Datenspeicher ist nicht verfügbar.

n Der Betriebszustand des Geräts ändert sich auf „Verbindung unterbrochen".

n Alle Pfade werden als „Ausgefallen“ angezeigt.

n In der VMkernel-Protokolldatei wird in einer Warnung angezeigt, dass das Gerät dauerhaft unzugäng-lich ist.

Um einen nicht geplanten PDL-Status zu beheben und das nicht mehr verfügbare Gerät vom Host zu entfer-nen, müssen Sie mehrere Aufgaben ausführen.

1 Schalten Sie alle virtuellen Maschinen ab, die auf dem von der PDL-Bedingung betroffenen Datenspei-cher laufen, und heben Sie ihre Registrierung auf.

2 Unmounten Sie den Datenspeicher.

Kapitel 15 Verwalten von Speichergeräten

VMware, Inc. 139

Weitere Informationen hierzu finden Sie unter „Unmounten von VMFS- oder NFS-Datenspeichern“,auf Seite 161.

3 Führen Sie eine erneute Prüfung auf allen ESXi-Hosts durch, die Zugriff auf das Gerät hatten.

Weitere Informationen hierzu finden Sie unter „Durchführen einer erneuten Speicherprüfung imvSphere Web Client“, auf Seite 135.

Hinweis Wenn die erneute Prüfung nicht erfolgreich ist und der Host das Gerät weiterhin auflistet, sindvielleicht noch ausstehende E/A-Vorgänge oder aktive Verweise auf das Gerät vorhanden. Prüfen Sie, ob vir-tuelle Maschinen, Vorlagen, ISO-Images, Zuordnungen für Raw-Geräte usw. vorhanden sind, bei denen einaktiver Verweis auf das Gerät oder den Datenspeicher existiert.

Handhabung vorübergehender APD-BedingungenEin Speichergerät wird als im Status „Keine Pfade verfügbar“ (All Paths Down, APD) befindlich angesehen,wenn es für Ihren ESXi-Host über eine nicht spezifizierte Zeitdauer nicht verfügbar ist.

Die Ursache für einen APD-Status kann beispielsweise ein ausgefallener Switch oder ein nicht angeschlosse-nes Speicherkabel sein.

Im Gegensatz zum Status „permanenter Geräteverlust“ (Permanent Device Loss, PDL) verarbeitet der Hostden APD-Status als vorübergehend und erwartet, dass das Gerät wieder verfügbar wird.

Der Host versucht zeitlich unbegrenzt, die Befehle erneut abzusetzen, um die Verbindung mit dem Gerätwiederherzustellen. Wenn das erneute Absetzen der Befehle durch den Host über einen längeren Zeitpunktfehlschlägt, besteht beim Host und seinen virtuellen Maschinen das Risiko von Leistungsbeeinträchtigungenund eines möglichen Ausfalls.

Um diese Probleme zu vermeiden, verfügt Ihr Host über eine Standard-APD-Behandlungsfunktion. Wennein Gerät in den APD-Status wechselt, aktiviert das System sofort eine Zeitmessungsfunktion und lässt füreine begrenzte Zeitdauer zu, dass der Host Befehle für nicht virtuelle Maschinen erneut abzusetzen ver-sucht.

Standardmäßig ist die APD-Zeitüberschreitung mit 140 Sekunden festgelegt. Diese Dauer ist in der Regellänger als die Zeit, die ein Gerät zur Wiederherstellung nach einem Verbindungsausfall benötigt. Wenn dasGerät während dieser Zeitspanne wieder verfügbar wird, laufen der Host und seine virtuelle Maschine ohneProbleme weiter.

Wenn die Wiederherstellung durch das Gerät nicht funktioniert und die Zeitüberschreitung eintritt, stopptder Host seine Neuversuche und beendet alle nicht virtuellen Maschinen-E/A-Befehle. Die virtuellen Ma-schinen-E/A-Befehle werden weiterhin abgesetzt. Der vSphere Web Client zeigt die folgenden Informationenfür das Gerät, bei dem die APD-Zeitüberschreitung aufgetreten ist:

n Der Betriebszustand des Geräts wird in Ausgefallen oder Fehler geändert.

n Alle Pfade werden als Ausgefallen angezeigt.

n Die Datenspeicher auf dem Gerät werden abgeblendet.

Obwohl das Gerät und die Datenspeicher nicht verfügbar sind, reagieren virtuelle Maschinen. Sie könnendie virtuellen Maschinen deaktivieren oder auf einen anderen Datenspeicher oder Host migrieren.

Wenn später ein oder mehr Gerätepfade wieder arbeiten, werden nachfolgende E/A-Befehle an das Gerätwieder normal abgesetzt und die spezielle APD-Verarbeitung wird beendet.

vSphere-Speicher

140 VMware, Inc.

Deaktivieren der Speicher-APD-BehandlungDie Speicher-APD-Behandlung (All Paths Down, keine Pfade verfügbar) auf dem ESXi-Host ist standardmä-ßig aktiviert. Wenn diese Option aktiviert ist, versucht der Host für eine begrenzte Zeit erneut, E/A-Befehlenicht virtueller Maschinen an ein Speichergerät im APD-Zustand zu senden. Wenn diese Zeit abgelaufen ist,stellt der Host diese Versuche ein und beendet alle E/A-Aktivitäten nicht virtueller Maschinen. Sie könnendie Funktion zur APD-Behandlung auf dem Host deaktivieren.

Wenn Sie die APD-Behandlung deaktivieren, versucht der Host immer wieder erneut, Befehle zu senden,um die Verbindung mit dem APD-Gerät wiederherzustellen. Dieses Verhalten entspricht dem Verhalten inESXi Version 5.0. Es kann dazu führen, dass für virtuelle Maschinen auf dem Host eine interne E/A-Zeit-überschreitung eintritt, sodass sie ausfallen bzw. nicht mehr reagieren. Der Host kann vom vCenter Servergetrennt werden.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie unter „System“ auf Erweiterte Systemeinstellungen.

4 Wählen Sie unter „Erweiterte Systemeinstellungen“ den Parameter Misc.APDHandlingEnable aus undklicken Sie auf das Symbol Bearbeiten.

5 Ändern Sie den Wert in 0.

Wenn Sie die APD-Behandlung deaktiviert haben, können Sie sie wieder aktivieren, wenn ein Gerät zumAPD-Zustand wechselt. Die Funktion zur internen APD-Behandlung wird sofort aktiviert und der Timerstartet mit dem aktuellen Zeitüberschreitungswert für jedes Gerät im APD-Zustand.

Ändern der Grenzwerte für die Zeitüberschreitung für Speicher-APDDer Parameter für die Zeitüberschreitung steuert, wie viele Sekunden der ESXi-Host im Zustand „KeinePfade verfügbar“ (APD) wiederholt versucht, E/A-Befehle für nicht virtuelle Maschinen auf ein Speicherge-rät anzuwenden. Bei Bedarf können Sie den Standardwert für die Zeitüberschreitung ändern.

Der Timer wird sofort gestartet, nachdem das Gerät in den APD-Zustand versetzt wurde. Nach Eintretender Zeitüberschreitung kennzeichnet der Host das APD-Gerät als nicht erreichbar und alle ausstehendenoder neuen E/A-Vorgänge nicht virtueller Maschinen schlagen fehl. Es wird weiterhin versucht, E/A-Vor-gänge virtueller Maschinen auszuführen.

Der Parameter für den Standardwert der Zeitüberschreitung auf Ihrem Host beträgt 140 Sekunden. Sie kön-nen den Zeitüberschreitungswert erhöhen, wenn beispielsweise Speichergeräte, die mit Ihrem ESXi-Hostverbunden sind, länger als 140 Sekunden benötigen, um nach einem Verbindungsverlust eine neue Verbin-dung herzustellen.

Hinweis Wenn Sie den Zeitüberschreitungswert ändern, während ein APD ausgeführt wird, wirkt sich die-se Änderung nicht auf den Zeitüberschreitungswert dieses APD aus.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie unter „System“ auf Erweiterte Systemeinstellungen.

4 Wählen Sie unter „Erweiterte Systemeinstellungen“ den Misc.APDTimeout-Parameter aus und klickenSie auf das Symbol Bearbeiten.

Kapitel 15 Verwalten von Speichergeräten

VMware, Inc. 141

5 Ändern Sie den Standardwert.

Sie können einen Wert zwischen 20 und 99999 Sekunden eingeben.

Überprüfen des Verbindungsstatus eines SpeichergerätsVerwenden Sie den esxcli-Befehl, um den Verbindungsstatus eines bestimmten Speichergeräts zu überprü-fen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Führen Sie den Befehl esxcli --server=Servername storage core device list -d=Geräte-ID aus.

2 Überprüfen Sie den Verbindungsstatus im Feld Status:.

n Ein – Das Gerät ist verbunden.

n Ausgefallen – Das Gerät hat den APD-Zustand. Der APD-Timer wird gestartet.

n APD-Zeitüberschreitung – Der APD-Timer ist abgelaufen.

n Nicht verbunden – Das Gerät befindet sich im PDL-Zustand.

vSphere-Speicher

142 VMware, Inc.

PDL-Bedingungen und hohe VerfügbarkeitWenn ein Datenspeicher in den PDL-Zustand (Permanent Device Loss) wechselt, können virtuelle Maschi-nen von der Hochverfügbarkeit (High Availability, HA) abgeschaltet und später neu gestartet werden.VMware bietet erweiterte Optionen, um die Vorgänge zum Ausschalten und Neustarten von virtuellen Ma-schinen zu regeln. In den meisten Umgebungen ist keine Änderung an den Standardeinstellungen erforder-lich. Je nach der spezifischen Umgebung müssen Sie jedoch einige dieser Optionen ändern.

Tabelle 15‑1. Erweiterte Parameter zum Regeln von PDL

Parameter Parametertyp Beschreibung

scsi#:#.terminateVMOnPDL

ide#:#.terminateVMOnPDL

sata#:#.terminateVMOnPDL

Erweiterte Option fürvirtuelle Maschinen.Informationen zur Konfi-guration finden Sie unter „Bearbeiten der Parame-ter der Konfigurations-datei“, auf Seite 144.

Der Standardwert ist FALSE.Wenn er TRUE ist, wird die virtuelle Ma-schine von diesem Parameter ausgeschal-tet, wenn das angegebene Gerät, das denDatenspeicher der virtuellen Maschine si-chert, in den PDL-Zustand wechselt. Diesevirtuelle Maschine wird von HA nicht neugestartet. Diese Einstellung setztdisk.terminateVMOnPDLDefault außerKraft.Bei Festlegung auf DEFAULT wirddisk.terminateVMonPDLDefault ver-wendet.

disk.terminateVMOnPDLDefault Erweiterte Option fürvirtuelle Maschinen.Informationen zur Konfi-guration finden Sie unter „Bearbeiten der Parame-ter der Konfigurations-datei“, auf Seite 144.

Der Standardwert ist FALSE.Wenn er TRUE ist, wird die virtuelle Ma-schine von diesem Parameter ausgeschal-tet, wenn ein Gerät, das den Datenspeicherder virtuellen Maschine sichert, in denPDL-Zustand wechselt. Diese virtuelle Ma-schine wird von HA nicht neu gestartet.Dieser Parameter kann für einzelne Gerätemit dem entsprechenden Parameter{scsi,ide,sata}#:#.terminateV-MOnPDL außer Kraft gesetzt werden.Bei Festlegung auf DEFAULT wird VMker-nel.Boot.terminateVMOnPDL verwendet.

Kapitel 15 Verwalten von Speichergeräten

VMware, Inc. 143

Tabelle 15‑1. Erweiterte Parameter zum Regeln von PDL (Fortsetzung)

Parameter Parametertyp Beschreibung

VMkernel.Boot.terminateVMOnPDL Erweiterte VMkernel-Option.Informationen zur Konfi-guration finden Sie unter „Festlegen von erweiter-ten Hostattributen imvSphere Web Client“,auf Seite 145.

Der Standardwert ist FALSE.Bei Festlegung auf TRUE schaltet dieser Pa-rameter alle virtuellen Maschinen im Sys-tem aus, wenn der von ihnen verwendeteSpeicher in den PDL-Zustand wechselt. DieEinstellung kann für die einzelnen virtuel-len Maschinen mit dem entsprechendenParameter {scsi,ide,sata}#:#.termin-ateVMOnPDL oder disk.terminateV-MOnPDLDefault außer Kraft gesetzt wer-den.Es sind nur die Einstellungen TRUE oderFALSE möglich.Hinweis Nachdem Sie Änderungen anVMkernel.Boot.terminateVMOnPDL vor-genommen haben, starten Sie den Hostneu.

das.maskCleanShutdownEnabled Erweiterte HA-Option.Informationen zur Konfi-guration finden Sie unter http://kb.vmwa-re.com/kb/2033250.

Diese Option ist standardmäßig auf TRUEfestgelegt. Über diesen Parameter kann HAvirtuelle Maschinen neu starten, die ausge-schaltet wurden, während der Datenspei-cher ausgefallen war (PDL-Zustand aktiv).Wenn für diese Option TRUE festgelegtwird, startet HA alle virtuellen Maschinenneu, einschließlich solcher, die absichtlichvon einem Benutzer ausgeschaltet wurden.

Bearbeiten der Parameter der KonfigurationsdateiSie können die Konfigurationsparameter einer virtuellen Maschine ändern oder hinzufügen, indem Sie dieHilfe eines Mitarbeiters des technischen Supports von VMware in Anspruch nehmen. Außerdem können Siedie Anweisungen in der VMware-Dokumentation verwenden, um einen Parameter hinzuzufügen oder zuändern, wenn Sie ein Problem mit dem System beheben möchten.

Wichtig Das Ändern oder Hinzufügen von Parametern in Fällen, in denen für ein System keine Problemevorliegen, kann zu einer verringerten Systemleistung und Instabilität führen.

Es gelten die folgenden Bedingungen:

n Damit Sie einen Parameter ändern können, müssen Sie den vorhandenen Wert für das Paar aus Schlüs-selwort und Wert ändern. Wenn Sie beispielsweise mit dem Paar aus Schlüsselwort und Wert „key-word/value“ beginnen und es in „keyword/value2“, lautet das Ergebnis „keyword=value2“.

n Sie können keinen Konfigurationsparametereintrag löschen.

Vorsicht Sie müssen einen Wert für Konfigurationsparameter-Schlüsselwörter zuweisen. Wenn Sie keinenWert zuweisen, kann von einem Schlüsselwort der Wert Null (0), „false“ oder „disable“ zurückgegeben wer-den. Dies kann dazu führen, dass eine virtuelle Maschine nicht gestartet werden kann.

Vorgehensweise

1 Klicken Sie in der Bestandsliste mit der rechten Maustaste auf eine virtuelle Maschine und wählen SieEinstellungen bearbeiten aus.

2 Klicken Sie auf die Registerkarte VM‐Optionen und erweitern Sie Erweitert.

3 Klicken Sie auf Konfiguration bearbeiten.

vSphere-Speicher

144 VMware, Inc.

4 (Optional) Klicken Sie zum Hinzufügen eines Parameters auf Zeile hinzufügen, und geben Sie einenNamen und Wert für den Parameter ein.

5 (Optional) Sie können einen Parameter ändern, indem Sie im Feld Wert einen neuen Wert für diesenParameter eingeben.

6 Klicken Sie auf OK.

Festlegen von erweiterten Hostattributen im vSphere Web ClientSie können für einen Host erweiterte Hostattribute festlegen.

Vorsicht Das Ändern der erweiterten Optionen wird nicht unterstützt, es sei denn, der technische Sup-port von VMware oder ein KB-Artikel weisen Sie an, dies zu tun. In allen anderen Fällen wird das Änderndieser Optionen als nicht unterstützt betrachtet. In den meisten Fällen werden mit den Standardeinstellun-gen bereits beste Ergebnisse erzielt.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie unter System auf Erweiterte Systemeinstellungen.

4 Wählen Sie unter „Erweiterte Einstellungen“ den entsprechenden Eintrag.

5 Klicken Sie auf Bearbeiten, um den Wert zu bearbeiten.

6 Klicken Sie auf OK.

Kapitel 15 Verwalten von Speichergeräten

VMware, Inc. 145

vSphere-Speicher

146 VMware, Inc.

Arbeiten mit Datenspeichern 16Datenspeicher sind besondere logische Container (analog zu Dateisystemen), bei denen Angaben zu physi-schen Speichern verborgen bleiben und die ein einheitliches Modell für die Speicherung der Dateien virtuel-ler Maschinen bieten. Datenspeicher können auch zum Speichern von ISO-Images, Vorlagen virtueller Ma-schinen und Disketten-Images genutzt werden.

Je nach Art des verwendeten Speichers können Datenspeicher folgende Typen aufweisen:

n VMFS-Datenspeicher, denen das Virtual Machine File System-Format zugrunde liegt. Weitere Informa-tionen hierzu finden Sie unter „Grundlegendes VMFS-Datenspeicher“, auf Seite 148.

n NFS-Datenspeicher, denen das Network File System-Format (NFS) zugrunde liegt. Weitere Informatio-nen hierzu finden Sie unter „Grundlegendes zu NFS-Datenspeichern“, auf Seite 152.

n Datenspeicher für Virtual SAN. Weitere Informationen hierzu finden Sie unter Kapitel 19, „Arbeiten mitVirtual SAN“, auf Seite 191.

Nach dem Erstellen von Datenspeichern können Sie diese auf unterschiedliche Weise organisieren. Sie kön-nen beispielsweise eine Gruppierung in Ordnern nach Geschäftsmethoden vornehmen. Damit ist es mög-lich, allen Datenspeichern einer Gruppe im gleichen Vorgang dieselben Berechtigungen und Alarme zuzu-weisen.

Datenspeicher lassen sich auch zu Datenspeicher-Clustern hinzufügen. Ein Datenspeicher-Cluster ist eineSammlung von Datenspeichern mit gemeinsam genutzten Ressourcen und einer gemeinsamen Verwal-tungsoberfläche. Wenn Sie einen Datenspeicher-Cluster erstellen, können Sie Speicher-DRS zum Verwaltenvon Speicherressourcen verwenden. Weitere Informationen zu Datenspeicher-Clustern finden Sie in der Do-kumentation Handbuch zur vSphere-Ressourcenverwaltung

Dieses Kapitel behandelt die folgenden Themen:

n „Grundlegendes VMFS-Datenspeicher“, auf Seite 148

n „Grundlegendes zu NFS-Datenspeichern“, auf Seite 152

n „Erstellen von Datenspeichern“, auf Seite 154

n „Ändern des Datenspeichernamens im vSphere Web Client“, auf Seite 156

n „Verwalten von duplizierten VMFS-Datenspeichern“, auf Seite 156

n „Upgrade von VMFS-Datenspeichern“, auf Seite 158

n „Erhöhen der VMFS-Datenspeicherkapazität“, auf Seite 159

n „Unmounten von VMFS- oder NFS-Datenspeichern“, auf Seite 161

n „Mounten von VMFS-Datenspeichern“, auf Seite 162

n „Entfernen des VMFS-Datenspeichers im vSphere Web Client“, auf Seite 162

VMware, Inc. 147

n „Speicherfilterung“, auf Seite 163

n „Dynamische Festplattenspiegelung einrichten“, auf Seite 164

n „Erfassen von Diagnoseinformationen für ESXi-Hosts auf einem Speichergerät“, auf Seite 165

n „Überprüfen der Metadatenkonsistenz mit VOMA“, auf Seite 168

n „Konfigurieren des Cachespeichers für VMFS-Zeigerblöcke“, auf Seite 169

Grundlegendes VMFS-DatenspeicherZum Speichern virtueller Festplattendateien verwendet ESXi Datenspeicher. Datenspeicher sind logischeContainer, bei denen Angaben zu den einzelnen Speichergeräten verborgen bleiben und die ein einheitlichesModell für die Speicherung der Dateien virtueller Maschinen bieten. Auf Blockspeichergeräten bereitgestell-te Datenspeicher verwenden das vSphere VMFS-Format, ein spezielles Hochleistungsdateisystem für dieSpeicherung virtueller Maschinen.

Seit der Einführung wurden mehrere Versionen des VMFS-Dateisystems veröffentlicht. In der folgenden Ta-belle werden Beziehungen zwischen dem Host und der VMFS-Version dargestellt.

Tabelle 16‑1. Hostzugriff auf die VMFS-Version

VMFS ESX/ESXi 3.x-Host ESX/ESXi 4.x-Host ESXi 5.x-Host

VMFS2 RO RO N

VMFS3 RW RW RW

VMFS5 N N RW

n RW: Vollständige Unterstützung von Lese- und Schreibberechtigungen. Sie können virtuelle Maschinenerstellen und einschalten.

n RO: Nur Unterstützung für Leseberechtigungen. Sie können virtuelle Maschinen nicht erstellen undeinschalten.

n N: Kein Zugriff ESXi 5.x bietet keine Unterstützung für VMFS2. Wenn der Datenspeicher mit VMFS2formatiert ist, führen Sie zunächst mit den Legacy-Hosts und dem vSphere Client ein Upgrade des Da-tenspeichers auf VMFS3 durch.

Mit dem vSphere Web Client können Sie im Voraus einen VMFS-Datenspeicher auf einem blockbasiertenSpeichergerät einrichten, das Ihr ESXi-Host erkennt. Ein VMFS-Datenspeicher kann sich über mehrere phy-sische Erweiterungsgeräte erstrecken, einschließlich SAN-LUNs und lokale Speicher. Diese Funktion ermög-licht Ihnen die Zusammenfassung von Speicher und gibt Ihnen bei der Erstellung des für die virtuelle Ma-schine erforderlichen Datenspeichers die notwendige Flexibilität.

Die Kapazität des Datenspeichers kann während der Ausführung von virtuelle Maschinen im Datenspei-cher erhöht werden. Auf diese Weise lässt sich entsprechend den aktuellen Anforderungen der virtuellenMaschine stets neuer Speicherplatz zu VMFS-Volumes hinzufügen. VMFS wurde für den gleichzeitigen Zu-griff mehrerer physischer Maschinen konzipiert und erzwingt eine geeignete Zugriffsteuerung für VM-Da-teien.

Unterschiede zwischen VMFS5 und VMFS3VMFS5 bietet viele Skalierbarkeits- und Leistungsverbesserungen gegenüber der vorherigen Version.

VMFS5 weist folgende Verbesserungen auf:

n Speichergeräte mit einer Kapazität von mehr als 2 TB für jede VMFS-Erweiterung.

vSphere-Speicher

148 VMware, Inc.

n Unterstützung von virtuellen Maschinen mit virtuellen Festplatten mit hoher Kapazität oder von Fest-platten mit mehr als 2 TB. VMFS3-Datenspeicher unterstützen keine virtuellen Festplatten mit hoherKapazität, weshalb Sie virtuelle Festplatten mit mehr als 2 TB nicht aus einem VMFS5-Datenspeicher ineinen VMFS3-Datenspeicher verschieben können.

n Erhöhte Ressourcenlimits, wie z. B. Dateideskriptoren.

n Standard-Dateisystemblockgröße von 1 MB mit Unterstützung für virtuelle Festplatten mit einer Kapa-zität von 2 TB.

n Festplattengröße von mehr als 2 TB für RDMs.

n Unterstützung von kleinen Dateien von 1 KB.

n Jede Datei, die sich in einem neuen oder von VMFS3 aufgerüsteten VMFS5-Datenspeicher befindet,kann im Modus für gemeinsame Nutzung von maximal 32 Hosts geöffnet werden. VMFS3 unterstütztweiterhin bis zu 8 Hosts für die gemeinsame Dateinutzung. Dies betrifft VMware-Produkte, die ver-knüpfte Klone verwenden, beispielsweise View Manager.

n Skalierbarkeitsverbesserungen bei Speichergeräten, welche die Hardwarebeschleunigung unterstützen.Weitere Informationen hierzu finden Sie unter Kapitel 24, „Speicherhardware-Beschleunigung“, auf Sei-te 261.

n Standardverwendung von hardwaregestützten Sperren, auch als ATS (Atomic Test and Set) bezeichnet,auf Speichergeräten, welche die Hardwarebeschleunigung unterstützen. Informationen über die Deakti-vierung der ATS-Sperrung finden Sie unter „Deaktivieren der ATS-Sperrung“, auf Seite 152.

n Die Möglichkeit, physischen Speicherplatz auf Thin-bereitgestellten Speichergeräten zurückzugewin-nen. Weitere Informationen hierzu finden Sie unter „Array-Thin Provisioning und VMFS-Datenspei-cher“, auf Seite 278.

n Online-Upgrade-Prozess, der vorhandene Datenspeicher aktualisiert, ohne die derzeitige Ausführungvon Hosts oder virtuellen Maschinen zu unterbrechen. Weitere Informationen hierzu finden Sie unter „Upgrade von VMFS-Datenspeichern“, auf Seite 158.

Informationen über Blockgrößenbeschränkungen eines VMFS-Datenspeichers finden Sie im VMware-Know-ledgebase-Artikel unter http://kb.vmware.com/kb/1003565.

VMFS-Datenspeicher und SpeicherfestplattenformateDie vom Host unterstützten Speichergeräte können sowohl das Format Master Boot Record (MBR) als auchdas Format GUID-Partitionstabelle (GPT) verwenden.

Bei ESXi 5.0 und höher wird beim Erstellen eines neuen VMFS5-Datenspeichers das Gerät mit GPT forma-tiert. Das GPT-Format erlaubt das Erstellen von Datenspeichern in der Größe zwischen 2 TB und 64 TB füreine einzelne Erweiterung.

VMFS3 nutzen für ihre Speichergeräte weiterhin das MBR-Format. Beachten Sie beim Umgang mit VMFS3-Datenspeichern folgende Punkte:

n Für VMFS3-Datenspeicher gilt das 2 TB-Limit auch dann, wenn das Speichergerät eine Kapazität vonmehr als 2 TB hat. Um die gesamte Speicherkapazität nutzen zu können, führen Sie ein Upgrade desVMFS3-Datenspeichers auf VMFS5 durch. Die Konvertierung des MBR-Formats in GPT erfolgt erst,nachdem Sie den Datenspeicher auf über 2 TB erweitert haben.

n Wenn Sie ein Upgrade des VMFS3-Datenspeichers auf VMFS5 durchführen, verwendet der Datenspei-cher das MBR-Format. Die Konvertierung in GPT erfolgt erst, nachdem Sie den Datenspeicher auf über2 TB erweitert haben.

n Entfernen Sie beim Upgrade eines VMFS-Datenspeichers alle Partitionen des Speichergeräts, die vonESXi nicht erkannt werden, beispielsweise Partitionen in den Formaten EXT2 oder EXT3. Andernfallskann der Host die Geräte nicht mit GPT formatieren und das Upgrade schlägt fehl.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 149

n VMFS3-Datenspeicher auf Geräten mit GPT-Partitionsformat können nicht erweitert werden.

VMFS-Datenspeicher als RepositorysESXi kann SCSI-basierte Speichergeräte wie VMFS-Datenspeicher formatieren. VMFS-Datenspeicher dienenhauptsächlich als Ablagen für virtuelle Maschinen.

Mit VMFS5 verfügen Sie über bis zu 256 VMFS-Datenspeicher pro Host mit der maximalen Größe von 64TB. Die erforderliche Mindestgröße für einen VMFS-Datenspeicher beträgt 1,3 GB, die empfohlene Mindest-größe beträgt jedoch 2 GB.

Hinweis Ordnen Sie jeder LUN stets nur einen VMFS-Datenspeicher zu.

Sie können mehrere virtuelle Maschinen auf demselben VMFS-Datenspeicher speichern. Jede virtuelle Ma-schine ist in einem Satz Dateien gekapselt und belegt ein eigenes Verzeichnis. Für das Betriebssystem inner-halb der virtuellen Maschine behält VMFS die interne Dateisystemsemantik bei. Dadurch wird das ord-nungsgemäße Verhalten von Anwendungen und die Datensicherheit für Anwendungen gewährleistet, diein virtuelle Maschinen ausgeführt werden.

Wenn mehrere virtuelle Maschinen ausgeführt werden, bietet VMFS spezielle Sperrmechanismen für Datei-en virtueller Maschinen, damit der sichere Betrieb auch in SAN-Umgebungen möglich ist, in der mehrereESXi-Hosts auf denselben VMFS-Datenspeicher zugreifen.

Neben virtuelle Maschinen können auf VMFS-Datenspeichern auch andere Dateien, beispielsweise Vorlagenfür virtuelle Maschinen und ISO-Images gespeichert werden.

Gemeinsames Nutzen eines VMFS-Datenspeichers durch mehrere HostsAls Clusterdateisystem ermöglicht VMFS mehreren ESXi-Hosts, parallel auf denselben VMFS-Datenspei-cher zuzugreifen.

Abbildung 16‑1. Gemeinsames Nutzen eines VMFS-Datenspeichers durch mehrere Hosts

VMFS-Volume

HostA

HostB

HostC

VirtuelleFestplatten-dateien

VM1 VM2 VM3

Festplatte1

Festplatte2

Festplatte3

Informationen zur maximal zulässigen Anzahl von Hosts, die eine Verbindung mit einem einzelnen VMFS-Datenspeicher herstellen können, finden Sie im Dokument Maximalwerte für die Konfiguration.

Um zu gewährleisten, dass nicht mehrere Server gleichzeitig auf dieselbe virtuelle Maschine zugreifen, ver-fügt VMFS über eine festplatteninterne Sperrung.

Die gemeinsame Nutzung desselben VMFS-Volumes durch mehrere Hosts bietet folgende Vorteile:

n Sie können vSphere Distributed Resource Scheduling (DRS) und VMware High Availability (HA) ver-wenden.

vSphere-Speicher

150 VMware, Inc.

Sie können virtuelle Maschinen auf mehrere physische Server verteilen. Sie können also auf jedem Ser-ver eine Kombination virtueller Maschinen ausführen, sodass nicht alle zur selben Zeit im selben Be-reich einer hohen Nachfrage unterliegen. Falls ein Server ausfällt, können Sie die virtuellen Maschinenauf einem anderen physischen Server neu starten. Im Störfall wird die festplatteninterne Sperre für dieeinzelnen virtuellen Maschinen aufgehoben. Weitere Informationen zu VMware DRS finden Sie in derDokumentation zu Handbuch zur vSphere-Ressourcenverwaltung. Informationen zu VMware HA findenSie in der Dokumentation zu Handbuch zur Verfügbarkeit in vSphere.

n Mit vMotion können Sie virtuelle Maschinen bei laufendem Betrieb von einem physischen Server aufeinen anderen migrieren. Informationen zur Migration von virtuellen Maschinen finden Sie in der Do-kumentation zu vCenter Server und Hostverwaltung.

Updates von VMFS-MetadatenEin VMFS-Datenspeicher enthält Dateien der virtuellen Maschine, Verzeichnisse, symbolische Links, RDM-Deskriptor-Dateien usw. Der Datenspeicher verwaltet ebenfalls eine konsistente Ansicht aller Zuordnungs-informationen für diese Objekte. Diese Zuordnungsinformationen werden als Metadaten bezeichnet.

Metadaten werden jedes Mal aktualisiert, wenn Verwaltungsvorgänge des Datenspeichers oder der virtuel-len Maschine durchgeführt werden. Einige Beispiele für Vorgänge, die eine Aktualisierung der Metadatenerfordern:

n Erstellen, Erweitern oder Sperren einer Datei einer virtuellen Maschine.

n Ändern von Dateieigenschaften

n Ein- bzw. Ausschalten einer virtuellen Maschine

n Erstellen oder Löschen eines VMFS-Datenspeichers

n Vergrößern von VMFS-Datenspeichern

n Erstellen einer Vorlage

n Bereitstellen einer virtuellen Maschine anhand einer Vorlage

n Migrieren einer virtuellen Maschine mit vMotion

Wenn Änderungen der Metadaten in einer Umgebung mit gemeinsam genutztem Speicher stattfinden, ver-wendet VMFS spezielle Sperrmechanismen, um die Daten zu schützen und zu verhindern, dass mehrereHosts gleichzeitig Schreibzugriff auf die Metadaten erhalten.

VMFS-SperrmechanismenIn Umgebungen mit gemeinsam genutztem Speicher, bei denen mehrere Hosts auf denselben VMFS-Daten-speicher zugreifen, werden bestimmte Sperrmechanismen eingesetzt. Diese Sperrmechanismen verhindernden gleichzeitigen Schreibzugriff mehrerer Hosts auf die Metadaten und stellen sicher, dass keine Daten be-schädigt werden.

VMFS unterstützt SCSI-Reservierungen und die ATS-Sperre (Atomic Test and Set).

SCSI-ReservierungenVMFS verwendet SCSI-Reservierungen auf Speichergeräten, die keine Hardwarebeschleunigung unterstüt-zen. Bei der SCSI-Reservierung wird ein Speichergerät vollständig gesperrt, während ein Vorgang durchge-führt wird, der den Schutz von Metadaten erfordert. Nach dem Abschluss des Vorgangs hebt VMFS die Re-servierung auf und blockierte Vorgänge können fortgesetzt werden. Da diese Sperre exklusiv ist, kann eineübermäßig hohe Anzahl an SCSI-Reservierungen durch einen Host die Leistung auf anderen Servern beein-trächtigen, die auf dasselbe VMFS zugreifen. Informationen über Möglichkeiten, die Anzahl der SCSI-Reser-vierungen zu verringern, finden Sie in der DokumentationvSphere-Fehlerbehebungshandbuch.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 151

ATS (Atomic Test and Set)Bei Speichergeräten, die die Hardwarebeschleunigung unterstützen, verwenden die Hosts den ATS-Algo-rithmus, auch als hardwaregestütztes Sperren bezeichnet. Im Gegensatz zu SCSI-Reservierungen unterstütztATS ein differenziertes Sperren von Festplatten auf Sektorbasis. Informationen zur Hardware-Beschleuni-gung finden Sie unterKapitel 24, „Speicherhardware-Beschleunigung“, auf Seite 261.

Die unterschiedlichen Mechanismen, anhand derer VMFS verschiedene Arten von Sperren anwendet, sindvon der VMFS-Version abhängig.

Tabelle 16‑2. Verwendung der ATS-Sperrung auf Geräten mit Unterstützung für Hardwarebeschleunigung

Speichergeräte Neues VMFS5 Aktualisierter VMFS5 VMFS3

Einzelne Erweiterung Nur ATS ATS, Rückkehr zur SCSI-Reser-vierung möglich

ATS, Rückkehr zur SCSI-Reservierung möglich

Mehrere Erweiterun-gen

Umfasst nur ATS-fähige Geräte ATS, außer bei gesperrtemNon-Head-Bereich

ATS, außer bei gesperr-tem Non-Head-Bereich

In bestimmten Fällen ist für neue VMFS5-Datenspeicher die Einstellung „Nur ATS“ zu deaktivieren. WeitereInformationen hierzu finden Sie unter „Deaktivieren der ATS-Sperrung“, auf Seite 152.

Deaktivieren der ATS-SperrungWenn Sie einen VMFS5-Datenspeicher auf einem Gerät erstellen, das die ATS (Atomic Test and Set)-Sper-rung verwendet, wird der Datenspeicher auf den Nur-ATS-Modus gesetzt. Unter bestimmten Umständenmüssen Sie die Einstellung für den ATS-Modus deaktivieren.

Deaktivieren Sie die ATS-Einstellung beispielweise dann, wenn ein Downgrade auf Ihr Speichergerät durch-geführt wird oder Firmware-Updates fehlschlagen und das Gerät die Hardwarebeschleunigung nicht mehrunterstützt. Die zur Deaktivierung der ATS-Einstellung zu verwendende Option ist nur über die ESXi-Shellverfügbar. Weitere Informationen finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Vorgehensweise

u Führen Sie zum Deaktivieren der ATS-Einstellung den folgenden Befehl aus:

vmkfstools --configATSOnly 0 device

Der device-Parameter ist der Pfad zum vorgelagerten Erweiterungsgerät, auf dem VMFS5 bereitgestelltwurde. Verwenden Sie folgendes Format:

/vmfs/devices/disks/disk_ID:P

Hinweis Es reicht, diesen Befehl auf einem der ESXi-Hosts auszuführen, die den VMFS5-Datenspei-cher teilen. Die anderen Hosts erkennen die Änderung automatisch.

Grundlegendes zu NFS-DatenspeichernESXi kann auf ein ausgewähltes NFS-Volume auf einem NAS-Server zugreifen, dieses Volume mounten undes für Speicherzwecke nutzen. Mithilfe von NFS-Volumes können Sie virtuelle Maschinen ebenso wie mithil-fe von VMFS-Datenspeichern speichern und starten.

ESXi unterstützt NFS Version 3. Mit NFS werden die folgenden Speicherfunktionen unterstützt:

n vMotion

n VMware DRS und VMware HA

n ISO-Images, die virtuellen Maschinen als CD-ROMs angezeigt werden

n Snapshots einer virtuellen Maschine

vSphere-Speicher

152 VMware, Inc.

n Virtuelle Maschinen mit virtuellen Festplatten mit hoher Kapazität oder aber Festplatten mit mehr als2 TB.

Wenn Sie mit NFS-Speicher arbeiten, ziehen Sie Folgendes in Betracht:

n Die maximale Größe des NFS-Datenspeichers hängt von der Unterstützung ab, die ein NFS-Server bie-tet. ESXi erlegt der Größe des NFS-Datenspeichers keine Grenzwerte auf.

n NFS bietet keine Unterstützung für IPv6.

n Wenn Sie beim Benennen von Datenspeichern und virtuellen Maschinen Nicht-ASCII-Zeichen verwen-den, stellen Sie sicher, dass der zugrunde liegende NFS-Server die Internationalisierung unterstützt.Wenn der Server keine Sonderzeichen unterstützt, verwenden Sie nur die ASCII-Zeichen, da anderen-falls unvorhersehbare Fehler auftreten können.

NFS-Datenspeicher als Repository für häufig verwendete DateienNeben der Verwendung von NFS-Datenspeichern als Ablageort für virtuelle Festplatten können Sie NFSauch als zentrales Repository für ISO-Images, Vorlagen für virtuelle Maschinen usw. nutzen.

Wenn Sie NFS als gemeinsam genutztes Repository verwenden möchten, erstellen Sie auf dem NFS-Serverein Verzeichnis und mounten es auf allen Hosts als Datenspeicher. Wenn Sie den Datenspeicher für ISO-Images verwenden möchten, können Sie das CD-ROM-Laufwerk der virtuellen Maschine mit einer ISO-Da-tei auf dem Datenspeicher verbinden und ein Gastbetriebssystem aus der ISO-Datei installieren.

Hinweis Falls das NFS-Laufwerk, auf dem die Dateien gespeichert sind, schreibgeschützt ist, stellen Siesicher, das das Laufwerk von dem NFS-Server als schreibgeschützte Freigabe exportiert wurde, oder konfi-gurieren Sie es auf dem ESXi-Host als schreibgeschützten Datenspeicher. Anderenfalls betrachtet der Hostden Datenspeicher als beschreibbar und kann die Dateien möglicherweise nicht öffnen.

Geroutete Schicht 3-Verbindungen für Zugriff auf NFS-Speicher verwendenWenn Sie geroutete Schicht 3 (L3)-Verbindungen für den Zugriff auf NFS-Speicher verwenden, müssen Siebestimmte Anforderungen und Beschränkungen beachten.

Ihre Umgebung muss die folgenden Anforderungen erfüllen:

n Das HSRP-Protokoll von Cisco (Hot Standby Router Protocol) wird im IP-Router verwendet. Falls Sieeinen anderen Router als den von Cisco verwenden, stellen Sie sicher, dass Sie das VRRP-Protokoll (Vir-tual Router Redundancy Protocol) verwenden.

n QoS (Quality of Service) wird für die Priorisierung des NFS L3-Datenverkehrs auf Netzwerken mit be-grenzter Bandbreite oder auf überlasteten Netzwerken verwendet. Weitere Informationen hierzu findenSie in der Dokumentation des Routers.

n Befolgen Sie die von Ihrem Speicheranbieter empfohlenen Best Practices für NFS L3. Weitere Informati-onen erhalten Sie von Ihrem Speicheranbieter.

n Deaktivieren der Netzwerk-E/A-Ressourcenverwaltung (NetIORM).

n Falls Sie vorhaben, Systeme mit Top-of-Rack-Switches oder der Switch-abhängigen E/A-Gerätepartitio-nierung einzusetzen, wenden Sie sich bezüglich Kompatibilität und Unterstützung an Ihren Systeman-bieter.

In einer L3-Umgebung gelten die folgenden Beschränkungen:

n Die Umgebung unterstützt VMware Site Recovery Manager nicht.

n Die Umgebung unterstützt nur das NFS-Protokoll. Verwenden Sie keine anderen Speicherprotokolle,wie z. B. FCoE, in demselben physischen Netzwerk.

n Der NFS-Datenverkehr in dieser Umgebung unterstützt IPv6 nicht.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 153

n Der NFS-Datenverkehr in dieser Umgebung kann nur über ein LAN geleitet werden. Andere Umge-bungen, wie z. B. WAN, werden nicht unterstützt.

Erstellen von DatenspeichernAbhängig vom verwendeten Speichertyp und von Ihren Speicheranforderungen können Sie einen VMFS-oder NFS-Datenspeicher erstellen.

Mit dem Assistenten für neue Datenspeicher erstellen Sie die Datenspeicher. Mit diesem Assistenten könnenSie auch VMFS-Datenspeicherkopien verwalten. Weitere Informationen hierzu finden Sie unter „Verwaltenvon duplizierten VMFS-Datenspeichern“, auf Seite 156.

Ein Virtual SAN-Datenspeicher wird automatisch erstellt, wenn Sie Virtual SAN aktivieren. Weitere Infor-mationen hierzu finden Sie unter Kapitel 19, „Arbeiten mit Virtual SAN“, auf Seite 191.

Erstellen eines VMFS-Datenspeichers im vSphere Web ClientVMFS-Datenspeicher dienen als Repositorys für virtuelle Maschinen. Sie können VMFS-Datenspeicher aufallen SCSI-basierenden Speichergeräten einrichten, die der Host erkennt, einschließlich Fibre-Channel, iSCSIund lokaler Speichergeräte.

Voraussetzungen

n Installieren und konfigurieren Sie alle Adapter, die vom Speicher benötigt werden. Prüfen Sie alleAdapter erneut auf neu hinzugefügte Speicher.

n Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen vonDatenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie auf das Symbol „Neuer Datenspeicher“.

2 Geben Sie den Namen des Datenspeichers ein und wählen Sie, falls erforderlich, den Speicherplatz fürden Datenspeicher aus.

Der vSphere Web Client setzt eine Längenbeschränkung von 42 Zeichen für den Datenspeichernamenvoraus.

3 Wählen Sie „VMFS“ als Datenspeichertyp aus.

4 Wählen Sie das Gerät aus, das für den Datenspeicher verwendet werden soll.

Wichtig Für das Gerät, das Sie auswählen, dürfen keine Werte in der Spalte „Snapshot-Volume“ an-gezeigt werden. Wenn ein Wert vorhanden ist, enthält das Gerät eine Kopie des vorhandenen VMFS-Datenspeichers. Weitere Informationen zur Verwaltung von Datenspeicherkopien finden Sie unter „Ver-walten von duplizierten VMFS-Datenspeichern“, auf Seite 156.

5 Wählen Sie die VMFS-Version aus.

Option Beschreibung

VMFS 5 Aktiviert mehr als die 2-TB-LUN-Unterstützung.

VMFS 3 Ermöglicht, dass ESX/ESXi-Hosts mit einer Version unter 5.0 auf den Da-tenspeicher zugreifen können.

vSphere-Speicher

154 VMware, Inc.

6 Legen Sie die Konfiguration der Partition fest.

Option Beschreibung

Alle verfügbaren Partitionen ver-wenden

Weist einem einzelnen VMFS-Datenspeicher die gesamte Festplatte zu. BeiAuswahl dieser Option werden die momentan auf diesem Gerät gespei-cherten Dateisysteme und Daten dauerhaft gelöscht.

Freien Speicherplatz verwenden Stellt einen VMFS-Datenspeicher im verbleibenden freien Speicherplatzauf der Festplatte bereit.

7 (Optional) Wenn der für den Datenspeicher zugeteilte Speicherplatz für Ihre Zwecke zu groß ist, passen

Sie die Kapazitätswerte im Feld „Größe des Datenspeichers“ an.

Standardmäßig wird der gesamte freie Speicherplatz des Speichergeräts zugeteilt.

8 Wählen Sie die maximale Dateigröße für die VMFS3-Version aus.

9 Überprüfen Sie auf der Seite „Bereit zum Abschließen“ die Informationen zur Datenspeicherkonfigura-tion, und klicken Sie auf Beenden.

Der Datenspeicher auf dem SCSI-basierten Gerät wird erstellt. Er ist für alle Hosts verfügbar, die auf dasGerät Zugriff haben.

Erstellen von NFS-Datenspeichern im vSphere Web ClientSie können ein NFS-Volume mit dem Assistenten für neue Datenspeicher mounten.

Voraussetzungen

n Konfigurieren Sie das VMkernel-Netzwerk. NFS erfordert Netzwerkkonnektivität, um auf Daten zuzu-greifen, die auf Remoteservern gespeichert sind. Informationen finden Sie in der Dokumentation vSphe-re-Netzwerk.

n Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen vonDatenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie auf das Symbol „Neuer Datenspeicher“.

2 Geben Sie den Namen des Datenspeichers ein und wählen Sie, falls erforderlich, den Speicherplatz fürden Datenspeicher aus.

Der vSphere Web Client setzt eine Längenbeschränkung von 42 Zeichen für den Datenspeichernamenvoraus.

3 Wählen Sie „NFS“ als Datenspeichertyp aus.

4 Geben Sie den Servernamen und den Mount-Punkt-Ordnernamen ein.

Geben Sie für den Servernamen eine IP-Adresse, einen DNS-Namen oder eine NFS-UUID ein.

Hinweis Wenn Sie das gleiche NFS-Volume auf verschiedenen Hosts mounten, müssen Sie sicherstel-len, dass Server- und Ordnernamen auf allen Hosts identisch sind. Wenn die Namen nicht übereinstim-men, betrachten die Hosts dasselbe NFS-Volume als zwei unterschiedliche Datenspeicher. Bei Funktio-nen wie vMotion kann dies zu einem Fehler führen. Ein Beispiel für eine solche Diskrepanz ist es, wennSie filer als Servernamen auf einem Host und filer.domain.com auf dem anderen Host eingeben.

5 (Optional) Wählen Sie NFS schreibgeschützt mounten, wenn das Laufwerk vom NFS-Server alsschreibgeschützt exportiert wurde.

6 Wenn Sie einen Datenspeicher auf Datencenter- oder Cluster-Ebene erstellen, wählen Sie Hosts aus, dieZugriff auf den Datenspeicher erfordern.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 155

7 Überprüfen Sie die Konfigurationsoptionen und klicken Sie auf Beenden.

Ändern des Datenspeichernamens im vSphere Web ClientSie können den Namen eines vorhandenen VMFS-, NFS- oder Virtual SAN-Datenspeichers ändern.

Voraussetzungen

Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen von Da-tenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie mit der rechten Maustaste auf den umzubenennenden Datenspeicher.

2 Wählen Sie im Kontextmenü die Option Umbenennen.

3 Geben Sie einen neuen Datenspeichernamen ein.

Der vSphere Web Client setzt eine Längenbeschränkung von 42 Zeichen für den Datenspeichernamenvoraus.

Der neue Name erscheint auf allen Hosts, die Zugriff auf den Datenspeicher haben.

Verwalten von duplizierten VMFS-DatenspeichernWenn ein Speichergerät eine Kopie eines VMFS-Datenspeichers enthält, können Sie den Datenspeicher mitder vorhandenen Signatur mounten oder eine neue Signatur zuweisen.

Jeder in einer Speicherfestplatte erstellte VMFS-Datenspeicher besitzt eine eindeutige Signatur, die auch alsUUID bezeichnet wird und im Superblock des Dateisystems gespeichert ist. Wenn die Speicherfestplatterepliziert oder ein Snapshot von ihr auf der Speicherseite erstellt wird, ist die dabei entstehende Festplatten-kopie Byte für Byte mit der ursprünglichen Festplatte identisch. Wenn die ursprüngliche Speicherfestplatteeinen VMFS-Datenspeicher mit der UUID X enthält, scheint daher die Festplattenkopie einen identischenVMFS-Datenspeicher bzw. eine VMFS-Datenspeicherkopie mit genau derselben UUID X zu enthalten.

Neben dem Erstellen eines Snapshots und der Replizierung der LUN können die folgenden Speichergerät-vorgänge möglicherweise bewirken, dass ESXi den vorhandenen Datenspeicher auf dem Gerät als eine Ko-pie des ursprünglichen Datenspeichers markiert:

n LUN-ID-Änderungen

n Änderungen des SCSI-Gerätetyps, z. B. von SCSI-2 auf SCSI-3

n Aktivierung der SPC-2-Übereinstimmung

ESXi kann die Kopie des VMFS-Datenspeichers erkennen und sie im vSphere Web Client anzeigen. Sie ha-ben die Option, die Datenspeicherkopie mit ihrer ursprünglichen UUID zu mounten oder die UUID zu än-dern, was zu einer Neusignierung des Datenspeichers führt.

Ob Sie die Neusignierung oder das Mounten ohne Neusignierung wählen, hängt davon ab, wie die LUNs inder Speicherumgebung maskiert werden. Wenn Ihre Hosts beide Kopien der LUN sehen können, ist dieNeusignierung die empfohlene Methode. Sonst ist das Mounten eine Option.

Beibehalten der vorhandenen Datenspeichersignatur im vSphere Web ClientWenn Sie eine Kopie eines VMFS-Datenspeichers nicht neu signieren müssen, können Sie sie mounten, ohneihre Signatur zu ändern.

Sie können die Signatur beispielsweise beibehalten, wenn Sie synchronisierte Kopien von virtuelle Maschi-nen als Teil eines Notfallplans auf einer sekundären Site unterhalten. Bei einem Notfall an der primären Sitemounten Sie die Datenspeicherkopie und schalten die virtuelle Maschinen der sekundären Site ein.

vSphere-Speicher

156 VMware, Inc.

Voraussetzungen

n Führen Sie eine erneute Speicherprüfung auf Ihrem Host durch, um die Ansicht der Speichergeräte aufdem Host zu aktualisieren.

n Unmounten Sie den Original-VMFS-Datenspeicher, der dieselbe UUID hat wie die Kopie, die Sie moun-ten möchten. Sie können die VMFS-Datenspeicherkopie nur mounten, wenn sie nicht mit dem Original-VMFS-Datenspeicher kollidiert.

n Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen vonDatenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie auf das Symbol „Neuer Datenspeicher“.

2 Geben Sie den Namen des Datenspeichers ein und wählen Sie, falls erforderlich, den Speicherplatz fürden Datenspeicher aus.

3 Wählen Sie „VMFS“ als Datenspeichertyp aus.

4 Wählen Sie aus der Liste der Speichergeräte das Gerät aus, dessen Wert in der Spalte „Snapshot-Volu-me“ angezeigt wird.

Der in der Spalte „Snapshot-Volume“ vorhandene Name gibt an, dass das Gerät eine Kopie ist, die eineKopie eines vorhandenen VMFS-Datenspeichers enthält.

5 Wählen Sie unter „Optionen für das Mounten“ die Option Vorhandene Signatur beibehalten aus.

6 Überprüfen Sie die Konfigurationsinformationen für den Datenspeicher, und klicken Sie auf Beenden(Finish).

Weiter

Wenn Sie den gemounteten Datenspeicher zu einem späteren Zeitpunkt erneut signieren möchten, müssenSie ihn zunächst unmounten.

Neusignieren einer VMFS-Datenspeicherkopie im vSphere Web ClientVerwenden Sie die Datenspeicher-Neusignierung, wenn Sie die in der Kopie des VMFS-Datenspeichers ge-speicherten Daten aufbewahren möchten.

Beim Neusignieren einer VMFS-Kopie weist ESXi der Kopie eine neue Signatur (UUID) zu und mountet dieKopie als einen vom Original unabhängigen Datenspeicher. Alle Referenzen der Originalsignatur aus denKonfigurationsdateien der virtuellen Maschine werden aktualisiert.

Beachten Sie bei der Datenspeicher-Neusignierung Folgendes:

n Die Datenspeicher-Neusignierung kann nicht rückgängig gemacht werden.

n Nach der Neusignierung wird die Speichergerätreplik, die die VMFS-Kopie enthalten hat, nicht mehrals Replik behandelt.

n Ein übergreifender Datenspeicher kann nur neu signiert werden, wenn all seine Erweiterungen onlinesind.

n Der Neusignierungsprozess ist absturz- und fehlertolerant. Wenn der Prozess unterbrochen wird, kön-nen Sie ihn später fortsetzen.

n Sie können den neuen VMFS-Datenspeicher mounten, ohne dass das Risiko besteht, dass seine UUIDmit UUIDs anderer Datenspeicher, wie z. B. einem über- oder untergeordneten Datenspeicher in einerHierarchie von Speichergerät-Snapshots, in Konflikt steht.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 157

Voraussetzungen

n Unmounten Sie die Datenspeicherkopie.

n Führen Sie eine erneute Speicherprüfung auf Ihrem Host durch, um die Ansicht der Speichergeräte aufdem Host zu aktualisieren.

n Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen vonDatenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie auf das Symbol „Neuer Datenspeicher“.

2 Geben Sie den Namen des Datenspeichers ein und wählen Sie, falls erforderlich, den Speicherplatz fürden Datenspeicher aus.

3 Wählen Sie „VMFS“ als Datenspeichertyp aus.

4 Wählen Sie aus der Liste der Speichergeräte das Gerät aus, dessen Wert in der Spalte „Snapshot-Volu-me“ angezeigt wird.

Der in der Spalte „Snapshot-Volume“ vorhandene Name gibt an, dass das Gerät eine Kopie ist, die eineKopie eines vorhandenen VMFS-Datenspeichers enthält.

5 Wählen Sie unter „Optionen für das Mounten“ die Option Neue Signatur zuweisen aus und klickenSie auf Weiter.

6 Überprüfen Sie die Konfigurationsinformationen für den Datenspeicher, und klicken Sie auf Beenden(Finish).

Upgrade von VMFS-DatenspeichernWenn Ihre Datenspeicher mit VMFS2 oder VMFS3 formatiert wurden, können Sie ein Upgrade der Daten-speicher auf VMFS5 durchführen.

Beachten Sie bei der Durchführung von Datenspeicher-Upgrades Folgendes:

n Verwenden Sie für ein Upgrade eines VMFS2-Datenspeichers ein Verfahren in zwei Schritten. Diesesbeinhaltet, dass zunächst ein Upgrade von VMFS2 auf VMFS3 durchgeführt wird. Da ESXi 5.0-Hostsund höher nicht auf VMFS2-Datenspeicher zugreifen können, verwenden Sie einen Legacy-Host(ESX/ESXi 4.x oder höher), um auf den VMFS2-Datenspeicher zuzugreifen, und führen Sie dann dasUpgrade von VMFS2 auf VMFS3 durch.

Nach dem Upgrade des VMFS2-Datenspeichers auf VMFS3 steht der Datenspeicher auf dem ESXi 5.x-Host nicht mehr zur Verfügung, auf dem Sie das Upgrade auf VMFS5 abschließen.

n Sie können ein Upgrade von VMFS3 auf VMFS5 vornehmen, während der Datenspeicher mit einge-schalteten virtuellen Maschinen benutzt wird.

n Bei der Durchführen eines Upgrades behält Ihr Host alle Dateien im Datenspeicher.

n Das Datenspeicher-Upgrade ist ein Prozess, der nur in eine Richtung ausgeführt werden kann. Nachdem Upgrade des Datenspeichers können Sie ihn auf sein vorheriges VMFS-Format zurücksetzen.

Ein aktualisierter VMFS5-Datenspeicher weicht von einem neu formatierten VMFS5 ab.

Tabelle 16‑3. Aktualisierte und neu formatierte VMFS5-Datenspeicher im Vergleich

Merkmale Aktualisierter VMFS5 Formatierter VMFS5

Dateiblockgröße 1, 2, 4 oder 8 MB 1MB

Größe des untergeordneten Blocks 64KB 8 KB

vSphere-Speicher

158 VMware, Inc.

Tabelle 16‑3. Aktualisierte und neu formatierte VMFS5-Datenspeicher im Vergleich (Fortsetzung)

Merkmale Aktualisierter VMFS5 Formatierter VMFS5

Partitionsformat MBR. Die Konvertierung in GPT erfolgterst, nachdem Sie den Datenspeicher aufüber 2 TB erweitert haben.

GPT

Datenspeichergrenzwerte Behält die Beschränkungen des VMFS3-Datenspeichers bei.

Upgrade eines Datenspeichers auf VMFS5 im vSphere Web ClientSie können ein Upgrade eines VMFS3- auf einen VMFS5-Datenspeicher vornehmen. VMFS5 ist eine neueVersion des VMware-Clusterdateisystems mit Verbesserungen der Leistung und Skalierbarkeit.

Sie können ein Upgrade vornehmen, während der Datenspeicher mit eingeschalteten virtuellen Maschinenbenutzt wird.

Voraussetzungen

n Wenn Sie einen VMFS2-Datenspeicher haben, müssen Sie erst mit einem ESX/ESXi 3.x- oder ESX/ESXi4.x-Host ein Upgrade auf VMFS3 vornehmen. Verwenden Sie den Client des vSphere-Hosts, um aufden Host zuzugreifen.

n Alle Hosts, die auf den Datenspeicher zugreifen, müssen VMFS5 unterstützen.

n Stellen Sie sicher, dass das Volume, das aktualisiert werden soll, mindestens über 2 MB an verfügbarenfreien Blöcken und einen freien Dateideskriptor verfügt.

n Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen vonDatenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie auf den Datenspeicher, der einem Upgrade unterzogen werden soll.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie auf Upgrade auf VMFS5.

4 Überprüfen Sie, dass die Hosts, die auf den Datenspeicher zugreifen, VMFS5 unterstützen.

5 Klicken Sie auf OK, um das Upgrade zu starten

6 Führen Sie auf allen Hosts, die dem Datenspeicher zugewiesen sind, eine erneute Prüfung durch.

Der Datenspeicher wird einem Upgrade auf VMFS5 unterzogen und ist für alle Hosts verfügbar, die mitdem Datenspeicher verbunden sind.

Erhöhen der VMFS-DatenspeicherkapazitätWenn Ihr VMFS-Datenspeicher mehr Speicherplatz benötigt, erhöhen Sie die Datenspeicherkapazität. Siekönnen die Kapazität dynamisch erhöhen, indem Sie eine Datenspeichererweiterung vergrößern oder eineneue Erweiterung hinzufügen.

Verwenden Sie zum Vergrößern der Datenspeicherkapazität eine der folgenden Methoden:

n Erweitern Sie dynamisch eine vergrößerbare Datenspeichererweiterung, damit der Datenspeicher diebenachbarte Kapazität belegt. Die Erweiterung wird als vergrößerbar angesehen, wenn das zugrundeliegende Speichergerät unmittelbar hinter der Erweiterung über freien Speicherplatz verfügt.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 159

n Fügen Sie dynamisch eine neue Erweiterung hinzu. Der Datenspeicher kann sich über bis zu 32 Erwei-terungen mit einer Größe von jeweils mehr als 2 TB erstrecken und dennoch als ein einziges Volumeerscheinen. Der zusammengefasste VMFS-Datenspeicher kann jederzeit jede einzelne oder alle seinerErweiterungen verwenden. Es ist nicht notwendig, dass eine bestimmte Erweiterung aufgefüllt wird,bevor die nächste Erweiterung verwendet werden kann.

Hinweis Datenspeicher, die nur hardwaregestützte Sperren unterstützen, die auch als Atomic Test andSet-Mechanismus (ATS) bezeichnet werden, können sich über Nicht-ATS-Geräte erstrecken. Weitere In-formationen finden Sie unter „VMFS-Sperrmechanismen“, auf Seite 151.

Erhöhen der VMFS-Datenspeicherkapazität im vSphere Web ClientWenn Sie einem Datenspeicher virtuelle Maschinen hinzufügen müssen oder die auf einem Datenspeichervorhandenen virtuellen Maschinen mehr Speicherplatz benötigen, können Sie die Kapazität des VMFS-Da-tenspeichers dynamisch erhöhen.

Falls eingeschaltete virtuelle Maschinen auf einen gemeinsam genutzten Datenspeicher zugreifen und dieservollständig beschrieben ist, können Sie die Kapazität des Datenspeichers nur von dem Host aus erhöhen,mit dem die eingeschalteten virtuellen Maschinen registriert sind.

Voraussetzungen

Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen von Da-tenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Wählen Sie den zu vergrößernden Datenspeicher aus und klicken Sie auf das Symbol „Datenspeicher-kapazität erhöhen“.

2 Wählen Sie ein Gerät aus der Liste der Speichergeräte aus.

Die Auswahlmöglichkeiten hängen davon ab, ob ein erweiterbares Speichergerät verfügbar ist.

Option Beschreibung

So vergrößern Sie eine vorhandeneErweiterung

Wählen Sie das Gerät aus, das in der Spalte „Erweiterbar“ den Eintrag „Ja“hat. Ein Speichergerät wird als „Erweiterbar“ gemeldet, wenn es sofortnach der Erweiterung über freien Speicherplatz verfügt.

So fügen Sie eine neue Erweiterunghinzu

Wählen Sie das Gerät aus, das in der Spalte „Erweiterbar“ den Eintrag„Nein“ hat.

3 Prüfen Sie das aktuelle Festplattenlayout auf die verfügbaren Konfigurationen und klicken Sie auf

Weiter.

4 Wählen Sie eine Konfigurationsoption im unteren Fenster aus.

Die angezeigten Optionen variieren abhängig von dem aktuellen Festplattenlayout und Ihrer vorheri-gen Auswahl.

Option Beschreibung

Freien Speicherplatz nutzen, um ei-ne neue Erweiterung hinzuzufügen

Fügt den freien Speicherplatz auf dieser Festplatte als neue Erweiterunghinzu.

Freien Speicherplatz nutzen, um ei-ne vorhandene Erweiterung zu er-weitern

Vergrößert eine vorhandene Erweiterung auf die erforderliche Kapazität.

vSphere-Speicher

160 VMware, Inc.

Option Beschreibung

Freien Speicherplatz verwenden Stellt eine Erweiterung im verbleibenden freien Speicherplatz auf der Fest-platte bereit. Diese Option ist nur verfügbar, wenn Sie eine Erweiterunghinzufügen.

Alle verfügbaren Partitionen ver-wenden

Weist einer einzelnen Erweiterung die gesamte Festplatte zu. Diese Optionist nur verfügbar, wenn Sie eine Erweiterung hinzufügen und die zu for-matierende Festplatte nicht leer ist. Die Festplatte wird neu formatiert unddabei werden alle darauf enthaltenen Datenspeicher und Daten gelöscht.

5 Geben Sie die Kapazität der Erweiterung an.

Die Mindesterweiterungsgröße ist 1,3 GB. Standardmäßig wird der gesamte freie Speicherplatz desSpeichergeräts zur Verfügung gestellt.

6 Klicken Sie auf Weiter.

7 Überprüfen Sie das vorgeschlagene Layout und die neue Konfiguration des Datenspeichers, und kli-cken Sie anschließend auf Beenden.

Unmounten von VMFS- oder NFS-DatenspeichernWenn Sie einen Datenspeicher unmounten, bleibt dieser intakt, er wird jedoch von den von Ihnen angegebe-nen Hosts nicht mehr angezeigt. Der Datenspeicher wird weiterhin auf anderen Hosts angezeigt, auf denener gemountet bleibt. Wenn Sie einen NFS-Datenspeicher von allen Hosts unmounten, wird er in der Be-standsliste nicht mehr angezeigt.

Führen Sie während des Unmountens keine Konfigurationsvorgänge aus, die E/A-Datenspeichervorgängezum Ergebnis haben könnten.

Hinweis Stellen Sie bei NFS- oder VMFS-Datenspeichern sicher, dass der Datenspeicher nicht für vSphereHA-Taktsignale verwendet wird. vSphere HA-Taktsignale verhindern das Unmounten des Datenspeichersnicht. Wenn jedoch der Datenspeicher für das Taktsignal verwendet wird, kann das Unmounten des Daten-speichers dazu führen, dass der Host ausfällt und eine aktive virtuelle Maschine neu gestartet wird.

Voraussetzungen

Stellen Sie vor dem Unmounten von VMFS-Datenspeichern sicher, dass die folgenden Voraussetzungen er-füllt sind:

n Es dürfen sich keine virtuelle Maschinen im Datenspeicher befinden.

n Der Datenspeicher wird nicht von Speicher-DRS verwaltet.

n Storage I/O Control für diesen Datenspeicher ist deaktiviert.

Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen von Da-tenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie mit der rechten Maustaste auf den entsprechenden Datenspeicher und wählen Sie Daten‐bank unmounten.

2 Wenn der Datenspeicher gemeinsam genutzt wird, geben Sie an, welche Hosts nicht mehr auf den Da-tenspeicher zugreifen sollen.

3 Bestätigen Sie, dass Sie den Datenspeicher unmounten möchten.

Nachdem Sie einen VMFS-Datenspeicher ungemountet haben, wird der Datenspeicher als inaktiv markiert.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 161

Weiter

Wenn Sie den VMFS-Datenspeicher im Zuge eines ordnungsgemäßen Verfahrens zum Entfernen eines Spei-chergeräts unmounten, können Sie jetzt das Speichergerät trennen, auf dem der Datenspeicher gesichertwird. Weitere Informationen hierzu finden Sie unter „Speichergeräte trennen“, auf Seite 139.

Mounten von VMFS-DatenspeichernSie können einen nicht gemounteten VMFS-Datenspeicher mounten.

Voraussetzungen

Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen von Da-tenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie mit der rechten Maustaste auf den Datenspeicher, der gemountet werden soll, und wählenSie Datenspeicher mounten.

Hinweis Der Datenspeicher, der von einigen Hosts entmountet wird, während er auf anderen ge-mountet wird, wird in der Bestandsliste als aktiv angezeigt.

2 Wählen Sie die Hosts aus, die Zugriff auf den Datenspeicher benötigen.

Entfernen des VMFS-Datenspeichers im vSphere Web ClientSie können jede Art von VMFS-Datenspeicher löschen, einschließlich Kopien, die Sie gemountet haben, ohnesie neu zu signieren. Beim Löschen eines Datenspeichers wird er zerstört und auf keinem Host mehr ange-zeigt, der davor Zugriff auf ihn hatte.

Hinweis Der Datenspeicher-Löschvorgang löscht alle Dateien permanent, die virtuelle Maschinen auf demDatenspeicher zugeordnet sind. Obwohl Sie den Datenspeicher ohne Unmounten löschen können, empfiehltes sich, zuerst den Datenspeicher zu unmounten.

Voraussetzungen

n Entfernen oder migrieren Sie alle virtuellen Maschinen aus dem Datenspeicher.

n Stellen Sie sicher, dass kein anderer Host auf den Datenspeicher zugreift.

n Deaktivieren Sie Speicher-DRS für den Datenspeicher.

n Deaktivieren Sie Storage I/O Control für den Datenspeicher.

n Stellen Sie sicher, dass der Datenspeicher nicht für vSphere HA-Taktsignale verwendet wird.

n Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen vonDatenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Klicken Sie zum Entfernen mit der rechten Maustaste auf den Datenspeicher.

2 Wählen Sie Alle vCenter‐Aktionen > Datenspeicher löschen aus.

3 Bestätigen Sie, dass Sie den Datenspeicher entfernen möchten.

vSphere-Speicher

162 VMware, Inc.

SpeicherfilterungvCenter Server stellt Speicherfilter zur Verfügung, um eine Beschädigung von Speichergeräten oder Beein-trächtigung der Leistung zu vermeiden, die durch eine nicht unterstützte Nutzung von Speichergeräten ver-ursacht werden kann. Diese Filter sind standardmäßig verfügbar.

Tabelle 16‑4. Speicherfilter

Filtername Beschreibung

config.vpxd.filter.vmfsFilter(VMFS-Filter)

Filtert Speichergeräte oder LUNs heraus, die bereits von einem VMFS-Datenspeicher aufeinem von vCenter Server verwalteten Host verwendet werden. Die LUNs werden nichtals Kandidaten angezeigt, die mit einem anderen VMFS-Datenspeicher formatiert oderals RDM verwendet werden sollen.

config.vpxd.filter.rdmFilter(RDM-Filter)

Filtert LUNs heraus, auf die bereits von einer RDM-Datei auf einem von vCenter Serververwalteten Host verwiesen wird. Die LUNs werden nicht als Kandidaten angezeigt, diemit VMFS formatiert oder von einer anderen RDM-Datei verwendet werden sollen.Damit Ihre virtuellen Maschinen auf dieselbe LUN zugreifen können, müssen die virtuel-len Maschinen dieselbe RDM-Zuordnungsdatei nutzen. Informationen über diesen Konfi-gurationstyp finden Sie in der Dokumentation Handbuch zur vSphere-Ressourcenverwal-tung.

config.vpxd.filter.SameHostsAndTran-sportsFilter(Filter für dieselben Hosts und Trans-porte)

Filtert LUNs heraus, die aufgrund einer Inkompatibilität des Hosts oder des Speichertypsnicht zur Verwendung als VMFS-Datenspeichererweiterungen geeignet sind. Verhindert,dass Sie die folgenden LUNs als Erweiterungen hinzufügen:n LUNs, die nicht für alle Hosts verfügbar gemacht werden, die den ursprünglichen

VMFS-Datenspeicher gemeinsam nutzen.n LUNs, die einen Speichertyp nutzen, der von demjenigen abweicht, den der ur-

sprüngliche VMFS-Datenspeicher verwendet. Sie können beispielsweise keine FibreChannel-Erweiterung zu einem VMFS-Datenspeicher auf einem lokalen Speicherge-rät hinzufügen.

config.vpxd.filter.hostRescanFilter(Filter für das erneute Prüfen einesHosts)

Führt eine automatische erneute Prüfung und Aktualisierung von VMFS-Datenspeicherndurch, nachdem Sie Vorgänge zur Verwaltung von Datenspeichern durchgeführt haben.Der Filter hilft bei der Bereitstellung einer einheitlichen Ansicht aller VMFS-Datenspei-cher auf allen von vCenter Server verwalteten Hosts.Hinweis Wenn Sie eine neue LUN für einen Host oder Cluster bereitstellen, führt derHost automatisch eine erneute Prüfung durch, unabhängig davon, ob der Filter zum er-neuten Prüfen des Hosts aktiviert oder deaktiviert ist.

Ausschalten von SpeicherfilternWenn Sie VMFS-Datenspeicherverwaltungsvorgänge ausführen, verwendet vCenter Server Standardspei-cherschutzfilter. Die Filter helfen Ihnen Speicherschäden zu vermeiden, indem nur die Speichergeräte abge-rufen werden, die für einen bestimmten Vorgang verwendet werden können. Ungeeignete Geräte werdennicht zur Auswahl angezeigt. Sie können die Filter deaktivieren, um alle Geräte anzuzeigen.

Voraussetzungen

Wenden Sie sich an den VMware-Support, bevor Sie Änderungen an den Gerätefiltern vornehmen. Sie kön-nen die Filter nur dann deaktivieren, wenn Sie über andere Methoden zum Verhindern von Gerätebeschädi-gungen verfügen.

Vorgehensweise

1 Navigieren Sie zum vCenter Server im Objektnavigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie unter Einstellungen auf Erweiterte Einstellungen und dann auf Bearbeiten.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 163

4 Geben Sie den Filter an, der deaktiviert werden soll.

a Geben Sie im Textfeld Name einen entsprechenden Filternamen ein.

Name Beschreibung

config.vpxd.filter.vmfsFilter VMFS-Filter

config.vpxd.filter.rdmFilter RDM-Filter

config.vpxd.filter.SameHost-sAndTransportsFilter

Filter für dieselben Hosts und Transporte

config.vpxd.filter.hostRescanFilter Filter für das erneute Prüfen eines HostsHinweis Wenn Sie den Filter für das erneute Prüfen eines Hosts deak-tivieren, führen Ihre Hosts weiterhin eine erneute Prüfung durch, so-bald Sie für einen Host oder Cluster eine neue LUN bereitstellen.

b Geben Sie im Textfeld Wert für den angegebenen Schlüssel False ein.

5 Klicken Sie auf Hinzufügen und dann auf OK, um Ihre Änderungen zu speichern.

Es ist nicht erforderlich, dass Sie das vCenter Server-System neu starten.

Dynamische Festplattenspiegelung einrichtenMit dem logischen Volume-Manager der virtuellen Maschine ist die Spiegelung virtueller Festplatten nor-malerweise nicht möglich. Wenn Ihre virtuellen Microsoft Windows-Maschinen jedoch Unterstützung fürdynamische Festplatten bieten, können Sie die virtuelle Maschinen vor einem ungeplanten Speichergeräte-verlust schützen, indem Sie virtuelle Festplatten in zwei SAN-LUNs spiegeln.

Voraussetzungen

n Verwenden Sie eine virtuelle Windows-Maschine, die dynamische Festplatten unterstützt.

n Erforderliche Berechtigung: Erweitert

Vorgehensweise

1 Erstellen Sie eine virtuelle Maschine mit zwei virtuellen Festplatten.

Achten Sie darauf, die Festplatten in verschiedenen Datenspeichern zu platzieren.

2 Melden Sie sich an Ihre virtuelle Maschine an und konfigurieren Sie die Festplatten als dynamisch ge-spiegelte Festplatten.

Weitere Informationen finden Sie in der Microsoft-Dokumentation.

3 Schalten Sie die virtuelle Maschine nach der Synchronisierung der Festplatten aus.

4 Ändern Sie die Einstellungen für die virtuelle Maschine, um die Verwendung der dynamischen Fest-plattenspiegelung zuzulassen.

a Klicken Sie mit der rechten Maustaste auf die virtuelle Maschine und wählen Sie Einstellungen be‐arbeiten.

b Klicken Sie auf die Registerkarte VM‐Optionen, und erweitern Sie das Menü Erweitert.

c Klicken Sie auf Konfiguration bearbeiten neben den Konfigurationsparametern.

vSphere-Speicher

164 VMware, Inc.

d Klicken Sie auf Zeile hinzufügen und fügen Sie folgende Parameter hinzu:

Name Wert

scsi#.returnNoConnectDuringAPD Wahr

scsi#.returnBusyOnNoConnectStatus Falsch

e Klicken Sie auf OK.

Erfassen von Diagnoseinformationen für ESXi -Hosts auf einemSpeichergerät

Während eines Hostfehlers muss ESXi in der Lage sein, Diagnoseinformationen an einem vorkonfiguriertenSpeicherort zur Diagnose und für technischen Support zu speichern.

In der Regel wird eine Partition zum Erfassen von Diagnoseinformationen, auch als VMkernel-Core-Dumpbezeichnet, auf einem lokalen Speichergerät während der ESXi-Installation erstellt. Sie können dieses Stan-dardverhalten außer Kraft setzen, wenn Sie z. B. gemeinsam genutzte Speichergeräte anstelle von lokalemSpeicher verwenden. Um das automatische Formatieren lokaler Geräte zu verhindern, trennen Sie die Gerä-te vom Host, bevor Sie ESXi installieren und den Host zum ersten Mal einschalten. Später können Sie einenSpeicherort für die Erfassung von Diagnoseinformationen auf einem lokalen oder Remotespeichergerät ein-richten.

Wenn Sie Speichergeräte verwenden, können Sie unter zwei Optionen zum Einrichten der Core-Dump-Er-fassung wählen. Sie können eine vorkonfigurierte Diagnosepartition auf einem Speichergerät oder eine Da-tei in einem VMFS-Datenspeicher verwenden.

n Einrichten einer Gerätepartition als Core-Dump-Speicherort auf Seite 165Erstellen Sie eine Diagnosepartition für Ihren ESXi-Host.

n Einrichten einer Datei als Core-Dump-Speicherort auf Seite 167Wenn Ihre verfügbare Core-Dump-Partition nicht groß genug ist, können Sie ESXi zum Generieren desCore-Dumps als Datei konfigurieren.

Einrichten einer Gerätepartition als Core-Dump-SpeicherortErstellen Sie eine Diagnosepartition für Ihren ESXi-Host.

Beim Erstellen einer Diagnosepartition gelten die folgenden Gesichtspunkte:

n Sie können keine Diagnosepartition auf einer iSCSI-LUN erstellen, auf die über den Software-iSCSI-oder abhängigen Hardware-iSCSI-Adapter zugegriffen wird. Weitere Informationen zu Diagnoseparti-tionen mit iSCSI finden Sie unter „Allgemeine Empfehlungen für das Starten von einem iSCSI-SAN“,auf Seite 115.

n Sie können keine Diagnosepartition auf einer Software-FCoE-LUN erstellen.

n Sofern Sie keine festplattenlosen Server einsetzen, richten Sie eine Diagnose-Partition auf einem lokalenSpeicher ein.

n Für jeden Host ist eine Diagnosepartition mit 2,5 GB erforderlich. Wenn mehrere Hosts eine Diagnose-partition auf einer SAN-LUN gemeinsam nutzen, sollte die Partition groß genug sein, um die Core-Dumps aller Hosts unterzubringen.

n Falls ein Host, der eine gemeinsame Diagnosepartition verwendet, ausfällt, starten Sie den Host neuund extrahieren Sie die Protokolldateien unmittelbar nach dem Ausfall. Andernfalls könnte der zweiteHost, der ausfällt, bevor Sie die Diagnosedaten des ersten Hosts sammeln, nicht in der Lage sein, denCore-Dump zu speichern.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 165

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie mit der rechten Maustaste auf den Host, und wählen Sie Diagnosepartition hinzufügenaus.

Wenn diese Option nicht angezeigt wird, ist auf dem Host bereits eine Diagnosepartition vorhanden.

3 Legen Sie den Diagnosepartitionstyp fest.

Option Beschreibung

Privater lokaler Speicher Erstellt die Diagnosepartition auf einer lokalen Festplatte. In dieser Partiti-on werden ausschließlich Fehlerinformationen für Ihren Host gespeichert.

Privater SAN-Speicher Erstellt die Diagnosepartition auf einer nicht freigegebenen SAN-LUN. Indieser Partition werden ausschließlich Fehlerinformationen für Ihren Hostgespeichert.

Freigegebener SAN-Speicher Erstellt die Diagnosepartition auf einer freigegebenen SAN-LUN. In dieserPartition, auf die mehrere Hosts zugreifen, können ggf. Fehlerinformatio-nen für mehrere Host gespeichert werden.

4 Klicken Sie auf Weiter.

5 Wählen Sie das Gerät, das Sie für die Diagnosepartition verwenden möchten, und klicken Sie auf Wei‐ter.

6 Überprüfen Sie die Konfigurationsinformationen für die Partition, und klicken Sie auf Beenden.

Verifizieren einer DiagnosepartitionVerwenden Sie den Befehl esxcli, um sich zu vergewissern, dass die Diagnosepartition eingestellt ist.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Listen Sie die Partitionen auf, um zu überprüfen, dass eine Diagnosepartition festgelegt ist.

esxcli --server=Servername system coredump partition list

Wenn eine Diagnosepartition festgelegt ist, zeigt der Befehl Informationen über sie an. Sonst zeigt der Be-fehl, dass keine Partition aktiviert und konfiguriert ist.

Weiter

Verwenden Sie die vCLI-Befehle zum Verwalten der Diagnosepartition des Hosts. Siehe vSphere Command-Line Interface Concepts and Examples.

vSphere-Speicher

166 VMware, Inc.

Einrichten einer Datei als Core-Dump-SpeicherortWenn Ihre verfügbare Core-Dump-Partition nicht groß genug ist, können Sie ESXi zum Generieren desCore-Dumps als Datei konfigurieren.

Normalerweise weist die Core-Dump-Partition für neue Installationen von ESXi 5.5 und höher eine Größevon 2,5 GB auf. Bei Upgrades von früheren Versionen auf ESXi 5.5 ist die Core-Dump-Partition auf 100 MBfür ESXi-Abstürze beschränkt. Für viele große Systeme ist dieser Grenzwert zu niedrig, sodass der Speicher-platz nicht ausreicht und die Core-Dump-Protokolldateien abgeschnitten werden. Bei Upgrades mit Begren-zungen auf 100 MB-Partitionen erstellt das System möglicherweise während des Startvorgangs eine Core-Dump-Datei in einem VMFS-Datenspeicher. Wenn keine Core-Dump-Datei erstellt wird, können Sie diesemanuell erstellen.

Hinweis Software-iSCSI und Software-FCoE werden für Speicherorte von Core-Dump-Dateien nicht unter-stützt.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Erstellen Sie eine Core-Dump-Datei eines VMFS-Datenspeichers durch Ausführen des folgenden Be-fehls:

esxcli system coredump file add -d DATASTORE_UUID -f FILENAME

2 Stellen Sie sicher, dass die Datei erstellt wurde:

esxcli system coredump file list

Es wird eine Ausgabe ähnlich der folgenden angezeigt:

Path Active Configured Size

------------------------------------------------ ------ ---------- ---------

/vmfs/volumes/52b021c3-.../vmkdump/test.dumpfile false false 104857600

3 Legen Sie die Core-Dump-Datei für den Host fest:

esxcli system coredump file set -p /vmfs/volumes/DATASTORE_UUID/vmkdump/FILENAME

Beispiel:

esxcli system coredump file set -p /vmfs/volumes/52b021c3-

f6b3da50-4c76-001d0904c5a5/vmkdump/test.dumpfile

4 Stellen Sie sicher, dass die Core-Dump-Datei aktiv und konfiguriert ist:

esxcli system coredump file list

Eine Ausgabe ähnlich der Folgenden zeigt an, dass die Core-Dump-Datei aktiv und konfiguriert ist:

Path Active Configured Size

------------------------------------------------ ------ ---------- ---------

/vmfs/volumes/52b021c3-.../vmkdump/test.dumpfile True True 104857600

Weiter

Informationen zu anderen Befehlen, die Sie zum Verwalten der Core-Dump-Dateien verwenden können,finden Sie in der Dokumentation vSphere Command-Line Interface Reference.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 167

Überprüfen der Metadatenkonsistenz mit VOMAVerwenden Sie VMware Ondisk Metadata Analyser (VOMA), wenn Probleme bei Ihrem VMFS-Datenspei-cher auftreten und Sie die Metadatenkonsistenz von VMFS oder das logische Volume, das das VMFS stützt,überprüfen müssen.

Problem

Die folgenden Beispiele beschreiben Fälle, in denen Sie möglicherweise eine Überprüfung der Metadatendurchführen müssen:

n Es treten SAN-Ausfälle auf.

n Nach einer erneuten RAID-Erstellung oder dem Ersetzen einer Festplatte.

n Die Datei vmkernel.log enthält Metadatenfehler.

n Sie können im VMFS-Datenspeicher nicht auf Dateien zugreifen, die nicht von einem anderen Host ge-nutzt werden.

Lösung

Führen Sie zum Überprüfen der Metadatenkonsistenz VOMA von der Befehlszeilenschnittstelle eines ESXi-Hosts der Version 5.1 oder höher aus. VOMA kann sowohl das logische Volume als auch das VMFS auf In-konsistenzen bei den Metadaten überprüfen. Sie können VOMA auf VMFS3- und VMFS5-Datenspeichernverwenden. VOMA wird im Nur-Lesen-Modus ausgeführt und dient lediglich zum Erkennen von Proble-men. VOMA behebt die erkannten Fehler nicht. Wenden Sie sich an den VMware-Support, wenn von VO-MA gemeldete Fehler behoben werden sollen.

Folgen Sie diesen Anweisungen, wenn Sie das VOMA-Tool verwenden:

n Stellen Sie sicher, dass der VMFS-Datenspeicher, den Sie analysieren, sich nicht über mehrere Erweite-rungen erstreckt. Sie können VOMA nur auf einen Datenspeicher mit einer Erweiterung anwenden.

n Schalten Sie alle ausgeführten virtuellen Maschinen aus oder migrieren Sie sie in einen anderen Daten-speicher.

Führen Sie folgende Schritte aus, wenn Sie das VOMA-Tool zum Überprüfen der VMFS-Metadatenkonsis-tenz verwenden.

1 Ermitteln Sie den Namen und die Partitionsnummer des Geräts, das den zu überprüfenden VMFS-Da-tenspeicher stützt.

#esxcli storage vmfs extent list

Der Gerätename und die Partitionsspalten in der Ausgabe geben das Gerät an. Beispiel:

Volume Name XXXXXXXX Device Name Partition

1TB_VMFS5 XXXXXXXX naa.600508e000000000b367477b3be3d703 3

2 Führen Sie VOMA aus, um auf VMFS-Fehler zu prüfen.

Geben Sie den absoluten Pfad zur Gerätepartition an, die den VMFS-Datenspeicher stützt. Geben Siezudem eine Partitionsnummer mit dem Gerätenamen an. Beispiel:

# voma -m vmfs -f check -d /vmfs/devices/disks/naa.600508e000000000b367477b3be3d703:3

In der Ausgabe werden mögliche Fehler aufgelistet. Beispielsweise deutet die folgende Ausgabe daraufhin, dass die Taktsignaladresse ungültig ist.

XXXXXXXXXXXXXXXXXXXXXXX

Phase 2: Checking VMFS heartbeat region

ON-DISK ERROR: Invalid HB address

Phase 3: Checking all file descriptors.

vSphere-Speicher

168 VMware, Inc.

Phase 4: Checking pathname and connectivity.

Phase 5: Checking resource reference counts.

Total Errors Found: 1

Das VOMA-Tool verwendet die folgenden Optionen.

Tabelle 16‑5. VOMA-Befehlsoptionen

Befehlsoption Beschreibung

-m | --module Das auszuführende Modul: vmfs oder lvm. Wenn Sie vmfsangeben, werden zudem Minimalüberprüfungen für LVMdurchgeführt. Das Standardmodul ist vmfs.

-f | --func Durchzuführende Funktionen:query – listet die vom Modul unterstützten Funktionenauf.check – prüft auf Fehler.

-d|--device Zu inspizierendes Gerät bzw. zu inspizierende Festplatte.Stellen Sie sicher, dass Sie den absoluten Pfad zur Geräte-partition angeben, die den VMFS-Datenspeicher stützt.Zum Beispiel: /vmfs/devices/disks/naa.00000000000000000000000000:1.

-s | --logfile Geben Sie die Protokolldatei zum Ausgeben der Ergebnissean.

-v | --version Zeigt die VOMA-Version an.

-h|--help Zeigt einen Hilfetext zum VOMA-Befehl an.

Konfigurieren des Cachespeichers für VMFS-ZeigerblöckeSie können erweiterte VMFS-Parameter verwenden, um Zeigerblock-Cachespeicher zu konfigurieren.

Während die Größe der VM-Dateien im VMFS-Datenspeicher wächst, steigt auch die Anzahl der von diesenDateien verwendeten Zeigerblöcke. Zeigerblöcke dienen dazu, Dateiblöcke in großen VM-Dateien und aufvirtuellen Festplatten in einem VMFS-Datenspeicher zu adressieren.

Sie können die minimale und maximale Größe des Zeigerblock-Cachespeichers auf jedem ESXi-Host konfi-gurieren. Wenn die Größe des Zeigerblock-Cachespeichers sich der konfigurierten maximalen Größe nähert,entfernt ein Bereinigungsmechanismus einige Zeigerblockeinträge aus dem Cache, damit neue Zeigerblöckeeingelesen werden können.

Wählen Sie die maximale Größe des Zeigerblock-Cachespeichers basierend auf der Arbeitsgröße aller geö-ffneten virtuellen Festplattendateien in den VMFS-Datenspeichern aus. Alle VMFS-Datenspeicher auf demHost verwenden einen einzigen Zeigerblock-Cachespeicher.

Der Mindestwert basiert auf dem garantierten Mindest-Arbeitsspeicher, der dem Cache vom System zuge-teilt wird. 1 TB Speicherplatz für geöffnete Dateien erfordert etwa 4 MB Arbeitsspeicher.

Verwenden Sie die folgenden Parameter, um die Mindest- und Maximalwerte für den Zeigerblock-Cache-speicher zu konfigurieren.

Tabelle 16‑6. Erweiterte Parameter zum Anpassen des Zeigerblock-Cachespeichers

Parameter Werte Beschreibung

VMFS3.MaxAddressableSpaceTB Der Standardwert ist 32 (in TB). Von VMFS-Cache unterstützte maxi-male Größe aller geöffneten Dateien,bevor die Bereinigung startet.

Kapitel 16 Arbeiten mit Datenspeichern

VMware, Inc. 169

Tabelle 16‑6. Erweiterte Parameter zum Anpassen des Zeigerblock-Cachespeichers (Fortsetzung)

Parameter Werte Beschreibung

VMFS3.MinAddressableSpaceTB Der Standardwert ist 10 (in TB). Von VMFS-Cache garantiert unter-stützte minimale Größe aller geöffne-ten Dateien.

Informationen über die Konfiguration der erweiterten Parameter finden Sie unter „Festlegen von erweiter-ten Hostattributen im vSphere Web Client“, auf Seite 145.

Festlegen von erweiterten Hostattributen im vSphere Web ClientSie können für einen Host erweiterte Hostattribute festlegen.

Vorsicht Das Ändern der erweiterten Optionen wird nicht unterstützt, es sei denn, der technische Sup-port von VMware oder ein KB-Artikel weisen Sie an, dies zu tun. In allen anderen Fällen wird das Änderndieser Optionen als nicht unterstützt betrachtet. In den meisten Fällen werden mit den Standardeinstellun-gen bereits beste Ergebnisse erzielt.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie unter System auf Erweiterte Systemeinstellungen.

4 Wählen Sie unter „Erweiterte Einstellungen“ den entsprechenden Eintrag.

5 Klicken Sie auf Bearbeiten, um den Wert zu bearbeiten.

6 Klicken Sie auf OK.

vSphere-Speicher

170 VMware, Inc.

Raw-Gerätezuordnung 17Die Raw-Gerätezuordnung bietet virtuellen Maschinen einen Mechanismus für den direkten Zugriff auf ei-ne LUN im physischen Speichersubsystem (nur Fibre-Channel oder iSCSI).

Die folgenden Themen enthalten Informationen über RDMs und bieten Anleitungen zum Erstellen und Ver-walten von RDMs.

Dieses Kapitel behandelt die folgenden Themen:

n „Wissenswertes zur Raw-Gerätezuordnung“, auf Seite 171

n „Raw-Gerätezuordnungseigenschaften“, auf Seite 175

n „Erstellen von virtuellen Maschinen mit RDMs im vSphere Web Client“, auf Seite 177

n „Verwalten von Pfaden für eine zugeordnete LUN im vSphere Web Client“, auf Seite 178

Wissenswertes zur Raw-GerätezuordnungEine Raw-Gerätezuordnung (RDM) ist eine Zuordnungsdatei in einem separaten VMFS-Volume, die alsProxy für ein physisches Speichergerät fungiert. Die RDM ermöglicht einer virtuellen Maschine den direk-ten Zugriff und die direkte Verwendung des Speichergeräts. Die RDM enthält Metadaten, mit denen Fest-plattenzugriffe auf das physische Gerät verwaltet und umgeleitet werden.

Die Datei bietet Ihnen einige der Vorteile des direkten Zugriffs auf ein physisches Gerät, während Sie gleich-zeitig verschiedene Vorteile einer virtuellen Festplatte im VMFS nutzen können. Folglich verbindet die Dateidie VMFS-Verwaltungs- und Wartungsfreundlichkeit mit einem Raw-Gerätezugriff.

Raw-Gerätezuordnungen können beispielsweise wie folgt beschrieben werden: „Zuordnen eines Raw-Ge-räts zu einem Datenspeicher“, „Zuordnen einer System-LUN“ oder „Zuordnen einer Festplattendatei zu ei-nem physischen Festplatten-Volume“. All diese Zuordnungsbegriffe beziehen sich auf Raw-Gerätezuord-nungen.

VMware, Inc. 171

Abbildung 17‑1. Raw-Gerätezuordnung

VMFS-Volume

VirtuelleMaschine

Adress-auflösung

öffnet liest, schreibt

ZugeordnetesGerät

Zuordnungsdatei

Obwohl VMFS für die meisten virtuellen Festplattenspeicher von VMware empfohlen wird, kann es in Ein-zelfällen erforderlich sein, Raw-LUNs oder logische Festplatten in einem SAN zu verwenden.

So ist es beispielsweise in folgenden Situationen erforderlich, Raw-LUNs zusammen mit zu Raw-Geräte-zuordnungen zu verwenden:

n Wenn in der virtuellen Maschine ein SAN-Snapshot oder auf Ebenen basierende Anwendungen ausge-führt werden. Die Raw-Gerätezuordnung unterstützt Systeme zur Auslagerung von Datensicherungen,indem SAN-eigene Funktionen verwendet werden.

n In allen MSCS-Clusterszenarien, die sich über mehrere physische Hosts erstrecken (in Virtuell-zu-Virtu-ell-Clustern und in Physisch-zu-Virtuell-Clustern). In diesem Fall sollten Clusterdaten und Quorum-festplatten vorzugsweise als Raw-Gerätezuordnungen konfiguriert werden und nicht als virtuelle Fest-platten auf einem freigegebenen VMFS.

Stellen Sie sich eine RDM als eine symbolische Verknüpfung zwischen einem VMFS-Volume und einer Raw-LUN vor. Die Zuordnung zeigt die LUNs wie Dateien auf einem VMFS-Volume an. In der Konfiguration dervirtuellen Maschine wird auf die Raw-Gerätezuordnung und nicht auf die Raw-LUN verwiesen. Die Raw-Gerätezuordnung enthält einen Verweis auf die Raw-LUN.

Mithilfe von Raw-Gerätezuordnungen ist Folgendes möglich:

n Migrieren virtueller Maschinen mit vMotion über Raw-LUNs.

n Hinzufügen von Raw-LUNs zu virtuellen Maschinen mithilfe des vSphere Web Client

n Verwenden von Dateisystemfunktionen wie verteilte Dateisperrung, Berechtigungen und Benennung

Für Raw-Gerätezuordnungen gibt es zwei Kompatibilitätsmodi:

n Mit dem Modus „Virtuelle Kompatibilität“ kann sich eine Raw-Gerätezuordnung ebenso wie eine virtu-elle Festplattendatei verhalten. Dies umfasst auch die Verwendung von Snapshots.

n Im Modus „Physische Kompatibilität“ können Anwendungen, die eine hardwarenähere Steuerung be-nötigen, direkt auf das SCSI-Gerät zugreifen.

vSphere-Speicher

172 VMware, Inc.

Vorteile von Raw-GerätezuordnungenEine Raw-Gerätezuordnung bietet mehrere Vorteile, sollte aber nicht ständig verwendet werden. In der Re-gel sind virtuelle Festplattendateien aufgrund ihrer Verwaltungsfreundlichkeit Raw-Gerätezuordnungenvorzuziehen. Wenn Sie jedoch Raw-Geräte benötigen, müssen Sie die Raw-Gerätezuordnung verwenden.

RDM bietet verschiedene Vorteile:

Benutzerfreundliche,dauerhafte Namen

Die Raw-Gerätezuordnung ermöglicht benutzerfreundliche Namen für zuge-ordnete Geräte. Wenn Sie eine Raw-Gerätezuordnung verwenden, müssenSie nicht auf das Gerät über den Gerätenamen verweisen. Sie verwendenstattdessen den Namen der Zuordnungsdatei, zum Beispiel:

/vmfs/volumes/myVolume/myVMDirectory/myRawDisk.vmdk

Dynamische Namens-auflösung

Die Raw-Gerätezuordnung speichert eindeutige Identifikationsdaten für je-des zugeordnete Gerät. VMFS ordnet jede RDM unabhängig von Änderun-gen der physischen Konfiguration des Servers aufgrund von Änderungen ander Adapterhardware, Verzeichniswechseln, Geräteverschiebungen usw.dem aktuellen SCSI-Gerät zu.

Verteilte Dateisperrung Die Raw-Gerätezuordnung ermöglicht die Verwendung einer verteiltenVMFS-Sperrung für Raw-SCSI-Geräte. Die verteilte Sperrung für eine Raw-Gerätezuordnung ermöglicht die Verwendung einer freigegebenen Raw-LUN ohne Datenverlustrisiko, wenn zwei virtuelle Maschinen auf verschie-denen Servern versuchen, auf die gleiche LUN zuzugreifen.

Dateizugriffsberechti-gungen

Die Raw-Gerätezuordnung ermöglicht Dateizugriffsberechtigungen. Die Be-rechtigungen für die Zuordnungsdatei werden beim Öffnen der Datei er-zwungen, um das zugeordnete Volume zu schützen.

Dateisystemfunktionen Die Raw-Gerätezuordnung ermöglicht bei der Arbeit mit einem zugeordne-ten Volume die Verwendung von Dienstprogrammen des Dateisystems, wo-bei die Zuordnungsdatei als Stellvertreter verwendet wird. Die meisten Vor-gänge, die auf eine normale Datei angewendet werden können, können aufdie Zuordnungsdatei angewendet werden und werden dann auf das zuge-ordnete Gerät umgeleitet.

Snapshots Die Raw-Gerätezuordnung ermöglicht die Verwendung von Snapshots virtu-eller Maschinen auf einem zugeordneten Volume. Snapshots stehen nicht zurVerfügung, wenn die Raw-Gerätezuordnung im Modus „Physische Kompa-tibilität“ verwendet wird.

vMotion Mithilfe der Raw-Gerätezuordnung können Sie eine virtuelle Maschine mitvMotion migrieren. Die Zuordnungsdatei fungiert als Stellvertreter, sodassvCenter Server die virtuelle Maschine mit dem gleichen Mechanismus mig-rieren kann, der für die Migration virtueller Festplattendateien verwendetwird.

Kapitel 17 Raw-Gerätezuordnung

VMware, Inc. 173

Abbildung 17‑2. vMotion einer virtuellen Maschine über eine Raw-Gerätezuordnung

VMFS-Volume

Zuordnungsdatei

Adress-auflösung

Zugeordnetes Gerät

Host 2Host 1

VM2VM1vMotion

SAN-Management-Agenten

Die Raw-Gerätezuordnung ermöglicht die Ausführung bestimmter SAN-Ma-nagement-Agenten innerhalb einer virtuellen Maschine. Außerdem kann je-de Software, die Zugriff auf ein Gerät über hardwarespezifische SCSI-Befehlebenötigt, in einer virtuellen Maschine ausgeführt werden. Diese Art der Soft-ware wird auch SCSI-Ziel-basierte Software genannt. Wenn Sie SAN-Verwal-tungs-Agenten verwenden, müssen Sie den physischen Kompatibilitätsmo-dus für die Raw-Gerätezuordnung auswählen.

N-Port-ID-Virtualisie-rung (NPIV)

Ermöglicht den Einsatz der NPIV-Technologie, die es einem einzelnen Fibre-Channel-HBA-Port ermöglicht, sich mit dem Fibre-Channel-Fabric anhandmehrerer WWPNs (Worldwide Port Names) zu registrieren. Dadurch kannder HBA-Port in Form mehrerer virtueller Ports angezeigt werden, die alleüber eine eigene ID und einen eigenen virtuellen Portnamen verfügen. Virtu-elle Maschinen können anschließend jeden dieser virtuellen Ports beanspru-chen und für den gesamten zur Raw-Gerätezuordnung gehörenden Daten-verkehr nutzen.

Hinweis Sie können NPIV nur für virtuelle Maschinen mit RDM-Festplat-ten verwenden.

VMware kooperiert mit Anbietern von Speicherverwaltungssoftware, damit deren Software in Umgebungenwie ESXi ordnungsgemäß funktioniert. Beispiele sind:

n SAN-Verwaltungssoftware

n Software zur Verwaltung von Speicherressourcen

n Snapshot-Software

n Replikationssoftware

vSphere-Speicher

174 VMware, Inc.

Diese Software verwendet für Raw-Gerätezuordnungen den Modus „Physische Kompatibilität“, damit siedirekt auf SCSI-Geräte zugreifen kann.

Verschiedene Verwaltungsprodukte werden am besten zentral (nicht auf der ESXi-Maschine) ausgeführt,während andere problemlos in den virtuellen Maschinen funktionieren. VMware zertifiziert diese Anwen-dungen nicht und stellt auch keine Kompatibilitätsmatrix zur Verfügung. Wenn Sie wissen möchten, ob eineSAN-Verwaltungsanwendung in einer ESXi-Umgebung unterstützt wird, wenden Sie sich an den Anbieterder SAN-Verwaltungssoftware.

RDM-Überlegungen und -EinschränkungenBei der Verwendung von Raw-Gerätezuordnungen gelten bestimmte Überlegungen und Einschränkungen.

n Die RDM steht für direkt verbundenen Blockgeräte oder gewisse RAID-Geräte nicht zur Verfügung.Die RDM verwendet eine SCSI-Seriennummer, um das zugeordnete Gerät zu identifizieren. Da Block-und bestimmte direkt angeschlossene RAID-Geräte Seriennummern nicht exportieren, können sie nichtin Raw-Gerätezuordnungen verwendet werden.

n Wenn Sie die RDM im physischen Kompatibilitätsmodus verwenden, können Sie keinen Snapshot mitder Festplatte verwenden. Im physischen Kompatibilitätsmodus kann die virtuelle Maschine eigene,speicherbasierte Snapshots oder Spiegelungsoperationen durchführen.

Snapshots virtueller Maschinen stehen für RDMs mit virtuellem Kompatibilitätsmodus zur Verfügung.

n Eine Festplattenpartition kann nicht zugeordnet werden. Für RDMs ist es erforderlich, dass das zuge-ordnete Gerät eine vollständige LUN ist.

n Wenn Sie vMotion zum Migrieren von virtuellen Maschinen mit RDMs verwenden, stellen Sie sicher,dass die LUN-IDs für RDMs auf allen teilnehmenden ESXi-Hosts konsistent bleiben.

n RDMs im physischen Kompatibilitätsmodus werden vom Flash-Lesecache nicht unterstützt. RDMs mitvirtueller Kompatibilität werden vom Flash-Lesecache unterstützt.

Raw-GerätezuordnungseigenschaftenEine Raw-Gerätezuordnung ist eine spezielle Datei auf einem VMFS-Volume, mit deren Hilfe die Metadatenfür das zugeordnete Gerät verwaltet werden. Die Verwaltungssoftware erkennt die Zuordnungsdatei alsnormale Festplattendatei, die für normale Dateisystemoperationen zur Verfügung steht. Die virtuelle Ma-schine erkennt das zugeordnete Gerät aufgrund der Speichervirtualisierungsebene als virtuelles SCSI-Gerät.

Zu den wichtigsten Metadaten in der Zuordnungsdatei gehören der Speicherort (Namensauflösung) sowieder Sperrstatus des zugeordneten Geräts, Berechtigungen usw.

Die Modi „Virtuelle Kompatibilität“ und „Physische Kompatibilität“ für RDMSie können RDMs in virtuellen oder physischen Kompatibilitätsmodi verwenden. Der virtuelle Modus legtdie vollständige Virtualisierung des zugeordneten Geräts fest. Der physische Modus legt eine minimaleSCSI-Virtualisierung des zugeordneten Geräts fest, wodurch eine optimale Flexibilität der SAN-Verwal-tungssoftware erreicht wird.

Im virtuellen Modus sendet der VMkernel nur „Lesen“ und „Schreiben“ an das zugeordnete Gerät. DasGastbetriebssystem erkennt keinen Unterschied zwischen einem zugeordneten Gerät und einer virtuellenFestplattendatei auf einem VMFS-Volume. Die tatsächlichen Hardwaremerkmale sind verborgen. Wenn Sieeine Raw-Festplatte im virtuellen Modus verwenden, können Sie die Vorteile von VMFS wie leistungsfähigeDateisperrung zum Datenschutz und Snapshots zur Vereinfachung von Entwicklungsprozessen nutzen. Dervirtuelle Modus ist auch besser zwischen Speichergeräten portierbar als der physische Modus, da er dasgleiche Verhalten wie virtuelle Festplattendateien aufweist.

Kapitel 17 Raw-Gerätezuordnung

VMware, Inc. 175

Im physischen Modus leitet der VMkernel alle SCSI-Befehle bis auf eine Ausnahme an das Gerät weiter: DerBefehl REPORT LUNs ist virtualisiert, damit der VMkernel die LUN für die entsprechende virtuelle Maschi-ne isolieren kann. Ansonsten sind alle physischen Charakteristika der zu Grunde liegenden Hardware sicht-bar. Der physische Modus ist für die Ausführung von SAN-Verwaltungs-Agenten oder anderer SCSI-Ziel-basierter Software in der virtuellen Maschine bestimmt. Der physische Modus ermöglicht auch zum kosten-günstigen Erzielen einer hohen Verfügbarkeit die Bildung von VM-PC-Clustern.

VMFS5 unterstützt Festplattengrößen von mehr als 2 TB für RDMs im virtuellen und physischen Modus. Siekönnen RDMs, die größer als 2 TB sind, nur in VMFS5-Datenspeicher verlagern.

Dynamische NamensauflösungDie RDM-Datei unterstützt die dynamische Namensauflösung, wenn sich ein Pfad zu einem Raw-Deviceändert.

Alle zugeordneten Speichergeräte werden durch VMFS eindeutig bezeichnet. Die Bezeichnung wird in deninternen LUN-Datenstrukturen gespeichert. Alle Änderungen am Pfad zu einem Raw-Device, z. B. ein Fib-re-Channel-Switchfehler oder das Hinzufügen eines neuen HBAs, können den Gerätenamen ändern. Diedynamische Namensauflösung löst diese Änderungen auf und verknüpft das ursprüngliche Gerät automa-tisch mit seinem neuen Namen.

Raw-Gerätezuordnung für Cluster aus virtuellen MaschinenDie Verwendung einer Raw-Gerätezuordnung ist für Cluster mit virtuellen Maschinen erforderlich, die zurSicherstellung von Failover auf die gleiche Raw-LUN zugreifen müssen. Die Einrichtung ist vergleichbarmit der Einrichtung eines solchen Clusters mit Zugriff auf dieselbe virtuelle Festplattendatei. Die virtuelleFestplattendatei wird dabei allerdings durch die Raw-Gerätezuordnung ersetzt.

Abbildung 17‑3. Zugriff aus virtuellen Maschinen in Clustern

Adress-auflösung

Host 4Host 3

VMFS-Volume

Gemeinsamer Zugriff

VM4VM3

ZugeordnetesGerät

Zuordnungsdatei

Vergleichen der verfügbaren Zugriffmodi für SCSI-GeräteZu den Möglichkeiten, auf ein SCSI-basiertes Speichergerät zuzugreifen, gehören eine virtuelle Festplatteda-tei auf einem VMFS-Datenspeicher, RDM im virtuellen Modus und RDM im physischen Modus.

Um die Entscheidung zwischen den verfügbaren Zugriffsmodi für SCSI-Geräte zu erleichtern, bietet die fol-gende Tabelle einen Vergleich der Funktionen in den verschiedenen Modi.

vSphere-Speicher

176 VMware, Inc.

Tabelle 17‑1. Verfügbare Funktionen bei virtuellen Festplatten und Raw-Gerätezuordnungen

ESXi-FunktionenVirtuelle Festplatten-datei

Raw-Gerätezuordnung –Virtueller Modus

Raw-Gerätezuordnung –Physischer Modus

Weitergabe von SCSI-Befehlen Nein Nein JaDer Befehl REPORT LUNswird nicht weitergegeben

Unterstützung von vCenter Ser-ver

Ja Ja Ja

Snapshots Ja Ja Nein

Verteilte Sperrung Ja Ja Ja

Clusterbildung Nur systeminterneCluster

Cluster-in-a-boxSystemübergreifendeCluster

Physisch-zu-Virtuell-Cluste-ringSystemübergreifende Cluster

SCSI-Ziel-basierte Software Nein Nein Ja

VMware empfiehlt für systeminterne Cluster den Einsatz virtueller Festplattendateien. Wenn Sie systemin-terne Cluster als systemübergreifende Cluster rekonfigurieren möchten, verwenden Sie für systeminterneCluster Raw-Gerätezuordnungen.

Erstellen von virtuellen Maschinen mit RDMs im vSphere Web ClientWenn Sie eine virtuelle Maschine mit einem Direktzugriff auf eine Raw-SAN-LUN versehen, erstellen Sieeine RDM-Festplatte, die sich in einem VMFS-Datenspeicher befindet und auf die LUN verweist. Sie könnendie Raw-Gerätezuordnung als Ausgangsfestplatte für eine neue virtuelle Maschine erstellen oder sie einervorhandenen virtuellen Maschine hinzufügen. Beim Erstellen der Raw-Gerätezuordnung geben Sie die zu-zuordnende LUN und den Datenspeicher an, in dem die Raw-Gerätezuordnung abgelegt werden soll.

Wenngleich die RDM-Festplattendatei dieselbe .vmdk-Erweiterung wie eine herkömmliche virtuelle Festplat-tendatei hat, enthält die RDM nur Zuordnungsinformationen. Die eigentlichen virtuellen Festplattendatenwerden direkt in der LUN gespeichert.

Bei diesem Verfahren wird vorausgesetzt, dass Sie eine neue virtuelle Maschine erstellen. Weitere Informati-onen finden Sie in der Dokumentation zu vSphere-Administratorhandbuch für virtuelle Maschinen.

Vorgehensweise

1 Klicken Sie mit der rechten Maustaste auf ein Bestandslistenobjekt, das ein gültiges übergeordnetes Ob-jekt einer virtuellen Maschine ist, z. B. ein Datencenter, Ordner, Cluster, Ressourcenpool oder Host, undwählen Sie die Option Neue virtuelle Maschine aus.

2 Wählen Sie Eine neue virtuelle Maschine erstellen und klicken Sie auf Weiter.

3 Befolgen Sie sämtliche Anweisungen zum Erstellen einer virtuellen Maschine.

4 Klicken Sie auf der Seite „Hardware anpassen“ auf die Registerkarte Virtuelle Hardware.

5 (Optional) Um die virtuelle Standardfestplatte zu löschen, die vom System für ihre virtuelle Maschineerstellt wurde, bewegen Sie den Cursor über die Festplatte und klicken Sie auf das Symbol Entfernen.

6 Wählen Sie im Dropdown-Menü Neu unten auf der Seite die Option RDM-Festplatte aus und klickenSie auf Hinzufügen.

7 Wählen Sie in der Liste der SAN-Geräte bzw. LUNs eine Raw-LUN aus, auf die die virtuelle Maschinedirekt zugreifen soll, und klicken Sie auf OK.

Das System erstellt eine RDM-Festplatte, die Ihre virtuelle Maschine der Ziel-LUN zuordnet. Die RDM-Festplatte wird in der Liste der virtuellen Geräte als neue Festplatte angezeigt.

Kapitel 17 Raw-Gerätezuordnung

VMware, Inc. 177

8 Klicken Sie auf das Dreieck Neue Festplatte, um die Eigenschaften für die RDM-Festplatte zu erwei-tern.

9 Wählen Sie einen Speicherort für die RDM-Festplatte aus.

Sie können die RDM im selben Datenspeicher ablegen, in dem sich die Konfigurationsdateien der virtu-ellen Maschine befinden, oder einen anderen Datenspeicher auswählen.

Hinweis Um vMotion für virtuelle Maschinen mit aktivierter NPIV zu verwenden, müssen sich dieRDM-Dateien und die Dateien der virtuellen Maschinen im selben Datenspeicher befinden. Sie könnenStorage vMotion nicht durchführen, wenn NPIV aktiviert ist.

10 Wählen Sie den Kompatibilitätsmodus aus.

Option Beschreibung

Physisch Ermöglicht es dem Gastbetriebssystem, auf die Hardware direkt zuzugrei-fen. Der physische Kompatibilitätsmodus bietet sich an, wenn Sie SAN-fä-hige Anwendungen in der virtuellen Maschine einsetzen. Eine virtuelleMaschine, die für einen physischen Kompatibilitätsmodus für die Raw-Ge-rätezuordnung konfiguriert ist, kann jedoch weder geklont noch in eineVorlage umgewandelt noch migriert werden, wenn für die Migration dieFestplatte kopiert werden muss.

Virtuell Ermöglicht es der RDM, sich wie eine virtuelle Festplatte zu verhalten, so-dass Sie Funktionen wie Snapshot-Erstellung, Klonen usw. verwendenkönnen. Wenn Sie die Festplatte klonen oder eine Vorlage daraus erstellen,wird der Inhalt der LUN in eine virtuelle Festplattendatei .vmdk kopiert.Wenn Sie eine RDM im virtuellen Kompatibilitätsmodus migrieren, kön-nen Sie die Zuordnungsdatei migrieren oder den Inhalt der LUN in einevirtuelle Festplatte kopieren.

11 Wenn Sie den virtuellen Kompatibilitätsmodus ausgewählt haben, wählen Sie einen Festplattenmodus.

Festplattenmodi stehen für RDM-Festplatten mit physischem Kompatibilitätsmodus nicht zur Verfü-gung.

Option Beschreibung

Abhängig Abhängige Festplatten sind in Snapshots enthalten.

Unabhängig – Dauerhaft Festplatten im dauerhaften Modus verhalten sich wie konventionelle Fest-platten auf einem physischen Computer. Sämtliche Daten, die im dauer-haften Modus auf eine Festplatte geschrieben werden, werden permanentauf die Festplatte geschrieben.

Unabhängig – Nicht dauerhaft Änderungen, die im nicht-dauerhaften Modus an Festplatten vorgenom-men werden, werden beim Ausschalten oder Zurücksetzen der virtuellenMaschine verworfen. Der nicht-dauerhafte Modus sorgt dafür, dass sichdie virtuelle Festplatte einer virtuellen Maschine bei jedem Neustart indemselben Zustand befindet. Änderungen an der Festplatte werden in eineRedo-Protokolldatei geschrieben und daraus gelesen. Diese Datei wirdbeim Ausschalten oder Zurücksetzen gelöscht.

12 Klicken Sie auf OK.

Verwalten von Pfaden für eine zugeordnete LUN imvSphere Web Client

Wenn Sie virtuelle Maschinen mit RDMs verwenden, können Sie Pfade für zugeordnete Raw-LUNs verwal-ten.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

vSphere-Speicher

178 VMware, Inc.

2 Klicken Sie mit der rechten Maustaste auf die virtuelle Maschine und wählen Sie Einstellungen bear‐beiten.

3 Klicken Sie auf die Registerkarte Virtuelle Hardware und dann auf Festplatte, um das Menü mit denFestplattenoptionen zu erweitern.

4 Klicken Sie auf Pfade verwalten.

5 Im Dialogfeld „Mehrfachpfad-Richtlinien bearbeiten“ können Sie Ihre Pfade aktivieren oder deaktivie-ren, eine Multipathing-Richtlinie festlegen und den bevorzugten Pfad angeben.

Weitere Informationen zur Verwaltung von Pfaden finden Sie unter Kapitel 23, „Grundlegendes zuMultipathing und Failover“, auf Seite 239.

Kapitel 17 Raw-Gerätezuordnung

VMware, Inc. 179

vSphere-Speicher

180 VMware, Inc.

Arbeiten mit Solid State Disks 18Abgesehen von regulären Speicher-Festplattenlaufwerken unterstützt ESXi auch Solid State Disks (SSDs).

Anders als die regulären Festplatten, bei denen es sich um elektromechanische Geräte mit beweglichen Tei-len handelt, verwenden SSDs Halbleiter als Speichermedium und enthalten keine beweglichen Teile. In derRegel sind SSDs sehr widerstandsfähig und bieten einen schnelleren Zugriff auf Daten.

Die Unterstützung von SSDs mit ESXi bietet die folgenden Vorteile:

n Sie können VMFS-Datenspeicher verwenden, die auf SSD-Speichergeräten erstellt werden, um Spei-cherplatz für einen ESXi-Hostcache zuzuteilen.

n Sie können lokale SSDs für Funktionen wie Flash Read Cache und Virtual SAN verwenden. Für dieseFunktionen sind lokale SSDs erforderlich.

n Das Verwenden von SSDs erhöht das Konsolidierungsverhältnis von virtuellen Maschinen, da SSDs ei-nen sehr hohen E/A-Durchsatz bieten können.

n Gastbetriebssysteme könnten virtuelle SSD-Geräte identifizieren.

Zur Erkennung von SSD-Geräten verwendet ESXi einen Abfragemechanismus, der auf T10-Standards ba-siert. ESXi kann automatisch SSD-Geräte bei einer Reihe von Speicher-Arrays erkennen. Erkundigen Sie sichbei Ihrem Anbieter, ob Ihr Speicher-Array die Erkennung von SSD-Geräten durch ESXi unterstützt.

Dieses Kapitel behandelt die folgenden Themen:

n „Vorteile der Aktivierung von SSDs“, auf Seite 182

n „Automatische Erkennung von SSD-Geräten“, auf Seite 182

n „Markieren von Geräten als SSD-Gerät“, auf Seite 182

n „Entfernen der Markierung eines SSD-Geräts“, auf Seite 183

n „Aufheben des Tags eines automatisch erkannten SSD-Geräts“, auf Seite 184

n „Markieren von Geräten als lokal“, auf Seite 185

n „Überwachen von SSD-Geräten“, auf Seite 185

n „Ermitteln der SSD-Geräte“, auf Seite 186

n „Identifizieren eines virtuellen SSD-Geräts“, auf Seite 186

n „Best Practices für SSD-Geräte“, auf Seite 187

n „In den Host-Cache auslagern“, auf Seite 188

n „Lokale SSDs werden nicht gefunden“, auf Seite 189

VMware, Inc. 181

Vorteile der Aktivierung von SSDsSSDs sind sehr widerstandsfähig und bieten einen schnelleren Zugriff auf Daten.

Die Aktivierung von SSD bietet mehrere Vorteile:

n Verwenden Sie VMFS-Datenspeicher, die auf SSD-Speichergeräten erstellt werden, um Speicherplatz füreinen ESXi-Hostcache zuzuteilen.

n Verwenden Sie lokale SSDs für Funktionen wie Flash-Lesecache und Virtual SAN.

n Das Verwenden von SSDs erhöht das Konsolidierungsverhältnis von virtuellen Maschinen, da SSDs ei-nen sehr hohen E/A-Durchsatz bieten können.

n Sie unterstützt das Identifizieren von virtuellen SSD-Geräten durch das Gastbetriebssystem.

Automatische Erkennung von SSD-GerätenESXi ermöglicht die automatische Erkennung von SSD-Geräten mithilfe eines Abfragemechanismus, der aufT10-Standards basiert.

ESXi ermöglicht die Erkennung von SSD-Geräten bei einer Reihe von Speicher-Arrays. Erkundigen Sie sichbei Ihrem Anbieter, ob Ihr Speicher-Array die Erkennung von SSD-Geräten durch ESXi unterstützt.

Sie können PSA SATP-Beanspruchungsregeln verwenden, um Geräte zu markieren, die nicht automatischerkannt werden können.

Markieren von Geräten als SSD-GerätSie können PSA-SATP-Beanspruchungsregeln verwenden, um die SSD-Geräte zu markieren, die nicht auto-matisch erkannt werden.

Nur Geräte, die durch das PSA-NMP-Plug-In (Native Multipathing) belegt sind, können markiert werden.

Weitere Informationen zu den in diesem Thema aufgelisteten Befehlen finden Sie in der Dokumentation Ers-te Schritte mit vSphere-Befehlszeilenschnittstellen und vSphere Command-Line Interface Concepts and Examples.

Vorgehensweise

1 Identifizieren Sie das zu markierende Gerät und dessen SATP.

esxcli storage nmp device list

Der Befehl gibt die folgenden Informationen zurück.

naa.6006016015301d00167ce6e2ddb3de11

Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11)

Storage Array Type: VMW_SATP_CX

Storage Array Type Device Config: {navireg ipfilter}

Path Selection Policy: VMW_PSP_MRU

Path Selection Policy Device Config: Current Path=vmhba4:C0:T0:L25

Working Paths: vmhba4:C0:T0:L25

2 Notieren Sie das mit dem Gerät verbundene SATP.

vSphere-Speicher

182 VMware, Inc.

3 Fügen Sie eine PSA-Beanspruchungsregel hinzu, um das Gerät als SSD zu markieren.

u Sie können eine Beanspruchungsregel hinzufügen, indem Sie den Gerätenamen angeben.

esxcli storage nmp satp rule add -s SATP --device device_name --option="enable_ssd"

u Sie können eine Beanspruchungsregel durch Angabe des Herstellernamens und der Modellbe-zeichnung hinzufügen.

esxcli storage nmp satp rule add -s SATP -V vendor_name -M model_name --option="enab-

le_ssd"

u Sie können eine Beanspruchungsregel basierend auf dem Transportprotokoll hinzufügen.

esxcli storage nmp satp rule add -s SATP --transport transport_protocol --option="enab-

le_ssd"

u Sie können eine Beanspruchungsregel basierend auf dem Treibernamen hinzufügen.

esxcli storage nmp satp rule add -s SATP --driver driver_name --option="enable_ssd"

4 Beanspruchen Sie das Gerät erneut.

esxcli storage core claiming reclaim --device device_name

5 Überprüfen Sie, ob Geräte als „SSD“ markiert sind.

esxcli storage core device list -d device_name

Die Befehlsausgabe gibt an, ob ein aufgelistetes Gerät als „SSD“ markiert ist.

Is SSD: true

Weiter

Wenn das SSD-Gerät, das Sie markieren möchten, von mehreren Hosts gemeinsam genutzt wird, stellen Siesicher, dass Sie das Gerät von allen Hosts aus markieren, die das Gerät gemeinsam nutzen.

Entfernen der Markierung eines SSD-GerätsSie können die Kennzeichnung eines als SSD gekennzeichneten Geräts jederzeit entfernen.

Dieses Thema behandelt die Befehle, die Sie zum Entfernen der Kennzeichnung eines SSD-Geräts verwen-den müssen. Weitere Informationen zu diesen Befehlen finden Sie in der Dokumentation zu Erste Schritte mitvSphere-Befehlszeilenschnittstellen und vSphere Command-Line Interface Concepts and Examples.

Vorgehensweise

1 Identifizieren Sie das Gerät, dessen Kennzeichnung Sie entfernen möchten.

esxcli storage nmp device list

Es wird möglicherweise eine Ausgabe ähnlich der folgenden angezeigt:

naa.6006016015301d00167ce6e2ddb3de11

Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11)

Storage Array Type: VMW_SATP_CX

Storage Array Type Device Config: {navireg ipfilter}

Path Selection Policy: VMW_PSP_MRU

Path Selection Policy Device Config: Current Path=vmhba4:C0:T0:L25

Working Paths: vmhba4:C0:T0:L25

2 Notieren Sie das mit dem Gerät verbundene SATP.

Kapitel 18 Arbeiten mit Solid State Disks

VMware, Inc. 183

3 Entfernen Sie die Beanspruchungsregel, die zum Kennzeichnen des Geräts verwendet wurde.

esxcli storage nmp satp rule remove -s SATP --device device_name

Beispiel:

esxcli storage nmp satp rule remove -s VMW_SATP_CX --device naa.

6006016042fa19010a12d9b16d6ade11

4 Beanspruchen Sie das Gerät erneut.

esxcli storage core claiming reclaim --device naa.6006016042fa19010a12d9b16d6ade11

5 Überprüfen Sie den Gerätestatus, indem Sie den folgenden Befehl ausführen.

esxcli storage core device list -d device_name

Die Befehlsausgabe gibt an, ob die Festplatte unmarkiert ist.

Is SSD: false

Aufheben des Tags eines automatisch erkannten SSD-GerätsSie können ein automatisch erkanntes SSD-Gerät als Nicht-SSD-Gerät kennzeichnen.

Vorgehensweise

1 Identifizieren Sie das Gerät, dessen Kennzeichnung Sie entfernen möchten.

esxcli storage nmp device list

Es wird möglicherweise eine Ausgabe ähnlich der folgenden angezeigt:

naa.6006016015301d00167ce6e2ddb3de11

Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11)

Storage Array Type: VMW_SATP_CX

Storage Array Type Device Config: {navireg ipfilter}

Path Selection Policy: VMW_PSP_MRU

Path Selection Policy Device Config: Current Path=vmhba4:C0:T0:L25

Working Paths: vmhba4:C0:T0:L25

2 Notieren Sie das mit dem Gerät verbundene SATP.

3 Fügen Sie eine Beanspruchungsregel mit der Option disable_ssd hinzu.

esxcli storage nmp satp rule add -s SATP --device device_name --option disable_ssd

Beispiel:

esxcli storage nmp satp rule add -s VMW_SATP_CX --device naa.

6006016042fa19010a12d9b16d6ade11 --option disable_ssd

4 Beanspruchen Sie das Gerät erneut.

esxcli storage core claiming reclaim --device naa.6006016042fa19010a12d9b16d6ade11

5 Überprüfen Sie den Gerätestatus, indem Sie den folgenden Befehl ausführen.

esxcli storage core device list -d device_name

Die Befehlsausgabe gibt an, ob die Festplatte unmarkiert ist.

Is SSD: false

vSphere-Speicher

184 VMware, Inc.

Markieren von Geräten als lokalESXi ermöglicht Ihnen das Markieren von Geräten als lokal. Dies ist nützlich, wenn ESXi nicht ermittelnkann, ob bestimmte SAS-Geräte lokal oder remote sind.

Weitere Informationen zu den in diesem Thema aufgelisteten Befehlen finden Sie in der Dokumentation Ers-te Schritte mit vSphere-Befehlszeilenschnittstellen und vSphere Command-Line Interface Concepts and Examples.

Voraussetzungen

n Stellen Sie sicher, dass das Gerät nicht gemeinsam genutzt wird.

n Schalten Sie auf dem Gerät befindliche virtuelle Maschinen aus und unmounten Sie einen zugewiese-nen Datenspeicher.

Vorgehensweise

1 Identifizieren Sie das zu markierende Gerät und dessen SATP:

esxcli storage nmp device list

Es wird möglicherweise eine Ausgabe ähnlich der folgenden angezeigt:

naa.000000000000000001234

Device Display Name: DGC Fibre Channel Disk (naa.000000000000000001234)

Storage Array Type: VMW_SATP_CX

Storage Array Type Device Config: {navireg ipfilter}

Path Selection Policy: VMW_PSP_MRU

Path Selection Policy Device Config: Current Path=vmhba4:C0:T0:L25

Working Paths: vmhba4:C0:T0:L25

2 Notieren Sie das mit dem Gerät verbundene SATP.

3 Führen Sie diesen Befehl aus, um eine PSA-Beanspruchungsregel hinzuzufügen, die das Gerät als lokalkennzeichnet. Verwenden Sie den SATP, der dem Gerät zugewiesen ist, aus der Ausgabe unter Schritt 1.

esxcli storage nmp satp rule add -s SATP_name --device device_name --option="enable_local"

Beispiel:

esxcli storage nmp satp rule add -s VMW_SATP_CX --device naa.000000000000000001234 --opti-

on="enable_local"

4 Beanspruchen Sie das Gerät erneut. Beispiel:

esxcli storage core claiming reclaim --device naa.000000000000000001234

5 Überprüfen Sie den Status, indem Sie den folgenden Befehl ausführen:

esxcli storage core device list -d device_name

Die Befehlsausgabe gibt an, dass die Festplatte lokal ist.

Is Local: true

Überwachen von SSD-GerätenSie können von einem ESXi-Host bestimmte kritische SSD-Parameter überwachen, darunter den Indikatorfür Medienabnützung (Media Wearout Indicator), Temperatur und Anzahl der erneut zugeordneten Sekto-ren (Reallocated Sector Count).

Verwenden Sie den esxcli-Befehl, um SSD-Geräte zu überwachen.

Kapitel 18 Arbeiten mit Solid State Disks

VMware, Inc. 185

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie folgenden Befehl aus, um SSD-Statistiken anzuzeigen:

esxcli server=server_name storage core device smart get -d=SSD device_ID

Ermitteln der SSD-GeräteSie können die SSD-Geräte in Ihrem Speichernetzwerk identifizieren.

Voraussetzungen

Stellen Sie vor dem Identifizieren eines SSD-Geräts sicher, dass das Gerät als „SSD“ markiert ist.

Vorgehensweise

1 Geräte auflisten.

esxcli storage core device list

Die Ausgabe des Befehls enthält die folgenden Informationen über das aufgeführte Gerät.

Is SSD: true

2 Stellen Sie sicher, dass der Wert des Flags Is SSD auf true gesetzt ist.

Identifizieren eines virtuellen SSD-GerätsESXi ermöglicht Betriebssystemen das automatische Erkennen von VMDKs, die sich als SSD-Geräte aufSSD-Datenspeichern befinden.

Um zu überprüfen, ob diese Funktion aktiviert ist, können Gastbetriebssysteme die standardmäßigen Abfra-gebefehle wie z. B. SCSI VPD Page (B1h) für SCSI-Geräte und ATA IDENTIFY DEVICE (Word 217) für IDE-Geräte verwenden.

Für verknüpfte Klone, native Snapshots und Delta-Festplatten melden die Abfragebefehle den virtuellenSSD-Status der Basisfestplatte.

Betriebssysteme können unter den folgenden Bedingungen eine VMDK automatisch als SSD erkennen:

n Das Erkennen virtueller SSDs wird auf ESXi 5.x-Hosts und der virtuellen Hardwareversion 8 oder hö-her unterstützt.

n Das Erkennen virtueller SSDs wird nur von VMFS5 oder höher unterstützt.

n Wenn sich die VMDKs auf gemeinsam genutzten VMFS-Datenspeichern mit SSD-Geräteerweiterungenbefinden, muss das Gerät auf allen Hosts als SSD markiert sein.

n Damit eine VMDK als virtuelle SSD erkannt wird, sollten alle zugrunde liegenden physischen Erweite-rungen SSD-gestützt sein.

vSphere-Speicher

186 VMware, Inc.

Best Practices für SSD-GeräteBefolgen Sie diese Best Practices, wenn Sie SSD-Geräte in einer vSphere-Umgebung verwenden.

n Stellen Sie sicher, dass Sie mit SSD-Geräten die neueste Firmware verwenden. Erkundigen Sie sich re-gelmäßig bei Ihren Speicheranbietern nach Updates.

n Achten Sie sorgfältig darauf, wie intensiv Sie das SSD-Gerät nutzen, und berechnen Sie dessen geschätz-te Lebensdauer. Die Lebenserwartung hängt davon ab, wie aktiv Sie das SSD-Gerät weiterhin nutzen.

Geschätzte Lebensdauer von Flash-GerätenÜberwachen Sie beim Arbeiten mit Flash-Geräten, wie aktiv Sie sie verwenden, und berechnen Sie ihre ge-schätzte Lebensdauer.

In der Regel bieten Speicheranbieter zuverlässige Schätzungen zur Lebensdauer für ein Flash-Gerät unteridealen Bedingungen. Beispielsweise garantiert ein Anbieter eine Lebensdauer von 5 Jahren unter der Be-dingung, dass es 20 GB an Schreibvorgängen pro Tag gibt. Allerdings hängt die tatsächliche Lebenserwar-tung des Geräts davon ab, wie viele Schreibvorgänge pro Tag Ihr ESXi-Host tatsächlich generiert. Führen Siedie folgenden Schritte aus, um die Lebensdauer des Flash-Geräts zu berechnen.

Voraussetzungen

Notieren Sie die Anzahl der Tage, die seit dem letzten Neustart des ESXi-Hosts vergangen sind. Beispiel:10 Tage.

Vorgehensweise

1 Ermitteln Sie die Gesamtzahl der Blöcke, die seit dem letzten Neustart auf das Flash-Gerät geschriebenwurden.

Führen Sie den folgenden Befehl aus: esxcli storage core device stats get -d=device_ID Beispiel:

~ # esxcli storage core device stats get -d t10.xxxxxxxxxxxxxxx

Device: t10.xxxxxxxxxxxxxxx

Successful Commands: xxxxxxx

Blocks Read: xxxxxxxx

Blocks Written: 629145600

Read Operations: xxxxxxxx

Das Element „Blocks Written“ (Geschriebene Blöcke) in der Ausgabe zeigt die Anzahl der Blöcke, dieseit dem letzten Neustart auf das Gerät geschrieben wurden. In diesem Beispiel ist der Wert 629.145.600.Nach jedem Neustart wird der Zähler auf 0 zurückgesetzt.

2 Berechnen Sie die Gesamtzahl der Schreibvorgänge und wandeln Sie diese in GB um.

Ein Block umfasst 512 Byte. Um die Gesamtzahl der Schreibvorgänge zu berechnen, multiplizieren Sieden Wert von „Blocks Written“ (Geschriebene Blöcke) mit 512. Wandeln Sie dann den Ergebniswert inGB um.

In diesem Beispiel beträgt die Gesamtzahl der Schreibvorgänge seit dem letzten Neustart ca. 322 GB.

3 Schätzen Sie die durchschnittliche Anzahl der Schreibvorgänge pro Tag in GB.

Dividieren Sie die Gesamtzahl der Schreibvorgänge durch die Anzahl der Tage seit dem letzten Neu-start.

Wenn der letzte Neustart vor 10 Tagen erfolgt ist, erhalten Sie 32 GB Schreibvorgänge pro Tag. Anhanddieser Anzahl können Sie den Durchschnitt über einen bestimmten Zeitraum ermitteln.

Kapitel 18 Arbeiten mit Solid State Disks

VMware, Inc. 187

4 Schätzen Sie die Lebensdauer Ihres Geräts anhand der folgenden Formel:

Vom Anbieter angegebene Anzahl der Schreibvorgänge pro Tag mal die vom Anbieter angegebene Lebensdauergeteilt durch die tatsächliche durchschnittliche Anzahl der Schreibvorgänge pro Tag

Wenn der Anbieter beispielsweise eine Lebensdauer von 5 Jahren garantiert unter der Bedingung, dasses 20 GB an Schreibvorgängen pro Tag gibt, und die tatsächliche Anzahl an Schreibvorgängen pro Tag30 GB ist, beträgt die Lebensdauer Ihres Flash-Geräts ungefähr 3,3 Jahre.

In den Host-Cache auslagernSie können VMFS-Datenspeicher auf SSD-Laufwerken erstellen und dann diese Datenspeicher verwenden,um dem Host-Cache Speicherplatz zuzuweisen. Der Host reserviert eine bestimmte Menge an Speicherplatzfür die Auslagerung in den Hostcache.

Der Host-Cache besteht aus Dateien auf einer Festplatte mit einer niedrigen Latenz, die von ESXi als Write-Back-Cache für Auslagerungsdateien für virtuelle Maschinen verwendet wird. Der Cache wird von allenvirtuelle Maschinen gemeinsam verwendet, die auf dem Host ausgeführt werden. Durch das Auslagern vonSeiten der virtuelle Maschinen kann der potenziell beschränkte SSD-Speicherplatz optimal genutzt werden.

Das Auslagern in den Host-Cache ist nicht mit der Platzierung von regulären Auslagerungsdaten in SSD-gesicherten Datenspeichern identisch. Auch wenn Sie das Auslagern in den Host-Cache aktivieren, mussder Host weiterhin reguläre Auslagerungsdateien erstellen. Wenn Sie diese Funktion verwenden, ist die Ge-schwindigkeit des Speichers, in dem der Host die regulären Auslagerungsdateien speichert, weniger wich-tig.

Auf der Seite „Host-Cache-Konfiguration“ können Sie den Speicherplatz in einem Datenspeicher anzeigen,den ein Host zum Auslagern in den Host-Cache verwenden kann. In der Liste der Datenspeicher auf derSeite „Host-Cache-Konfiguration“ werden nur SSD-gestützte Datenspeicher angezeigt.

Wenn Sie eine Lizenz für virtuellen Flash besitzen, können Sie die vFlash-Ressource verwenden, um den Ca-che auf dem Host zu konfigurieren. Weitere Informationen hierzu finden Sie unter Kapitel 21, „Informatio-nen zu VMware vSphere Flash-Lesecache“, auf Seite 227.

Konfigurieren des Host-Caches im vSphere Web ClientSie können den Prozentsatz des zugeteilten Speicherplatzes für den Host-Cache ändern oder die Fähigkeitdes Hosts zur Auslagerung auf den Host-Cache deaktivieren.

Verwenden Sie dieses Verfahren, wenn Ihr ESXi-Host die Version 5.1 oder eine ältere Version aufweist oderwenn Sie keine Lizenz für virtuellen Flash besitzen. Zur Host-Cache-Konfiguration auf einem ESXi 5.5-Host(oder höher) mit Lizenz für virtuellen Flash verwenden Sie die virtuelle Flash-Ressource. Weitere Informati-onen hierzu finden Sie unter Kapitel 21, „Informationen zu VMware vSphere Flash-Lesecache“, auf Sei-te 227.

Voraussetzungen

Sie benötigen einen SSD-gestützten Datenspeicher in Ihrer Bestandsliste.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten.

3 Klicken Sie auf der Registerkarte „Speicher“ auf Host-Cache-Konfiguration.

4 Wählen Sie den Datenspeicher in der Liste aus und klicken Sie auf das Symbol Speicher für den Host‐Cache zuteilen.

5 Wählen Sie eine Größe für die Host-Cache-Zuteilung auf dem Laufwerk aus.

vSphere-Speicher

188 VMware, Inc.

6 Deaktivieren Sie das Kontrollkästchen Speicher für Host‐Cache zuteilen, wenn Sie die Fähigkeit desHosts zur Auslagerung nach Host-Cache datenspeicherweise deaktivieren möchten.

7 Klicken Sie auf OK.

Lokale SSDs werden nicht gefundenWenn Sie während der Erstellung einer Flash-Lesecacheressource eine Abfrage nach lokalen SSDs ausfüh-ren, gibt der ESXi-Host möglicherweise keine vollständige Aufstellung der lokalen SSDs zurück.

Problem

ESXi kann SSDs möglicherweise nicht automatisch bzw. nicht als lokal erkennen.

Ursache

ESXi erkennt bestimmt Geräte nicht als SSDs, wenn die Hersteller die automatische SSD-Erkennung nichtunterstützen. Es kann auch vorkommen, dass andere als SATA-SAS-SSDs nicht als lokale SSDs erkannt wer-den. Wenn Festplatten nicht als lokale SSDs erkannt werden, werden sie aus der Liste der verfügbaren SSDsfür Funktionen wie den Flash-Lesecache ausgeschlossen, da diese Funktion lokale SSDs voraussetzt.

Lösung

n Falls ESXi Festplatten nicht automatisch als SSDs erkennt, kennzeichnen Sie sie als SSD-Festplatten.Weitere Informationen hierzu finden Sie unter „Markieren von Geräten als SSD-Gerät“, auf Seite 182.

n Falls ESXi SSD-Festplatten nicht als lokal erkennt, legen Sie sie manuell als lokal fest. Weitere Informati-onen hierzu finden Sie unter „Markieren von Geräten als lokal“, auf Seite 185.

Kapitel 18 Arbeiten mit Solid State Disks

VMware, Inc. 189

vSphere-Speicher

190 VMware, Inc.

Arbeiten mit Virtual SAN 19Bei Virtual SAN handelt es sich um eine Software-Ebene, die im Rahmen des ESXi-Hypervisors ausgeführtwird. Virtual SAN fasst lokale oder direkt angeschlossene Speicherfestplatten eines Hostclusters zusammenund erstellt einen einzelnen Speicherpool, der von allen Hosts des Clusters verwendet wird.

Virtual SAN unterstützt VMware-Funktionen, die gemeinsam genutzten Speicher erfordern, wie etwa HA,vMotion und DRS. Dadurch wird ein externer gemeinsam genutzter Speicher überflüssig, und außerdemwerden die Speicherkonfiguration und Aktivitäten zum Bereitstellen von virtuellen Maschinen vereinfacht.

Weitere Informationen zur Fehlerbehebung für Virtual SAN finden Sie in der vSphere-Fehlerbehebungshand-buch-Dokumentation.

Dieses Kapitel behandelt die folgenden Themen:

n „Über Virtual SAN“, auf Seite 191

n „Aktivierung vom Virtual SAN“, auf Seite 199

n „Verwalten von Festplattengruppen“, auf Seite 203

n „Überwachung vom Virtual SAN“, auf Seite 206

n „Verwaltung vom Virtual SAN“, auf Seite 207

n „Virtual SAN und speicherrichtlinienbasiertes Management“, auf Seite 211

Über Virtual SANMit Virtual SAN werden lokale physische Speicherressourcen von ESXi-Hosts virtualisiert und in Speicher-pools verwandelt, die unterteilt und virtuellen Maschinen und Anwendungen gemäß ihren Servicequalität-sanforderungen zugewiesen werden können.

Sie können Virtual SAN aktivieren, wenn Sie Hostcluster erstellen, oder Sie können Virtual SAN für vorhan-dene Cluster aktivieren. Nach der Aktivierung fasst das Virtual SAN alle verfügbaren lokalen Speicherfest-platten auf den Hosts in einen einzelnen, von allen Hosts gemeinsam genutzten Datenspeicher zusammen.Sie können den Datenspeicher später erweitern, indem Sie dem Cluster Speichergeräte oder Hosts hinzufü-gen.

Die Hosts im Cluster für Virtual SAN brauchen nicht identisch zu sein. Selbst Hosts ohne lokale Festplattenkönnen teilnehmen und ihre virtuellen Maschinen im Datenspeicher des Virtual SAN ausführen, wie z. B.Host 2 in der Abbildung.

VMware, Inc. 191

Wenn ein Host seinen lokalen Speicher zum Datenspeicher für Virtual SAN beiträgt, muss der Host eineSSD und mindestens eine HDD, auch Datenfestplatte genannt, bereitstellen. Die Festplatten auf dem beitra-genden Host bilden eine Festplattengruppe. Jede Festplattengruppe muss eine SSD und mindestens eineoder mehrere Festplatten enthalten. Die Festplattengruppe verwendet die SSD-Festplatte als Lesecache undSchreibpuffer, während die Datenfestplatten als dauerhafter Speicher dienen. Ein Host kann mehrere Fest-plattengruppen enthalten. Im Beispiel in der Abbildung enthält Host 1 eine Festplattengruppe, Host 3 zweiFestplattengruppen.

VM VM VM VM VM VM VM

Host 1 Host 2 Host 3

Datenspeicher des Virtual SAN

Festplattengruppe 1 Festplattengruppe 2 Festplattengruppe 3

SSD-Festplatten

Daten-festplatten

Virtual SAN und VM-SpeicherrichtlinienWenn Virtual SAN aktiviert ist, arbeitet es mit VM-Speicherrichtlinien zusammen. Speicherrichtlinien wer-den verwendet, um die Speicheranforderungen der virtuellen Maschinen wie Leistung und Verfügbarkeit inForm eines Profils zu definieren. Die Richtlinienanforderungen werden an die Ebene des Virtual SAN über-tragen, wenn die virtuelle Festplatte erstellt wird. Das Virtual SAN legt die virtuelle Festplatte im Datenspei-cher des Virtual SAN an, um die angegebenen Anforderungen zu erfüllen.

Das Virtual SAN überwacht die Richtlinieneinhaltung während der Lebensdauer der virtuellen Maschineund erstellt Berichte dazu. Wenn die Richtlinie wegen eines Host-, Festplatten- oder Netzwerkfehlers nichtmehr eingehalten wird, ergreift das Virtual SAN Maßnahmen zur Abhilfe. Es konfiguriert die Daten derbetroffenen virtuellen Maschinen neu und optimiert die Ressourcenverwendung im Cluster. Alle Neukonfi-gurationsprozesse erfolgen mit minimaler Auswirkung auf die reguläre Arbeitslast.

Informationen zur Interaktion zwischen dem Virtual SAN und VM-Speicherrichtlinien finden Sie unter „Virtual SAN und speicherrichtlinienbasiertes Management“, auf Seite 211.

Allgemeine Informationen zu Speicherrichtlinien finden Sie unter Kapitel 20, „Infos zu VM-Speicherrichtli-nien“, auf Seite 215.

vSphere-Speicher

192 VMware, Inc.

Virtual SAN und objektbasierter SpeicherVirtual SAN speichert und verwaltet Daten in Form von flexiblen Datencontainern, die als Objekte bezeich-net werden. Ein Objekt ist ein logisches Volume, dessen Daten und Metadaten über den ganzen Cluster ver-teilt sind. Auch der Zugriff auf die Daten und Metadaten erfolgt über den ganzen Cluster.

Wenn Sie eine virtuelle Maschine auf einem Datenspeicher des Virtual SAN bereitstellen, erstellt VirtualSAN ein Objekt für jede virtuelle Festplatte. Außerdem wird ein Containerobjekt erstellt, in dem alle Meta-daten-Dateien der virtuellen Maschine gespeichert werden. Virtual SAN kann mehrere Objekte in einemeinzelnen Cluster speichern und verwalten.

Jedes Objekt wird vom Virtual SAN einzeln bereitgestellt und verwaltet. Dazu wird für jedes Objekt eineRAID-Konfiguration über das Netzwerk erstellt. Bei der Erstellung eines Objekts für eine virtuelle Festplatteund bei der Überlegung, wie das Objekt im Cluster verteilt werden soll, berücksichtigt Virtual SAN die fol-genden Parameter:

n Vom Administrator festgelegte Anforderungen an die virtuelle Festplatte in Form einer Speicherrichtli-nie für virtuelle Maschinen.

n Clusterressourcen und deren Nutzung bei der Bereitstellung.

Beispielsweise bestimmt Virtual SAN anhand der Verfügbarkeitsrichtlinie die Anzahl der zu erstellendenRepliken. Dagegen bestimmt die Leistungsrichtlinie, wie viel SSD-Speicher den einzelnen Repliken zum Ca-ching zugewiesen wird und wie viele Stripes pro Replik erstellt werden.

Da der Cluster für Virtual SAN und die Arbeitslast sich im Lauf der Zeit ändern, überwacht Virtual SAN dieRichtlinieneinhaltung der virtuellen Festplatte. Wenn das Objekt die Richtlinien nicht einhält, werden ent-sprechende Anpassungen zur Korrektur vorgenommen. Zudem wird die Nutzung der Clusterressourcenoptimiert. Virtual SAN sorgt aktiv für eine Drosselung des für die Neukonfiguration verwendeten Speicher-und Netzwerkdurchsatzes, um die Auswirkungen der Neukonfiguration auf die Ausführung der normalenArbeitslast auf ein Minimum zu beschränken.

Eigenschaften von Virtual SANDieses Kapitel fasst die Merkmale zusammen, die für Virtual SAN sowie dessen Cluster und Datenspeichergelten.

Wenn Sie mit Virtual SAN arbeiten, beachten Sie Folgendes:

n Virtual SAN wird direkt im ESXi-Hypervisor implementiert.

n Virtual SAN unterstützt VMware-Funktionen, die gemeinsam genutzten Speicher erfordern, wie HA,vMotion und DRS. Beispiel: Wenn ein Host überlastet wird, kann DRS die virtuellen Maschinen zu an-deren Hosts im Cluster migrieren.

n Virtual SAN ist in den vSphere-Datenverwaltungsfunktionen integriert, die ursprünglich mit demVMFS- und NFS-Speicher verwendet wurden. Diese Funktionen beinhalten Snapshots, verknüpfte Klo-ne, vSphere Replication und vSphere APIs für den Datenschutz.

n Virtual SAN arbeitet mit VM-Speicherrichtlinien, um einen Speicheransatz zu unterstützen, in dessenMittelpunkt virtuelle Maschinen stehen.

Einschränkungen von Virtual SANn Virtual SAN unterstützt nicht mehrere Cluster für Virtual SAN für jeden Host.

n Virtual SAN unterstützt nicht virtuelle Maschinen mit großen virtuellen Festplatten oder Festplattengrößer als 2 TB.

n Virtual SAN unterstützt nur SATA-, SAS HDD- und PCIe-Speicher. Sie können Speicher, die über USB,Fibre-Channel oder iSCSI verbunden sind, nicht verwenden.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 193

n Virtual SAN unterstützt nicht Funktionen wie Fault Tolerance, vSphere DPM und Storage I/O Control.

n Virtual SAN unterstützt keine SE-Festplatten mit geringer Datendichte.

n Virtual SAN unterstützt keine SCSI-Reservierungen.

n Virtual SAN unterstützt RDM, VMFS, Diagnosepartitionen und andere Festplattenzugriffsfunktionennicht.

Merkmale eines Clusters für Virtual SANn Cluster für Virtual SAN können Hosts mit oder ohne Speicherdatenträger beinhalten. Die Mindestan-

forderungen sind drei Hosts mit Speicherdatenträger.

n Wenn ein Host Speichergeräte bereitstellt, muss er ein SSD- und mindestens ein HDD-Gerät haben.

n Nur lokal oder direkt angeschlossene Speichergeräte können in einem Cluster für Virtual SAN verwen-det werden. Virtual SAN verwendet keine anderen mit dem Cluster verbundenen Speicher wie SANoder NAS.

n Virtual SAN nimmt ganze Festplatten ein, einschließlich SSD- und Datenfestplatten, und gibt anderenFunktionen keine Festplatten frei.

n Sie können mehrere VSAN-Cluster für jede vCenter Server-Instanz haben.

Merkmale eines Datenspeichers für Virtual SANn Virtual SAN erstellt einen einzelnen Datenspeicher für Virtual SAN, auf den alle Hosts im Cluster zu-

greifen können, unabhängig davon, ob sie über Festplatten verfügen. Alle Hosts können zudem jeglicheandere Datenspeicher, VMFS oder NFS mounten.

n Wenn Sie mehrere VSAN-Cluster für jeden vCenter Server haben, stellt jeder Cluster einen Datenspei-cher für Virtual SAN bereit. Sie können Storage vMotion zum Verschieben von virtuellen Maschinenzwischen den Datenspeichern für Virtual SAN verwenden.

n Nur Magnetfestplatten (HDD) tragen zur Kapazität des Datenspeichers bei. Die Kapazität von SSDswird nicht als Teil des Datenspeichers gezählt.

n Im automatischen Modus wächst ein Datenspeicher für Virtual SAN dynamisch an, wenn Sie Hosts zueinem Cluster für Virtual SAN oder Festplatten zu einem Clustermitglied hinzufügen.

Über Datenspeicher für Virtual SANNachdem Sie Virtual SAN auf einem Cluster aktiviert haben, wird ein einzelner Datenspeicher für VirtualSAN erstellt. Er wird als eine andere Art von Datenspeicher auf der Liste der Datenspeicher zusätzlich zuVMFS und NFS angezeigt.

Ein Datenspeicher für Virtual SAN verwendet mehrere Speicherkomponenten oder Festplattengruppen, dieüber ESXi-Hosts in dem Cluster verteilt sind.

Ein einzelner Datenspeicher für Virtual SAN bietet für jede virtuelle Maschine oder jede virtuelle Festplatteverschiedene Stufen von QoS (Quality of Service).

In vCenter Server werden die Speichereigenschaften des Virtual SAN-Datenspeichers als Satz von Funktio-nen angezeigt. Sie können diese Funktionen beim Erstellen einer Speicherrichtlinie für virtuelle Maschinenreferenzieren. Wenn Sie später virtuelle Maschinen bereitstellen, verwendet Virtual SAN diese Richtlinie,um virtuelle Maschinen basierend auf den Anforderungen von virtuellen Maschinen optimal abzulegen.

Weitere Informationen hierzu finden Sie unter Kapitel 20, „Infos zu VM-Speicherrichtlinien“, auf Seite 215.

vSphere-Speicher

194 VMware, Inc.

Anforderungen an Virtual SANBevor Sie das Virtual SAN aktivieren, überprüfen Sie, ob Ihre Umgebung alle Anforderungen erfüllt.

Ihre Umgebung muss spezifische Host- und Speicheranforderungen erfüllen. Weitere Informationen zu denNetzwerkanforderungen finden Sie unter „Netzwerkanforderungen an Virtual SAN und Best Practices“,auf Seite 196.

HostanforderungenEs sind mindestens drei Hosts erforderlich, die lokale Festplatten zur Verfügung stellen. Jeder Host musseine SSD und mindestens eine HDD zur Verfügung stellen.

Installieren Sie auf jedem Host ESXi 5.5 oder höher. Sie können die Hosts während der Ersteinrichtung desClusters zum VSAN-Cluster hinzufügen oder Hosts später hinzufügen.

Die Hosts müssen von vCenter Server 5.5 verwaltet werden. Nicht alle Hosts müssen einen lokalen Speicheraufweisen. ESXi-Speicheranforderungen: mindestens 6 GB RAM auf jedem Host.

SpeicheranforderungenVirtual SAN unterstützt eine begrenzte Anzahl von Speichergeräten, die im vSphere-Kompatibilitätshandbuchaufgelistet sind. Ihre Umgebung muss folgende Anforderungen erfüllen:

n Eine SAS-, SATA- oder PCIe-SSD. Stellen Sie sicher, dass der Flash Read Cache keine SSDs verwendet.Formatieren Sie SSDs nicht mit VMFS oder einem anderen Dateisystem.

n Eine SAS- oder SATA-Festplatte (HDD). Auf jedem Host werden SSDs und HDDs in Festplattengrup-pen kombiniert. Obwohl sich das Kapazitätsverhältnis einer SSD zu HDDs in der Regel nach den jewei-ligen Anwendungsfällen und Arbeitslasten richtet, wird die Verwendung einer SSD-Kapazität von min-destens 10 Prozent der insgesamt verbrauchten HDD-Kapazität in jeder Festplattengruppe empfohlen,ohne Berücksichtigung der Sicherheitskopien. Weitere Informationen zu Festplattengruppen finden Sieunter „Verwalten von Festplattengruppen“, auf Seite 203.

n Ein SAS- oder SATA-HBA- oder RAID-Controller, der im RAID0-Modus oder Passthrough eingerichtetist.

ArbeitsspeicheranforderungenDie Mindestanforderungen für den Arbeitsspeicher für eine Festplattengruppe betragen 6 GB. Für Hosts mitsieben oder mehr Festplatten pro Festplattengruppe liegt die Arbeitsspeicheranforderung bei 10 GB odermehr. Weitere Informationen zur Speicheranforderung für Virtual SAN finden Sie in der DokumentationMaximalwerte für die Konfiguration.

USB- oder SD-Geräteanforderungen für dauerhafte ProtokollierungDie Mindestanforderung für das Installieren von ESXi auf USB- oder SD-Geräten liegt bei 4 GB oder mehr.VMware empfiehlt ein hochwertiges USB-Flash-Laufwerk mit mindestens 16 GB. Der zusätzliche Speicherwird für eine erweiterte Coredump-Partition auf dem USB- oder SD-Gerät verwendet.

Wenn Sie Virtual SAN lokalen Speicher zuweisen, reicht die lokale Festplatte oder der Datenspeicher mögli-cherweise nicht für dauerhaftes Protokollieren aus. Um dies zu verhindern, konfigurieren Sie den ESXiDump Collector und den Syslog Collector so, dass ESXi-Arbeitsspeicher-Dumps und Systemprotokolle aufeinen Netzwerkserver umgeleitet werden.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 195

Aufgrund der E/A-Empfindlichkeit von USB- und SD-Geräten erstellt das Installationsprogramm keineScratch-Partition auf diesen Geräten. Beim Installieren auf USB- bzw. SD-Geräten versucht das Installations-programm, einen Scratch-Bereich auf einer verfügbaren lokalen Festplatte oder einem lokalen Datenspeicherzuzuteilen. Wenn keine lokale Festplatte bzw. kein lokaler Datenspeicher gefunden wird, wird /scratch aufder Ramdisk abgelegt. Nach der Installation sollten Sie /scratch neu konfigurieren, um einen dauerhaftenDatenspeicher zu verwenden. Weitere Informationen zum Neukonfigurieren von /scratch finden Sie in derDokumentation Installation und Einrichtung von vSphere.

Netzwerkanforderungen an Virtual SAN und Best PracticesVirtual SAN setzt ordnungsgemäß konfigurierte Netzwerkschnittstellen voraus.

Die Hosts in Ihrem Cluster für Virtual SAN müssen Bestandteil eines Netzwerks des Virtual SAN sein undsich im selben Subnetz befinden. Konfigurieren Sie auf jedem Host mindestens eine Schnittstelle für VirtualSAN. Sie müssen diese Schnittstelle auf allen Hosts im Cluster konfigurieren, unabhängig davon, ob dieHosts Speicher bereitstellen.

Hinweis IPv6 wird vom Virtual SAN nicht unterstützt.

Befolgen Sie diese Richtlinien:

n Virtual SAN erfordert ein privates 1-GBit-Netzwerk. Die Verwendung eines 10-GBit-Netzwerks wird je-doch empfohlen.

n Weisen Sie Virtual SAN auf jedem Host mindestens eine physische 10-GBit-Ethernet-Netzwerkkarte zu.Darüber hinaus können Sie eine zusätzliche physische Netzwerkkarte als Failover-Netzwerkkarte be-reitstellen.

n Sie können vSphere Standard-Switches auf jedem Host verwenden oder aber einen vSphere DistributedSwitch für Ihre Umgebung konfigurieren.

n Konfigurieren Sie für jedes Netzwerk, das Sie für Virtual SAN verwenden, eine VMkernel-Portgruppemit aktivierter Virtual SAN-Porteigenschaft.

n Verwenden Sie für jede Portgruppe dieselbe Netzwerkbezeichnung des Virtual SAN und stellen Sie si-cher, dass die Netzwerkbezeichnungen für alle Hosts einheitlich sind.

n Verwenden Sie für eine optimale Leistung Jumbo-Frames.

n Virtual SAN unterstützt IP-Hash-Lastausgleich, kann aber keine Leistungsverbesserungen für alle Kon-figurationen garantieren. Sie können von IP-Hash profitieren, wenn Virtual SAN unter den zahlreichenKonsumenten ist. In diesem Fall führt IP-Hash den Lastausgleich durch. Ist Virtual SAN jedoch der ein-zige Konsument, bemerken Sie möglicherweise keine Veränderung. Dies gilt insbesondere für 1G-Um-gebungen. Wenn Sie z. B. vier physische 1G-Adapter mit IP-Hash für Virtual SAN verwenden, könnenSie möglicherweise nicht mehr als 1G verwenden. Das gilt auch für alle aktuell unterstützten NIC-Gruppierungsrichtlinien. Weitere Informationen zur NIC-Gruppierung finden Sie im Abschnitt „Netz-werkrichtlinien“ im Handbuch für vSphere-Netzwerk.

n Virtual SAN unterstützt nicht mehrere VMkernel-Adapter im selben Subnetz für den Lastausgleich.Mehrere VMkernel-Adapter in unterschiedlichen Netzwerken, z. B. VLAN oder separaten physischenFabrics, werden unterstützt.

n Sie sollten alle an Virtual SAN beteiligten Hosts an ein einziges L2-Netzwerk anschließen, bei dem Mul-ticast (IGMP-Snooping) aktiviert ist. Wenn die an Virtual SAN beteiligten Hosts über mehrere Switchesoder sogar über L3-Grenzen hinweg verteilt sind, müssen Sie sicherstellen, dass Ihr Netzwerk korrektkonfiguriert ist, um Multicast-Verbindungen zu aktivieren. Die standardmäßigen Multicast-Adressenkönnen geändert werden, falls dies für Ihre Netzwerkumgebung erforderlich ist oder falls Sie mehrereCluster für Virtual SAN im selben L2-Netzwerk ausführen.

Weitere Informationen finden Sie in der Dokumentation vSphere-Netzwerk.

vSphere-Speicher

196 VMware, Inc.

Einrichten eines Netzwerks für Virtual SANFür die Verwendung vom Virtual SAN müssen Sie auf dem ESXi-Host Netzwerkschnittstellen, die im Clus-ter für Virtual SAN enthalten sind, ordnungsgemäß konfigurieren. Hosts verwenden das Netzwerk für Vir-tual SAN, um miteinander zu kommunizieren.

Erstellen Sie auf jedem Host, der am Cluster für Virtual SAN beteiligt ist, einen VMkernel-Netzwerkadapterzur Verwendung als Schnittstelle für Virtual SAN.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zum Host.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Netzwerk.

3 Wählen Sie VMkernel‐Adapter aus und klicken Sie auf das Symbol Hostnetzwerk hinzufügen.

4 Wählen Sie auf der Seite Verbindungstyp auswählen die Option VMkernel-Netzwerkadapter aus undklicken Sie auf Weiter.

5 Konfigurieren Sie ein Zielgerät.

6 Wählen Sie auf der Seite Porteigenschaften die Option Datenverkehr des Virtual SAN aus.

7 Schließen Sie die VMkernel-Adapterkonfiguration ab.

8 Vergewissern Sie sich, dass in der Spalte für Virtual SAN „Aktiviert“ als Status für den VMkernel-Adapter angezeigt wird.

Virtual SAN ist für das Netzwerk aktiviert.

Weiter

Nun können Sie Virtual SAN auf dem Hostcluster aktivieren.

Verwenden vom Virtual SAN und vSphere HASie können vSphere HA und Virtual SAN auf demselben Cluster aktivieren. Wie herkömmliche Datenspei-cher gewährleistet vSphere HA denselben Schutz für virtuelle Maschinen, die sich auf Datenspeichern fürVirtual SAN befinden. Bei der Interaktion von vSphere HA und Virtual SAN gelten jedoch bestimmte Über-legungen.

Anforderungen für ESXi-HostsVirtual SAN kann nur mit einem vSphere HA-Cluster verwendet werden, wenn die folgenden Bedingungenerfüllt sind:

n Für die ESXi-Hosts des Clusters ist mindestens Version 5.5 erforderlich.

n Der Cluster muss aus mindestens drei ESXi-Hosts bestehen.

Unterschiede beim NetzwerkVirtual SAN weist ein eigenes Netzwerk auf. Wenn Virtual SAN und vSphere HA für denselben Cluster ak-tiviert sind, wird der HA-Datenverkehr zwischen den Agenten nicht über das Verwaltungsnetzwerk, son-dern über dieses Speichernetzwerk übertragen. Das Verwaltungsnetzwerk wird von vSphere HA nur ver-wendet, wenn Virtual SAN deaktiviert ist. vCenter Server wählt das entsprechende Netzwerk aus, wennvSphere HA auf einem Host konfiguriert ist.

Hinweis Virtual SAN kann nur aktiviert werden, wenn vSphere HA deaktiviert ist.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 197

In der folgenden Tabelle werden die Unterschiede beim vSphere HA-Netzwerk erläutert, wenn Virtual SANverwendet bzw. nicht verwendet wird.

Tabelle 19‑1. Unterschiede beim vSphere HA-Netzwerk

Virtual SAN aktiviert Virtual SAN deaktiviert

Von vSphere HA verwendetes Netz-werk

Speichernetzwerk für Virtual SAN Verwaltungsnetzwerk

Taktsignal-Datenspeicher Jeder für > 1 Host gemountete Daten-speicher, nicht jedoch Datenspeicherfür Virtual SAN

Jeder für > 1 Host gemountete Daten-speicher

Als isoliert erklärter Host Isolationsadressen können nicht ange-pingt werden, kein Zugriff auf dasSpeichernetzwerk für Virtual SAN

Isolationsadressen können nicht ange-pingt werden, kein Zugriff auf das Ver-waltungsnetzwerk

Wenn Sie die Netzwerkkonfiguration des Virtual SAN ändern, übernehmen die vSphere HA-Agenten nichtautomatisch die neuen Netzwerkeinstellungen. Um Änderungen am Netzwerk des Virtual SAN vorzuneh-men, müssen Sie deshalb die folgenden Schritte im vSphere Web Client ausführen:

1 Deaktivieren Sie die Hostüberwachung für den vSphere HA-Cluster.

2 Nehmen Sie die Änderungen am Netzwerk des Virtual SAN vor.

3 Klicken Sie mit der rechten Maustaste auf alle Hosts im Cluster und wählen Sie ///Reconfigure HA aus.

4 Aktivieren Sie erneut die Hostüberwachung für den vSphere HA-Cluster.

Einstellungen für die KapazitätsreservierungWenn Sie Kapazität für Ihren vSphere HA-Cluster mit einer Zugangssteuerungsrichtlinie reservieren, mussdiese Einstellung mit der entsprechenden Einstellung für Virtual SAN koordiniert werden, die den Zugriffauf die Daten bei Fehlern sicherstellt. Insbesondere darf die Einstellung „Anzahl der zu tolerierenden Feh-ler“ im Regelsatz für Virtual SAN nicht niedriger als die durch die Einstellung für die vSphere HA-Zu-gangssteuerung reservierte Kapazität sein.

Wenn beispielsweise der Regelsatz für Virtual SAN nur zwei Fehler zulässt, muss die vSphere HA-Zu-gangssteuerungsrichtlinie Kapazität reservieren, die nur einem oder zwei Hostfehlern entspricht. Falls Siedie Richtlinie „Prozentsatz der reservierten Clusterressourcen“ für einen Cluster mit acht Hosts verwenden,dürfen Sie nicht mehr als 25 % der Clusterressourcen reservieren. Für denselben Cluster darf mit der Richtli-nie „Vom Cluster tolerierte Hostfehler“ diese Einstellung nicht höher als zwei Hosts sein. Wenn weniger Ka-pazität durch vSphere HA reserviert wird, kann die Failover-Aktivität unvorhersehbar sein. Die Reservie-rung von zu viel Kapazität bedeutet dagegen, dass das Einschalten von virtuellen Maschinen und die vMo-tion-Migrationen zwischen Clustern übermäßig belastet werden.

Verhalten vom Virtual SAN und vSphere HA bei einem Ausfall mehrerer HostsNach dem Fehlschlagen eines Clusters für Virtual SAN mit einem Verlust des Failover-Quorums für das Ob-jekt einer virtuellen Maschine kann vSphere HA möglicherweise die virtuelle Maschine nicht neu starten,auch wenn das Cluster-Quorum wiederhergestellt wurde. vSphere HA garantiert den Neustart nur, wennein Cluster-Quorum vorhanden ist und auf die neueste Kopie des Objekts einer virtuellen Maschine zuge-griffen werden kann. Die neueste Kopie ist die letzte zu schreibende Kopie.

Nehmen Sie als Beispiel die virtuelle Maschine eines Virtual SAN, die so bereitgestellt wurde, dass ein Host-ausfall toleriert wird. Die virtuelle Maschine wird auf einem Cluster für Virtual SAN ausgeführt, der dreiHosts umfasst, nämlich H1, H2 und H3. Alle drei Hosts schlagen in einer Sequenz fehl, wobei H3 der letzteHost ist.

vSphere-Speicher

198 VMware, Inc.

Nachdem H1 und H2 wiederhergestellt worden sind, hat der Cluster ein Quorum (ein Hostausfall wird tole-riert). Dennoch kann vSphere HA die virtuelle Maschine nicht neu starten, da der letzte fehlgeschlageneHost (H3) die neueste Kopie des Objekts der virtuellen Maschine enthält und noch nicht auf ihn zugegriffenwerden kann.

In diesem Beispiel müssen alle drei Hosts entweder gleichzeitig wiederhergestellt werden oder das Doppel-Host-Quorum muss H3 enthalten. Wenn keine der beiden Bedingungen erfüllt wird, versucht HA die virtu-elle Maschine neu zu starten, wenn der Host H3 wieder online ist.

Aktivierung vom Virtual SANFür die Verwendung vom Virtual SAN müssen Sie einen Hostcluster erstellen und Virtual SAN für denCluster aktivieren.

Ein Cluster für Virtual SAN kann Hosts mit Speicherfestplatten sowie Hosts ohne Speicherfestplatten bein-halten. Halten Sie sich beim Erstellen eines Clusters für Virtual SAN an diese Richtlinien.

n Ein Cluster für Virtual SAN muss aus mindestens drei ESXi-Hosts bestehen.

n Mindestens drei Hosts, die dem Cluster für Virtual SAN beitreten, müssen Speicherfestplatten aufwei-sen, damit der Cluster für Virtual SAN Host- und Festplattenfehler toleriert.

n Nur ESXi 5.5-Hosts können dem Cluster für Virtual SAN beitreten.

n Bevor Sie einen Host von einem Virtual SAN-Cluster in einen anderen Cluster verschieben, stellen Siesicher, dass der Zielcluster für Virtual SAN aktiviert ist.

n Für den Zugriff auf den Datenspeicher für Virtual SAN muss ein ESXi-Host zum Cluster für VirtualSAN gehören.

Nachdem Sie Virtual SAN aktiviert haben, wird der Virtual SAN-Speicheranbieter automatisch beivCenter Server registriert, und der Virtual SAN-Datenspeicher wird erstellt. Weitere Informationen zu Spei-cheranbietern finden Sie unter Kapitel 26, „Verwenden von Speicheranbietern“, auf Seite 281.

Erstellen eines Clusters für Virtual SANVirtual SAN kann beim Erstellen eines Clusters aktiviert werden.

Vorgehensweise

1 Klicken Sie mit der rechten Maustaste auf ein Datencenter im vSphere Web Client und wählen Sie Neu‐er Cluster aus.

2 Geben Sie einen Namen für den Cluster in das Textfeld Name ein.

Dieser Name wird im Navigator von vSphere Web Client angezeigt.

3 Aktivieren Sie das Kontrollkästchen Einschalten für Virtual SAN.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 199

4 Wählen Sie den Modus für zu beanspruchende Speicherfestplatten aus und klicken Sie auf OK.

Option Beschreibung

Automatisch Alle leeren Festplatten auf den einbezogenen Hosts werden für VirtualSAN beansprucht. Virtual SAN im automatischen Modus beansprucht nurlokale Festplatten auf den ESXi-Hosts im Cluster. Nicht gemeinsam ge-nutzte Remote-Festplatten können manuell hinzugefügt werden.

Manuell Erfordert auf den einbezogenen Hosts die manuelle Beanspruchung derFestplatten. Neue Festplatten auf dem Host werden nicht zu Virtual SANhinzugefügt. Beim manuellen Modus gibt es zwei Methoden zum Anord-nen von Festplatten in Festplattengruppen, nämlich die halbautomatischeund die manuelle Methode.Hinweis Bei Verwendung dieses Modus wird ein Datenspeicher für Vir-tual SAN erstellt, der jedoch eine anfängliche Größe von 0 Byte aufweist.Der Datenspeicher kann erst verwendet werden, nachdem Sie Festplattenmanuell beansprucht haben.

5 Fügen Sie dem Cluster für Virtual SAN Hosts hinzu.

Cluster für Virtual SAN können Hosts mit Festplatten sowie Hosts ohne Festplatten beinhalten.

Der Cluster wird in der Bestandsliste angezeigt.

Weiter

Vergewissern Sie sich, dass der Datenspeicher für Virtual SAN erstellt wurde. Weitere Informationen hierzufinden Sie unter „Anzeigen des Datenspeichers für Virtual SAN“, auf Seite 202.

Vergewissern Sie sich, dass der Speicheranbieter für Virtual SAN registriert ist. Weitere Informationen hier-zu finden Sie unter „Anzeigen von Speicheranbietern für Virtual SAN“, auf Seite 212.

Wenn Sie den manuellen Modus für Virtual SAN verwenden, müssen Sie Festplatten beanspruchen oderFestplattengruppen erstellen. Weitere Informationen hierzu finden Sie unter „Verwalten von Festplatten-gruppen“, auf Seite 203.

Aktivieren vom Virtual SAN auf vorhandenen ClusternSie können Clustereigenschaften bearbeiten, um Virtual SAN für einen vorhandenen Cluster zu aktivieren.

Voraussetzungen

Vergewissern Sie sich, dass Ihre Umgebung alle Anforderungen erfüllt. Weitere Informationen hierzu findenSie unter „Anforderungen an Virtual SAN“, auf Seite 195.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client-Navigator zum Hostcluster.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Wählen Sie im Virtual SAN Allgemein aus und klicken Sie auf Bearbeiten, um Einstellungen für Virtu-al SAN zu bearbeiten.

vSphere-Speicher

200 VMware, Inc.

4 Wählen Sie den Modus für zu beanspruchende Speicherfestplatten aus.

Option Beschreibung

Automatisch Alle leeren Festplatten auf den einbezogenen Hosts werden für VirtualSAN beansprucht. Virtual SAN im automatischen Modus beansprucht nurlokale Festplatten auf den ESXi-Hosts im Cluster. Nicht gemeinsam ge-nutzte Remote-Festplatten können manuell hinzugefügt werden.

Manuell Erfordert auf den einbezogenen Hosts die manuelle Beanspruchung derFestplatten. Neue Festplatten auf dem Host werden nicht zu Virtual SANhinzugefügt. Beim manuellen Modus gibt es zwei Methoden zum Anord-nen von Festplatten in Festplattengruppen, nämlich die halbautomatischeund die manuelle Methode.Hinweis Bei Verwendung dieses Modus wird ein Datenspeicher für Vir-tual SAN erstellt, der jedoch eine anfängliche Größe von 0 Byte aufweist.Der Datenspeicher kann erst verwendet werden, nachdem Sie Festplattenmanuell beansprucht haben.

5 Klicken Sie auf OK.

Durch die Aktivierung vom Virtual SAN wird ein Datenspeicher für Virtual SAN erstellt und der Speicher-anbieter für Virtual SAN wird registriert. Der Speicheranbieter für Virtual SAN teilt vCenter Server Spei-cherfunktionen des Datenspeichers mit.

Weiter

Vergewissern Sie sich, dass der Datenspeicher für Virtual SAN erstellt wurde. Weitere Informationen hierzufinden Sie unter „Anzeigen des Datenspeichers für Virtual SAN“, auf Seite 202.

Vergewissern Sie sich, dass der Speicheranbieter für Virtual SAN registriert ist. Weitere Informationen hier-zu finden Sie unter „Anzeigen von Speicheranbietern für Virtual SAN“, auf Seite 212.

Wenn Sie den manuellen Modus für Virtual SAN verwenden, müssen Sie Festplatten beanspruchen oderFestplattengruppen erstellen. Weitere Informationen hierzu finden Sie unter „Verwalten von Festplatten-gruppen“, auf Seite 203.

Weitere Informationen zum Deaktivieren von Virtual SAN in einem Cluster finden Sie unter „Deaktivierenvom Virtual SAN“, auf Seite 202.

Zuweisen eines Lizenzschlüssels zu einem Cluster für Virtual SANNachdem Sie den erforderlichen Lizenzschlüssel erhalten haben, weisen Sie ihn dem Cluster für VirtualSAN zu. Alternativ können Sie einen vorhandenen Lizenzschlüssel für Virtual SAN verwenden, wenn er inder Bestandsliste des vCenter Server-Systems vorhanden ist.

Wenn Sie Virtual SAN für einen Cluster aktivieren, können Sie das Virtual SAN im Testmodus ausführen,um seine Funktionen auszuprobieren. Der Testzeitraum beginnt, wenn das Virtual SAN aktiviert wird, undläuft nach 60 Tagen ab. Um Virtual SAN zu verwenden, müssen Sie den Cluster lizenzieren, bevor die Test-phase abgelaufen ist. Weitere Informationen finden Sie im Abschnitt „Berichterstellung und Verwaltung derLizenzierung“ im Handbuch für vCenter Server und Hostverwaltung.

Voraussetzungen

n Erforderliche Berechtigung: Global.Licenses

n Wenn Sie einen vorhandenen Lizenzschlüssel zuweisen möchten, vergewissern Sie sich, dass der Li-zenzschlüssel im vCenter Server-System verfügbar ist.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zu einem Cluster, auf dem Virtual SAN aktiviert ist.

2 Klicken Sie auf der Registerkarte Verwalten auf Einstellungen.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 201

3 Wählen Sie unter „Konfiguration“ die Option Lizenzierung des Virtual SAN und klicken Sie auf Li‐zenzschlüssel zuweisen.

4 Wählen Sie eine Lizenzierungsoption aus.

Option Beschreibung

Vorhandenen Lizenzschlüssel zu-weisen

Wählen Sie den zuzuweisenden Lizenzschlüssel aus und klicken Sie aufOK.

Neuen Lizenzschlüssel zuweisen a Geben Sie den Lizenzschlüssel ein oder kopieren Sie ihn in das Feldund geben Sie optional eine Beschreibung des Schlüssels ein.

b Um sicherzustellen, dass der Lizenzschlüssel das richtige Format auf-weist und dass er für Virtual SAN bestimmt ist, klicken Sie auf Ent‐schlüsseln.

c Klicken Sie auf OK.

Anzeigen des Datenspeichers für Virtual SANNachdem Sie Virtual SAN aktiviert haben, wird ein einzelner Datenspeicher erstellt. Sie können die Kapazi-tät des Datenspeichers für Virtual SAN überprüfen.

Voraussetzungen

Aktivieren Sie Virtual SAN und konfigurieren Sie Festplattengruppen.

Vorgehensweise

1 Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client.

2 Wählen Sie den Datenspeicher für Virtual SAN aus.

3 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

4 Überprüfen Sie die Kapazität des Datenspeichers für Virtual SAN.

Die Größe des Datenspeichers für Virtual SAN ist abhängig von der Anzahl der HDD-Laufwerke proESXi-Host und der Anzahl der ESXi-Hosts im Cluster. Angenommen, ein Host weist sieben HDD-Lauf-werke mit 2 TB auf, und der Cluster besteht aus acht Hosts. In diesem Fall beträgt die Speicherkapazitätetwa 7 x 2 TB x 8 = 112 TB. Ein Teil der Kapazität wird für Metadaten zugeteilt.

Weiter

Erstellen Sie mithilfe der Speicherfunktionen des Datenspeichers für Virtual SAN eine Speicherrichtlinie fürvirtuelle Maschinen. Weitere Informationen hierzu finden Sie unter Kapitel 20, „Infos zu VM-Speicherrichtli-nien“, auf Seite 215.

Deaktivieren vom Virtual SANSie können Virtual SAN für einen Host-Cluster deaktivieren.

Wenn Sie den Cluster für Virtual SAN deaktivieren, kann auf keine der auf dem gemeinsam genutzten Da-tenspeicher für Virtual SAN platzierten virtuellen Maschinen mehr zugegriffen werden. Wenn Sie beabsich-tigen, eine virtuelle Maschine zu verwenden, während Virtual SAN deaktiviert ist, stellen Sie sicher, dass Sievirtuelle Maschinen vor dem Deaktivieren des Virtual SAN-Clusters aus dem Virtual SAN-Datenspeicher ineinen anderen Datenspeicher migrieren.

Voraussetzungen

Überprüfen Sie, ob sich die Hosts im Wartungsmodus befinden.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client-Navigator zum Hostcluster.

vSphere-Speicher

202 VMware, Inc.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Wählen Sie im Virtual SAN Allgemein aus und klicken Sie auf Bearbeiten, um Einstellungen für Virtu-al SAN zu bearbeiten.

4 Heben Sie die Aktivierung des Kontrollkästchens Virtual SAN einschalten auf.

Verwalten von FestplattengruppenAuf jedem ESXi-Host, der seine lokale Festplatten zu einem Cluster für Virtual SAN beiträgt, sind die Fest-platten in Festplattengruppen organisiert. Eine Festplattengruppe ist eine Hauptspeichereinheit auf einemHost. Jede Festplattengruppe enthält eine SSD und eine oder mehrere HDDs (Magnetfestplatten).

Virtual SAN verwendet eine Zusammenfassung von Festplattengruppen zum Sichern eines einzelnen Da-tenspeichers, der erstellt wird, wenn Sie Virtual SAN aktivieren.

In der Festplattengruppe dient die SSD primär als Lesecache-Schreibpuffer, während die HDDs für dauer-haften Speicher verwendet werden. In der Regel wird durch ein höheres Verhältnis von SSD zu HDD so-wohl hinsichtlich der Größe als auch der Menge die Leistung gesteigert.

Je nach dem Modus, den Sie beim Aktivieren vom Virtual SAN auf einem Cluster auswählen, haben Sie ver-schiedene Möglichkeiten zum Organisieren der Festplatten in Gruppen.

Automatischer Modus Virtual SAN beansprucht alle verfügbaren und verwendbaren Festplattenund organisiert sie in Standardgruppen mit einer SSD und einer oder mehre-ren HDDs. Wenn Sie mehr Festplatten zu Hosts oder neue Hosts zum Clusterfür Virtual SAN hinzufügen, werden alle betreffenden Festplatten vom Virtu-al SAN beansprucht. Virtual SAN im automatischen Modus beansprucht nurlokale Festplatten auf den ESXi-Hosts im Cluster. Sie können alle nicht ge-meinsam genutzten Remotefestplatten manuell hinzufügen.

Manueller Modus Sie müssen Hosts und Festplatten auf den Hosts angeben, um im Datenspei-cher für Virtual SAN verwendet zu werden. Es gibt zwei Methoden zum Or-ganisieren von Festplatten in Festplattengruppen: halbautomatisch und ma-nuell.

Wenn Sie die halbautomatische Methode verwenden, organisiert das VirtualSAN die angegebenen Festplatten in Standardfestplattengruppen.

Eine andere Option besteht darin, benutzerdefinierte Festplattengruppen ma-nuell zu erstellen und Festplatten für jede Gruppe auszuwählen. Wenn Sie ei-ne Festplattengruppe manuell erstellen, müssen Sie vor allem das Verhältnisder SSD- zur Raw-HDD-Kapazität berücksichtigen. Obwohl sich die Verhält-nisse nach den jeweiligen Anwendungsfällen und Arbeitslasten richten, wirddie Verwendung einer SSD-Kapazität von mindestens 10 Prozent der insge-samt verbrauchten HDD-Kapazität in jeder Festplattengruppe empfohlen,ohne Berücksichtigung der Sicherheitskopien. Wenn die Größe Ihrer Raw-HDD-Kapazität auf der Festplattengruppe beispielsweise 4 TB ist, beträgt dieempfohlene SSD-Kapazität 400 GB.

Festplatten für Virtual SAN können nicht von anderen Funktionen wie RDM, VMFS, Diagnosepartition usw.verwendet werden.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 203

Verwenden einer halbautomatischen Methode zur Beanspruchung vonFestplatten für Virtual SAN

Wenn Virtual SAN im manuellen Modus für den Hostcluster aktiviert ist, müssen Sie SSD- und HDD-Fest-platten auswählen, die vom Virtual SAN beansprucht werden. Nach der Auswahl der Festplatten ordnetVirtual SAN die Festplatten in standardmäßigen Festplattengruppen an. Hierbei handelt es sich um einehalbautomatische Methode zum Erstellen von Festplattengruppen.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client-Navigator zum Cluster für Virtual SAN.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie im Virtual SAN auf Datenträgerverwaltung.

4 Klicken Sie auf das Symbol Festplatten beanspruchen.

5 Wählen Sie Festplatten zur Verwendung für Virtual SAN aus.

Auf jedem Host müssen Sie mindestens ein SSD-Laufwerk und eines oder mehrere HDD-Laufwerkeauswählen. Wenn Sie mehrere SSD-Laufwerke auswählen, müssen mindestens so viele HDD-Laufwer-ke wie SSD-Laufwerke vorhanden sein.

Virtual SAN beansprucht die Festplatten, die Sie auswählen, und ordnet sie in standardmäßigen Festplatten-gruppen zur Unterstützung des Datenspeichers für Virtual SAN an.

Verwenden einer manuellen Methode zur Beanspruchung von Festplatten fürVirtual SAN

Wenn das Virtual SAN für den Host-Cluster im manuellen Modus aktiviert ist, können Sie eine manuelleMethode zum Durchsuchen bestimmter SSDs mit bestimmten HDDs und zum Erstellen von benutzerdefi-nierten Festplattengruppen auf einem bestimmten Host verwenden.

Diese Methode unterscheidet sich von dem halbautomatischen Beanspruchen von Festplatten für VirtualSAN, wo Sie mehrere Festplatten für die Nutzung durch das Virtual SAN auswählen, diese aber nicht inGruppen organisieren. Stattdessen werden nach der Auswahl der Festplatten Standardfestplattengruppenvom Virtual SAN für Sie erstellt. Wenn Sie dagegen eine Festplattengruppe manuell erstellen, können Siespezifischer vorgehen und ausgewählte Festplatten in Festplattengruppen organisieren. Sie können eine SSDund beliebige HDD-Festplatten für eine Festplattengruppe auswählen. Die von Ihnen erstellten Festplatten-gruppen gehören zu dem Host, auf dem sich die Festplatten befinden, und Sie können die Gruppen nichteinem anderen Host zuweisen.

Wenn Sie eine Festplattengruppe erstellen, müssen Sie vor allem das Verhältnis der SSD- zur HDD-Kapazi-tät berücksichtigen. Die Verhältnisse richten sich nach den jeweiligen Anwendungsfällen und Arbeitslasten;als Best Practice wird jedoch ein Verhältnis von 1:10 der SSD- zur HDD-Kapazität betrachtet.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client-Navigator zum Cluster für Virtual SAN.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie im Virtual SAN aufDatenträgerverwaltung.

4 Klicken Sie auf das Symbol Neue Festplattengruppe erstellen.

5 Wählen Sie eine SSD-Festplatte aus, und wählen Sie dann eine oder mehrere Nicht-SSD-Festplatten aus.

Für jede Festplattengruppe können Sie nur eine SSD und bis zu sechs Nicht-SSD-Festplatten auswählen.

6 Klicken Sie auf OK.

vSphere-Speicher

204 VMware, Inc.

Die neue Festplattengruppe wird auf der Liste angezeigt.

Hinzufügen einer Festplatte zu einer FestplattengruppeWenn Sie Virtual SAN im manuellen Modus verwenden, können Sie lokale Festplatten zu vorhandenenFestplattengruppen hinzufügen.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client-Navigator zum Cluster für Virtual SAN.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie im Virtual SAN aufDatenträgerverwaltung.

4 Wählen Sie die Festplattengruppe aus und klicken Sie auf das Symbol Fügt eine Festplatte zur ausge‐wählten Festplattengruppe hinzu.

5 Wählen Sie eine hinzuzufügende Festplatte aus und klicken Sie auf OK.

Die Festplatte wird in der Liste der Festplatten angezeigt, die zu dieser Festplattengruppe gehören.

Entfernen von Festplatten vom Virtual SANSie können eine komplette Festplattengruppe oder ausgewählte Festplatten aus der Festplattengruppe ent-fernen.

Festplatten oder Festplattengruppen können nur entfernt werden, wenn sich Virtual SAN im manuellen Mo-dus befindet. Für den Modus der automatischen Festplattenbeanspruchung wird das Entfernen nicht unter-stützt.

Hinweis Beim Entfernen einer einzelnen SSD-Festplatte oder aller Nicht-SSD-Festplatten aus der Festplat-tengruppe wird die gesamte Festplattengruppe entfernt.

Voraussetzungen

Durch das Entfernen von Festplatten können der Datenspeicher für Virtual SAN und virtuelle Maschinenauf dem Datenspeicher gestört werden. Stellen Sie deshalb sicher, dass die Festplatten oder die Festplatten-gruppe, die Sie entfernen möchten, von keinen virtuellen Maschinen verwendet werden. Versetzen Sie dazuden Host für Virtual SAN in den Wartungsmodus.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client-Navigator zum Cluster für Virtual SAN.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie im Virtual SAN aufDatenträgerverwaltung.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 205

4 Entfernen Sie eine Festplattengruppe oder ausgewählte Festplatten.

Option Beschreibung

Festplattengruppe entfernen Wählen Sie unter „Festplattengruppen“ die zu entfernende Festplatten-gruppe aus und klicken Sie auf das Symbol Festplattengruppe entfernen.Hinweis Das Symbol Festplattengruppe entfernen wird nicht angezeigt,wenn der Virtual SAN-Cluster im automatischen Modus eingerichtet ist.Das Symbol wird nur angezeigt, wenn sich der Cluster im manuellen Mo-dus befindet.

Ausgewählte Festplatte entfernen a Wählen Sie unter „Festplattengruppen“ die Festplattengruppe aus, diedie zu entfernende Festplatte enthält.

b Wählen Sie unter „Festplattengruppen“ die zu entfernende Festplatteaus, und klicken Sie auf das Symbol Ausgewählte Festplatten entfer‐nen.

SSD-Festplatten, die Sie aus Virtual SAN entfernen, werden für Funktionen wie Flash Read Cache verfügbar.

Überwachung vom Virtual SANVirtual SAN unterstützt umfangreiche Überwachungsfunktionen. Die Umgebung für Virtual SAN könnenSie über einen vSphere Web Client überwachen.

Für die Konfiguration des Virtual SAN können Sie unterschiedliche Objekte überwachen. Sie können Hostsüberwachen, die zu einem Cluster für Virtual SAN gehören, so wie dies bei jedem anderen von vCenter Ser-ver verwalteten Host der Fall ist. Darüber hinaus können Sie den Datenspeicher für Virtual SAN überwa-chen. Weitere Informationen zur Überwachung von Objekten und Speicherressourcen in Ihrer Virtual-SAN-Umgebung finden Sie in der Dokumentation vSphere-Überwachung und -Leistung.

Überwachen des Clusters für Virtual SANSie können den Cluster für Virtual SAN und alle mit dem Cluster verwandten Objekte überwachen.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client-Navigator zum Cluster für Virtual SAN.

2 Wählen Sie die Registerkarte Überwachen aus und klicken Sie auf Virtual SAN.

3 Wählen Sie Physische Festplatten aus, um alle zum Cluster gehörenden Hosts und Speicherdatenträgerzu überprüfen.

Es werden Informationen über Speicherdatenträger wie Kapazität, verwendete Kapazität usw. ange-zeigt.

4 Wählen Sie eine Nicht-SSD-Festplatte aus und klicken Sie auf Virtuelle Festplatten, um die virtuellenMaschinen zu überprüfen, die die Festplatte verwenden.

Sie können alle Objekte „Virtuelle Maschine“ überprüfen und sicherstellen, dass sie in Übereinstim-mung mit den ihnen zugewiesenen Speicherrichtlinien sind.

Überwachen von in Datenspeichern für Virtual SAN teilnehmenden FestplattenÜberprüfen Sie den Status der Festplatten, die den Datenspeicher für Virtual SAN sichern. Sie können prü-fen, ob bei den Festplatten Probleme auftreten.

Vorgehensweise

1 Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client.

2 Wählen Sie den Datenspeicher für Virtual SAN aus.

vSphere-Speicher

206 VMware, Inc.

3 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

4 Klicken Sie auf Geräte‐Backing.

5 Wählen Sie die Festplattengruppe aus, und prüfen Sie die lokalen Festplatten, die in der Tabelle Fest-platten aufgelistet sind.

6 Wenn die Spalte „Problem“ für die Festplatten nicht angezeigt wird, gehen Sie wie folgt vor:

a Klicken Sie mit der rechten Maustaste auf die Spaltenüberschrift und wählen Sie Spalten anzei‐gen/ausblenden.

b Wählen Sie Problem aus, um die Spalte anzuzeigen.

Die Spalte „Problem“ enthält Hinweise, wenn Festplatten ungeeignet werden. Wenn für die Festplattenkeine Probleme bestehen, enthält die Spalte keine Werte.

Verwaltung vom Virtual SANNachdem Sie den Cluster für Virtual SAN eingerichtet haben, können Sie mit dem vSphere Web ClientHosts und Festplatten hinzufügen und entfernen sowie Fehlerszenarien verwalten.

Erweitern eines Clusters für Virtual SANSie können einen vorhandenen Virtual SAN-Cluster erweitern, indem Sie Hosts hinzufügen oder den HostsFestplatten hinzufügen, ohne laufende Vorgänge unterbrechen zu müssen.

Erweitern Sie Ihren Cluster für Virtual SAN mit einer der folgenden Methoden.

n Fügen Sie neue ESXi-Hosts direkt zum Cluster hinzu. Weitere Informationen hierzu finden Sie unter „Hinzufügen eines Hosts zum Cluster für Virtual SAN“, auf Seite 207.

n Verschieben Sie vorhandene Hosts mithilfe eines Hostprofils in den Cluster. Weitere Informationenhierzu finden Sie unter „Hinzufügen eines Hosts zum Virtual SAN-Cluster mithilfe eines Hostprofils“,auf Seite 208.

Neue Clustermitglieder fügen Speicher- und Rechenkapazität hinzu. Bei Verwendung von Virtual SANim automatischen Modus werden lokale Festplatten im neuen Clustermitglied automatisch in einerFestplattengruppe zusammengefasst und vom Virtual SAN-Datenspeicher beansprucht. Wenn VirtualSAN auf den manuellen Modus eingestellt ist, müssen Sie manuell eine Teilmenge von Festplattengrup-pen erstellen, die die lokalen Festplatten des neu hinzugefügten Hosts enthalten. Weitere Informationenhierzu finden Sie unter „Verwenden einer manuellen Methode zur Beanspruchung von Festplatten fürVirtual SAN“, auf Seite 204.

n Fügen Sie den ESXi-Hosts, die Clustermitglieder sind, neue Festplatten hinzu. Bei Verwendung vomVirtual SAN im automatischen Modus wird die neu hinzugefügte Festplatte einer vorhandenen Fest-plattengruppe hinzugefügt. Wenn Virtual SAN auf den manuellen Modus eingestellt ist, müssen Sie dieFestplatte der Festplattengruppe auf dem Host manuell hinzufügen. Weitere Informationen hierzu fin-den Sie unter „Hinzufügen einer Festplatte zu einer Festplattengruppe“, auf Seite 205.

Hinzufügen eines Hosts zum Cluster für Virtual SANSie können einen ESXi-Host zu einem ausgeführten Cluster für Virtual SAN ohne Unterbrechungen laufen-der Vorgänge hinzufügen. Die Ressourcen des Hosts werden dem Cluster zugeordnet.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client-Navigator zum Cluster für Virtual SAN.

2 Klicken Sie mit der rechten Maustaste auf den Cluster und wählen Sie Host hinzufügen.

3 Geben Sie den Hostnamen, den Benutzernamen und das Kennwort ein und klicken Sie auf Weiter.

4 Zeigen Sie die Informationsübersicht an, und klicken Sie auf Weiter (Next).

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 207

5 Weisen Sie dem Host einen vorhandenen oder neuen Lizenzschlüssel zu und klicken Sie auf Weiter.

6 (Optional) Aktivieren Sie einen Sperrmodus, um zu verhindern, dass sich Remotebenutzer direkt beimHost anmelden.

Sie können diese Option später konfigurieren, indem Sie das Sicherheitsprofil in den Hosteinstellungenbearbeiten.

7 Geben Sie die weitere Verfahrensweise mit den virtuellen Maschinen und Ressourcenpools des Hostsan.

n Alle virtuellen Maschinen dieses Hosts im Root‐Ressourcenpool des Clusters platzieren

vCenter Server entfernt alle vorhandenen Ressourcenpools des Hosts. Die virtuellen Maschinen inder Hierarchie des Hosts werden alle Root zugeordnet. Da Freigabezuordnungen stets relativ zueinem Ressourcenpool sind, müssen Sie die Freigaben einer virtuellen Maschine möglicherweisemanuell ändern, wodurch die Ressourcenpoolhierarchie zerstört wird.

n Einen Ressourcenpool für die virtuellen Maschinen und Ressourcenpools dieses Hosts erstellen

vCenter Server erstellt einen Ressourcenpool auf oberster Ebene, der zu einem dem Cluster direktuntergeordneten Element wird, und fügt alle untergeordneten Elemente des Hosts zu diesem neu-en Ressourcenpool hinzu. Sie können einen Namen für den neuen Ressourcenpool auf obersterEbene eingeben. Der Standard ist Übertragen von <host_name>.

8 Überprüfen Sie die Einstellungen und klicken Sie auf Fertig stellen.

Der Host wurde zum Cluster hinzugefügt.

Hinzufügen eines Hosts zum Virtual SAN-Cluster mithilfe eines HostprofilsSie können durch das Erstellen eines neuen Hostprofils einen ESXi-Host zum Virtual SAN-Cluster hinzufü-gen. Durch Extrahieren und Wiederverwenden der Konfiguration des ausgewählten Referenzhosts kann einneues Profil erstellt werden.

Voraussetzungen

Stellen Sie sicher, dass sich der Host im Wartungsmodus befindet.

Vorgehensweise

1 Erstellen Sie ein neues Hostprofil.

a Navigieren Sie zur Ansicht „Hostprofile“.

b Klicken Sie auf das Symbol Profil vom Host extrahieren ( ).

c Wählen Sie den Host aus, den Sie als Referenzhost verwenden möchten, und klicken Sie auf Wei‐ter.

Der ausgewählte Host muss ein aktiver Host sein.

d Geben Sie einen Namen und eine Beschreibung für das neue Profil ein und klicken Sie auf Weiter.

e Überprüfen Sie die Zusammenfassung für das neue Hostprofil und klicken Sie auf Beenden.

Das neue Profil wird in der Profilliste angezeigt.

2 Hängen Sie den Host an das gewünschte Hostprofil an.

a Wählen Sie in der Profilliste in der Hauptansicht „Hostprofile“ das Hostprofil aus, das Sie für denVirtual SAN-Host übernehmen möchten.

b Klicken Sie auf das Symbol Hosts und Cluster an ein Hostprofil anhängen bzw. davon trennen

( ).

vSphere-Speicher

208 VMware, Inc.

c Wählen Sie den Host aus der erweiterten Liste aus und klicken Sie auf Anhängen, um den Host andas Profil anzuhängen.

Der Host wird zur Liste der verbundenen Elemente hinzugefügt.

d Klicken Sie auf Weiter.

e Klicken Sie auf Beenden, um das Anhängen des Hosts an das Profil abzuschließen.

3 Trennen Sie den referenzierten Virtual SAN-Host vom Hostprofil.

Wenn ein Hostprofil an einen Cluster angehängt wird, wird den Hosts in diesem Cluster ebenfalls dasHostprofil zugewiesen. Wenn das Hostprofil allerdings vom Cluster getrennt wird, bleibt die Verknüp-fung zwischen dem Host bzw. den Hosts im Cluster und dem des Hostprofils bestehen.

a Wählen Sie in der Profilliste in der Hauptansicht „Hostprofile“ das Hostprofil aus, das Sie von ei-nem Host oder Cluster trennen möchten.

b Klicken Sie auf das Symbol Hosts und Cluster an ein Hostprofil anhängen bzw. davon trennen

( ).

c Wählen Sie den Host oder Cluster in der erweiterten Liste aus und klicken Sie auf Trennen.

Der ausgewählte Host bzw. Cluster wird zur Liste der verbundenen Elemente hinzugefügt.

d Klicken Sie auf Alle trennen, um alle aufgelisteten Hosts und Cluster vom Profil zu trennen.

e Klicken Sie auf Weiter.

f Klicken Sie auf Beenden, um das Anhängen des Hosts an das Profil abzuschließen.

4 Verifizieren Sie die Übereinstimmung des Virtual SAN-Hosts mit dem angefügten Hostprofil und über-prüfen Sie, ob es Konfigurationsparameter auf dem Host gibt, die sich von den im Hostprofil angegebe-nen Konfigurationsparametern unterscheiden.

a Navigieren Sie zu einem Hostprofil.

Auf der Registerkarte Objekte werden alle Hostprofile, die Anzahl der an dieses Hostprofil ange-hängten Hosts sowie eine Zusammenfassung der Ergebnisse der letzten Übereinstimmungsüber-prüfung angezeigt.

b Klicken Sie auf das Symbol Hostprofil-Übereinstimmung überprüfen ( ).

Wenn Sie bestimmte Details zu den Parametern anzeigen möchten, die zwischen dem Host, beidem eine Nichtübereinstimmung gefunden wurde, und dem Hostprofil voneinander abweichen,klicken Sie auf die Registerkarte Überwachen und wählen Sie die Übereinstimmungsansicht aus.Erweitern Sie dann die Objekthierarchie und wählen Sie den fehlerhaften Host aus. Die abweichen-den Parameter werden in der Übereinstimmungsansicht unterhalb der Hierarchie angezeigt.

Verwenden Sie bei einem Übereinstimmungsfehler die Standardisierungsaktion, um die Hostprofi-leinstellungen auf den Host anzuwenden. Dabei werden alle vom Hostprofil verwalteten Parame-ter in die Werte geändert, die im dem Host zugeordneten Hostprofil enthalten sind.

5 Standardisieren Sie den Host, um mögliche Übereinstimmungsfehler auf dem Host zu beheben.

a Wählen Sie die Registerkarte Überwachen und klicken Sie anschließend auf Übereinstimmung.

b Klicken Sie mit der rechten Maustaste auf den oder die Hosts, der bzw. die standardisiert werdensollen, und wählen Sie Alle vCenter‐Aktionen > Hostprofile > Standardisieren.

Sie können die Benutzereingabeparameter für die Hostprofil-Richtlinien aktualisieren oder ändern,indem Sie den Host anpassen.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 209

c Klicken Sie auf Weiter.

d Überprüfen Sie die erforderlichen Aufgaben, um das Hostprofil zu standardisieren, und klicken Sieauf Beenden.

Der Host ist jetzt Teil des Virtual SAN-Clusters, der nun Zugriff auf seine Ressourcen hat. Der Hostkann auch auf alle vorhandenen Speicher-E/A-Richtlinien des Virtual SAN im VSAN-Cluster zugreifen.

Versetzen eines Mitglieds des Clusters für Virtual SAN in den WartungsmodusBevor Sie einen Host, der zu einem Cluster für Virtual SAN gehört, herunterfahren, neu starten oder tren-nen, müssen Sie ihn in den Wartungsmodus versetzen. Wenn Sie einen Host in den Wartungsmodus verset-zen, können Sie einen bestimmten Verlagerungsmechanismus auswählen. Beachten Sie, dass die Clusterka-pazität automatisch reduziert wird, wenn ein Mitgliedsknoten eines Virtual SAN-Clusters in den Wartungs-modus wechselt, weil der Speicher des Mitgliedsknotens im Cluster nicht mehr bereitsteht.

Voraussetzungen

Überprüfen Sie, ob Ihre Umgebung die für die gewählte Option erforderlichen Funktionen aufweist.

Vorgehensweise

1 Klicken Sie mit der rechten Maustaste auf den Host und wählen Sie In den Wartungsmodus wechseln.

2 Wählen Sie einen der Verlagerungsmodi aus und klicken Sie auf OK.

Option Beschreibung

Zugriff sicherstellen Dies ist die Standardoption. Wenn Sie den Host ausschalten oder ihn ausdem Cluster entfernen, stellt Virtual SAN sicher, dass auch weiterhin derZugriff auf alle virtuellen Maschinen auf diesem Host möglich ist. In derRegel muss nur ein Teil der Daten verlagert werden.Wählen Sie diese Option aus, wenn Sie den Host vorübergehend aus demCluster entfernen, beispielsweise um Upgrades zu installieren, und denHost wieder zum Cluster hinzufügen möchten. Diese Option ist nicht ge-eignet, wenn Sie den Host dauerhaft aus dem Cluster entfernen.

Vollständige Datenmigration Virtual SAN verlagert alle Daten an andere Hosts im Cluster und bewahrtbzw. behebt die Verfügbarkeitseinhaltung für alle betroffenen Komponen-ten im Cluster. Diese Option führt zu der größten Menge an Datenübertra-gungen und verbraucht die meiste Zeit und die meisten Ressourcen. Wäh-len Sie diese Option aus, wenn Sie den Host dauerhaft migrieren möchten.Wenn Sie Daten vom letzten Host im Cluster verlagern, stellen Sie sicher,dass Sie die virtuellen Maschinen an einen anderen Datenspeicher migrie-ren und dann den Host in den Wartungsmodus versetzen.Hinweis Der Host wird nicht in den Wartungsmodus versetzt, falls keinZugriff auf ein VM-Objekt, das Daten auf dem Host aufweist, möglich ist,und die vollständige Verlagerung wird nicht durchgeführt.

Keine Datenmigration Virtual SAN verlagert keine Daten von diesem Host. Wenn Sie den Hostausschalten oder ihn aus dem Cluster entfernen, kann möglicherweise aufmanche virtuelle Maschinen nicht mehr zugegriffen werden.

vSphere-Speicher

210 VMware, Inc.

Virtual SAN und speicherrichtlinienbasiertes ManagementWenn Sie Virtual SAN verwenden, können Sie Speicheranforderungen für virtuelle Maschinen wie Leistungund Verfügbarkeit in Form einer Richtlinie definieren. Die Richtlinienanforderungen werden dann an dieEbene des Virtual SAN übertragen, wenn eine virtuelle Maschine erstellt wird. Die virtuelle Festplatte wirdüber den Datenspeicher für Virtual SAN verteilt, um die Anforderungen zu erfüllen.

Wenn Sie Virtual SAN auf einem Host-Cluster aktivieren, wird ein einzelner Datenspeicher für das VirtualSAN erstellt. Außerdem werden beim Aktivieren von Virtual SAN die Virtual SAN-Speicheranbieter konfi-guriert und registriert. Virtual SAN-Speicheranbieter sind integrierte Softwarekomponenten, die Datenspei-cherfunktionen an vCenter Server übermitteln.

Eine Speicherfunktion wird in der Regel durch ein Schlüssel-Wert-Paar dargestellt, wobei der Schlüssel diespezifische Eigenschaft ist, die vom Datenspeicher angeboten wird, und der Wert eine Metrik oder ein Be-reich, den der Datenspeicher für ein bereitgestelltes Objekt, z. B. ein VM-Metadatenobjekt oder eine virtuelleFestplatte, garantiert. Außerdem können Sie Tags verwenden, um benutzerdefinierte Speicherfunktionen zuerstellen, und bei der Definition einer Speicherrichtlinie für eine virtuelle Maschine auf diese verweisen. In-formationen zur Verwendung und Anwendung von Tags für Datenspeicher finden Sie unter „Grundlegen-des zu Speicherfunktionen“, auf Seite 215.

Wenn Sie die Speicheranforderungen Ihrer virtuellen Maschinen kennen, können Sie eine Speicherrichtlinieerstellen, die die vom Datenspeicher angekündigten Funktionen referenziert. Sie können mehrere Richtlini-en erstellen, um verschiedene Anforderungstypen bzw. -klassen zu erfassen.

Sie können diese Speicherrichtlinien anwenden, wenn Sie virtuelle Maschinen erstellen oder bearbeiten.

Hinweis Wenn Sie auf eine virtuelle Maschine keine Speicherrichtlinie anwenden, wird eine Standardricht-linie des Virtual SAN mit einer Anzahl zu tolerierender Fehler und einem Disk Stripe pro Objekt verwendet.

Tabelle 19‑2. Speicherrichtlinienattribute

Funktionalität Beschreibung

Anzahl der zu tolerierenden Fehler Definiert die Anzahl von Host-, Festplatten- oder Netzwerkfehlern, die einObjekt einer virtuellen Maschine tolerieren kann. Für n tolerierte Fehlerwerden n+1 Kopien des VM-Objekts erstellt und 2n+1 Hosts mit Speicherbenötigt.Der Standardwert ist 1. Der Höchstwert ist 3.Hinweis Wenn der Host Mitglied eines Virtual SAN-Clusters ist undwenn ein VM-Objekt auf dem Host in seiner Speicherrichtlinie die Einstel-lung Anzahl der zulässigen Fehler=0 verwendet, kann es auf dem Hostbeim Eintreten in den Wartungsmodus zu ungewöhnlichen Verzögerun-gen kommen. Die Verzögerungen treten auf, weil Virtual SAN dieses Ob-jekt vom Host entfernen muss, um den Wartungsvorgang erfolgreich ab-schließen zu können.

Anzahl der Festplatten-Stripes pro Objekt Die Anzahl der HDDs, über die das Striping der einzelnen Replikate einesObjekts der virtuellen Maschine erfolgt. Ein höherer Wert als 1 kann zubesserer Leistung führen, bedeutet aber auch eine höhere Beanspruchungder Systemressourcen.Der Standardwert ist 1. Der Höchstwert ist 12.

Reservierter Objektspeicherplatz Prozentsatz der logischen Größe des Objekts, der bei der Erstellung dervirtuellen Maschine reserviert oder Thick-bereitgestellt werden sollte. DerRest des Speicherobjekts wird Thin-bereitgestellt. Dieser Wert gilt nur,wenn Sie Thin Provisioning für eine virtuelle Festplatte ausgewählt haben.Wenn Ihre Festplatte Thick-bereitgestellt ist, werden 100 % automatisch re-serviert.Der Standardwert ist 0%. Der Höchstwert ist 100%.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 211

Tabelle 19‑2. Speicherrichtlinienattribute (Fortsetzung)

Funktionalität Beschreibung

Flash-Lesecache-Reservierung Die als Lesecache reservierte SSD-Kapazität für das VM-Objekt. Wird alsProzentsatz der logischen Größe des Objekts angegeben. Die Option solltenur zur Behebung von Leseleistungsfehlern verwendet werden. Reservier-te Flash-Kapazität kann nicht von anderen Objekten verwendet werden.Unreservierter Flash wird gleichmäßig unter allen Objekten verteilt.Der Standardwert ist 0%. Der Höchstwert ist 100%.Hinweis Standardmäßig weist das Virtual SAN den Speicherobjektenden Lesecache dynamisch nach Bedarf zu. Dies ist die flexibelste und opti-malste Ressourcennutzung. Daher braucht der Standardwert 0 für diesenParameter in der Regel nicht geändert zu werden.Gehen Sie beim Erhöhen des Werts zum Lösen eines Leistungsproblemsvorsichtig vor. Wenn auf mehreren virtuellen Maschinen zu viel Cache re-serviert wird, kann SSD-Speicherplatz für zu viele Reservierungenverschwendet werden, der dann nicht verfügbar ist, wenn Arbeitslastenden Speicherplatz benötigen. Das kann zu Leistungsabfällen führen.

Bereitstellung erzwingen Wenn die Option auf Ja festgelegt ist, wird das Objekt bereitgestellt, auchwenn die in der Speicherrichtlinie angegebene Richtlinie vom Datenspei-cher nicht erfüllt werden kann. Verwenden Sie diesen Parameter in Boots-trapping-Szenarien und bei Ausfällen, wenn keine Standardbereitstellungmehr möglich ist.Der Standardwert Nein ist für die meisten Produktionsumgebungen ak-zeptabel. Das Virtual SAN versucht, eine virtuelle Maschine bereitzustel-len, auch wenn nicht alle Anforderungen erfüllt werden können.

Anzeigen von Speicheranbietern für Virtual SANDas Virtual SAN konfiguriert und registriert automatisch einen Speicheranbieter für jeden Host im Clusterfür Virtual SAN.

Die Speicheranbieter des Virtual SAN berichten eine Reihe von zugrunde liegenden Speicherfunktionen anvCenter Server. Sie kommunizieren auch mit der Ebene des Virtual SAN, um über die Speicheranforderun-gen der virtuellen Maschinen zu berichten. Weitere Informationen zu Speicheranbietern finden Sie unter Ka-pitel 26, „Verwenden von Speicheranbietern“, auf Seite 281.

Das Virtual SAN registriert einen getrennten Speicheranbieter für jeden Host im Cluster für Virtual SANüber die folgende URL:

http://host_ip:8080/version.xml

wobei host_ip die tatsächliche IP des Hosts ist.

Überprüfen Sie, dass die Speicheranbieter registriert sind.

Vorgehensweise

1 Navigieren Sie zum vCenter Server im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicheranbieter.

Die Speicheranbieter für Virtual SAN werden in der Liste aufgeführt. Alle Hosts verfügen über einen Spei-cheranbieter, aber nur einer ist aktiv. Speicheranbieter anderer Hosts befinden sich im Standby-Modus.Wenn der Host, der zurzeit über den Onlinespeicher verfügt, ausfällt, schaltet ein anderer Host seinen An-bieter online.

Weiter

Wenn Sie den Speicheranbieter des Virtual SAN zur Problembehebung löschen oder die Registrierung auf-heben, können Sie ihn manuell registrieren. Weitere Informationen hierzu finden Sie unter „Registrieren vonSpeicheranbietern“, auf Seite 283.

vSphere-Speicher

212 VMware, Inc.

Definieren einer VM-Speicherrichtlinie für Virtual SANErstellen Sie eine Speicherrichtlinie, wenn Sie die Speicheranforderungen und den Speicherdiensttyp für ei-ne virtuelle Maschine und deren virtuelle Festplatten definieren müssen. In dieser Richtlinie geben Sie Spei-cherfunktionen an, die vom Datenspeicher für Virtual SAN gemeldet werden.

Voraussetzungen

n Vergewissern Sie sich, dass der Speicheranbieter für Virtual SAN verfügbar ist. Weitere Informationenhierzu finden Sie unter „Anzeigen von Speicheranbietern für Virtual SAN“, auf Seite 212.

n Stellen Sie sicher, dass „Speicherrichtlinien“ aktiviert ist. Weitere Informationen hierzu finden Sie unter „Aktivieren der VM-Speicherrichtlinien“, auf Seite 219.

Vorgehensweise

1 Klicken Sie auf der Startseite von vSphere Web Client auf Regeln und Profile > VM‐Speicherrichtlini‐en.

2 Klicken Sie auf das Symbol „Neue VM-Speicherrichtlinie erstellen“.

3 Wählen Sie die vCenter Server-Instanz aus.

4 Geben Sie einen Namen und eine Beschreibung für die Speicherrichtlinie ein.

5 Definieren Sie im Fenster „Regelsatz 1“ den ersten Regelsatz.

a Wählen Sie in der Dropdown-Liste „Auf anbieterspezifischen Funktionen basierende Regeln“ dieOption vSAN aus.

Die Seite wird um die vom Datenspeicher für Virtual SAN gemeldeten Funktionen erweitert.

b Fügen Sie eine Funktion hinzu und geben Sie deren Wert an.

Stellen Sie sicher, dass die eingegebenen Werte innerhalb des vom Funktionsprofil des Datenspei-chers für Virtual SAN angegebenen Wertebereichs liegen.

c (Optional) Fügen Sie Tag-basierte Funktionen hinzu. Weitere Informationen hierzu finden Sie unter „Hinzufügen oder Bearbeiten Tag-basierter Regeln“, auf Seite 220.

6 (Optional) Fügen Sie einen weiteren Regelsatz hinzu.

7 Überprüfen Sie die Liste der Datenspeicher, die mit dieser Richtlinie übereinstimmen, und klicken Sieauf Beenden.

Ein geeigneter Datenspeicher muss nicht alle Regelsätze der Richtlinie erfüllen. Der Datenspeicher mussmindestens einen Regelsatz und alle Regeln innerhalb dieses Regelsatzes erfüllen. Stellen Sie sicher,dass der Datenspeicher für Virtual SAN die in der Speicherrichtlinie festgelegten Anforderungen erfülltund in der Liste kompatibler Datenspeicher angezeigt wird.

Die neue Richtlinie wird zur Liste hinzugefügt.

Weiter

Wenden Sie diese Richtlinie auf eine virtuelle Maschine und deren virtuelle Festplatten an. Virtual SAN po-sitioniert die Objekte der virtuellen Maschine in Übereinstimmung mit den in der Richtlinie angegebenenAnforderungen. Weitere Informationen zum Verwenden und Bearbeiten von Richtlinien finden Sie unter Kapitel 20, „Infos zu VM-Speicherrichtlinien“, auf Seite 215.

Kapitel 19 Arbeiten mit Virtual SAN

VMware, Inc. 213

vSphere-Speicher

214 VMware, Inc.

Infos zu VM-Speicherrichtlinien 20Die VM-Speicherrichtlinien, früher als VM-Speicherprofile bezeichnet, werden verwendet, um sicherzustel-len, dass die virtuellen Maschinen in einem Speicher untergebracht sind, der einen gewissen Grad an Kapa-zität, Leistung, Verfügbarkeit, Redundanz usw. gewährleistet.

Wenn Sie eine Speicherrichtlinie definieren, geben Sie die Speicheranforderungen für Anwendungen an, dieauf virtuellen Maschinen ausgeführt werden. Nachdem Sie die Speicherrichtlinie auf eine virtuelle Maschineangewendet haben, wird die virtuelle Maschine in einem spezifischen Datenspeicher untergebracht, der dieSpeicheranforderungen erfüllt.

Sie verwalten Speicherorte anhand der Speicherrichtlinien.

1 Wenn Sie Speicherrichtlinien zusammen mit Speicheranbietern verwenden, überprüfen Sie, ob der be-treffende Speicheranbieter registriert ist.

Weitere Informationen hierzu finden Sie unter Kapitel 26, „Verwenden von Speicheranbietern“, auf Sei-te 281.

2 Wenden Sie Speicherkapazitäts-Tags auf Datenspeicher an. Weitere Informationen hierzu finden Sie un-ter „Zuweisen von Tags zu Datenspeichern“, auf Seite 216.

3 Aktivieren Sie Speicherrichtlinien für einen Host oder Cluster. Weitere Informationen hierzu finden Sieunter „Aktivieren der VM-Speicherrichtlinien“, auf Seite 219.

4 Erstellen Sie Speicherrichtlinien, indem Sie Anforderungen für Anwendungen definieren, die auf einervirtuellen Maschine ausgeführt werden. Weitere Informationen hierzu finden Sie unter „Definieren ei-ner Speicherrichtlinie für eine virtuelle Maschine“, auf Seite 219.

5 Ordnen Sie den Dateien oder virtuellen Festplatten der virtuellen Maschine eine Speicherrichtlinie zu.Weitere Informationen hierzu finden Sie unter „Anwenden einer Speicherrichtlinie auf eine virtuelleMaschine“, auf Seite 222.

6 Stellen Sie sicher, dass virtuelle Maschinen und virtuelle Festplatten Datenspeicher verwenden, die derihnen zugewiesenen Speicherrichtlinie entsprechen. Weitere Informationen hierzu finden Sie unter „Prüfen der Speicherübereinstimmung für eine virtuelle Maschine“, auf Seite 223.

Dieses Kapitel behandelt die folgenden Themen:

n „Grundlegendes zu Speicherfunktionen“, auf Seite 215

n „Grundlegendes zu VM-Speicherrichtlinien“, auf Seite 217

Grundlegendes zu SpeicherfunktionenWenn Sie Speicheranforderungen für virtuelle Maschinen und virtuelle Festplatten definieren, referenzierenSie anbieterspezifische oder benutzerdefinierte Speicherfunktionen in einer Speicherrichtlinie.

VMware, Inc. 215

Anbieterspezifische SpeicherfunktionenSpeichersysteme, die vStorage APIs für Storage Awareness, auch als VASA bezeichnet, verwenden, werdenvon Speicheranbietern dargestellt. Speicheranbieter informieren vCenter Server über spezifische Speicherge-räte und stellen Merkmale der Geräte und der auf den Geräten bereitgestellten Datenspeicher als Speicher-funktionen vor. Diese Speicherfunktionen sind systemdefiniert und anbieterspezifisch.

Ein Speichersystem kann mehrere Funktionen ankündigen. Die Funktionen sind in einem oder mehrerenFunktionsprofilen gruppiert. Funktionen umreißen die Servicequalität, die das Speichersystem bieten kann.Sie garantieren, dass das Speichersystem eine bestimmte Reihe Merkmale für Kapazität, Leistung, Verfüg-barkeit, Redundanz usw. bieten kann.

Anbieterspezifische Funktionen werden im speicherrichtlinienbasierten Managementsystem angezeigt.Wenn Sie eine Speicherrichtlinie für Ihre virtuelle Maschine erstellen, referenzieren Sie diese anbieterspezifi-schen Speicherfunktionen, sodass Ihre virtuelle Maschine mit diesen Funktionen im Datenspeicher platziertwird.

Weitere Informationen zu Speicheranbietern finden Sie unter Kapitel 26, „Verwenden von Speicheranbie-tern“, auf Seite 281.

Tag-basierte SpeicherfunktionenSie können Tags verwenden, um benutzerdefinierte Speicherfunktionen zu erstellen, und diese Tags auf Da-tenspeicher anwenden. Sie können mehr als einen Tag auf einen Datenspeicher anwenden.

In der Regel dienen die tag-basierten Funktionen den folgenden Zwecken:

n Codieren von richtlinienrelevanten Informationen, die nicht über vStorage APIs für Storage Awarenessangekündigt werden, wie der geografische Standort oder die Administratorengruppe.

n Anfügen einer umfassenden Speicherebenendefinition zu einem Datenspeicher, der nicht von einemSpeicheranbieter vertreten wird.

Alle auf Datenspeicher angewendeten Tags werden im speicherrichtlinienbasierten Managementsystem an-gezeigt. Wie bei anbieterspezifischen Funktionen können Sie die Tags verwenden, wenn Sie Speicherrichtli-nien erstellen.

Zuweisen von Tags zu DatenspeichernWenn Ihr Datenspeicher nicht durch einen Speicheranbieter repräsentiert wird und nicht die Funktionen imspeicherprofilbasierten Managementsystem anzeigt, verwenden Sie Tags, um Informationen über den Da-tenspeicher zu kodieren. Anschließend können Sie beim Definieren einer Speicherrichtlinie für eine virtuelleMaschine auf diese Tags verweisen.

Sie können ein neues Tag anwenden, das Speicherinformationen zu einem Datenspeicher enthält. Informati-onen über Tags, deren Kategorien und über das Verwalten von Tags finden Sie in der Dokumentation vCen-ter Server und Hostverwaltung.

Vorgehensweise

1 Navigieren Sie zu einem Datenspeicher in der vSphere Web Client-Bestandsliste.

2 Klicken Sie auf die Registerkarte Verwalten und klicken Sie auf Tags.

3 Klicken Sie auf das Symbol Neues Tag.

4 Wählen Sie im Dropdown-Menü vCenter Server die vCenter Server-Instanz aus, für die Sie dieses Tagerstellen möchten.

vSphere-Speicher

216 VMware, Inc.

5 Geben Sie einen Namen und eine Beschreibung für das Tag ein.

Sie können beispielsweise eine umfassende Speicherebenendefinition, wie Gold Storage, angeben odereine Eigenschaft festlegen, die nicht über den Speicheranbieter übertragen wird, wie den geografischenStandort oder die Administratorengruppe.

Tag-Eigenschaft Beispiel

Name Fault Tolerance

Beschreibung Speicher, der eine Kapazität von mehr als 2 TB aufweist und fehlertolerant ist

6 Wählen Sie im Dropdown-Menü Kategorie eine vorhandene Kategorie aus oder erstellen Sie eine neueKategorie.

7 (Optional) Führen Sie die folgenden Schritte durch, wenn Sie eine neue Kategorie erstellen möchten:

a Wählen Sie Neue Kategorie, um das Dialogfeld zu erweitern.

b Geben Sie die Kategorieoptionen an.

Kategorieeigenschaften Beispiel

Kategoriename Speicherkategorie

Beschreibung Kategorie für Tags, die mit dem Speicher zusammenhängen

Kardinalität Viele Tags pro Objekt

Zuweisbare Objekttypen Datenspeicher und Datenspeicher‐Cluster

8 Klicken Sie auf OK.

Das neue Tag wird dem Datenspeicher zugewiesen.

Weiter

Sie können beim Hinzufügen tagbasierter Regeln zur Speicherrichtlinie auf das Tag verweisen. Weitere In-formationen hierzu finden Sie unter „Hinzufügen oder Bearbeiten Tag-basierter Regeln“, auf Seite 220.

Der Datenspeicher wird auf einer Liste kompatibler Speicherressourcen für virtuelle Maschinen angezeigt,die die Richtlinie verwenden.

Grundlegendes zu VM-SpeicherrichtlinienSpeicherrichtlinien, die Sie für virtuelle Maschinen definieren, erfassen Speichermerkmale, die Home-Datei-en und virtuelle Festplatten der virtuellen Maschine zum Ausführen von Anwendungen innerhalb der vir-tuellen Maschine benötigen.

Beim Erstellen einer Speicherrichtlinie können Sie auf Speicherfunktionen verweisen, die von einem Spei-chersystem angekündigt werden. Darüber hinaus können Sie auf benutzerdefinierte Datenspeicher-Tagsverweisen.

Speicherrichtlinien und Speicherfunktionen weisen eine ähnliche Semantik auf. Richtlinien beschreiben je-doch, was Benutzer für ihre virtuellen Maschinen benötigen, während Speicherfunktionen darauf verwei-sen, was das System anzubieten hat.

Sie können mehrere Speicherrichtlinien erstellen, um unterschiedliche Typen und Klassen von Speicheran-forderungen zu definieren.

Eine Speicherrichtlinie stellt nicht nur Einschränkungen dar, die gleichzeitig angewendet werden. Eine ein-zelne Richtlinie kann alternative Unterrichtlinien (oder Regelsätze) enthalten, die gleichermaßen akzeptableSpeicheranforderungen darstellen.

Kapitel 20 Infos zu VM-Speicherrichtlinien

VMware, Inc. 217

Die VM-Home-Dateien (.vmx, .vmsd, .nvram, .log usw.) und die virtuellen Festplatten (.vmdk) können wie inder folgenden Tabelle veranschaulicht über separate Speicherrichtlinien verfügen.

Tabelle 20‑1. Beispiel einer Speicherrichtlinie für eine virtuelle Maschine

Beispiel-VM-DateienBeispiel für eine Speicher-richtlinie

Beispiel für einen Datenspeicher, der mit derSpeicherrichtlinie übereinstimmt

windows_2008r2_test.vmx

Speicherrichtlinie 2 datastore02, datastore05, datastore10

windows_2008r2_test.vmxf

windows_2008r2_test.log

windows_2008r2_test.nvram

windows_2008r2_test.vmem

windows_2008r2_test.vmsd

windows_2008r2_test.vmdk Speicherrichtlinie 3 datastore05

windows_2008r2_test_1.vmdk Speicherrichtlinie 5 datastore10

Wenn Sie eine virtuelle Maschine erstellen, klonen oder migrieren, können Sie die Speicherrichtlinie auf dievirtuelle Maschine anwenden. Anschließend können Sie die virtuelle Maschine in einem der Datenspeicherplatzieren, der Funktionen aufweist, die mit den Richtlinienanforderungen kompatibel sind.

Wenn Sie einen Datenspeicher auswählen, der nicht der Richtlinie entspricht, zeigt die Richtlinie an, dassdie virtuelle Maschine einen nicht übereinstimmenden Speicher verwendet.

Informationen zu RegelsätzenEine Speicherrichtlinie enthält einen oder mehrere Regelsätze, die Anforderungen für die Speicherressour-cen der virtuellen Maschinen beschreiben.

Beim Definieren einer Speicherrichtlinie für Ihre virtuellen Maschinen können Sie Regelsätze hinzufügen,die auch als Unterprofile bezeichnet werden. Ein einzelner Regelsatz enthält eine oder mehrere Regeln. JedeRegel beschreibt eine bestimmte Qualität oder Quantität, die von einer Speicherressource bereitgestellt wer-den muss. Jede Regel kann entweder eine zugrunde liegende Speicherfunktion oder ein benutzerdefiniertesSpeicher-Tag sein. Ein Regelsatz kann mehrere Regeln von einem einzigen Speicheranbieter enthalten.

Zum Erstellen einer Richtlinie ist ein einziger Regelsatz erforderlich, während zusätzliche Regelsätze optio-nal sind. Mehrere Regelsätze ermöglichen eine einzelne Richtlinie, die alternative Auswahlparameter defi-niert, oft von mehreren Speicheranbietern.

Die Beziehung zwischen allen Regelsätzen innerhalb einer Richtlinie wird durch den booleschen OperatorODER definiert, während die Beziehung zwischen allen Regeln innerhalb eines Regelsatzes durch den boo-leschen Operator UND definiert wird. Die Einhaltung aller Regeln eines bestimmten Regelsatzes reicht aus,um die gesamte Richtlinie zu erfüllen. Jeder Regelsatz stellt einen gleichermaßen akzeptablen Einschrän-kungssatz dar.

vSphere-Speicher

218 VMware, Inc.

VM-Speicherrichtlinie

Regelsatz 1

Regel 1_1

und

Regel 1_2

und

Regel 1_3

oder

Regelsatz 2

Regel 2_1

und

Regel 2_2

Regelsatz 3

Regel 3_1

und

Regel 3_2

und

Regel 3_3

oder

Aktivieren der VM-SpeicherrichtlinienFür die Verwendung von Speicherrichtlinien für virtuelle Maschinen müssen Sie diese für einen Host oderCluster aktivieren.

Voraussetzungen

Stellen Sie sicher, dass der Host bzw. alle Hosts in einem Cluster, für die Sie die Richtlinien aktivieren möch-ten, die Speicherrichtlinienlizenz aufweisen.

Vorgehensweise

1 Klicken Sie auf der Startseite von vSphere Web Client auf Regeln und Profile > VM‐Speicherrichtlini‐en.

2 Klicken Sie auf das Symbol VM‐Speicherrichtlinien aktivieren ( ).

3 Wählen Sie die vCenter Server-Instanz aus.

Alle für den ausgewählten Server verfügbaren Cluster und Hosts werden angezeigt. Sie können denServerlizenzierungsstatus sehen und ob Speicherrichtlinien aktiviert sind.

4 Wählen Sie zum Aktivieren von Speicherrichtlinien einen Host oder Cluster aus, dessen Status „Deakti-viert“ oder „Unbekannt“ ist, und klicken Sie auf Aktivieren.

Der Status des Hosts oder Clusters wird in "Aktiviert" geändert.

Weiter

Sie können Speicherrichtlinien auf virtuelle Maschinen anwenden, die auf dem aktivierten Host oder Clus-ter ausgeführt werden.

Definieren einer Speicherrichtlinie für eine virtuelle MaschineBeim Definieren von Speicherrichtlinien für virtuelle Maschinen geben Sie Speicheranforderungen für VM-Objekte wie etwa Home-Dateien und virtuelle Festplatten an.

Jede Speicherrichtlinie kann auf Speicherfunktionen, die von einem Speichersystem angekündigt werden,oder auf benutzerdefinierte Datenspeicher-Tags verweisen.

Kapitel 20 Infos zu VM-Speicherrichtlinien

VMware, Inc. 219

Voraussetzungen

Wenn Sie systemdefinierte Speicherfunktionen in die Speicherrichtlinie einbeziehen möchten, müssen Sie ei-nen entsprechenden Speicheranbieter registrieren. Weitere Informationen hierzu finden Sie unter Kapitel 26,„Verwenden von Speicheranbietern“, auf Seite 281.

Vorgehensweise

1 Klicken Sie auf der Startseite von vSphere Web Client auf Regeln und Profile > VM‐Speicherrichtlini‐en.

2 Klicken Sie auf das Symbol Neue VM‐Speicherrichtlinie erstellen.

3 Wählen Sie die vCenter Server-Instanz aus.

4 Geben Sie einen Namen und eine Beschreibung für die Speicherrichtlinie ein.

5 Definieren Sie im Bildschirm „Regelsatz 1“ den ersten Regelsatz.

a Wählen Sie in der Dropdown-Liste „Auf anbieterspezifischen Funktionen basierende Regeln“ ei-nen Speicheranbieter aus.

Die Seite wird um die systemdefinierten Funktionen erweitert.

b Fügen Sie eine Funktion hinzu und geben Sie deren Wert an.

Stellen Sie sicher, dass die eingegebenen Werte innerhalb des vom Funktionsprofil eines Speicher-systems angegebenen Wertebereichs liegen.

c (Optional) Fügen Sie benutzerdefinierte Funktionen hinzu. Weitere Informationen hierzu finden Sieunter „Hinzufügen oder Bearbeiten Tag-basierter Regeln“, auf Seite 220.

6 (Optional) Fügen Sie einen weiteren Regelsatz hinzu.

7 Überprüfen Sie die Liste der Datenspeicher, die mit dieser Richtlinie übereinstimmen.

Ein geeigneter Datenspeicher muss nicht alle Regelsätze der Richtlinie erfüllen. Der Datenspeicher mussmindestens einen Regelsatz und alle Regeln innerhalb dieses Regelsatzes erfüllen.

8 Bestätigen Sie die Richtigkeit der Richtlinieninformationen und klicken Sie auf Beenden.

Die neue Speicherrichtlinie wird in der Liste der verfügbaren Richtlinien angezeigt.

Weiter

Wenden Sie die Richtlinie auf die Home-Datei einer virtuellen Maschine und deren virtuelle Festplatten an.

Hinzufügen oder Bearbeiten Tag-basierter RegelnWenn Sie eine Speicherrichtlinie für virtuelle Maschinen definieren oder bearbeiten, können Sie eine Regelerstellen oder ändern, die Tags für bestimmte Datenspeicher referenziert. Die Datenspeicher werden mitdiesem Speicherrichtlinientyp kompatibel.

Wenn Sie Tags in den Richtlinien verwenden, befolgen Sie die folgenden Leitlinien:

n Wenn der Regelsatz andere Regeln enthält, muss der Datenspeicher mit dem zugewiesenen Tag alle Re-geln im Regelsatz erfüllen.

n Wenn Sie mehrere Tags aus der gleichen Kategorie innerhalb der gleichen Regel hinzufügen, werdendie Tags als alternative Einschränkungen behandelt. Es kann ein beliebiger der Tags erfüllt werden.

n Wenn Sie die Tags in getrennten Regeln im gleichen Regelsatz hinzufügen, müssen alle Tags erfüllt wer-den.

vSphere-Speicher

220 VMware, Inc.

Voraussetzungen

Erstellen Sie Speicher-Tags und wenden Sie sie auf Datenspeicher an. Weitere Informationen hierzu findenSie unter „Zuweisen von Tags zu Datenspeichern“, auf Seite 216.

Vorgehensweise

1 Führen Sie auf der Seite „Regelsatz“ eine der folgenden Aktionen aus:

n Um eine Regel hinzuzufügen, klicken Sie auf die Schaltfläche Tag‐basierte Regel hinzufügen.

n Um eine vorhandene Regel zu ändern, wählen Sie die Regel aus und klicken Sie auf das SymbolRegel ändern.

2 Geben Sie eine Kategorie an.

3 Nehmen Sie eine Tag-Auswahl vor oder ändern Sie eine vorhandene Auswahl.

Datenspeicher, die die ausgewählten Tags verwenden, werden mit der Speicherrichtlinie kompatibel.

Bearbeiten einer SpeicherrichtlinieSie können die Speicheranforderungen für virtuelle Maschinen und virtuelle Festplatten ändern, indem Siedie Speicherrichtlinie bearbeiten.

Vorgehensweise

1 Klicken Sie auf der Startseite von vSphere Web Client auf Regeln und Profile > VM‐Speicherrichtlini‐en.

2 Wählen Sie eine Speicherrichtlinie aus und klicken Sie auf das Symbol VM‐Speicherrichtlinie bearbei‐ten ( ).

3 Ändern Sie die Richtlinie und klicken Sie auf OK.

4 Falls die Speicherrichtlinie von einer virtuellen Maschine verwendet wird, wenden Sie die Richtlinie er-neut auf die virtuelle Maschine an.

Option Beschreibung

Manuell später Wenn Sie diese Option auswählen, wird der Übereinstimmungsstatus füralle virtuellen Festplatten und für alle Home-Objekte der virtuellen Ma-schine, die der Speicherrichtlinie zugeordnet sind, in „Veraltet“ geändert.Um die Konfiguration und die Übereinstimmung zu aktualisieren, wendenSie die Speicherrichtlinie manuell erneut auf alle verknüpften Elemente an.Weitere Informationen hierzu finden Sie unter „Erneutes Anwenden derVM-Speicherrichtlinien“, auf Seite 225.

Jetzt Aktualisieren Sie die virtuelle Maschine und den Übereinstimmungsstatusunmittelbar nach der Bearbeitung der Speicherrichtlinie.

Die Speicherrichtlinie wird geändert.

Löschen einer VM-SpeicherrichtlinieSie können eine Speicherrichtlinie löschen, die Sie nicht für virtuelle Maschinen oder virtuelle Festplattenverwenden.

Vorgehensweise

1 Klicken Sie auf der Startseite von vSphere Web Client auf Regeln und Profile > VM‐Speicherrichtlini‐en.

2 Wählen Sie in der Ansicht „VM-Speicherrichtlinien“ eine Richtlinie aus, die Sie löschen möchten, undklicken Sie auf das Symbol VM‐Speicherrichtlinie löschen ( ).

Kapitel 20 Infos zu VM-Speicherrichtlinien

VMware, Inc. 221

3 Klicken Sie auf Ja.

Die Richtlinie wird aus der Bestandsliste entfernt.

Anwenden einer Speicherrichtlinie auf eine virtuelle MaschineSie können eine Speicherrichtlinie auf eine virtuelle Maschine anwenden, um Speicheranforderungen fürAnwendungen anzugeben, die auf der virtuellen Maschine ausgeführt werden.

Sie können eine Richtlinie auf eine ausgeschaltete oder eingeschaltete virtuelle Maschine anwenden.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf VM‐Speicherrichtlinien.

3 Klicken Sie auf VM‐Speicherrichtlinien verwalten.

4 Wenden Sie eine Speicherrichtlinie auf die Konfigurationsdateien der virtuellen Maschine an, indem Siedie Richtlinie aus dem Dropdown-Menü Home‐VM‐Speicherrichtlinie auswählen.

Hinweis Die Konfigurationsdateien der virtuellen Maschine umfassen die Dateiendun-gen .vmx, .vmsd, .nvram usw.

5 Wenden Sie die Speicherrichtlinie auf virtuelle Festplatten an.

n Klicken Sie auf Auf Festplatten anwenden, um dieselbe Home-Richtlinie auf alle virtuellen Fest-platten anzuwenden.

n Wählen Sie unter VM-Speicherrichtlinien für virtuelle Festplatten eine virtuelle Festplatte aus undwenden Sie eine Richtlinie aus dem Dropdown-Menü VM‐Speicherrichtlinie an. Diese Optionweist jeder virtuellen Festplatte eine angegebene Richtlinie zu. Verwenden Sie diese Option, wennSie Ihre virtuellen Festplatten separat von den Konfigurationsdateien der virtuellen Maschine spei-chern.

6 Klicken Sie auf OK.

Die Speicherrichtlinie wird der virtuellen Maschine und ihren Festplatten zugeordnet.

Überwachen der Speicherübereinstimmung für virtuelle MaschinenWenn Sie eine Richtlinie Objekten der virtuellen Maschine zuordnen und die Datenspeicher auswählen, aufdenen die virtuellen Maschinen und die virtuellen Festplatten ausgeführt werden, können Sie prüfen, ob dievirtuellen Maschinen und die virtuellen Festplatten Datenspeicher verwenden, die mit der Richtlinie über-einstimmen.

Wenn Sie die Übereinstimmung einer virtuellen Maschine prüfen, bei deren Host oder Cluster Speicher-richtlinien deaktiviert sind, wird als Ergebnis der Prüfung „Keine Übereinstimmung“ ausgegeben, da dieFunktion deaktiviert ist.

Voraussetzungen

Zum Durchführen einer Übereinstimmungsprüfung für eine Speicherrichtlinie ordnen Sie die Richtliniemindestens einer virtuellen Maschine oder virtuellen Festplatte zu.

Vorgehensweise

1 Klicken Sie auf der Startseite von vSphere Web Client auf Regeln und Profile > VM‐Speicherrichtlini‐en.

2 Doppelklicken Sie auf eine Speicherrichtlinie.

vSphere-Speicher

222 VMware, Inc.

3 Klicken Sie auf die Registerkarte Überwachen und dann auf VMs und virtuelle Festplatten.

4 Klicken Sie auf Überprüfung der Einhaltung von VM‐Speicherrichtlinien auslösen.

In der Spalte „Übereinstimmungsstatus“ wird der Übereinstimmungsstatus des Datenspeichers für vir-tuelle Maschinen und deren Richtlinien angezeigt.

Übereinstim-mungsstatus Beschreibung

Übereinstim-mung

Der Datenspeicher, der von der virtuellen Maschine oder virtuellen Festplatte verwendet wird, hatdie Speicherfunktionen, die die Richtlinie erfordert.

Keine Über-einstimmung

Der Datenspeicher unterstützt festgelegte Speicheranforderungen, kann jedoch zurzeit nicht dieSpeicherrichtlinie der virtuellen Maschine erfüllen. Der Status kann z. B. in „Keine Übereinstim-mung“ wechseln, wenn physische Ressourcen, auf denen der Datenspeicher gesichert wird, nichtverfügbar oder erschöpft sind. Sie können die Übereinstimmung des Datenspeichers wiederher-stellen, indem Sie Änderungen an der physischen Konfiguration vornehmen, beispielsweise indemSie Hosts oder Festplatten zum Cluster hinzufügen. Wenn weitere Ressourcen die Speicherrichtli-nie der virtuellen Maschine erfüllen, ändert sich der Status in „Übereinstimmung“.

Veraltet Der Status gibt an, dass die Richtlinie bearbeitet wurde, aber die neuen Anforderungen wurdennicht an den Datenspeicher weitergegeben, in dem sich die Objekte der virtuellen Maschine befin-den. Um die Änderungen zu kommunizieren, wenden Sie die Richtlinie erneut auf die veraltetenObjekte an.

Nicht an-wendbar

Diese Speicherrichtlinie verweist auf Datenspeicherfunktionen, die vom Datenspeicher, in dem sichdie virtuelle Maschine befindet, nicht unterstützt werden.

Weiter

Wenn Sie für den Datenspeicher mit dem Status „Keine Übereinstimmung“ die Übereinstimmung nicht wie-derherstellen können, migrieren Sie die Dateien oder virtuellen Festplatten in einen kompatiblen Datenspei-cher. Weitere Informationen hierzu finden Sie unter „Suchen einer kompatiblen Speicherressource für einenicht kompatible virtuelle Maschine“, auf Seite 224.

Wenn der Status „Veraltet“ lautet, wenden Sie die Richtlinie erneut auf die Objekte an. Weitere Informatio-nen hierzu finden Sie unter „Erneutes Anwenden der VM-Speicherrichtlinien“, auf Seite 225.

Prüfen der Speicherübereinstimmung für eine virtuelle MaschineSie können prüfen, ob eine virtuelle Maschine einen kompatiblen Datenspeicher verwendet.

Voraussetzungen

Stellen Sie sicher, dass der virtuellen Maschine eine Speicherrichtlinie zugeordnet ist.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

2 Wählen Sie im Kontextmenü Alle vCenter‐Aktionen > VM‐Speicherrichtlinien > Einhaltung der VM‐Speicherrichtlinien prüfen.

Das System verifiziert die Übereinstimmung.

3 Klicken Sie auf die Registerkarte Übersicht für die virtuelle Maschine.

Kapitel 20 Infos zu VM-Speicherrichtlinien

VMware, Inc. 223

4 Prüfen Sie den Übereinstimmungsstatus im Bereich „VM-Speicherrichtlinien“ an.

Übereinstim-mungsstatus Beschreibung

Übereinstim-mung

Der Datenspeicher, der von der virtuellen Maschine oder virtuellen Festplatte verwendet wird, hatdie Speicherfunktionen, die die Richtlinie erfordert.

Keine Über-einstimmung

Der Datenspeicher unterstützt festgelegte Speicheranforderungen, kann jedoch zurzeit nicht dieSpeicherrichtlinie der virtuellen Maschine erfüllen. Der Status kann z. B. in „Keine Übereinstim-mung“ wechseln, wenn physische Ressourcen, auf denen der Datenspeicher gesichert wird, nichtverfügbar oder erschöpft sind. Sie können die Übereinstimmung des Datenspeichers wiederher-stellen, indem Sie Änderungen an der physischen Konfiguration vornehmen, beispielsweise indemSie Hosts oder Festplatten zum Cluster hinzufügen. Wenn weitere Ressourcen die Speicherrichtli-nie der virtuellen Maschine erfüllen, ändert sich der Status in „Übereinstimmung“.

Veraltet Der Status gibt an, dass die Richtlinie bearbeitet wurde, aber die neuen Anforderungen wurdennicht an den Datenspeicher weitergegeben, in dem sich die Objekte der virtuellen Maschine befin-den. Um die Änderungen zu kommunizieren, wenden Sie die Richtlinie erneut auf die veraltetenObjekte an.

Nicht an-wendbar

Diese Speicherrichtlinie verweist auf Datenspeicherfunktionen, die vom Datenspeicher, in dem sichdie virtuelle Maschine befindet, nicht unterstützt werden.

Weiter

Wenn Sie für den Datenspeicher mit dem Status „Keine Übereinstimmung“ die Übereinstimmung nicht wie-derherstellen können, migrieren Sie die Dateien oder virtuellen Festplatten in einen kompatiblen Datenspei-cher. Weitere Informationen hierzu finden Sie unter „Suchen einer kompatiblen Speicherressource für einenicht kompatible virtuelle Maschine“, auf Seite 224.

Wenn der Status „Veraltet“ lautet, wenden Sie die Richtlinie erneut auf die Objekte an. Weitere Informatio-nen hierzu finden Sie unter „Erneutes Anwenden der VM-Speicherrichtlinien“, auf Seite 225.

Suchen einer kompatiblen Speicherressource für eine nicht kompatible virtuelleMaschine

Bestimmen Sie, welcher Datenspeicher mit der Speicherrichtlinie Ihrer virtuellen Maschine kompatibel ist.

Es kann vorkommen, dass eine einer virtuellen Maschine zugewiesene Speicherrichtlinie den Status „KeineÜbereinstimmung“ aufweist. Dieser Status ist ein Hinweis darauf, dass die virtuelle Maschine oder derenFestplatten Datenspeicher verwenden, die nicht mit der Richtlinie kompatibel sind. Sie können die Dateiender virtuellen Maschine und die virtuellen Festplatten in kompatible Datenspeicher migrieren.

Bestimmen Sie mithilfe dieser Aufgabe, welche Datenspeicher die Anforderungen der Richtlinie erfüllen.

Voraussetzungen

Stellen Sie sicher, dass das Feld VM‐Speicherrichtlinieneinhaltung auf der Registerkarte Übersicht der vir-tuellen Maschine der Status „Keine Übereinstimmung“ angezeigt wird.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

2 Klicken Sie auf die Registerkarte Übersicht (Summary).

Im Bereich „VM-Speicherrichtlinien“ wird im Feld „VM-Speicherrichtlinieneinhaltung“ der Status „Kei-ne Übereinstimmung“ angezeigt.

3 Klicken Sie auf den Richtlinienlink im Feld VM‐Speicherrichtlinien.

4 Klicken Sie auf die Registerkarte Überwachen und dann auf VMs und virtuelle Festplatten, um festzu-stellen, welche Dateien der virtuellen Maschine nicht übereinstimmend sind.

vSphere-Speicher

224 VMware, Inc.

5 Klicken Sie auf Übereinstimmende Ressourcen.

Die Liste der Datenspeicher, die den Anforderungen der Richtlinie entsprechen, wird angezeigt.

Weiter

Sie können die virtuelle Maschine oder deren Datenträger in einen der Datenspeicher in der Liste migrieren.

Erneutes Anwenden der VM-SpeicherrichtlinienNachdem Sie eine Speicherrichtlinie bearbeitet haben, die bereits einem VM-Objekt zugeordnet ist, müssenSie die Richtlinie erneut anwenden. Durch die erneute Anwendung der Richtlinie teilen Sie dem Datenspei-cher, in dem sich das VM-Objekt befindet, neue Speicheranforderungen mit.

Voraussetzungen

Der Übereinstimmungsstatus für eine virtuelle Maschine lautet „Veraltet“. Der Status gibt an, dass die Richt-linie bearbeitet wurde, aber die neuen Anforderungen wurden nicht an den Datenspeicher weitergegeben.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf VM‐Speicherrichtlinien.

3 Vergewissern Sie sich, dass als Übereinstimmungsstatus „Veraltet“ angezeigt wird.

4 Klicken Sie auf das Symbol VM‐Speicherrichtlinie erneut anwenden.

Der Übereinstimmungsstatus wird in „Übereinstimmung“ geändert.

Kapitel 20 Infos zu VM-Speicherrichtlinien

VMware, Inc. 225

vSphere-Speicher

226 VMware, Inc.

Informationen zu VMware vSphereFlash-Lesecache 21

Mit Flash Read Cache™ (Flash-Lesecache) kann die Leistung der virtuellen Maschine verbessert und be-schleunigt werden, indem Flash-Geräte, die sich auf dem Host befinden, als Cache verwendet werden.

Ein Flash-Lesecache kann für jede einzelne virtuelle Festplatte reserviert werden. Der Flash-Lesecache wirderst erstellt, wenn eine virtuelle Maschine eingeschaltet wird, und wieder verworfen, sobald die virtuelleMaschine angehalten oder ausgeschaltet wird. Beim Migrieren einer virtuellen Maschine haben Sie die Mög-lichkeit, den Cache zu migrieren. Standardmäßig wird der Cache migriert, wenn die vFlash-Module aufQuell- und Zielhosts kompatibel sind. Wenn Sie den Cache nicht migrieren, wird er auf dem Zielhost aufge-wärmt. Sie können die Cachegröße ändern, während die virtuelle Maschine eingeschaltet ist. In diesem Fallwird der vorhandene Cache verworfen und ein neuer Durchschreibcache erstellt, was zu einer Cache-Aktu-alisierungsspanne führt. Das Erstellen eines neuen Caches hat den Vorteil, dass die Cachegröße besser aufdie aktiven Daten der Anwendung abgestimmt werden kann.

Der Flash-Lesecache unterstützt den Durchschreib- oder Lesecache. Der Zurückschreib- oder Schreibcachewird nicht unterstützt. Daten werden soweit vorhanden aus dem Cache eingelesen. Schreibvorgänge für Da-ten werden an den Hintergrundspeicher (z. B. SAN oder NAS) gesendet. Alle Daten, die aus dem Hinter-grundspeicher gelesen oder in diesen geschrieben werden, werden ohne Einschränkungen im Cache gespei-chert.

Hinweis Nicht alle Arbeitslasten profitieren von einem Flash-Lesecache. Die Leistungsverbesserung hängtvon Ihrem Arbeitslastmuster und der Working Set-Größe ab. Leseintensive Arbeitslasten mit Arbeitssätzen,die in den Cache passen, profitieren von einer Konfiguration mit Flash-Lesecache. Durch die Konfigurationdes Flash-Lesecaches für leseintensive Arbeitslasten werden im gemeinsam genutzten Speicher zusätzlicheE/A-Ressourcen verfügbar. Dies kann zu einer Leistungsverbesserung für andere Arbeitslasten führen, auchwenn für diese die Verwendung des Flash-Lesecaches nicht konfiguriert ist.

Dieses Kapitel behandelt die folgenden Themen:

n „DRS-Unterstützung für Flash-Lesecache“, auf Seite 228

n „vSphere High Availability-Unterstützung für Flash-Lesecache“, auf Seite 228

n „Verwenden einer vFlash-Ressource zum Konfigurieren eines Auslagerungs-Caches“, auf Seite 228

n „Volume-Limits für virtuellen Flash“, auf Seite 228

n „Einrichten der vFlash-Ressource“, auf Seite 229

n „Einrichten mehrerer vFlash-Ressourcen“, auf Seite 229

n „Konfigurieren des Hostauslagerungs-Cache mit der vFlash-Ressource“, auf Seite 230

n „Konfigurieren des Flash-Lesecaches für eine virtuelle Maschine“, auf Seite 230

n „Entfernen der vFlash-Ressource“, auf Seite 231

n „Migrieren von virtuellen Maschinen mit Flash Read Cache“, auf Seite 231

VMware, Inc. 227

n „Verwendung von esxcli-Befehlen mit virtuellem Flash“, auf Seite 232

DRS-Unterstützung für Flash-LesecacheDRS unterstützt den virtuellen Flash als Ressource.

DRS verwaltet virtuelle Maschinen mit Flash-Lesecache-Reservierungen. Jedes Mal, wenn Sie DRS ausfüh-ren, wird die vom ESXi-Host gemeldete, verfügbare vFlash-Kapazität angezeigt. Jeder Host unterstützt einevFlash-Ressource. DRS wählt einen Host aus, der über ausreichend vFlash-Kapazität verfügt, um eine virtu-elle Maschine starten zu können. DRS behandelt eingeschaltete virtuelle Maschinen mit einem Flash-Leseca-che als leicht affin zu ihrem aktuellen Host und verschiebt sie nur aus schwerwiegenden Gründen oder, umgegebenenfalls eine übermäßige Hostnutzung zu korrigieren.

vSphere High Availability-Unterstützung für Flash-LesecacheFlash-Lesecache wird von High Availability (HA) unterstützt.

Wenn vSphere HA eine virtuelle Maschine neu startet, für die Flash-Lesecache konfiguriert ist, wird die vir-tuelle Maschine auf einem Host im Cluster neu gestartet, für den die Flash-Lesecache-, CPU-, Arbeitsspei-cher- und Overhead-Reservierungen erfüllt sind. vSphere HA startet eine virtuelle Maschine nicht neu,wenn der nicht reservierte Flash-Speicher die Reservierung für virtuellen Flash nicht erfüllt. Sie müssen einevirtuelle Maschine manuell neu konfigurieren, um den Flash-Lesecache zu reduzieren oder zu löschen, fallsauf dem Zielhost nicht genügend vFlash-Ressourcen verfügbar sind.

Verwenden einer vFlash-Ressource zum Konfigurieren einesAuslagerungs-Caches

Sie können die vFlash-Ressource auf einem ESXi-Host verwenden, um einen Auslagerungscache zu konfi-gurieren. Der Hostauslagerungscache wird aus einem Teil der vFlash-Ressource zugewiesen.

Sie können Flash-Geräte unabhängig vom Typ auf einem Host zur Verwendung als vFlash-Ressource aufdiesem Host virtualisieren. Zur Verwendung des virtuellen Flashs ist es nicht erforderlich, dass jeder Hostin dem Cluster über Flash verfügt, aber nur Hosts mit Flash-Geräten können über konfigurierte Cache-Gerä-te verfügen. Sie können den virtuellen Flash mit vorhandenen VMware-Lösungen verwenden, wie vMotion,DRS und HA.

vSphere kann so konfiguriert werden, dass eine Auslagerung des ESXi-Hosts auf ein SSD-Laufwerk (Solid-State Disk) möglich ist. Bei einer hohen Arbeitsspeichernutzung wird die Host-Auslagerung eingesetzt, umArbeitsspeicher aus virtuellen Maschinen zurückzugewinnen. vSphere wählt die physischen Seiten der vir-tuellen Maschine, die ausgelagert werden, nach dem Zufallsprinzip aus, komprimiert den Arbeitsspeicherder von ESXi zur Auslagerung ausgewählten VM-Seiten und ermöglicht Ihnen, einen Auslagerungs-Cacheauf dem SSD-Laufwerk zu konfigurieren.

Volume-Limits für virtuellen FlashDie folgenden Volume-Limits für virtuellen Flash werden unterstützt.

Tabelle 21‑1. Volume-Limits für virtuellen Flash

Ressource Grenzwert

virtuelle Flash-Volumes pro Host 1 (nur lokal)

SSDs pro virtuellem Flash-Volume Max. 8

SSD-Größe Max. 4 TB

virtuelle Flash-Größe Max. 32 TB

vSphere-Speicher

228 VMware, Inc.

Einrichten der vFlash-RessourceSie können eine vFlash-Ressource einrichten oder einer vorhandenen vFlash-Ressource Kapazität hinzufü-gen.

Zum Einrichten einer vFlash-Ressource verwenden Sie ein SSD-Laufwerk (Solid-State Disk), das mit demHost verbunden ist. Wenn Sie die Kapazität der vFlash-Ressource erhöhen möchten, können Sie bis zu maxi-mal acht weitere SSDs hinzufügen. Ein einzelnes SSD-Laufwerk muss exklusiv einer vFlash-Ressource zuge-teilt werden und kann nicht gemeinsam mit einem anderen vSphere-Dienst (z. B. Virtual SAN) genutzt wer-den.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zum Host.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Wählen Sie unter „Virtueller Flash“ die Option vFlash‐Ressourcenverwaltung und klicken Sie auf Ka‐pazität hinzufügen.

4 Wählen Sie in der Liste mit den verfügbaren SSD-Laufwerken eines oder mehrere SSD-Laufwerke zurVerwendung für den virtuellen Flash aus, und klicken Sie auf OK.

Die vFlash-Ressource wird erstellt. Im Bereich „Geräte-Backing“ werden alle SSDs aufgelistet, die für dievFlash-Ressource verwendet werden.

Weiter

Sie können die vFlash-Ressource für die Cache-Konfiguration auf dem Host sowie für die Konfiguration desFlash-Lesecaches auf virtuellen Festplatten verwenden. Durch Hinzufügen weiterer SSDs zur vFlash-Res-source können Sie die Kapazität erhöhen.

Einrichten mehrerer vFlash-RessourcenSie können mehrere vFlash-Ressourcen mit einer Stapelkonfiguration einrichten.

Richten Sie mehrere vFlash-Ressourcen gleichzeitig ein oder erhöhen Sie die Kapazität der vFlash-Ressour-cen auf Hosts, die bereits mit vFlash-Ressourcen konfiguriert wurden.

Voraussetzungen

Stellen Sie sicher, dass Hosts mit ESXi 5.5 oder höher konfiguriert sind und sie geeignete SSDs besitzen, so-dass die Hosts in der Liste vFlash-Kapazität hinzufügen angezeigt wird.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zum Host.

2 Klicken Sie mit der rechten Maustaste auf den Host, wählen Sie Alle vCenter‐Aktionen > vFlash‐Kapa‐zität hinzufügen.

3 Wählen Sie eine oder mehrere SSDs aus.

Die ausgewählten SSDs werden für die Verwendung durch die vFlash-Ressource formatiert. Alle Datei-en auf den Festplatten werden gelöscht.

4 Klicken Sie auf OK.

Es werden mehrere vFlash-Ressourcen erstellt.

Kapitel 21 Informationen zu VMware vSphere Flash-Lesecache

VMware, Inc. 229

Konfigurieren des Hostauslagerungs-Cache mit der vFlash-RessourceSie können eine bestimmte Größe der vFlash-Ressource für die Auslagerung in den Host-Cache reservieren.

Weitere Informationen dazu finden Sie unter „In den Host-Cache auslagern“, auf Seite 188.

Voraussetzungen

Richten Sie eine vFlash-Ressource ein.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zum Host.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Wählen Sie unter vFlash Konfiguration des vFlash‐Hostauslagerungs‐Cache und klicken Sie auf Bear‐beiten.

4 Aktivieren Sie das Kontrollkästchen vFlash‐Hostauslagerungs‐Cache aktivieren.

5 Geben Sie die Größe der vFlash-Ressource ein, die für die Auslagerung in den Host-Cache reserviertwerden soll.

6 Klicken Sie auf OK.

Konfigurieren des Flash-Lesecaches für eine virtuelle MaschineSie können den Flash-Lesecache für eine virtuelle Maschine konfigurieren, die mit ESXi 5.5 oder höher kom-patibel ist.

Durch Aktivieren des Flash-Lesecaches können Sie die Blockgröße und die zu reservierende Cachegröße an-geben.

Die Blockgröße ist die Mindestanzahl von zusammenhängenden Byte, die im Cache gespeichert werdenkönnen. Diese Blockgröße kann größer als die nominale Festplatten-Blockgröße von 512 Byte sein und zwi-schen 4 KB und 1024 KB betragen. Falls ein Gastbetriebssystem einen einzelnen Datenträgerblock mit512 Byte schreibt, werden die über die Cache-Blockgröße hinausgehenden Byte zwischengespeichert. Siesollten die Cache-Blockgröße nicht mit der Festplatten-Blockgröße verwechseln.

Bei der Reservierung handelt es sich um die zu reservierende Größe für Cache-Blöcke. Es gibt mindestens256 Cache-Blöcke. Bei einer Cache-Blockgröße von 1 MB beträgt die Mindestcachegröße 256 MB. Bei einerCache-Blockgröße von 4 K beträgt die Mindestcachegröße 1 MB.

Um weitere Informationen zu Größenanpassungsrichtlinien zu erhalten, suchen Sie auf der VMware-Websi-te nach dem Whitepaper Performance of vSphere Flash Read Cache in VMware vSphere 5.5.

Voraussetzungen

Stellen Sie sicher, dass die virtuelle Maschine mit ESXi 5.5 oder höher kompatibel ist.

Vorgehensweise

1 Wählen Sie zum Suchen einer virtuellen Maschine ein Datencenter, einen Ordner, einen Cluster, einenRessourcenpool, einen Host oder eine vApp aus.

2 Klicken Sie auf der Registerkarte Verwandte Objekte und klicken Sie dann auf Virtuelle Maschinen.

3 Klicken Sie mit der rechten Maustaste auf die virtuelle Maschine und wählen Sie Einstellungen bear‐beiten.

4 Erweitern Sie auf der Registerkarte Virtuelle Hardware die Option Festplatte, um die Festplattenoptio-nen anzuzeigen.

vSphere-Speicher

230 VMware, Inc.

5 Um den Flash-Lesecache für die virtuelle Maschine zu aktivieren, geben Sie einen Wert in das TextfeldvFlash‐Lesecache ein.

6 Klicken Sie auf Erweitert, und geben Sie die folgenden Parameter an.

Option Beschreibung

Reservierung Wählen Sie einen Wert für die zu reservierende Cachegröße aus.

Blockgröße Wählen Sie eine Blockgröße aus.

7 Klicken Sie auf OK.

Entfernen der vFlash-RessourceSie müssen möglicherweise eine vFlash-Ressource auf einer lokalen SSD entfernen, um das Gerät für eineandere Ressource, wie beispielsweise Virtual SAN, nutzen zu können.

Sie können keine vFlash-Ressource entfernen, die mit Hostauslagerungs-Cache konfiguriert ist, oder wennder Host virtuelle Maschinen mit Flash-Lesecache konfiguriert hat, die eingeschaltet sind.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zum Host, bei dem virtueller Flash konfiguriert ist.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Wählen Sie unter „Virtueller Flash“ die Option vFlash‐Ressourcenverwaltung aus und klicken Sie aufAlle entfernen.

Nachdem Sie die vFlash-Ressource entfernt und die SSD gelöscht haben, ist die Festplatte für andereVorgänge verfügbar.

Migrieren von virtuellen Maschinen mit Flash Read CacheBeim Migrieren einer eingeschalteten virtuellen Maschine von einem Host zu einem anderen können Sie an-geben, ob Flash Read Cache-Inhalte zusammen mit den virtuellen Festplatten migriert werden sollen.

Voraussetzungen

Falls Sie planen, Flash Read Cache-Inhalte zu migrieren, müssen Sie eine ausreichende vFlash-Ressource aufdem Zielhost konfigurieren.

Vorgehensweise

1 Klicken Sie mit der rechten Maustaste auf die ausgeführte virtuelle Maschine und wählen Sie Migrierenaus.

2 Geben Sie den Migrationstyp an.

Option Beschreibung

Host ändern Migriert virtuelle Maschinen auf einen anderen Host oder Cluster.

Sowohl Host als auch Datenspei-cher ändern

Migrieren Sie die virtuellen Maschinen auf einen bestimmten Host oderCluster und deren Speicher auf einen bestimmten Datenspeicher oder Da-tenspeicher-Cluster.

3 Wählen Sie den Zielhost aus und klicken Sie auf Weiter.

Kapitel 21 Informationen zu VMware vSphere Flash-Lesecache

VMware, Inc. 231

4 Geben Sie eine Migrationseinstellung für alle mit Virtual Flash Read Cache konfigurierten virtuellenFestplatten an. Dieser Migrationsparameter wird nicht angezeigt, wenn Sie nur den Datenspeicher undnicht den Host ändern.

Migrationseinstellungen für denFlash-Lesecache Beschreibung

Cache-Inhalte immer migrieren Das Migrieren virtueller Maschinen wird nur fortgesetzt, wenn der gesam-te Cache-Inhalt auf den Zielhost migriert werden kann. Diese Option isthilfreich für einen kleinen Cache oder wenn die Cachegröße weitgehendmit den aktiven Daten der Anwendung übereinstimmt.

Cache-Inhalte nicht migrieren Der Flash-Lesecache wird nicht migriert, sondern geleert. Flash-Lesecachewird auf dem Zielhost neu erstellt. Diese Option ist hilfreich für einen gro-ßen Cache oder wenn der Cache größer als die aktiven Daten der Anwen-dung ist.

5 Wenn Sie über mehrere virtuelle Festplatten mit Flash Read Cache verfügen, können Sie die Migrations-

einstellung für jede einzelne Festplatte anpassen.

a Klicken Sie auf Erweitert.

b Wählen Sie eine virtuelle Festplatte aus, für die Sie die Migrationseinstellung ändern möchten.

c Wählen Sie im Dropdown-Menü in der Spalte Migrationseinstellung für Virtual Flash Read Cacheeine entsprechende Option aus.

6 Schließen Sie die Migrationskonfiguration ab und klicken Sie auf Beenden.

Weiter

Überprüfen Sie auf der Registerkarte Übersicht der virtuellen Maschine, ob die Migration erfolgreich war:

n Vergewissern Sie sich, ob auf der Registerkarte die richtige IP-Adresse des Zielhosts angezeigt wird.

n Vergewissern Sie sich, dass im VM-Hardwarebereich die richtigen Virtual Flash Read Cache-Informati-onen für jede virtuelle Festplatte angezeigt werden.

Verwendung von esxcli-Befehlen mit virtuellem FlashVerwenden Sie esxcli-Befehle zum Abrufen von Informationen zum virtuellen Flash und für die Problembe-handlung Ihrer Umgebung.

Die folgenden Befehle sind verfügbar:

Befehl Optionen Beschreibung

esxcli storage vflash vFlash-Verwaltungsvorgänge auf dem System.

Cache Flash-Lesecache-Verwaltungsvorgänge

Modul vFlash-Modul-Verwaltungsvorgänge

Gerät Verwaltungsvorgänge des vFlash-SSD-Geräts

esxcli storage vflashmodule

get Informationen zum vFlash abrufen.

Liste vFlash-Module auflisten.

esxcli storage vflash ca-che

get Informationen zum individuellen Flash-Lesecache abrufen.

Liste Individuelle Flash-Lesecaches auflisten.

vSphere-Speicher

232 VMware, Inc.

Befehl Optionen Beschreibung

esxcli storage vflash ca-che stats

get Flash-Lesecache-Statistik abrufen.

Zurücksetzen Flash-Lesecache-Statistik zurücksetzen.

esxcli storage vflash de-vice list

Listet alle SSD-Geräte für virtuellen Flash auf.

-e|--eligible [true |false]

Listet die geeigneten oder ungeeigneten SSD-Geräte für virtuellenFlash auf.

-u|--used [true | fal-se]

Listet die verwendeten oder nicht verwendeten SSD-Geräte für virtuel-len Flash auf.

Im Folgenden finden Sie eine Beispielausgabe, wenn Sie den Befehl vflash device list eingeben:

~ # esxcli storage vflash device list

Name Size Is Local Is Used in vFlash Eligibility

-------------------- ------ -------- ----------------- ----------------------------

naa.5001e82002600000 190782 true true N/A

naa.5001e82002611111 190782 false false Detected as a remote SAS SSD

naa.5001e82002622222 190782 false false Detected as a remote SAS SSD

naa.5001e82002633333 190782 true false Yes, this is a blank disk.

Kapitel 21 Informationen zu VMware vSphere Flash-Lesecache

VMware, Inc. 233

vSphere-Speicher

234 VMware, Inc.

VMkernel und Speicher 22Der VMkernel ist ein äußerst leistungsfähiges Betriebssystem, das direkt auf dem ESXi-Host ausgeführtwird. Der VMkernel verwaltet die meisten physischen Ressourcen auf der Hardware, einschließlich Arbeits-speichern, physischen Prozessoren, Datenspeichern und Netzwerkcontrollern.

Zum Verwalten von Speicher verfügt der VMkernel über ein Speichersubsystem, das mehrere Hostbusadap-ter (HBAs) unterstützt, einschließlich paralleles SCSI, SAS, Fibre-Channel, FCoE und iSCSI. Diese HBAs ver-binden eine Vielfalt an aktiv/aktiv-, aktiv/passiv- und ALUA-Speicher-Arrays, die für die Verwendung mitdem VMkernel zertifiziert sind. Siehe die Dokumentation zu vSphere Compatibility Guide. Dort finden Sie ei-ne Liste der unterstützten HBAs und Speicher-Arrays.

Das primäre Dateisystem, das der VMkernel verwendet, ist das VMware Virtual Machine File System(VMFS). VMFS ist ein Cluster-Dateisystem, das entworfen und optimiert wurde, um große Dateien, wie z. B.virtuelle Festplatten und Auslagerungsdateien, zu unterstützen. Der VMkernel unterstützt zudem das Spei-chern von virtuellen Festplatten auf NFS-Dateisystemen.

Der Speicher-E/A-Pfad bietet virtuellen Maschinen Zugriff auf Speichergeräte über eine Geräteemulation.Durch diese Geräteemulation kann eine virtuelle Maschine so auf Dateien auf einem VMFS- oder NFS-Da-teisystem zugreifen, als ob sie SCSI-Geräte wären. Der VMkernel bietet Speichervirtualisierungsfunktionen,wie z. B. das Planen von E/A-Anforderungen von mehreren virtuellen Maschinen sowie Multipathing.

Außerdem bietet der VMkernel mehrere Speicher-APIs, anhand derer Speicherpartner ihre Produkte fürvSphere integrieren und optimieren können.

Die folgende Darstellung illustriert die grundlegenden Elemente des VMkernel-Kerns unter besonderer Be-rücksichtigung des Speicher-Stacks. Speicherbezogene Module befinden sich zwischen den Ebenen des E/A-Schedulers für logische Geräte und des Adapter-E/A-Schedulers.

VMware, Inc. 235

Abbildung 22‑1. VMkernel und Speicher

Konf

igur

atio

n

PhysischerKompatibilitäts-Modus RDM

Raw-Festplatte

SCSI-Befehlsemulation

Dateisystemwechsel

VMFSNFS

Blockgeräte

Virtueller ModusRDM

Festplatte LVM

E/A-Scheduler für logische Geräte

Speicher-APIs

Prüfen

Scheduler für Adapter-E/A

Linux-Emulation

VMkernel

Virtuelle Maschine

Gastbetriebssystem

SCSI-HBA-Emulation

Virtuelle Maschine

Gastbetriebssystem

SCSI-HBA-Emulation

Speicher-API für Multipathing (Pluggable Storage-Architektur)

Speicher-API für die Array-Integration

ReguläreVMDK

Statistik

Snapshot

FC-Treiber iSCSI-TreiberiSCSI-Treiber iSCSI-TreiberSCSI-Treiber iSCSI-TreiberBlocktreiber iSCSI-TreiberIDE-TreiberFCoE-Treiber

Speicher-APIsSpeicher-APIs sind APIs, die von Drittanbieterhardware, -software und Speicheranbietern verwendet wer-den, um Komponenten zu entwickeln, die vSphere-Funktionen und -Lösungen erweitern.

Diese Dokumentation beschreibt die folgenden Speicher-APIs und erläutert, welchen Beitrag diese in IhrerSpeicherumgebung leisten. Informationen zu anderen APIs dieser Familie, z. B. „Storage API - Data Protec-tion“ und „Storage API - Site Recovery Manager“, finden Sie auf der VMware-Website.

n „Storage APIs - Multipathing“, auch bekannt als die Architektur des im Betrieb austauschbaren Spei-chers (Pluggable Storage Architecture, PSA). PSA ist eine Sammlung von VMkernel-APIs, mit derenHilfe Speicherpartner ihre Arrays asynchron zu den Zeitplänen für die Freigabe von ESXi-Versionen ak-tiveren und zertifizieren sowie leistungssteigerndes, Multipathing- und Lastausgleichs-Verhalten bietenkönnen, die für jedes Array optimiert sind. Weitere Informationen finden Sie unter „Verwalten mehrererPfade“, auf Seite 244.

vSphere-Speicher

236 VMware, Inc.

n „Storage APIs - Array Integration“, früher auch als VAAI bezeichnet, enthalten die folgenden APIs:

n Hardwarebeschleunigungs-APIs. Ermöglicht Arrays die Integration mit vSphere zur transparentenAuslagerung bestimmter Speichervorgänge auf das Array. Diese Integration sorgt für eine wesent-liche Reduzierung des CPU-Overheads auf dem Host. Weitere Informationen hierzu finden Sie un-ter Kapitel 24, „Speicherhardware-Beschleunigung“, auf Seite 261.

n Array-Thin-Provisioning-APIs. Unterstützt das Überwachen der Speicherplatznutzung auf Thin-be-reitgestellten Speicher-Arrays, um Speicherplatzengpässe zu verhindern und Speicherplatzrückge-winnung durchzuführen. Weitere Informationen hierzu finden Sie unter „Array-Thin Provisioningund VMFS-Datenspeicher“, auf Seite 278.

n Storage APIs - Storage Awareness. Diese vCenter Server-basierten APIs ermöglichen es den Speicher-Arrays, vCenter Server über ihre Konfiguration, ihre Funktionen sowie Speicherstatus und -ereignissezu informieren. Weitere Informationen hierzu finden Sie unter Kapitel 26, „Verwenden von Speicheran-bietern“, auf Seite 281.

Kapitel 22 VMkernel und Speicher

VMware, Inc. 237

vSphere-Speicher

238 VMware, Inc.

Grundlegendes zu Multipathing undFailover 23

ESXi unterstützt Multipathing, um eine dauerhafte Verbindung zwischen einem Host und seinem Speicheraufrechtzuerhalten. Multipathing ist eine Technik, mit der Sie mehrere physische Pfade zur Übertragungvon Daten zwischen dem Host und einem externen Speichergerät verwenden können.

Beim Ausfall eines beliebigen Elements im SAN-Netzwerk, z. B. eines Adapters, Switches oder Kabels, kannESXi zu einem anderen physischen Pfad wechseln, der die Failover-Komponente nicht verwendet. Der Pro-zess des Wechselns zu einem anderen Pfad, um fehlgeschlagene Komponenten zu vermeiden, wird als Pfad-Failover bezeichnet.

Neben dem Pfad-Failover bietet Multipathing Lastenausgleich. Lastenausgleich ist der Vorgang zum Auftei-len der E/A-Lasten auf mehrere physische Pfade. Mit diesem Verfahren können potenzielle Engpässe redu-ziert oder vermieden werden.

Hinweis Während eines Failovers kann es bei virtuellen Maschinen zu einer E/A-Verzögerung von bis zusechs Sekunden kommen. Diese Verzögerung ist erforderlich, damit nach einer Topologieänderung ein sta-biler Zustand des SAN hergestellt werden kann. Die E/A-Verzögerungen sind möglicherweise auf Ak-tiv/Passiv-Arrays länger und auf Aktiv-Aktiv-Arrays kürzer.

Dieses Kapitel behandelt die folgenden Themen:

n „Failover mit Fibre-Channel“, auf Seite 240

n „Hostbasiertes Failover mit iSCSI“, auf Seite 240

n „Array-basiertes Failover mit iSCSI“, auf Seite 242

n „Pfad-Failover und virtuelle Maschinen“, auf Seite 243

n „Verwalten mehrerer Pfade“, auf Seite 244

n „VMware Multipathing-Modul“, auf Seite 245

n „Prüfen und Beanspruchen von Pfaden“, auf Seite 247

n „Verwalten von Speicherpfaden und Multipathing-Plug-Ins“, auf Seite 251

VMware, Inc. 239

Failover mit Fibre-ChannelZur Unterstützung von Multipathing verfügt Ihr Host normalerweise über zwei oder mehrere HBAs. DieseKonfiguration ergänzt die SAN-Multipathing-Konfiguration, die normalerweise mindestens einen Switchim SAN-Fabric und mindestens einen Speicherprozessor im Speicher-Array-Gerät selbst bereitstellt.

In der folgenden Abbildung wird dargestellt, wie jeder Server über mehrere physische Pfade mit dem Spei-chergerät verbunden ist. Wenn zum Beispiel HBA1 oder die Verbindung zwischen HBA1 und dem FC-Switch ausfällt, übernimmt HBA2 und stellt eine Verbindung zwischen dem Server und dem Switch zurVerfügung. Der Prozess, in dem ein HBA für einen anderen HBA einspringt, wird als HBA-Failover bezeich-net.

Abbildung 23‑1. Multipathing und Failover mit Fibre-Channel

SP2

Speicher-Array

SP1

Switch Switch

HBA2 HBA1 HBA3 HBA4

Host 1 Host 2

Analog dazu übernimmt SP2 bei einem Ausfall von SP1 oder der Verbindung zwischen SP1 und den Swit-ches und stellt eine Verbindung zwischen dem Switch und dem Speichergerät zur Verfügung. Dieser Vor-gang wird SP-Failover genannt. VMware ESXi unterstützt über seine Multipathing-Funktion HBA- und SP-Failover.

Hostbasiertes Failover mit iSCSIBeim Einrichten Ihres ESXi-Hosts für das Multipathing und das Failover können Sie je nach Typ der iSCSI-Adapter auf Ihrem Host mehrere iSCSI-HBAs oder mehrere Netzwerkkarten verwenden.

Weitere Informationen über verschiedene iSCSI-Adaptertypen finden Sie unter „iSCSI-Initiatoren“, auf Sei-te 75.

Bei der Verwendung von Multipathing muss Folgendes beachtet werden.

n ESXi unterstützt kein Multipathing, wenn Sie einen unabhängigen Hardwareadapter auf demselbenHost mit Software-iSCSI- oder abhängigen iSCSI-Adaptern kombinieren.

n Multipathing zwischen Software- und abhängigen Adaptern auf demselben Host wird unterstützt.

n Sie können auf unterschiedlichen Hosts sowohl abhängige als auch unabhängige Adapter kombinieren.

vSphere-Speicher

240 VMware, Inc.

Die folgende Abbildung zeigt Multipathing-Setups, die mit verschiedenen Typen von iSCSI-Initiatoren mög-lich sind.

Abbildung 23‑2. Hostbasiertes Pfad-Failover

IP-Netzwerk

Hardware-iSCSI

Host 1

SP

iSCSI-Speicher

HBA2 HBA1

Software-iSCSI

Host 2

NIC2 NIC1

Software-adapter

Failover mit Hardware-iSCSIBeim Hardware-iSCSI sind auf dem Host in der Regel mehrere Hardware-iSCSI-Adapter verfügbar, über diedas Speichersystem mithilfe von einem oder mehreren Switches erreicht werden kann. Alternativ könntedas Setup auch einen Adapter und zwei Speicherprozessoren umfassen, sodass der Adapter einen anderenPfad verwenden kann, um das Speichersystem zu erreichen.

In der Abbildung mit dem hostbasierten Pfad-Failover hat Host1 zwei Hardware-iSCSI-Adapter, HBA1 undHBA2, die zwei physische Pfade zum Speichersystem zur Verfügung stellen. Multipathing-Plug-Ins auf demHost, ob VMkernel-NMP oder Drittanbieter-MPPs, haben standardmäßig Zugriff auf die Pfade und könnenden Status der einzelnen physischen Pfade überwachen. Wenn beispielsweise HBA1 oder die Verknüpfungzwischen HBA1 und dem Netzwerk fehlschlägt, können Mehrfachpfad-Plug-Ins den Pfad auf HBA2 wech-seln.

Failover mit Software-iSCSIMit Software-iSCSI können Sie, wie bei Host 2 der Abbildung „Hostbasiertes Pfad-Failover“ dargestellt,mehrere Netzwerkkarten verwenden, die Failover- und Lastausgleichsfunktionen für iSCSI-Verbindungenzwischen dem Host und Speichersystemen bieten.

Da Multipathing-Plug-Ins keinen direkten Zugriff auf die physischen Netzwerkkarten auf Ihrem Host ha-ben, müssen Sie dazu zuerst jede einzelne physische Netzwerkkarte mit einem separaten VMkernel-Portverbinden. Danach verbinden Sie mithilfe einer Port-Bindungstechnik alle VMkernel-Ports mit dem Soft-ware-iSCSI-Initiator. Somit erhält jeder VMkernel-Port, der mit einer separaten NIC verbunden ist, einen an-deren Pfad, der vom iSCSI-Speicherstapel und dessen speicherfähigen Mehrfachpfad-Plug-Ins verwendetwerden kann.

Informationen zur Konfiguration von Multipathing für das Software-iSCSI finden Sie unter „Einrichten desiSCSI-Netzwerks“, auf Seite 89.

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 241

Array-basiertes Failover mit iSCSIEinige iSCSI-Speichersysteme verwalten die Pfadnutzung ihrer Ports automatisch und für ESXi transparent.

Wenn eines dieser Speichersysteme verwendet wird, erkennt der Host mehrere Ports im Speicher nicht undkann den Speicherport, mit dem er verbunden wird, nicht selbst wählen. Diese Systeme verfügen über eineeinzelne virtuelle Portadresse, die der Host für die Anfangskommunikation nutzt. Während dieser Anfangs-kommunikation kann das Speichersystem den Host weiterleiten, sodass er mit einem anderen Port im Spei-chersystem kommuniziert. Die iSCSI-Initiatoren im Host befolgen diese Anforderung einer erneuten Verbin-dung und stellen dann eine Verbindung mit einem anderen Port im System her. Das Speichersystem nutztdiese Technik, um die Datenlast auf mehrere verfügbare Ports zu verteilen.

Falls der ESXi-Host die Verbindung zu einem dieser Ports verliert, versucht er automatisch, wieder eine Ver-bindung mit dem virtuellen Port des Speichersystems herzustellen und sollte an einen aktiven, nutzbarenPort weitergeleitet werden. Dieses Wiederverbinden und Umleiten erfolgt schnell und führt in der Regelnicht zu einer Unterbrechung bei der Ausführung der virtuellen Maschinen. Diese Speichersysteme könnenauch anfordern, dass iSCSI-Initiatoren wieder mit dem System verbunden werden, um den Speicherport zuändern, mit dem sie verbunden sind. Dadurch wird eine möglichst effektive Nutzung mehrerer Ports ge-währleistet.

Die Abbildung „Portweiterleitung“ zeigt ein Beispiel für die Portweiterleitung. Der Host versucht, eine Ver-bindung zum virtuellen Port 10.0.0.1 herzustellen. Das Speichersystem leitet diese Anforderung an denPort 10.0.0.2 weiter. Der Host stellt eine Verbindung mit dem Port 10.0.0.2 her und verwendet diesen Port fürdie E/A-Kommunikation.

Hinweis Das Speichersystem leitet Verbindungen nicht immer weiter. Der Port 10.0.0.1 kann auch für Da-tenverkehr verwendet werden.

Abbildung 23‑3. Portweiterleitung

Speicher

10.0.0.1

10.0.0.2

Host 1

“An 10.0.0.1 mit Speicher verbinden”

“An 10.0.0.2 erneut verbinden”

Speicher

10.0.0.1

10.0.0.2

Host 2

iSCSI-Speicherdatenverkehr

Falls der Port im Speichersystem, der als virtueller Port fungiert, nicht mehr verfügbar ist, weist das Spei-chersystem die Adresse des virtuellen Ports einem anderen Port im System zu. Die Abbildung „ErneutePortzuweisung“ zeigt ein Beispiel für diese Art der erneuten Zuweisung von Ports. In diesem Fall ist dervirtuelle Port 10.0.0.1 nicht mehr verfügbar, und das Speichersystem weist die IP-Adresse des virtuellenPorts einem anderen Port zu. Der zweite Port antwortet an beiden Adressen.

vSphere-Speicher

242 VMware, Inc.

Abbildung 23‑4. Erneute Portzuweisung

Speicher

10.0.0.1

10.0.0.2

Speicher

10.0.0.1

10.0.0.110.0.0.2

Bei dieser Art von Array-basiertem Failover sind nur dann mehrere Pfade zum Speicher möglich, wennmehrere Ports im ESXi-Host verwendet werden. Dies sind Pfade vom Typ „Aktiv/Aktiv“. Weitere Informati-onen finden Sie unter „iSCSI-Sitzungsverwaltung“, auf Seite 106.

Pfad-Failover und virtuelle MaschinenDas Pfad-Failover bezieht sich auf Situationen, in denen der aktive Pfad zu einer LUN in einen anderen Pfadgeändert wird, üblicherweise weil eine SAN-Komponente ausgefallen ist, die den aktuellen Pfad verwendet.

Wenn ein Pfad ausfällt, wird Storage I/O für 30 bis 60 Sekunden angehalten, bis Ihr Host ermittelt hat, dassder Link nicht verfügbar ist, und das Failover abschließt. Beim Versuch, den Host, seine Speichergeräte oderseine Adapter anzuzeigen, hat es möglicherweise den Anschein, als sei der Vorgang angehalten worden. Esscheint, als ob virtuelle Maschinen mit ihren auf dem SAN installierten Festplatten nicht mehr reagieren.Nach dem Abschluss des Failovers wird die Ein-/Ausgabe normal fortgesetzt und die virtuellen Maschinenlaufen wieder weiter.

Wenn Failover allerdings sehr lange benötigen, unterbricht eine virtuelle Windows-Maschine möglicherwei-se die Ein-/Ausgabe, was zu einem Ausfall führt. Um dies zu verhindern, legen Sie den Datenträger-Zeit-überschreitungswert für die virtuelle Windows-Maschine auf mindestens 60 Sekunden fest.

Festlegen der Zeitüberschreitung bei Windows-GastbetriebssystemenErhöhen Sie den standardmäßigen Zeitüberschreitungswert für Festplatten auf einem Windows-Gastbet-riebssystem, um Unterbrechungen während eines Pfad-Failovers zu vermeiden.

Dieses Verfahren erläutert, wie der Zeitüberschreitungswert mithilfe der Windows-Registrierung geändertwird.

Voraussetzungen

Sichern Sie die Windows-Registrierung.

Vorgehensweise

1 Wählen Sie Start > Ausführen.

2 Geben Sie regedit.exe ein und klicken Sie auf OK.

3 Doppelklicken Sie in der Hierarchieansicht auf der linken Seite auf HKEY_LOCAL_MACHINE > Sys‐tem > CurrentControlSet > Services > Disk.

4 Doppelklicken Sie auf TimeOutValue.

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 243

5 Setzen Sie den Datenwert auf 0x3c (hexadezimal) oder 60 (dezimal) und klicken Sie auf OK.

Nach dem Durchführen dieser Änderung wartet Windows mindestens 60 Sekunden darauf, dass dieverzögerten Festplattenoperationen abgeschlossen werden, bevor ein Fehler generiert wird.

6 Starten Sie das Gastbetriebssystem neu, damit die Änderung wirksam wird.

Verwalten mehrerer PfadeZur Verwaltung von Speicher-Multipathing verwendetESXi eine Sammlung von Speicher-APIs, auch „Ar-chitektur des im Betrieb austauschbaren Speichers“ (Pluggable Storage Architecture, PSA) genannt. PSAstellt ein offenes, modulares Framework dar, das die gleichzeitige Ausführung von mehreren Multipathing-Plug-Ins (MPPs) koordiniert. Die Architektur des im Betrieb austauschbaren Speichers ermöglicht es Ent-wicklern, ihre eigenen Lastenausgleichtechniken und Failover-Mechanismen für ein bestimmtes Speicher-Array zu entwerfen und den Code direkt in den ESXi-Speicher-E/A-Pfad einzufügen.

In den Themen zur Pfadverwaltung werden die folgenden Akronyme verwendet.

Tabelle 23‑1. Multipathing-Akronyme

Akronym Definition

PSA Pluggable Storage Architecture (Architektur des im Betriebaustauschbaren Speichers)

NMP Natives Multipathing-Plug-In. Allgemeines VMware-Mul-tipathing-Modul.

PSP Pfadauswahl-Plug-In, auch als Pfadauswahl-Richtlinie be-zeichnet. Verarbeitet die Pfadauswahl für ein vorhandenesGerät.

SATP Speicher-Array-Typ-Plug-In, auch als Speicher-Array-Typ-Richtlinie bezeichnet. Verarbeitet Pfad-Failover für ein vor-handenes Speicher-Array.

Das von ESXi standardmäßig bereitgestellte VMkernel-Multipathing-Plug-In ist das NMP (VMware NativeMultipathing Plug-In). Das NMP ist ein erweiterbares Modul zur Verwaltung von Sub-Plug-Ins. Das NMP-Modul verwaltet zwei Sub-Plug-In-Typen: die Plug-Ins für Speicher-Array-Typen (SATPs) und die Pfadaus-wahl-Plug-Ins (PSPs). SATPs und PSPs können von VMware bereitgestellt und integriert oder durch einenDrittanbieter zur Verfügung gestellt werden.

Wenn mehr Multipathing-Funktionen erforderlich sind, kann ein Drittanbieter MPP zusätzlich oder als Er-satz für das Standard-NMP bereitstellen.

Bei der Koordination vom VMware NMP und ggf. installierter Drittanbieter-MPPs führt PSA die folgendenAufgaben aus:

n Laden und Entladen von Multipathing-Plug-Ins.

n Verbergen von Angaben zur virtuellen Maschine vor einem bestimmten Plug-In.

n Weiterleiten von E/A-Anforderungen für ein bestimmtes logisches Gerät an das MPP, das das Gerät ver-waltet.

n Verarbeiten der E/A-Warteschlangen für logische Geräte.

n Implementieren der gemeinsamen Nutzung der Bandbreite für logische Geräte durch virtuelle Maschi-nen.

n Verarbeiten der E/A-Warteschlangen für physische Speicher-HBAs.

n Verarbeiten der Erkennung und Entfernung physischer Pfade.

n Bereitstellen von E/A-Statistiken für logische Geräte und physische Pfade.

vSphere-Speicher

244 VMware, Inc.

Wie in der Abbildung der Architektur des im Betrieb austauschbaren Speichers dargestellt, können mehrereDrittanbieter-MPPs parallel mit VMware NMP ausgeführt werden. Wenn sie installiert sind, ersetzen dieDrittanbieter-MPPs das Verhalten des NMP und übernehmen die gesamte Steuerung des Pfad-Failoversund der Lastenausgleichs-Vorgänge für die angegebenen Speichergeräte.

Abbildung 23‑5. Pluggable Storage Architecture (Architektur des im Betrieb austauschbaren Speichers)

Drittanbieter-MPP

Drittanbieter-MPP

VMkernel

Pluggable Storage Architecture

VMware NMP

VMware SATP VMware PSP

VMware SATP VMware PSP

VMware SATP

Drittanbieter-SATP Drittanbieter-PSP

Mit den Multipathing-Modulen werden die folgenden Verfahren ausgeführt:

n Verwalten des Beanspruchens und Freigebens physischer Pfade.

n Verwalten der Erstellung, Registrierung und der Aufhebung der Registrierung von logischen Geräten.

n Zuordnen physischer Pfade zu logischen Geräten.

n Unterstützung der Erkennung und Behebung von nicht verfügbaren Pfaden.

n Verarbeiten von E/A-Anforderungen an logische Geräte:

n Auswahl eines optimalen physischen Pfades für die Anforderung.

n Je nach Speichergerät Ausführen bestimmter Aktionen, die zur Verarbeitung von Pfadfehlern undWiederholungsversuchen für E/A-Befehle notwendig sind.

n Unterstützen von Verwaltungsaufgaben, wie z. B. dem Zurücksetzen von logischen Geräten.

VMware Multipathing-ModulStandardmäßig bietet ESXi ein erweiterbares Multipathing-Modul, das als NMP (Natives Multipathing-Plug-In) bezeichnet wird.

Das VMware NMP unterstützt normalerweise alle in der VMware Speicher-HCL aufgeführten Speicher-Ar-rays und bietet einen auf dem Array-Typ basierenden Pfadauswahl-Algorithmus. Das NMP weist einem be-stimmten Speichergerät oder einer bestimmten LUN mehrere physische Pfade zu. Die jeweiligen Details derVerarbeitung eines Pfad-Failovers für ein bestimmtes Speicher-Array werden an ein Speicher-Array-Typ-Plug-In (SATP) delegiert. Die jeweiligen Details zum Festlegen des physischen Pfads, der zum Ausgeben ei-ner E/A-Anforderung an ein Speichergerät verwendet wird, werden von einem Pfadauswahl-Plug-In (PathSelection Plug-In, PSP) verarbeitet. SATPs und PSPs sind Sub-Plug-Ins innerhalb des NMP-Moduls.

Mit ESXi wird automatisch das entsprechende SATP für ein von Ihnen verwendetes Array installiert. Siemüssen keine SATPs beschaffen oder herunterladen.

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 245

VMware SATPsPlug-Ins für Speicher-Array-Typen (SATPs) werden in Verbindung mit dem VMware NMP ausgeführt undübernehmen arrayspezifische Vorgänge.

ESXi bietet ein SATP für jeden von VMware unterstützten Array-Typ. Außerdem werden Standard-SATPsfür nicht-spezifische Aktiv/Aktiv- und ALUA-Speicher-Arrays und das lokale SATP für direkt angeschlosse-ne Geräte zur Verfügung gestellt. Jedes SATP enthält spezielle Merkmale einer bestimmten Klasse von Spei-cher-Arrays und kann die arrayspezifischen Vorgänge ausführen, die zum Ermitteln des Pfadstatus undzum Aktivieren eines inaktiven Pfads erforderlich sind. Daher kann das NMP-Modul selbst mit mehrerenSpeicher-Arrays arbeiten, ohne die Angaben zu den Speichergeräten zu kennen.

Nachdem das NMP ermittelt, welches SATP für ein bestimmtes Speichergerät verwendet werden muss, unddas SATP physischen Pfaden für dieses Speichergerät zuweist, implementiert das SATP die folgenden Auf-gaben:

n Überwachung des Status der einzelnen physischen Pfade.

n Melden von Änderungen des Status der einzelnen physischen Pfade.

n Ausführen von für das Speicher-Failover erforderlichen arrayspezifischen Aktionen. Beispielsweisekönnen für Aktiv/Passiv-Geräte passive Pfade aktiviert werden.

VMware PSPsPfadauswahl-Plug-Ins (PSPs) sind Sub-Plug-Ins von VMware NMP und verantwortlich für die Auswahl ei-nes physischen Pfads für E/A-Anforderungen.

Das VMware NMP weist auf der Grundlage des SATP, das den physischen Pfaden für das jeweilige Gerätzugeordnet ist, ein Standard-PSP für jedes logische Gerät zu. Sie können das Standard-PSP außer Kraft set-zen. Weitere Informationen hierzu finden Sie unter „Prüfen und Beanspruchen von Pfaden“, auf Seite 247.

Standardmäßig unterstützt VMware NMP die folgenden PSPs:

VMW_PSP_MRU Der Host wählt den Pfad aus, den er zuletzt verwendet hat. Ist der Pfad nichtmehr verfügbar, wählt der Host einen alternativen Pfad aus. Der Host wirdnicht auf den ursprünglichen Pfad zurückgesetzt, wenn dieser wieder ver-fügbar ist. Die MRU-Richtlinie beinhaltet keine Einstellung für den bevor-zugten Pfad. MRU ist die Standardrichtlinie für die meisten Aktiv/Passiv-Speichergeräte.

Aufgrund der Möglichkeit des VMW_PSP_MRU zur Einstufung können Sieeinzelnen Pfaden Ränge zuweisen. Um den Rang einzelner Pfade festzule-gen, verwenden Sie den Befehl esxcli storage nmp psp generic pathconfigset. Einzelheiten dazu finden Sie im VMware-Knowledgebase-Artikel unter http://kb.vmware.com/kb/2003468.

vSphere-Speicher

246 VMware, Inc.

Die Richtlinie wird im Client als Pfadauswahlrichtlinie „Zuletzt verwendet(VMware)“ angezeigt.

VMW_PSP_FIXED Der Host verwendet den festgelegten bevorzugten Pfad, falls dieser konfigu-riert wurde. Anderenfalls wird der erste funktionierende Pfad ausgewählt,der beim Systemstart ermittelt wird. Wenn Sie möchten, dass der Host einenbestimmten bevorzugten Pfad verwendet, geben Sie diesen manuell an. DieStandardrichtlinie für die meisten Aktiv/Aktiv-Speichergeräte ist „Fest“.

Hinweis Wenn der Host einen bevorzugten Standardpfad verwendet undsich der Status des Pfads in „Ausgefallen“ ändert, wird ein neuer Pfad als be-vorzugt ausgewählt. Wenn Sie den bevorzugten Pfad allerdings explizit aus-wählen, bleibt er auch dann bevorzugt, wenn auf ihn nicht zugegriffen wer-den kann.

Wird im Client als Pfadauswahlrichtlinie „Fest (VMware)“ angezeigt.

VMW_PSP_RR Der Host verwendet einen automatischen Pfadauswahlalgorithmus, bei dembeim Verbinden mit Aktiv/Passiv-Arrays eine Rotation unter Berücksichti-gung aller aktiven Pfade bzw. aller verfügbaren Pfade stattfindet. „RR“ istder Standardwert für mehrere Arrays. Dieser Wert kann mit Aktiv/Aktiv-und Aktiv/Passiv-Arrays verwendet werden, um den Lastausgleich zwischenPfaden für verschiedene LUNs zu implementieren.

Wird im Client als Pfadauswahlrichtlinie „Round Robin (VMware)“ ange-zeigt.

NMP-E/A-Ablauf von VMwareWenn eine virtuelle Maschine eine E/A-Anforderung an ein vom NMP verwaltetes Speichergerät ausgibt,läuft der folgende Prozess ab.

1 Das NMP ruft das PSP auf, das diesem Speichergerät zugewiesen ist.

2 Das PSP wählt einen entsprechenden physischen Pfad für die zu sendende E/A.

3 Das NMP gibt die E/A-Anforderung auf dem vom PSP gewählten Pfad aus.

4 Wenn der E/A-Vorgang erfolgreich ist, meldet das NMP dessen Abschluss.

5 Wenn der E/A-Vorgang einen Fehler meldet, ruft das NMP das entsprechende SATP auf.

6 Das SATP interpretiert die E/A-Fehlercodes und aktiviert ggf. die inaktiven Pfade.

7 Das PSP wird aufgerufen, um einen neuen Pfad für das Senden der E/A zu wählen.

Prüfen und Beanspruchen von PfadenWenn Sie Ihren ESXi-Host starten oder Ihren Speicheradapter erneut prüfen, ermittelt der Host alle physi-schen Pfade zu Speichergeräten, die für den Host verfügbar sind. Der Host ermittelt auf Basis mehrerer Be-anspruchungsregeln, welche Multipathing-Plug-Ins (MPP) die Pfade zu einem bestimmten Gerät beanspru-chen sollten und somit für das Verwalten der Unterstützung von Multipathing für das Gerät verantwortlichsind.

Standardmäßig führt der Host alle 5 Minuten eine periodische Pfadauswertung durch, wodurch alle freienPfade durch das entsprechende MPP beansprucht werden.

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 247

Die Beanspruchungsregeln sind nummeriert. Für jeden physischen Pfad arbeitet der Host die Beanspru-chungsregeln ab und beginnt dabei mit der niedrigsten Nummer. Die Attribute des physischen Pfads wer-den mit der Pfadspezifikation in der Beanspruchungsregel verglichen. Wenn eine Übereinstimmung gefun-den wird, weist der Host das in der Beanspruchungsregel angegebene MPP zum Verwalten des physischenPfads zu. Dies wird so lange fortgesetzt, bis alle physischen Pfade durch entsprechende MPPs beanspruchtwerden. Hierbei kann es sich um Drittanbieter-Multipathing-Plug-Ins oder das native Multipathing-Plug-In(NMP) handeln.

Für die durch das NMP-Modul verwalteten Pfade wird ein zweiter Satz von Beanspruchungsregeln angew-endet. Diese Regeln legen fest, welches Speicher-Array-Typ-Plug-In (SATP) zum Verwalten der Pfade für ei-nen bestimmten Array-Typ und welches Pfadauswahl-Plug-In (PSP) für die einzelnen Speichergeräte ver-wendet werden sollen.

Verwenden Sie den vSphere Web Client, um anzuzeigen, welches SATP und PSP der Host für ein bestimm-tes Speichergerät verwendet und welchen Status alle verfügbaren Pfade für dieses Speichergerät besitzen.Bei Bedarf können Sie das Standard-PSP von VMware mithilfe des Clients ändern. Zum Ändern des Stan-dard-SATPs müssen Sie die Beanspruchungsregeln unter Verwendung der vSphere-CLI ändern.

Informationen zum Ändern von Beanspruchungsregeln finden Sie unter „Verwalten von Speicherpfadenund Multipathing-Plug-Ins“, auf Seite 251.

Weitere Informationen zu den verfügbaren Befehlen zum Verwalten von PSA finden Sie unter Erste Schrittemit vSphere-Befehlszeilenschnittstellen.

Eine vollständige Liste der Speicher-Arrays und der entsprechenden SATPs und PSPs finden Sie in derSAN-Array-Modellreferenz von vSphere Compatibility Guide.

Anzeigen der PfadinformationenSie können die Speicher-Array-Typ-Richtlinie (SATP) und die Pfadauswahlrichtlinie (PSP), die der ESXi-Host für ein spezifisches Gerät verwendet, sowie den Status aller verfügbaren Pfade für dieses Speichergerätüberprüfen. Sie können aus den Ansichten „ Datenspeicher“ und „Geräte“ auf die Pfadinformationen zu-greifen. Für Datenspeicher überprüfen Sie die Pfade, die eine Verbindung zu dem Gerät herstellen, auf demder Datenspeicher bereitgestellt wird.

Zu den Pfadinformationen gehören das zum Verwalten des Geräts zugewiesene SATP, eine Liste von Pfadenund der Status jedes einzelnen Pfads. Es können die folgenden Informationen zum Pfadstatus angezeigtwerden:

Aktiv Pfade, die zum Senden von E/A an eine LUN verfügbar sind. Ein einzelneroder mehrere Arbeitspfade, die derzeit zur Übertragung von Daten verwen-det werden, sind als „Aktiv (E/A)“ markiert.

Standby Falls aktive Pfade ausfallen, kann der Pfad schnell betriebsbereit sein und fürE/A verwendet werden.

Deaktiviert Der Pfad wurde deaktiviert, sodass keine Daten übertragen werden können.

Ausgefallen Die Software kann über diesen Pfad keine Verbindung mit der Festplatte her-stellen.

Wenn Sie die Pfadrichtlinie Fest verwenden, können Sie erkennen, welcher Pfad der bevorzugte Pfad ist.Der bevorzugte Pfad ist mit einem Sternchen (*) in der bevorzugten Spalte gekennzeichnet.

Für jeden Pfad können Sie auch dessen Namen anzeigen. Der Name enthält Parameter, die den Pfad be-schreiben: Adapter-ID, Ziel-ID und Geräte-ID. In der Regel hat der Pfadname in etwa folgendes Format:

fc.adapterID-fc.targetID-naa.deviceID

Hinweis Wenn Sie den Hostprofileditor zum Bearbeiten von Pfaden verwenden, müssen Sie alle drei füreinen Pfad erforderlichen Parameter angeben: Adapter-ID, Ziel-ID und Geräte-ID.

vSphere-Speicher

248 VMware, Inc.

Anzeigen von Datenspeicherpfaden im vSphere Web ClientÜberprüfen Sie die Pfade, die eine Verbindung zu Speichergeräten herstellen, auf denen Ihre Datenspeichergesichert werden.

Voraussetzungen

Navigieren Sie zu „Datenspeicher“ im Objektnavigator von vSphere Web Client. Siehe „Anzeigen von Da-tenspeicherinformationen im vSphere Web Client“, auf Seite 23.

Vorgehensweise

1 Wählen Sie den Datenspeicher aus.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie auf Konnektivität und Mehrfachpfad.

4 Wenn der Datenspeicher gemeinsam genutzt wird, wählen Sie einen Host aus, um die Mehrfachpfad-Details der zugehörigen Geräte anzuzeigen.

5 Überprüfen Sie unter Mehrfachpfad-Details die Multipathing-Richtlinien und Pfade für das Speicherge-rät, auf dem Ihr Datenspeicher gesichert wird.

Anzeigen von Speichergerätepfaden im vSphere Web ClientZeigen Sie an, welche Mehrfachpfad-Richtlinien der Host für ein bestimmtes Speichergerät verwendet, undermitteln Sie den Status aller verfügbaren Pfade für dieses Speichergerät.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speichergeräte.

4 Wählen Sie das Speichergerät, dessen Pfade Sie ansehen möchten.

5 Klicken Sie auf die Registerkarte Eigenschaften und sehen Sie sich die Details unter „Mehrfachpfad-Richtlinien“ an.

6 Klicken Sie auf die Registerkarte Pfad, um alle für das Speichergerät verfügbaren Pfade anzuzeigen.

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 249

Festlegen einer Pfadauswahl-RichtlinieFür jedes Speichergerät legt der ESXi-Host die Pfadauswahlrichtlinie basierend auf den Beanspruchungsre-geln fest.

Standardmäßig unterstützt VMware die folgenden Pfadauswahlrichtlinien: Wenn Sie die PSP eines Drittan-bieters auf Ihrem Host installiert haben, wird die zugehörige Richtlinie ebenfalls in der Liste aufgeführt.

Fest (VMware) Der Host verwendet den festgelegten bevorzugten Pfad, falls dieser konfigu-riert wurde. Anderenfalls wird der erste funktionierende Pfad ausgewählt,der beim Systemstart ermittelt wird. Wenn Sie möchten, dass der Host einenbestimmten bevorzugten Pfad verwendet, geben Sie diesen manuell an. DieStandardrichtlinie für die meisten Aktiv/Aktiv-Speichergeräte ist „Fest“.

Hinweis Wenn der Host einen bevorzugten Standardpfad verwendet undsich der Status des Pfads in „Ausgefallen“ ändert, wird ein neuer Pfad als be-vorzugt ausgewählt. Wenn Sie den bevorzugten Pfad allerdings explizit aus-wählen, bleibt er auch dann bevorzugt, wenn auf ihn nicht zugegriffen wer-den kann.

Zuletzt verwendet(VMware)

Der Host wählt den Pfad aus, den er zuletzt verwendet hat. Ist der Pfad nichtmehr verfügbar, wählt der Host einen alternativen Pfad aus. Der Host wirdnicht auf den ursprünglichen Pfad zurückgesetzt, wenn dieser wieder ver-fügbar ist. Die MRU-Richtlinie beinhaltet keine Einstellung für den bevor-zugten Pfad. MRU ist die Standardrichtlinie für die meisten Aktiv/Passiv-Speichergeräte.

Round-Robin (VMware) Der Host verwendet einen automatischen Pfadauswahlalgorithmus, bei dembeim Verbinden mit Aktiv/Passiv-Arrays eine Rotation unter Berücksichti-gung aller aktiven Pfade bzw. aller verfügbaren Pfade stattfindet. „RR“ istder Standardwert für mehrere Arrays. Dieser Wert kann mit Aktiv/Aktiv-und Aktiv/Passiv-Arrays verwendet werden, um den Lastausgleich zwischenPfaden für verschiedene LUNs zu implementieren.

Ändern der Pfadauswahlrichtlinie im vSphere Web ClientIn der Regel müssen Sie die standardmäßigen Multipathing-Einstellungen, die Ihr Host für ein bestimmtesSpeichergerät verwendet, nicht ändern. Falls Sie jedoch Änderungen vornehmen möchten, können Sie imDialogfeld „Pfade verwalten“ eine Pfadauswahl-Richtlinie ändern und den bevorzugten Pfad für die Richtli-nie „Fest“ angeben.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speichergeräte.

4 Wählen Sie das Speichergerät aus, dessen Pfade Sie ändern möchten, und klicken Sie auf die Register-karte Eigenschaften.

5 Klicken Sie unter „Multipathing-Eigenschaften“ auf Bearbeiten.

vSphere-Speicher

250 VMware, Inc.

6 Wählen Sie eine Pfadauswahlrichtlinie aus.

Standardmäßig unterstützt VMware die folgenden Pfadauswahlrichtlinien: Wenn Sie die PSP einesDrittanbieters auf Ihrem Host installiert haben, wird die zugehörige Richtlinie ebenfalls in der Liste auf-geführt.

n Fest (VMware)

n Zuletzt verwendet (VMware)

n Round-Robin (VMware)

7 Legen Sie für die feste Richtlinie den bevorzugten Pfad fest.

8 Klicken Sie auf OK, um Ihre Einstellungen zu speichern und das Dialogfeld zu schließen.

Deaktivieren von Pfaden im vSphere Web ClientPfade können zu Wartungszwecken oder aus anderen Gründen vorübergehend deaktiviert werden.

Sie deaktivieren einen Pfad mithilfe des Bereichs „Pfade“. Es gibt mehrere Methoden, um auf den Bereich„Pfade“ zuzugreifen: über einen Datenspeicher, ein Speichergerät oder eine Adapteransicht. Diese Aufgabeerklärt, wie Sie einen Pfad mithilfe der Ansicht für ein Speichergerät deaktivieren.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicher.

3 Klicken Sie auf Speichergeräte.

4 Wählen Sie das Speichergerät aus, dessen Pfade Sie deaktivieren möchten, und klicken Sie auf die Re-gisterkarte Pfade.

5 Wählen Sie den Pfad aus, der deaktiviert werden soll, und klicken Sie auf Deaktivieren.

Verwalten von Speicherpfaden und Multipathing-Plug-InsVerwenden Sie die esxcli-Befehle, um die PSA-Multipathing-Plug-Ins und die ihnen zugewiesenen Spei-cherpfade zu verwalten.

Sie können alle auf Ihrem Host verfügbaren Multipathing-Plug-Ins anzeigen. Sie können alle Drittanbieter-MPPs sowie die NMP und SATPs Ihres Hosts auflisten und die Pfade überprüfen, die sie beanspruchen. Siekönnen ebenfalls neue Pfade festlegen und angeben, welches Multipathing-Plug-In die Pfade beansprucht.

Informationen zu weiteren Befehlen für die PSA-Verwaltung finden Sie unter Erste Schritte mit vSphere-Be-fehlszeilenschnittstellen.

Überlegungen zu MultipathingBeim Verwalten von Speicher-Multipathing-Plug-Ins und -Beanspruchungsregeln muss Folgendes beachtetwerden.

Beachten Sie im Umgang mit Multipathing die folgenden Überlegungen:

n Wenn dem Gerät anhand der Beanspruchungsregeln kein SATP zugewiesen ist, lautet das Standard-SATP für iSCSI- oder FC-Geräte VMW_SATP_DEFAULT_AA. Das Standard-PSP lautet VMW_PSP_FI-XED.

n Wenn das System die SATP-Regeln zur Ermittlung eines SATP für ein angegebenes Gerät durchsucht,werden zuerst die Treiberregeln durchsucht. Ist die Suche dort nicht erfolgreich, werden die Hersteller-bzw. Modellregeln und anschließend die Übertragungsregeln durchsucht. Wird keine übereinstimmen-de Regel gefunden, wählt NMP ein Standard-SATP für das Gerät aus.

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 251

n Wenn VMW_SATP_ALUA einem bestimmten Speichergerät zugewiesen ist, dieses Gerät ALUA jedochnicht erkennt, gibt es für dieses Gerät keine Übereinstimmung der Beanspruchungsregeln. Das Gerätwird vom Standard-SATP gemäß dem Übertragungstyp des Geräts beansprucht.

n Das Standard-PSP für alle von VMW_SATP_ALUA beanspruchten Geräte lautet VMW_PSP_MRU. DasVMW_PSP_MRU wählt wie vom VMW_SATP_ALUA angegeben einen aktiven/optimierten Pfad odereinen aktiven/nicht optimierten Pfad aus, falls kein aktiver/optimierter Pfad vorhanden ist. Dieser Pfadwir so lange verwendet, bis ein besserer Pfad verfügbar ist (MRU). Wenn das VMW_PSP_MRU derzeiteinen aktiven/nicht optimierten Pfad verwendet und ein aktiver/optimierter Pfad verfügbar wird, wech-selt das VMW_PSP_MRU vom aktuellen Pfad zum aktiven/optimierten Pfad,

n Während VMW_PSP_MRU normalerweise standardmäßig für ALUA-Arrays gewählt wird, müssen ge-wisse ALUA-Speicher-Arrays VMW_PSP_FIXED verwenden. Informationen dazu, ob Ihr Speicher-Ar-ray VMW_PSP_FIXED benötigt, finden Sie im VMware-Kompatibilitätshandbuch oder wenden Sie sich anIhren Speicheranbieter. Wenn Sie VMW_PSP_FIXED mit ALUA-Arrays verwenden, wählt der ESXi-Host den optimalen Arbeitspfad aus und legt ihn als bevorzugten Standardpfad fest, es sei denn, Siegeben explizit einen bevorzugten Pfad an. Ist der vom Host ausgewählte Pfad nicht mehr verfügbar,wählt der Host einen alternativen verfügbaren Pfad aus. Wenn Sie den bevorzugten Pfad allerdings ex-plizit auswählen, bleibt er ungeachtet dessen Status der bevorzugte Pfad.

n Die PSA-Beanspruchungsregel 101 maskiert standardmäßig Pseudo-Array-Geräte von Dell. Löschen Siediese Regel nur, wenn die Maskierung dieser Geräte aufgehoben werden soll.

Auflisten von Multipathing-Beanspruchungsregeln für den HostVerwenden Sie den esxcli-Befehl, um die verfügbaren Multipathing-Beanspruchungsregeln aufzulisten.

Beanspruchungsregeln geben an, welches Multipathing-Plug-In, NMP oder Drittanbieter-MPP einen vor-handenen physischen Pfad verwaltet. Jede Beanspruchungsregel gibt einen Satz an Pfaden basierend auf fol-genden Parametern an:

n Hersteller-/Modellzeichenfolgen

n Übertragung wie zum beispiel SATA, IDE, Fibre-Channel usw.

n Adapter, Ziel- oder LUN-Speicherort

n Gerätetreiber, zum Beispiel Mega-RAID

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den Befehlesxcli --server=Servername storage core claimrule list --claimrule-class=MP aus, um die Multi-pathing-Beanspruchungsregeln aufzulisten.

Beispiel: Beispielausgabe des Befehls „esxcli storage core claimrule list“Rule Class Rule Class Type Plugin Matches

MP 0 runtime transport NMP transport=usb

MP 1 runtime transport NMP transport=sata

MP 2 runtime transport NMP transport=ide

vSphere-Speicher

252 VMware, Inc.

MP 3 runtime transport NMP transport=block

MP 4 runtime transport NMP transport=unknown

MP 101 runtime vendor MASK_PATH vendor=DELL model=Universal Xport

MP 101 file vendor MASK_PATH vendor=DELL model=Universal Xport

MP 200 runtime vendor MPP_1 vendor=NewVend model=*

MP 200 file vendor MPP_1 vendor=NewVend model=*

MP 201 runtime location MPP_2 adapter=vmhba41 channel=* target=* lun=*

MP 201 file location MPP_2 adapter=vmhba41 channel=* target=* lun=*

MP 202 runtime driver MPP_3 driver=megaraid

MP 202 file driver MPP_3 driver=megaraid

MP 65535 runtime vendor NMP vendor=* model=*

Dieses Beispiel zeigt Folgendes an:

n Das NMP beansprucht alle mit den Speichergeräten verbundenen Pfade, die USB-, SATA-, IDE- undBlock SCSI-Übertragung verwenden.

n Sie können mit dem Modul MASK_PATH nicht genutzte Geräte vor dem Host verbergen. Standardmä-ßig maskiert die PSA-Beanspruchungsregel 101 Dell-Array-Pseudogeräte mit der Anbieterzeichenfolge„DELL“ und der Modellzeichenfolge „Universal Xport“.

n Das MPP_1-Modul beansprucht alle mit einem beliebigen Modell des NewVend-Speicher-Arrays ver-bundenen Pfade.

n Das MPP_3-Modul beansprucht die Pfade zu Speichergeräten, die vom Mega-RAID-Gerätetreiber ge-steuert werden.

n Alle nicht in den vorherigen Regeln beschriebenen Pfade werden von NMP beansprucht.

n Die Spalte „Rule Class“ der Ausgabe beschreibt die Kategorie einer Beanspruchungsregel. Sie kann MP(Multipathing-Plug-In), Filter oder VAAI sein.

n Die Class-Spalte zeigt, welche Regeln definiert und welche geladen sind. Der Parameter file in derClass-Spalte gibt an, dass die Regel definiert ist. Der Parameter runtime gibt an, dass die Regel in IhrSystem geladen wurde. Damit eine benutzerdefinierte Regel aktiv wird, müssen zwei Zeilen in der sel-ben Regelnummer enthalten sein. Eine Zeile für die Regel mit dem Parameter file und eine Zeile mitruntime. Einige Regeln mit niedrigen Nummern verfügen lediglich über eine Zeile mit der Class-Spalteruntime. Dies sind vom System festgelegte Beanspruchungsregeln, die nicht geändert werden können.

Anzeigen von Multipathing-ModulenVerwenden Sie den esxcli-Befehl, um alle im System geladenen Mutipathing-Module aufzulisten. Multipa-thing-Module verwalten physische Pfade, die Ihren Host mit Speicher verbinden.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den folgenden Befehl aus, um die Mutipathing-Module aufzulisten:

esxcli --server=Servername storage core plugin list --plugin-class=MP

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 253

Mit diesem Befehl wird in der Regel das NMP und, falls geladen, das Attribut „MASK_PATH“ angezeigt.Wenn Drittanbieter-MPPs geladen wurden, werden diese ebenfalls aufgelistet.

Anzeigen von SATPs für den HostVerwenden Sie den esxcli-Befehl, um in das System geladene VMware NMP SATPs aufzulisten. Zeigen SieInformationen über die SATPs an.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den folgenden Befehl aus, um VMware SATPs aufzulisten:

esxcli --server=Servername storage nmp satp list

Für jedes SATP zeigt die Ausgabe Informationen zum Typ des Speicher-Arrays oder Systems, das diesesSATP unterstützt, sowie zum Standard-PSP für alle LUNs an, die dieses SATP verwenden. Platzhalter(Plug-In nicht geladen) gibt in der Spalte „Beschreibung“ an, dass das SATP nicht geladen ist.

Anzeigen von NMP-SpeichergerätenVerwenden Sie den esxcli-Befehl, um alle von VMware NMP gesteuerten Speichergeräte aufzulisten undmit diesen Geräten verbundene SATP- und PSP-Informationen anzuzeigen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den folgenden Befehl aus, um alle Speichergeräte aufzulisten:

esxcli --server=Servername storage nmp device list

Verwenden Sie die Option --device | -d=Geräte-ID, um die Ausgabe dieses Befehls zu filtern, so dassein einzelnes Gerät angezeigt wird.

vSphere-Speicher

254 VMware, Inc.

Hinzufügen von Multipathing-BeanspruchungsregelnVerwenden Sie die esxcli-Befehle, um eine neue Multipathing-PSA-Beanspruchungsregel zum Satz an Be-anspruchungsregeln im System hinzuzufügen. Zur Aktivierung der neuen Beanspruchungsregeln müssenSie diese zunächst definieren und in Ihr System laden.

Sie fügen eine neue PSA-Beanspruchungsregel beispielsweise hinzu, wenn Sie ein neues MPP (Multipa-thing-Plug-In) laden und festlegen müssen, welche Pfade dieses Modul beanspruchen soll. Möglicherweisemüssen Sie eine Beanspruchungsregel erstellen, wenn Sie neue Pfade hinzufügen, die von einem vorhande-nen MPP beansprucht werden sollen.

Vorsicht Vermeiden Sie beim Erstellen von neuen Beanspruchungsregeln Situationen, in denen verschie-dene physische Pfade zu derselben LUN von verschiedenen MPPs beansprucht werden. Wenn es sich beieinem MPP nicht um MASK_PATH MPP handelt, ruft diese Konfiguration Leistungsprobleme hervor.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Führen Sie zum Definieren einer neuen Beanspruchungsregel den folgenden Befehl aus:

esxcli --server=Servername storage core claimrule add

Der Befehl verfügt über die folgenden Optionen:

Option Beschreibung

-A|--adapter=<str> Gibt den Adapter der Pfade an, der für diesen Vorgang verwendet werdensoll.

-u|--autoassign Das System weist automatisch eine Regel-ID zu.

-C|--channel=<long> Gibt den Kanal der Pfade an, der für diesen Vorgang verwendet werdensoll.

-c|--claimrule-class=<str> Gibt die Beanspruchungsregel-Klasse an, die für diesen Vorgang verwen-det werden soll.Gültige Werte sind: MP, Filter, VAAI.

-d|--device=<str> Gibt die Geräte-UID an, die für diesen Vorgang verwendet werden soll.

-D|--driver=<str> Gibt den Treiber der Pfade an, der für diesen Vorgang verwendet werdensoll.

-f|--force Erzwingt, dass Beanspruchungsregeln Gültigkeitsprüfungen ignorierenund die Regel in jedem Fall installieren.

--if-unset=<str> Führen Sie diesen Befehl aus, falls diese erweiterte Benutzervariable nichtauf 1 festgelegt ist.

-i|--iqn=<str> Gibt den iSCSI-qualifizierten Namen für das Ziel an, der in diesem Vor-gang verwendet werden soll.

-L|--lun=<long> Gibt die LUN der Pfade an, die für diesen Vorgang verwendet werden soll.

-M|--model=<str> Gibt das Modell der Pfade an, das für diesen Vorgang verwendet werdensoll.

-P|--plugin=<str> Gibt an, welches PSA-Plug-In für diesen Vorgang verwendet werden soll.(Erforderlich)

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 255

Option Beschreibung

-r|--rule=<long> Gibt die Regel-ID an, die für diesen Vorgang verwendet werden soll.

-T|--target=<long> Gibt das Ziel der Pfade an, das für diesen Vorgang verwendet werden soll.

-R|--transport=<str> Gibt den Transport der Pfade an, der für diesen Vorgang verwendet wer-den soll.Gültige Werte sind: block, fc, iscsi, iscsivendor, ide, sas, sata, usb, parallel,unknown.

-t|--type=<str> Gibt an, welcher Abgleichstyp für „claim/unclaim“ oder „claimrule“ ver-wendet wird.Gültige Werte sind: vendor, location, driver, transport, device, target. (Er-forderlich)

-V|--vendor=<str> Gibt den Hersteller der Pfade an, der für diesen Vorgang verwendet wer-den soll.

--wwnn=<str> Gibt die World Wide Node Number (WWNN) für das Ziel an, die in die-sem Vorgang verwendet werden soll.

--wwpn=<str> Gibt die World Wide Port Number für das Ziel an, die in diesem Vorgangverwendet werden soll.

2 Führen Sie zum Laden der neuen Beanspruchungsregel in Ihr System den folgenden Befehl aus:

esxcli --server=Servername storage core claimrule load

Dieser Befehl lädt alle neu erstellten Multipathing-Beanspruchungsregeln aus der KonfigurationsdateiIhres Systems.

Beispiel: Definieren von Multipathing-BeanspruchungsregelnIm folgenden Beispiel fügen Sie Regel Nr. 500 hinzu und laden diese, um alle Pfade mit der NewMod-Mo-dellzeichenfolge und der NewVend-Anbieterzeichenfolge für das NMP-Plug-In zu beanspruchen.

# esxcli --server=Servername storage core claimrule add -r 500 -t vendor -V NewVend -M NewMod -P

NMP

# esxcli --server=Servername storage core claimrule load

Nachdem Sie den Befehl esxcli --server=Servername storage core claimrule list ausgeführt haben, er-scheint die neue Beanspruchungsregel in der Liste.

Hinweis Die beiden Zeilen für die Beanspruchungsregel mit der Klasse runtime und der Klasse file gebenan, dass die neue Beanspruchungsregel in das System geladen wurde und aktiv ist.

Rule Class Rule Class Type Plugin Matches

MP 0 runtime transport NMP transport=usb

MP 1 runtime transport NMP transport=sata

MP 2 runtime transport NMP transport=ide

MP 3 runtime transport NMP transport=block

MP 4 runtime transport NMP transport=unknown

MP 101 runtime vendor MASK_PATH vendor=DELL model=Universal Xport

MP 101 file vendor MASK_PATH vendor=DELL model=Universal Xport

MP 500 runtime vendor NMP vendor=NewVend model=NewMod

MP 500 file vendor NMP vendor=NewVend model=NewMod

vSphere-Speicher

256 VMware, Inc.

Löschen von Multipathing-BeanspruchungsregelnMithilfe des esxcli-Befehls können Sie eine Multipathing-PSA-Beanspruchungsregel aus dem Beanspru-chungsregelsatz auf dem System entfernen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Führen Sie zum Löschen einer Beanspruchungsregel aus dem Satz von Beanspruchungsregeln den fol-genden Befehl aus.

esxcli --server=Servername storage core claimrule remove

Hinweis Die PSA-Beanspruchungsregel 101 maskiert standardmäßig Pseudo-Array-Geräte von Dell.Löschen Sie diese Regel nur, wenn die Maskierung dieser Geräte aufgehoben werden soll.

Der Befehl verfügt über die folgenden Optionen:

Option Beschreibung

-c|--claimrule-class=<str> Gibt die Beanspruchungsregel-Klasse an, die für diesen Vorgang verwen-det werden soll (MP, Filter, VAAI).

-P|--plugin=<str> Gibt das Plug-In an, das für diesen Vorgang verwendet werden soll.

-r|--rule=<long> Gibt die Regel-ID an, die für diesen Vorgang verwendet werden soll. Mit diesem Schritt wird die Beanspruchungsregel aus der Klasse „File“ entfernt.

2 Löschen Sie die Beanspruchungsregel aus dem System.

esxcli --server=Servername storage core claimrule load

Mit diesem Schritt wird die Beanspruchungsregel aus der Klasse „Runtime“ entfernt.

Maskieren von PfadenSie können verhindern, dass der Host auf Speichergeräte oder LUNs zugreift oder einzelne Pfade zu einerLUN verwendet. Verwenden Sie die esxcli-Befehle, um die Pfade zu maskieren. Beim Maskieren von Pfa-den können Sie Beanspruchungsregeln erstellen, die das MASK_PATH-Plug-In bestimmten Pfaden zuord-nen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 257

Vorgehensweise

1 Prüfen Sie, welche die nächste verfügbare Regel-ID ist:

esxcli --server=Servername storage core claimrule list

Die zur Maskierung von Pfaden verwendeten Beanspruchungsregeln sollten über Regel-IDs im Bereich101-200 verfügen. Wenn der Befehl zeigt, dass die Regeln 101 und 102 bereits vorhanden sind, könnenSie festlegen, dass der Regel die Nummer 103 hinzugefügt wird.

2 Weisen Sie das MASK_PATH-Plug-In einem Pfad zu, indem Sie eine neue Beanspruchungsregel für dasPlug-In erstellen.

esxcli --server=Servername storage core claimrule add -P MASK_PATH

3 Laden Sie die MASK_PATH-Beanspruchungsregel in Ihr System.

esxcli --server=Servername storage core claimrule load

4 Prüfen Sie, ob die MASK_PATH-Beanspruchungsregel ordnungsgemäß hinzugefügt wurde.

esxcli --server=Servername storage core claimrule list

5 Falls für den maskierten Pfad eine Beanspruchungsregel vorhanden ist, entfernen Sie die Regel.

esxcli --server=Servername storage core claiming unclaim

6 Führen Sie die Pfadbeanspruchungsregeln aus.

esxcli --server=Servername storage core claimrule run

Nach dem Zuweisen des MASK_PATH-Plug-Ins zu einem Pfad verliert der Pfadstatus an Bedeutung undwird nicht länger vom Host verwaltet. Befehle, die Informationen zum maskierten Pfad bereitstellen, zeigenden Pfadstatus als nicht verfügbar (dead) an.

Beispiel: Maskieren einer LUNIm vorliegenden Beispiel wird die LUN 20 auf den Zielen T1 und T2 maskiert, auf die über die Speicher-adapter vmhba2 und vmhba3 zugegriffen wird.

1 #esxcli --server=server_name storage core claimrule list

2 #esxcli --server=server_name storage core claimrule add -P MASK_PATH -r 109 -t location -A

vmhba2 -C 0 -T 1 -L 20

#esxcli --server=server_name storage core claimrule add -P MASK_PATH -r 110 -t location -A

vmhba3 -C 0 -T 1 -L 20

#esxcli --server=server_name storage core claimrule add -P MASK_PATH -r 111 -t location -A

vmhba2 -C 0 -T 2 -L 20

#esxcli --server=server_name storage core claimrule add -P MASK_PATH -r 112 -t location -A

vmhba3 -C 0 -T 2 -L 20

3 #esxcli --server=server_name storage core claimrule load

4 #esxcli --server=server_name storage core claimrule list

5 #esxcli --server=server_name storage core claiming unclaim -t location -A vmhba2

#esxcli --server=server_name storage core claiming unclaim -t location -A vmhba3

6 #esxcli --server=server_name storage core claimrule run

vSphere-Speicher

258 VMware, Inc.

Aufheben der Maskierung von PfadenFalls es erforderlich ist, dass der Host Zugriff auf das maskierte Speichergerät erhält, müssen Sie die Mas-kierung der Pfade zu diesem Gerät aufheben.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Löschen Sie die Beanspruchungsregel „MASK_PATH“.

esxcli --server=Servername storage core claimrule remove -r rule#

2 Stellen Sie sicher, dass die Beanspruchungsregel ordnungsgemäß gelöscht wurde.

esxcli --server=Servername storage core claimrule list

3 Laden Sie die Pfadbeanspruchungsregeln aus der Konfigurationsdatei neu in den VMkernel.

esxcli --server=Servername storage core claimrule load

4 Führen Sie den Befehl esxcli --server=Servername storage core claiming unclaim für jeden Pfad aufdas maskierte Speichergerät aus.

Beispiel:

esxcli --server=Servername storage core claiming unclaim -t location -A vmhba0 -C 0 -T 0 -L

149

5 Führen Sie die Pfadbeanspruchungsregeln aus.

esxcli --server=Servername storage core claimrule run

Ihr Host hat jetzt Zugriff auf das zuvor maskierte Speichergerät.

Definieren von NMP SATP-RegelnDie NMP SATP-Beanspruchungsregeln geben an, welches SATP ein bestimmtes Speichergerät verwaltensoll. Normalerweise ist es nicht erforderlich, NMP SATP-Regeln zu ändern. Falls doch, verwenden Sie dieesxcli-Befehle, um eine Regel zu der Liste der Beanspruchungsregeln für das angegebene SATP hinzuzufü-gen.

Beim Installieren eines Drittanbieter-SATP für eine bestimmtes Speicher-Array müssen Sie unter Umständeneine SATP-Regel erstellen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Kapitel 23 Grundlegendes zu Multipathing und Failover

VMware, Inc. 259

Vorgehensweise

1 Führen Sie zum Hinzufügen einer Beanspruchungsregel für ein bestimmtes SATP den Befehlesxcli --server=Servername storage nmp satp rule add aus. Der Befehl verfügt über die folgendenOptionen.

Option Beschreibung

-b|--boot Dies ist eine Standard-Systemregel, die zur Startzeit hinzugefügt wird. Än-dern Sie die Datei „esx.conf“ nicht und fügen Sie sie nicht zum Hostprofilhinzu.

-c|--claim-option=Zeichenfolge Legt die Zeichenfolge der Beanspruchungsoption beim Hinzufügen einerSATP-Beanspruchungsregel fest.

-e|--description=Zeichenfolge Legt die Beschreibung der Beanspruchungsregel beim Hinzufügen einerSATP-Beanspruchungsregel fest.

-d|--device=Zeichenfolge Legt das Gerät beim Hinzufügen von SATP-Beanspruchungsregeln fest.Geräteregeln und Anbieter/Modell- sowie Treiberregeln schließen sich ge-genseitig aus.

-D|--driver=Zeichenfolge Legt die Treiberzeichenfolge beim Hinzufügen einer SATP-Beanspru-chungsregel fest. Treiberregeln und Anbieter/Modell-Regeln schließen sichgegenseitig aus.

-f|--force Erzwingt, dass Beanspruchungsregeln Gültigkeitsprüfungen ignorierenund die Regel in jedem Fall installieren.

-h|--help Zeigt die Hilfemeldung an.

-M|--model=Zeichenfolge Legt die Modellzeichenfolge beim Hinzufügen einer SATP-Beanspru-chungsregel fest. Anbieter/Modell-Regeln und Treiberregeln schließen sichgegenseitig aus.

-o|--option=Zeichenfolge Legt die Optionszeichenfolge beim Hinzufügen einer SATP-Beanspru-chungsregel fest.

-P|--psp=Zeichenfolge Legt das Standard-PSP für die SATP-Beanspruchungsregel fest.

-O|--psp-option=Zeichenfolge Legt die PSP-Optionen für die SATP-Beanspruchungsregel fest.

-s|--satp=Zeichenfolge Das SATP, für das eine neue Regel hinzugefügt wird.

-R|--transport=Zeichenfolge Legt die Zeichenfolge für den Beanspruchungs-Transporttyp beim Hinzu-fügen einer SATP-Beanspruchungsregel fest.

-t|--type=Zeichenfolge Legt den Beanspruchungstyp beim Hinzufügen einer SATP-Beanspru-chungsregel fest.

-V|--vendor=Zeichenfolge Legt die Herstellerzeichenfolge beim Hinzufügen von SATP-Beanspru-chungsregeln fest. Anbieter/Modell-Regeln und Treiberregeln schließensich gegenseitig aus.

Hinweis Beim Durchsuchen der SATP-Regeln zur Ermittlung eines SATP für ein vorhandenes Gerätwerden zunächst die Treiberregeln vom NMP durchsucht. Ist die Suche dort nicht erfolgreich, werdendie Hersteller- bzw. Modellregeln und anschließend die Übertragungsregeln durchsucht. Werden im-mer noch keine Ergebnisse angezeigt, wählt NMP ein Standard-SATP für das Gerät aus.

2 Starten Sie Ihren Host neu.

Beispiel: Definieren einer NMP SATP-RegelDer folgende Beispielbefehl ordnet das VMW_SATP_INV-Plug-In zu, um Speicher-Arrays mit der Herstel-lerzeichenfolge NewVend und der Modellzeichenfolge NewMod zu verwalten.

# esxcli --server=server_name storage nmp satp rule add -V NewVend -M NewMod -s VMW_SATP_INV

Wenn Sie den Befehl esxcli --server=Servername storage nmp satp list -s VMW_SATP_INV ausführen,können Sie die neue Regel sehen, die zur Liste der VMW_SATP_INV-Regeln hinzugefügt wurde.

vSphere-Speicher

260 VMware, Inc.

Speicherhardware-Beschleunigung 24Die Hardwarebeschleunigungsfunktion ermöglicht dem ESXi-Host die Integration mit konformen Speicher-Arrays und die Auslagerung bestimmter VM- und Speicherverwaltungsvorgänge in Speicherhardware. Mitder Speicherhardware-Unterstützung führt Ihr Host diese Vorgänge schneller aus und verbraucht wenigerCPU, Arbeitsspeicher und Speicher-Fabric-Bandbreite.

Die Hardwarebeschleunigung wird von Blockspeichergeräten, Fibre-Channel und iSCSI sowie NAS-Gerätenunterstützt.

Weitere Informationen finden Sie im VMware-Knowledgebase-Artikel unter http://kb.vmware.com/kb/1021976.

Dieses Kapitel behandelt die folgenden Themen:

n „Vorteile der Hardwarebeschleunigung“, auf Seite 261

n „Anforderungen der Hardwarebeschleunigung“, auf Seite 262

n „Status der Hardwarebeschleunigungs-Unterstützung“, auf Seite 262

n „Hardwarebeschleunigung für Blockspeichergeräte“, auf Seite 262

n „Hardwarebeschleunigung auf NAS-Geräten“, auf Seite 268

n „Überlegungen bei der Hardwarebeschleunigung“, auf Seite 270

Vorteile der HardwarebeschleunigungWenn die Hardwarebeschleunigungs-Funktion unterstützt wird, kann der Host Hardwareunterstützung er-halten und etliche Aufgaben schneller und effizienter ausführen:

Der Host kann Unterstützung bei den folgenden Aktivitäten erhalten:

n Migrieren von virtuellen Maschinen mit Storage vMotion

n Bereitstellen von virtuellen Maschinen anhand von Vorlagen

n Klonen virtueller Maschinen oder Vorlagen

n VMFS Clustered Locking und Metadatenvorgänge für Dateien virtueller Maschinen

n Schreibvorgänge auf virtuelle Festplatten der Formate „Schnell bereitgestellt“ und „Thick“

n Erstellen von fehlertoleranten virtuellen Maschinen

n Erstellen und Klonen von Thick-Festplatten auf NFS-Datenspeichern

VMware, Inc. 261

Anforderungen der HardwarebeschleunigungDie Hardwarebeschleunigungs-Funktion kann nur mit einer geeigneten Kombination aus Host und Spei-cher-Array verwendet werden.

Tabelle 24‑1. Speicheranforderungen der Hardwarebeschleunigung

ESXi Blockspeichergeräte NAS-Geräte

ESX/ESXi 4.1 Unterstützen Blockspeicher-Plug-Insfür die Array-Integration (VAAI)

Nicht unterstützt

ESXi version 5.x Unterstützen T10 SCSI Standard-oder Blockspeicher-Plug-Ins für dieArray-Integration (VAAI)

Unterstützen NAS-Plug-Ins für die Ar-ray-Integration

Hinweis Wenn Ihr SAN- oder NAS-Speicher-Fabric vor dem die Hardwarebeschleunigung unterstützen-den Speichersystem eine dazwischenliegende Appliance verwendet, muss die dazwischenliegende Appli-ance die Hardwarebeschleunigung ebenfalls unterstützen und ordnungsgemäß zertifiziert sein. Bei der da-zwischenliegenden Appliance kann es sich um eine Speichervirtualisierungs-Appliance, eine E/A-Beschleu-nigungs-Appliance, eine Verschlüsselungs-Appliance usw. handeln.

Status der Hardwarebeschleunigungs-UnterstützungDer vSphere Web Client zeigt den Status der Hardwarebeschleunigungs-Unterstützung für jedes Speicher-gerät und jeden Datenspeicher an.

Die Statuswerte lauten „Unbekannt“, „Unterstützt“ und „Nicht unterstützt“. Der Anfangswert ist „Unbe-kannt“.

Bei Blockgeräten ändert sich der Status in „Unterstützt“, wenn der Host den Auslagerungsvorgang erfolg-reich ausgeführt hat. Wenn der Auslagerungsvorgang fehlschlägt, ändert sich der Status in „Nicht unter-stützt“. Der Status bleibt „Unbekannt“, wenn das Gerät die Hardwarebeschleunigung nur teilweise unter-stützt.

Bei NAS ist der Status „Unterstützt“, wenn der Speicher mindestens einen Hardwareablagerungsvorgangdurchführen kann.

Wenn Speichergeräte die Hostvorgänge nicht oder nur teilweise unterstützen, kehrt der Host für die Aus-führung nicht unterstützter Vorgänge zu seinen nativen Methoden zurück.

Hardwarebeschleunigung für BlockspeichergeräteMithilfe der Hardwarebeschleunigung kann der Host mit Blockspeichergeräten, Fibre-Channel oder iSCSIintegriert werden und bestimmte Speicher-Array-Vorgänge verwenden.

Die ESXi-Hardwarebeschleunigung unterstützt die folgenden Array-Vorgänge:

n „Full Copy“ (wird auch als „Clone Blocks“ oder „Copy Offload“ bezeichnet). Ermöglicht den Speicher-Arrays, vollständige Kopien von Daten innerhalb des Arrays zu erstellen, ohne dass der Host die Datenlesen und schreiben muss. Dieser Vorgang reduziert die Zeit und die Netzwerkauslastung beim Klonenvon virtuellen Maschinen, beim Bereitstellen einer Vorlage oder beim Migrieren mit vMotion.

n „Block zeroing“ (wird auch als „write same“ bezeichnet). Ermöglicht den Speicher-Arrays, eine großeAnzahl von Blöcken mit Nullbyte zu füllen, um neu zugeteilten Speicher, der keine bereits geschriebe-nen Daten enthält, bereitzustellen. Dieser Vorgang reduziert die Zeit und die Netzwerkauslastung beimErstellen von virtuellen Maschinen und beim Formatieren von virtuellen Festplatten.

vSphere-Speicher

262 VMware, Inc.

n „Hardware assisted locking“ (wird auch als „atomic test and set [ATS]“ bezeichnet). Unterstützt das se-parate Sperren einer virtuellen Maschine, ohne SCSI-Reservierungen verwenden zu müssen. Diese Ope-ration erlaubt das Sperren von Festplatten auf Sektorbasis anstatt der gesamten LUN (wie bei der Ver-wendung von SCSI-Reservierungen).

Wenden Sie sich hinsichtlich der Unterstützung der Hardwarebeschleunigung an Ihren Anbieter. Für be-stimmte Speicher-Arrays ist es erforderlich, dass Sie die Unterstützung auf der Speicherseite aktivieren.

Auf Ihrem Host ist die Hardwarebeschleunigung standardmäßig aktiviert. Falls Ihr Speicher die Hardware-beschleunigung nicht unterstützt, können Sie sie deaktivieren.

Neben der Unterstützung der Hardwarebeschleunigung bietet ESXi auch Unterstützung für das Thin Provi-sioning. Weitere Informationen hierzu finden Sie unter „Array-Thin Provisioning und VMFS-Datenspei-cher“, auf Seite 278.

Deaktivieren der Hardwarebeschleunigung für Blockspeichergeräte imvSphere Web Client

Auf Ihrem Host ist die Hardwarebeschleunigung für Blockspeichergeräte standardmäßig aktiviert. Sie kön-nen die erweiterten Einstellungen des vSphere Web Client verwenden, um die Hardwarebeschleunigungs-vorgänge zu deaktivieren.

Wenden Sie sich, wie bei allen erweiterten Einstellungen, an den VMware-Support, bevor Sie die Hardware-beschleunigung deaktivieren.

Vorgehensweise

1 Navigieren Sie zum Host im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Einstellungen.

3 Klicken Sie unter „System“ auf Erweiterte Systemeinstellungen.

4 Ändern Sie den Wert für eine beliebige Option auf 0 (deaktiviert):

n VMFS3.HardwareAcceleratedLocking

n DataMover.HardwareAcceleratedMove

n DataMover.HardwareAcceleratedInit

Verwalten der Hardwarebeschleunigung auf BlockspeichergerätenUm eine Integration mit den Blockspeicher-Arrays zu ermöglichen und von den Array-Hardwarevorgängenzu profitieren, nutzt vSphere die ESXi-Erweiterungen, die als „Storage APIs - Array Integration“ bezeichnetwerden (früher VAAI).

In vSphere 5.x werden diese Erweiterungen als die T10 SCSI-basierten Befehle implementiert. Folglich kannder ESXi-Host direkt mit den Geräten, die den T10 SCSI-Standard unterstützen, kommunizieren, d. h., dieVAAI-Plug-Ins sind nicht erforderlich.

Wenn das Gerät T10 SCSI nicht oder nur teilweise unterstützt, kehrt ESXi zur Verwendung der auf demHost installierten VAAI-Plug-Ins zurück oder verwendet eine Kombination aus T10 SCSI-Befehlen undPlug-Ins. Die VAAI-Plug-Ins sind anbieterspezifisch und können entweder von VMware oder von Partnernentwickelt worden sein. Zum Verwalten des VAAI-fähigen Geräts hängt der Host den VAAI-Filter und dasanbieterspezifische VAAI-Plug-In an das Gerät an.

Informationen darüber, ob Ihr Speicher VAAI Plug-Ins benötigt oder die Hardwarebeschleunigung über T10SCSI-Befehle unterstützt, finden Sie im vSphere-Kompatibilitätshandbuch oder kontaktieren Sie Ihren Speicher-anbieter.

Kapitel 24 Speicherhardware-Beschleunigung

VMware, Inc. 263

Sie können mehrere esxcli-Befehle verwenden, um Speichergeräte nach den Informationen zur Unterstüt-zung der Hardwarebeschleunigung abzufragen. Geräten, die VAAI-Plug-Ins benötigen, stehen zudem dieBeanspruchungsregeln zur Verfügung. Weitere Informationen zu esxcli-Befehlen finden Sie unter ErsteSchritte mit vSphere-Befehlszeilenschnittstellen.

Anzeigen der Hardwarebeschleunigungs-Plug-Ins und desHardwarebeschleunigungsfiltersZur Kommunikation mit den Geräten, die die T10 SCSI-Norm nicht unterstützen, verwendet der Host eineKombination aus einem einzigen VAAI-Filter und einem herstellerspezifischen VAAI-Plug-In. VerwendenSie den Befehl esxcli, um den Hardwarebeschleunigungsfilter und die Plug-Ins anzuzeigen, die derzeit imSystem geladen sind.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den Befehl esxcli --server=Servername storage core plugin list --plugin-class=Wertaus.

Geben Sie für Wert eine der folgenden Optionen ein:

n Geben Sie VAAI ein, um die Plug-Ins anzuzeigen.

Die Ausgabe dieses Befehls lautet in etwa wie folgt:

#esxcli --server=server_name storage core plugin list --plugin-class=VAAI

Plugin name Plugin class

VMW_VAAIP_EQL VAAI

VMW_VAAIP_NETAPP VAAI

VMW_VAAIP_CX VAAI

n Geben Sie Filter ein, um den Filter anzuzeigen.

Die Ausgabe dieses Befehls lautet in etwa wie folgt:

esxcli --server=server_name storage core plugin list --plugin-class=Filter

Plugin name Plugin class

VAAI_FILTER Filter

Verifizieren des Status der Hardwarebeschleunigungs-UnterstützungVerwenden Sie den esxcli-Befehl, um den Hardwarebeschleunigungs-Unterstützungsstatus eines bestimm-ten Speichergeräts zu überprüfen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

vSphere-Speicher

264 VMware, Inc.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den Befehl esxcli --server=Servername storage core device list -d=Geräte-ID aus.

Die Ausgabe zeigt den Hardwarebeschleunigung- oder VAAI-Status an, der „Unbekannt“, „Unter-stützt“ oder „Nicht unterstützt“ lauten kann.

# esxcli --server=server_name storage core device list -d naa.XXXXXXXXXXXX4c

naa.XXXXXXXXXXXX4c

Display Name: XXXX Fibre Channel Disk(naa.XXXXXXXXXXXX4c)

Size: 20480

Device Type: Direct-Access

Multipath Plugin: NMP

XXXXXXXXXXXXXXXX

Attached Filters: VAAI_FILTER

VAAI Status: supported

XXXXXXXXXXXXXXXX

Verifizieren der Details der Hardwarebeschleunigungs-UnterstützungVerwenden Sie den Befehl esxcli, um die vom Blockspeichergerät unterstützte Hardwarebeschleunigung zuermitteln.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den Befehlesxcli --server=Servername storage core device vaai status get -d=Geräte-ID aus.

Wenn das Gerät von einem VAAI-Plug-In verwaltet wird, wird bei der Ausgabe der Name des Plug-Insangezeigt, der dem Gerät zugewiesen ist. Die Ausgabe zeigt zudem den Unterstützungsstatus für jedesT10 SCSI-basierte einfache Plug-In an, falls verfügbar. Dies ist ein Beispiel für eine Ausgabe:

# esxcli --server=server_name storage core device vaai status get -d naa.XXXXXXXXXXXX4c

naa.XXXXXXXXXXXX4c

VAAI Plugin Name: VMW_VAAIP_SYMM

ATS Status: supported

Clone Status: supported

Zero Status: supported

Delete Status: unsupported

Kapitel 24 Speicherhardware-Beschleunigung

VMware, Inc. 265

Auflisten der Hardwarebeschleunigungs-BeanspruchungsregelnJedes von einem VAAI Plug-In verwaltete Blockspeichergerät benötigt zwei Beanspruchungsregeln: Eine Re-gel, die den Hardwarebeschleunigungsfilter festlegt, und eine Regel, die das Hardwarebeschleunigungs-Plug-In für das Gerät festlegt. Sie können die Beanspruchungsregeln für den Hardwarebeschleunigungsfil-ter und das Hardwarebeschleunigungs-Plug-In mithilfe der esxcli-Befehle auflisten.

Vorgehensweise

1 Führen Sie zum Auflisten der Filterbeanspruchungsregeln den Befehlesxcli --server=Servername storage core claimrule list --claimrule-class=Filter aus.

In diesem Beispiel geben die Filter-Beanspruchungsregeln Geräte an, die durch den Filter VAAI_FIL-TER beansprucht werden sollten.

# esxcli --server=server_name storage core claimrule list --claimrule-class=Filter

Rule Class Rule Class Type Plugin Matches

Filter 65430 runtime vendor VAAI_FILTER vendor=EMC model=SYMMETRIX

Filter 65430 file vendor VAAI_FILTER vendor=EMC model=SYMMETRIX

Filter 65431 runtime vendor VAAI_FILTER vendor=DGC model=*

Filter 65431 file vendor VAAI_FILTER vendor=DGC model=*

2 Führen Sie zum Auflisten der VAAI-Plug-In-Beanspruchungsregeln den Befehlesxcli --server=Servername storage core claimrule list --claimrule-class=VAAI aus.

In diesem Beispiel geben die VAAI-Beanspruchungsregeln Geräte an, die durch ein bestimmtes VAAI-Plug-In beansprucht werden sollten.

esxcli --server=server_name storage core claimrule list --claimrule-class=VAAI

Rule Class Rule Class Type Plugin Matches

VAAI 65430 runtime vendor VMW_VAAIP_SYMM vendor=EMC model=SYMMETRIX

VAAI 65430 file vendor VMW_VAAIP_SYMM vendor=EMC model=SYMMETRIX

VAAI 65431 runtime vendor VMW_VAAIP_CX vendor=DGC model=*

VAAI 65431 file vendor VMW_VAAIP_CX vendor=DGC model=*

Hinzufügen von Hardwarebeschleunigungs-BeanspruchungsregelnUm die Hardwarebeschleunigung für ein neues Array zu konfigurieren, müssen Sie zwei Beanspruchungs-regeln hinzufügen, eine für den VAAI-Filter und eine weitere für das VAAI-Plug-In. Damit die neuen Bean-spruchungsregeln aktiv sind, definieren Sie zuerst die Regeln und laden Sie sie anschließend in Ihr System.

Dieses Verfahren ist für diejenigen Blockspeichergeräte geeignet, die keine T10-SCSI-Befehle unterstützenund stattdessen VAAI-Plug-Ins verwenden.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Definieren Sie eine neue Beanspruchungsregel für den VAAI-Filter, indem Sie den Befehlesxcli --server=Servername storage core claimrule add --claimrule-class=Filter --plu-

gin=VAAI_FILTER ausführen.

vSphere-Speicher

266 VMware, Inc.

2 Definieren Sie eine neue Beanspruchungsregel für das VAAI-Plug-In, indem Sie den Befehlesxcli --server=Servername storage core claimrule add --claimrule-class=VAAI ausführen.

3 Laden Sie beide Beanspruchungsregeln, indem Sie die folgenden Befehle ausführen:

esxcli --server=Servername storage core claimrule load --claimrule-class=Filter

esxcli --server=Servername storage core claimrule load --claimrule-class=VAAI

4 Führen Sie die VAAI-Filter-Beanspruchungsregel aus, indem Sie den Befehlesxcli --server=Servername storage core claimrule run --claimrule-class=Filter ausführen.

Hinweis Es müssen nur die Regeln der Klasse „Filter“ ausgeführt werden. Wenn der VAAI-Filter einGerät beansprucht, findet er automatisch das richtige VAAI-Plug-In, das angehängt werden muss.

Beispiel: Definieren von Hardwarebeschleunigungs-Beanspruchungsregeln

Dieses Beispiel zeigt, wie Sie die Hardwarebeschleunigung für IBM-Arrays mithilfe des Plug-Ins„VMW_VAAIP_T10“ konfigurieren. Verwenden Sie die folgende Befehlsfolge. Weitere Informationen zu denBefehlsoptionen finden Sie unter „Hinzufügen von Multipathing-Beanspruchungsregeln“, auf Seite 255.

# esxcli --server=Servername storage core claimrule add --claimrule-class=Filter --plu-

gin=VAAI_FILTER --type=vendor --vendor=IBM --autoassign

# esxcli --server=Servername storage core claimrule add --claimrule-class=VAAI --plu-

gin=VMW_VAAIP_T10 --type=vendor --vendor=IBM --autoassign

# esxcli --server=Servername storage core claimrule load --claimrule-class=Filter

# esxcli --server=Servername storage core claimrule load --claimrule-class=VAAI

# esxcli --server=Servername storage core claimrule run --claimrule-class=Filter

Löschen von Hardwarebeschleunigungs-BeanspruchungsregelnMithilfe des esxcli-Befehls können Sie vorhandene Hardwarebeschleunigungs-Beanspruchungsregeln lö-schen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie die folgenden Befehle aus:

esxcli --server=Servername storage core claimrule remove -r claimrule_ID --claimrule-

class=Filter

esxcli --server=Servername storage core claimrule remove -r claimrule_ID --claimrule-

class=VAAI

Kapitel 24 Speicherhardware-Beschleunigung

VMware, Inc. 267

Hardwarebeschleunigung auf NAS-GerätenMithilfe der Hardwarebeschleunigung kann der Host mit NAS-Geräten integriert werden und mehrere vomNAS-Speicher bereitgestellte Hardwarevorgänge nutzen.

In der folgenden Liste werden die unterstützten NAS-Vorgänge aufgeführt:

n Vollständiges Klonen von Dateien. Dieser Vorgang ähnelt dem VMFS-Blockklonen mit der Ausnahme,dass NAS-Geräte ganze Dateien anstatt Dateisegmente klonen.

n Speicherplatz reservieren. Mithilfe dieses Vorgangs können Speicher-Arrays Speicherplatz für die Dateieiner virtuellen Festplatte im Thick-Format zuteilen.

In der Regel legt der NAS-Server die Zuweisungsrichtlinie fest, wenn Sie eine virtuelle Festplatte aufeinem NFS-Datenspeicher erstellen. Die Standardzuweisungsrichtlinie auf den meisten NAS-Servern ist„Thin“ und garantiert keinen Backing-Speicher für die Datei. Allerdings kann der Vorgang „Speicher-platz reservieren“ das NAS-Gerät anweisen, anbieterspezifische Mechanismen zu verwenden, um Spei-cherplatz für eine virtuelle Festplatte zu reservieren. Als Folge davon können Sie auf dem NFS-Daten-speicher virtuelle Festplatten im Thick-Format erstellen.

n Lazy-Klonen von Dateien. Ermöglicht VMware View, das Erstellen verknüpfter Klone in ein NAS-Arrayauszulagern.

n Erweiterte Dateistatistik. Ermöglicht Speicher-Arrays, genau über die Speicherplatznutzung zu berich-ten.

Bei NAS-Speichergeräten wird die Integration der Hardwarebeschleunigung über anbieterspezifische NAS-Plug-Ins implementiert. Diese Plug-Ins werden in der Regel von den Anbietern erstellt und als VIB-Paketeüber eine Webseite vertrieben. Die NAS-Plug-Ins funktionieren ohne Beanspruchungsregeln.

Es gibt mehrere Tools zum Installieren und Aktualisieren von VIB-Paketen. Dazu gehören die esxcli-Befeh-le und vSphere Update Manager. Weitere Informationen finden Sie unter vSphere-Upgrade-Handbuch und In-stallieren und Verwalten von VMware vSphere Update Manager.

Installieren des NAS-Plug-InsInstallieren Sie vom Anbieter vertriebene Hardwarebeschleunigungs-NAS-Plug-Ins auf Ihrem Host.

Dieses Thema bietet ein Beispiel für eine VIB-Paketinstallation mithilfe des Befehls esxcli. Weitere Informa-tionen finden Sie unter vSphere-Upgrade-Handbuch.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Versetzen Sie den Host in den Wartungsmodus.

2 Legen Sie die Hostakzeptanzebene fest:

esxcli --server=Servername software acceptance set --level=Wert

Der Befehl legt fest, welches VIB-Paket auf dem Host zulässig ist. Wert kann sein:

n VMwareCertified

vSphere-Speicher

268 VMware, Inc.

n VMwareAccepted

n PartnerSupported

n CommunitySupported

3 Installieren Sie das VIB-Paket:

esxcli --server=Servername software vib install -v|--viburl=URL

URL gibt die URL des zu installierenden VIB-Pakets an. Die Protokolle http:, https:, ftp: und file: wer-den unterstützt.

4 Stellen Sie sicher, dass das Plug-In installiert ist:

esxcli --server=Servername software vib list

5 Starten Sie den Host neu, damit die Installation wirksam wird.

Deinstallieren von NAS-Plug-InsEntfernen Sie zum Deinstallieren eines NAS-Plug-Ins das VIB-Paket von Ihrem Host.

Dieses Thema behandelt das Deinstallieren eines VIB-Pakets unter Verwendung des esxcli-Befehls. WeitereInformationen finden Sie unter vSphere-Upgrade-Handbuch.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Deinstallieren Sie das Plug-In:

esxcli --server=Servername software vib remove -n|--vibname=Name

Name ist der Name des zu entfernenden VIB-Pakets.

2 Stellen Sie sicher, dass das Plug-In entfernt wird:

esxcli --server=Servername software vib list

3 Starten Sie den Host neu, damit die Änderung wirksam wird.

Update von NAS-Plug-InsAktualisieren Sie Hardwarebeschleunigungs-NAS-Plug-Ins auf Ihrem Host, wenn ein Speicheranbieter eineneue Plug-In-Version freigibt.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Dieses Thema behandelt das Durchführen von Updates eines VIB-Pakets unter Verwendung des esxcli-Be-fehls. Weitere Informationen finden Sie in der Dokumentation vSphere-Upgrade-Handbuch.

Kapitel 24 Speicherhardware-Beschleunigung

VMware, Inc. 269

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

1 Upgrade auf eine neue Plug-In-Version:

esxcli --server=Servername software vib update -v|--viburl=URL

URL gibt die URL des zu installierenden VIB-Pakets an. Die Protokolle http:, https:, ftp: und file: wer-den unterstützt.

2 Stellen Sie sicher, dass die korrekte Version installiert ist:

esxcli --server=Servername software vib list

3 Starten Sie den Host neu.

Verifizieren des Status der Hardwarebeschleunigung für NASZusätzlich zum Client können Sie unter Verwendung des esxcli-Befehls den Hardwarebeschleunigungs-Status des NAS-Geräts verifizieren.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den Befehl esxcli --server=Servername storage nfs list aus.

In der Spalte „Hardwarebeschleunigung“ der Ausgabe wird der Status angezeigt.

Überlegungen bei der HardwarebeschleunigungWenn Sie die Funktionalität der Hardwarebeschleunigung nutzen, muss Folgendes beachtet werden.

Es gibt mehrere mögliche Gründe für das Fehlschlagen eines hardwarebeschleunigten Vorgangs.

Für jedes Primitiv, das das Array nicht implementiert, gibt das Array einen Fehler zurück. Der Fehler sorgtdafür, dass der ESXi-Host versucht, den Vorgang unter Verwendung seiner nativen Methoden durchzufüh-ren.

Der VMFS Data Mover nutzt keine Hardware-Offloads. Stattdessen werden in den folgenden Fällen Soft-ware-Datenverschiebungen verwendet:

n Die Quell- und Ziel-VMFS-Datenspeicher haben unterschiedliche Blockgrößen.

n Der Typ der Quelldatei ist RDM und der Typ der Zieldatei ist Nicht-RDM (normale Datei).

n Der VMDK-Typ der Quelle ist „eagerzeroedthick“ und der VMDK-Typ des Ziels ist „thin“.

n Das Format der Quell- oder Ziel-VMDK ist „sparse“ oder „hosted“.

n Die virtuelle Quellmaschine hat einen Snapshot.

vSphere-Speicher

270 VMware, Inc.

n Die logische Adresse und die Übertragungslänge des angeforderten Vorgangs sind nicht auf die vomSpeichergerät erforderliche Mindestausrichtung ausgerichtet. Alle mit dem vSphere Web Client erstell-ten Datenspeicher werden automatisch ausgerichtet.

n Das VMFS hat mehrere LUNs oder Erweiterungen und sie befinden sich auf unterschiedlichen Arrays.

Das Klonen von Hardware zwischen Arrays, auch innerhalb desselben VMFS-Datenspeichers, funktioniertnicht.

Kapitel 24 Speicherhardware-Beschleunigung

VMware, Inc. 271

vSphere-Speicher

272 VMware, Inc.

Thin Provisioning von Speicher 25Mit ESXi können Sie zwei Modelle des Thin Provisioning verwenden: Thin Provisioning auf Array-Ebeneund Thin Provisioning auf der Ebene der virtuellen Festplatte.

Thin Provisioning ist eine Methode, die die Speichernutzung optimiert, indem Speicherplatz auf flexibleWeise nach Bedarf zugeteilt wird. Thin Provisioning unterscheidet sich vom herkömmlichen Modell, demThick Provisioning. Beim Thick Provisioning wird eine große Menge an Speicherplatz im Voraus in Erwar-tung zukünftiger Speicheranforderungen bereitgestellt. Möglicherweise bleibt der Speicherplatz jedoch un-genutzt, was dazu führen kann, dass die Speicherkapazität nicht voll ausgenutzt wird.

Die Thin Provisioning-Funktionen von VMware helfen Ihnen dabei, Probleme hinsichtlich einer zu geringenSpeichernutzung auf Datenspeicher- und Speicher-Array-Ebene zu vermeiden.

Dieses Kapitel behandelt die folgenden Themen:

n „Datenspeicher-Überbuchung“, auf Seite 273

n „Thin Provisioning virtueller Festplatten“, auf Seite 273

n „Array-Thin Provisioning und VMFS-Datenspeicher“, auf Seite 278

Datenspeicher-ÜberbuchungThin Provisioning ermöglicht Ihnen, eine größere Menge an virtuellem Speicherplatz zu melden als die ech-te physische Kapazität. Diese Diskrepanz kann zu einer Datenspeicher-Überbuchung führen, die auch alsÜberbelegung bezeichnet wird.

Wenn Sie Thin Provisioning verwenden, sollten Sie die tatsächliche Speichernutzung überwachen, um eineKnappheit des physischen Speicherplatzes zu verhindern.

Thin Provisioning virtueller FestplattenWenn Sie eine virtuelle Maschine erstellen, wird ein bestimmter Teil des Speicherplatzes auf einem Daten-speicher für die virtuellen Festplattendateien bereitgestellt.

Standardmäßig bietet ESXi eine herkömmliche Speicherbereitstellungsmethode für virtuelle Maschinen. Mitdieser Methode schätzen Sie zuerst, wie viel Speicher die virtuelle Maschine für den gesamten Lebenszyklusbenötigt. Sie stellen dann im Voraus eine feste Menge an Speicherplatz für ihre virtuelle Festplatte bereit,beispielsweise 40 GB, und ordnen den gesamten bereitgestellten Speicherplatz der virtuellen Festplatte zu.Eine virtuelle Festplatte, die sofort den gesamten bereitgestellten Speicherplatz belegt, ist eine Thick-Fest-platte.

VMware, Inc. 273

ESXi unterstützt Thin Provisioning für virtuelle Festplatten. Die Thin Provisioning-Funktion auf Festplatten-ebene ermöglicht Ihnen das Erstellen von virtuellen Festplatten in einem Thin-Format. ESXi teilt einer virtu-ellen Festplatte im Thin-Format den gesamten für aktuelle und zukünftige Aktionen erforderlichen Spei-cherplatz zu, beispielsweise 40 GB. Allerdings verwendet die Thin-Festplatte nur so viel Speicherplatz, wiesie für ihre anfänglichen Vorgänge benötigt. In diesem Beispiel belegt die Thin-bereitgestellte Festplatte nur20 GB an Speicherplatz. Wenn die Festplatte mehr Speicherplatz benötigt, kann sie bis auf die 40 GB an be-reitgestelltem Speicherplatz anwachsen.

Abbildung 25‑1. Virtuelle Thick- und Thin-Festplatten

VM 2VM 1

40 GB

40 GB 40 GB80 GB

20 GB

THICK THIN

Virtuelle Festplatten

BereitgestellteKapazität

Datenspeicher

VerwendeteKapazität

20 GB

40 GB

Grundlegendes zu Bereitstellungsrichtlinien für virtuelle FestplattenWenn Sie bestimmte Vorgänge für die Verwaltung virtueller Maschinen ausführen, z. B.Erstellen einer virtu-ellen Festplatte, Klonen einer virtuellen Maschine in eine Vorlage oder Migrieren einer virtuellen Maschine,können Sie eine Bereitstellungsrichtlinie für die Datei der virtuellen Festplatte festlegen.

NFS-Datenspeicher mit Hardwarebeschleunigung und VMFS-Datenspeicher unterstützen die folgendenFestplattenbereitstellungsrichtlinien. Auf NFS-Datenspeichern, die die Hardwarebeschleunigung nicht un-terstützen, steht nur das Thin-Format zur Verfügung.

vSphere-Speicher

274 VMware, Inc.

Mithilfe von Storage vMotion oder Cross-Host Storage vMotion können Sie virtuelle Laufwerke von einemFormat in ein anderes umwandeln.

Thick-Provision Lazy-Zeroed

Erstellt eine virtuelle Festplatte im Thick-Standardformat. Der für die virtuel-le Festplatte erforderliche Speicherplatz wird zugeteilt, wenn die Festplatteerstellt wird. Daten, die auf dem physischen Gerät verbleiben, werden nichtwährend des Anlegens gelöscht, sondern sie werden bei Bedarf zu einemspäteren Zeitpunkt beim ersten Schreiben von der virtuellen Maschine durchNullbyte ersetzt. Virtuelle Maschinen lesen keine veralteten Daten vom phy-sischen Gerät.

Thick-Provision Eager-Zeroed

Ein Typ einer virtuellen Festplatte im Thick-Format, der Clusterfunktionen,wie z. B. Fault Tolerance, unterstützt. Der Speicher, den die virtuelle Festplat-te benötigt, wird beim Erstellen zugewiesen. Im Gegensatz zum Thick-Provi-sion Lazy-Zeroed-Format-Format werden die auf dem physischen Gerät ver-bleibenden Daten durch Nullbyte ersetzt („zeroed out“), wenn die virtuelleFestplatte erstellt wird. Das Anlegen von virtuellen Festplatten in diesemFormat kann länger dauern als das Anlegen anderer Festplattentypen.

Thin Provision Verwenden Sie dieses Format, um Speicherplatz zu sparen. Für eine Festplat-te mit diesem Format stellen Sie genauso viel Datenspeicherplatz bereit, wiedie Festplatte ausgehend von dem Wert erfordern würde, den Sie für dieGröße der virtuellen Festplatte eingeben. Die Festplatte besitzt jedoch zu-nächst nur eine geringe Größe und verwendet nur so viel Datenspeicher-platz, wie sie für ihre anfänglichen Vorgänge benötigt. Wenn die Festplattespäter mehr Speicherplatz benötigt, kann sie auf ihre maximale Kapazität an-wachsen und den gesamten für sie bereitgestellten Datenspeicherplatz in An-spruch nehmen.

Thin Provisioning stellt die schnellste Methode zum Erstellen einer virtuellenFestplatte dar, da lediglich eine Festplatte nur mit den Header-Informationenerstellt wird. Speicherblöcke werden nicht zugewiesen oder auf Null gesetzt.Speicherblöcke werden bei ihrem ersten Zugriff zugewiesen oder auf Nullgesetzt.

Hinweis Wenn eine virtuelle Festplatte Clusterlösungen wie z. B. Fault Tole-rance unterstützt, verwenden Sie für die Festplatte nicht das Format „Thin“.

Sie können die Thin-Festplatte manuell vergrößern, sodass sie den gesamtenbereitgestellten Speicherplatz belegt. Wenn der Speicherplatz des physischenSpeichers aufgebraucht ist und die Thin-bereitgestellte Festplatte nicht ver-größert werden kann, kann die virtuelle Maschine nicht mehr genutzt wer-den.

Erstellen von virtuellen Thin-bereitgestellten Festplatten im vSphere Web ClientUm Speicherplatz zu sparen, können Sie eine virtuelle Festplatte im Thin-bereitgestellten Format erstellen.Die Größe der virtuellen Thin-bereitgestellten Festplatte ist zunächst gering und steigt an, sobald mehr vir-tueller Festplattenspeicher erforderlich ist. Sie können Thin-Festplatten nur auf Datenspeichern erstellen, dieThin Provisioning auf Festplattenebene unterstützen.

Bei diesem Verfahren wird vorausgesetzt, dass Sie eine neue virtuelle Maschine erstellen. Weitere Informati-onen finden Sie in der Dokumentation zu vSphere-Administratorhandbuch für virtuelle Maschinen.

Kapitel 25 Thin Provisioning von Speicher

VMware, Inc. 275

Vorgehensweise

1 Klicken Sie mit der rechten Maustaste auf ein Bestandslistenobjekt, das ein gültiges übergeordnetes Ob-jekt einer virtuellen Maschine ist, z. B. ein Datencenter, Ordner, Cluster, Ressourcenpool oder Host, undwählen Sie die Option Neue virtuelle Maschine aus.

2 Wählen Sie Eine neue virtuelle Maschine erstellen und klicken Sie auf Weiter.

3 Befolgen Sie sämtliche Anweisungen zum Erstellen einer virtuellen Maschine.

4 Klicken Sie auf der Seite „Hardware anpassen“ auf die Registerkarte Virtuelle Hardware.

5 Klicken Sie auf das Dreieck Neue Festplatte, um die Festplattenoptionen zu erweitern.

6 (Optional) Passen Sie die Standardfestplattengröße an.

Mit einer virtuellen Thin-Festplatte zeigt der Wert für die Datenträgergröße an, wie viel Speicher aufder Festplatte bereitgestellt und garantiert wird. Anfänglich verwendet die virtuelle Festplatte mögli-cherweise nicht den gesamten bereitgestellten Speicher und der aktuelle Wert für die Speicherverwen-dung kann die Größe der virtuellen Festplatte unterschreiten.

7 Wählen Sie Thin Provision für Festplattenbereitstellung aus.

8 Schließen Sie die Erstellung einer virtuellen Maschine ab.

Sie haben eine virtuelle Maschine mit einer Festplatte im Thin-Format erstellt.

Weiter

Wenn die virtuelle Festplatte das Thin-Format aufweist, können Sie sie später auf ihre volle Größe vergrö-ßern.

Anzeigen von Speicherressourcen virtueller Maschinen im vSphere Web ClientSie können anzeigen, wie Speicherplatz von Datenspeichern Ihren virtuellen Maschinen zugeteilt ist.

Die Anzeige der Speicherbelegung zeigt den Datenspeicherplatz, der von den Dateien der virtuellen Maschi-ne, z. B. Konfigurations- und Protokolldateien, Snapshots, virtuellen Festplatten usw., beansprucht wird.Wenn die virtuelle Maschine läuft, werden im verwendeten Speicherplatz auch die Auslagerungsdateien be-rücksichtigt.

Für virtuelle Maschinen mit Thin-Festplatten kann der tatsächliche Speichernutzungswert geringer als dieGröße der virtuellen Festplatte sein.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

2 Doppelklicken Sie auf die virtuelle Maschine, und klicken Sie auf die Registerkarte Übersicht.

3 Prüfen Sie die Informationen über die Speicherbelegung rechts oben auf der Registerkarte Übersicht.

Festlegen des Festplattenformats für eine virtuelle Maschine imvSphere Web Client

Sie können festlegen, ob Ihre virtuelle Festplatte im Thick- oder im Schnell-Format vorliegen soll.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

2 Klicken Sie mit der rechten Maustaste auf die virtuelle Maschine und wählen Sie Einstellungen bear‐beiten.

vSphere-Speicher

276 VMware, Inc.

3 Klicken Sie auf die Registerkarte Virtuelle Hardware.

4 Klicken Sie auf das Dreieck Festplatte, um die Festplattenoptionen zu erweitern.

Im Textfeld Typ wird das Format Ihrer virtuellen Festplatte angezeigt.

Weiter

Wenn die virtuelle Festplatte das Format „Schnell“ aufweist, können Sie sie auf ihre volle Größe vergrößern.

Vergrößern virtueller Thin-Festplatten in vSphere Web ClientWenn Sie eine virtuelle Festplatte im Format „Thin-Bereitstellung“ erstellt haben, können Sie die Thin-Fest-platte in das Format „Thick-Provision“ konvertieren.

Vorgehensweise

1 Navigieren Sie im vSphere Web Client zur virtuellen Maschine.

2 Doppelklicken Sie auf die virtuelle Maschine.

3 Klicken Sie auf die Registerkarte Verwandte Objekte und klicken Sie auf Datenspeicher.

Der Datenspeicher, in dem die Dateien der virtuellen Maschine gespeichert sind, wird angezeigt.

4 Klicken Sie auf den Datenspeicher-Link, um das Managementfenster für den Datenspeicher zu öffnen.

5 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Dateien.

6 Öffnen Sie den Ordner der virtuellen Maschine und navigieren Sie zu der virtuellen Festplattendatei,die Sie konvertieren möchten.

Die Datei hat die Erweiterung .vmdk und wird durch ein Symbol für virtuelle Festplatten gekennzeich-net ( ) .

7 Klicken Sie mit der rechten Maustaste auf die virtuelle Festplattendatei und wählen Sie Vergrößern.

Die vergrößerte virtuelle Festplatte belegt den ganzen Datenspeicherplatz, der ursprünglich für sie bereitge-stellt wurde.

Handhabung von Datenspeicher-ÜberbuchungDa der für Thin-Festplatten verfügbare Speicherplatz größer sein kann als der übernommene Speicherplatz,kann eine Datenspeicher-Überbuchung auftreten. Dadurch kann der gesamte für die Festplatten der virtuel-len Maschine bereitgestellte Speicherplatz die tatsächliche Kapazität überschreiten.

Eine Überbuchung ist möglich, weil normalerweise nicht alle virtuellen Maschinen mit Thin-Festplatten dengesamten für sie bereitgestellten Datenspeicherplatz zur gleichen Zeit benötigen. Sie können jedoch zumVermeiden einer Datenspeicher-Überbuchung einen Alarm einrichten, der Sie warnt, wenn der bereitgestell-te Speicherplatz einen bestimmten Schwellenwert erreicht.

Informationen zum Einstellen von Alarmen finden Sie in der Dokumentation vCenter Server und Hostverwal-tung.

Wenn Ihre virtuellen Maschinen mehr Speicherplatz benötigen, wird der Datenspeicherplatz in der Reihen-folge der Anforderungen zugeteilt. Wenn der Datenspeicherplatz nicht mehr ausreicht, können Sie den phy-sischen Speicher erweitern und den Datenspeicher vergrößern.

Weitere Informationen hierzu finden Sie unter „Erhöhen der VMFS-Datenspeicherkapazität im vSphere WebClient“, auf Seite 160.

Kapitel 25 Thin Provisioning von Speicher

VMware, Inc. 277

Array-Thin Provisioning und VMFS-DatenspeicherSie können Thin-bereitgestellte Speicher-Arrays mit ESXi verwenden.

Herkömmliche LUNs, die Arrays dem ESXi-Host präsentieren, sind Thick-bereitgestellt. Der gesamte physi-sche Speicherplatz, der zum Stützen einer jeden LUN benötigt wird, wird im Voraus zugeteilt.

ESXi unterstützt auch Thin-bereitgestellte LUNs. Wenn eine LUN Thin-bereitgestellt ist, meldet das Spei-cher-Array die logische Größe der LUN, die möglicherweise größer als die echte physische Kapazität ist, diediese LUN stützt.

Ein VMFS-Datenspeicher, den Sie auf der Thin-bereitgestellten LUN bereitstellen, kann nur die logischeGröße der LUN erkennen. Wenn das Array beispielsweise 2 TB Speicherkapazität meldet, während in Wirk-lichkeit das Array nur 1 TB Speicherkapazität bereitstellt, geht der Datenspeicher davon aus, dass die Größeder LUN 2 TB beträgt. Während der Datenspeicher anwächst, kann er nicht feststellen, ob die tatsächlicheMenge des physischen Speichers noch ausreicht.

Wenn Sie jedoch „Storage APIs - Array Integration“ verwenden, kann sich der Host mit dem physischenSpeicher integrieren und somit die zugrunde liegenden Thin-bereitgestellten LUNs und deren Speichernut-zung erkennen.

Mithilfe der Thin-Provision-Integration kann der Host diese Aufgaben durchführen:

n Überwachen der Nutzung des Speicherplatzes auf Thin-bereitgestellten LUNs, um zu verhindern, dassder physische Speicherplatz aufgebraucht wird. Während der Datenspeicher anwächst oder wenn SieStorage vMotion zum Migrieren von virtuellen Maschinen auf eine Thin-bereitgestellte LUN verwen-den, kommuniziert der Host mit der LUN und warnt Sie vor Verletzungen des physischen Speicherplat-zes und vor Speicherplatzknappheit.

n Informieren des Arrays über den Speicherplatz des Datenspeichers, der freigegeben wird, wenn StoragevMotion Dateien löscht oder aus dem Datenspeicher entfernt. Das Array kann dann die freigegebenenSpeicherblöcke zurückgewinnen.

Hinweis ESXi unterstützt das Aktivieren und Deaktivieren von Thin Provisioning auf einem Speichergerätnicht.

AnforderungenZur Verwendung der Thin Provisioning-Berichtsfunktion müssen der Host und das Speicher-Array die fol-genden Anforderungen erfüllen:

n ESXi Version 5.0 oder höher.

n Das Speicher-Array verfügt über die entsprechende Firmware, die T10-basierte „Storage-APIs - ArrayIntegration“ (Thin Provisioning) unterstützt. Weitere Informationen erhalten Sie von Ihrem Speicheran-bieter oder sehen Sie in der Hardwarekompatibilitätsliste nach.

Überwachen der SpeicherplatznutzungDie Funktion für die Thin Provisioning-Integration hilft Ihnen, die Speicherplatznutzung auf Thin-bereitge-stellten LUNs zu überwachen und zu vermeiden, dass kein Speicherplatz mehr zur Verfügung steht.

Das folgende Datenflussbeispiel zeigt, wie der ESXi-Host und das Speicher-Array interagieren, um Warnun-gen hinsichtlich Speicherplatzverletzungen und Speicherplatzknappheit für einen Datenspeicher mit zu-grunde liegender Thin-bereitgestellter LUN zu generieren. Derselbe Mechanismus wird angewendet, wennSie Storage vMotion zum Migrieren von virtuellen Maschinen auf die Thin-bereitgestellte LUN verwenden.

1 Mithilfe von speicherspezifischen Tools stellt Ihr Speicheradministrator eine Thin-LUN bereit und legteinen Soft-Schwellenwert fest, bei dessen Erreichen ein Alarm ausgelöst wird. Dieser Schritt ist anbie-terspezifisch.

vSphere-Speicher

278 VMware, Inc.

2 Mithilfe des vSphere Web Client erstellen Sie einen VMFS-Datenspeicher auf der Thin-bereitgestelltenLUN. Der Datenspeicher umfasst die gesamte logische Größe, die die LUN meldet.

3 Wenn die vom Datenspeicher verwendete Speicherplatzmenge ansteigt und den angegebenen Soft-Schwellenwert erreicht, finden die folgenden Aktionen statt:

a Das Speicher-Array meldet die Verletzung Ihrem Host.

b Ihr Host löst einen Warnungsalarm für den Datenspeicher aus.

Sie können sich an den Speicheradministrator wenden, um mehr physischen Speicherplatz anzu-fordern, oder Storage vMotion verwenden, um Ihre virtuellen Maschinen zu entfernen, bevor dieLUN keine Kapazität mehr hat.

4 Wenn kein Speicherplatz mehr zur Verfügung steht, der der Thin-bereitgestellten LUN zugeteilt werdenkann, finden die folgenden Aktionen statt:

a Das Speicher-Array meldet dem Host, dass kein freier Speicherplatz verfügbar ist.

Vorsicht In einigen Fällen, wenn eine LUN voll wird, kann es offline gehen oder die Zuordnungvom Host entfernen.

b Der Host hält virtuelle Maschinen an und generiert einen Speicherplatzknappheits-Alarm.

Sie können das dauerhafte Problem der Speicherplatzknappheit beheben, indem Sie vom Speicher-administrator mehr physischen Speicherplatz anfordern.

Identifizieren von Thin-bereitgestellten SpeichergerätenVerwenden Sie den Befehl esxcli, um festzustellen, ob ein bestimmtes Speichergerät Thin-bereitgestellt ist.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Führen Sie den Befehl esxcli --server=Servername storage core device list -d=Geräte-ID aus.

Der folgende Thin Provisioning-Status gibt an, dass das Speichergerät Thin-bereitgestellt ist.

# esxcli --server=server_name storage core device list -d naa.XXXXXXXXXXXX4c

naa.XXXXXXXXXXXX4c

Display Name: XXXX Fibre Channel Disk(naa.XXXXXXXXXXXX4c)

Size: 20480

Device Type: Direct-Access

Multipath Plugin: NMP

---------------------

Thin Provisioning Status: yes

Attached Filters: VAAI_FILTER

VAAI Status: supported

---------------------

Kapitel 25 Thin Provisioning von Speicher

VMware, Inc. 279

Ein unbekannter Status gibt an, dass ein Speichergerät Thick ist.

Hinweis Einige Speichersysteme präsentieren alle Geräte als Thin-bereitgestellt, egal ob die Geräte Thinoder Thick sind. Ihr Thin Provisioning-Status ist immer Ja. Weitere Informationen erhalten Sie von IhremSpeicheranbieter.

Zurückgewinnen von angesammeltem SpeicherplatzWenn sich VMFS-Datenspeicher auf in Thin-bereitgestellten LUNs befinden, können Sie mit dem Befehlesxcli nicht verwendete Speicherblöcke zurückzugewinnen.

In dem Vorgang wird der Zielserver durch --server=Servername angegeben. Der angegebene Zielserver for-dert Sie auf, einen Benutzernamen und ein Kennwort einzugeben. Weitere Verbindungsoptionen, wie z. B.eine Konfigurations- oder Sitzungsdatei, werden unterstützt. Eine Liste der Verbindungsoptionen finden Sieunter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Voraussetzungen

Installieren Sie vCLI oder stellen Sie die virtuelle vSphere Management Assistant (vMA)-Maschine bereit.Weitere Informationen hierzu finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen. Führen Siezwecks Fehlerbehebung esxcli-Befehle in der ESXi Shell aus.

Vorgehensweise

u Gewinnen Sie nicht verwendete Speicherblöcke im VMFS5-Datenspeicher für das Thin-bereitgestellteGerät zurück, indem Sie den folgenden Befehl ausführen:

esxcli --server=Servername storage vmfs unmap --volume-label=Volume-Bezeichnung|--volume-

uuid=Volume-UUID --reclaim-unit=Anzahl

Der Befehl verfügt über diese Optionen:

Option Beschreibung

-l|--volume-label=Volume-Be-zeichnung

Die Bezeichnung des VMFS-Volumes, dessen Zuordnung aufgehoben wer-den soll. Dies ist ein erforderliches Argument. Verwenden Sie bei Angabedieses Arguments nicht -u|--volume-uuid=Volume-UUID.

-u|--volume-uuid=Volume-UUID Die UUID des VMFS-Volumes, dessen Zuordnung aufgehoben werdensoll. Dies ist ein erforderliches Argument. Verwenden Sie bei Angabe die-ses Arguments nicht -l|--volume-label=Volume-Bezeichnung.

-n|--reclaim-unit=Anzahl Die Anzahl der VMFS-Blöcke, deren Zuordnung pro Iteration aufgehobenwerden soll. Dies ist ein optionales Argument. Wenn es nicht angegebenwird, verwendet der Befehl den Standardwert 200.

Weiter

Wichtig Weitere Informationen finden Sie im VMware-Knowledgebase-Artikel unter http://kb.vmware.com/kb/2014849.

vSphere-Speicher

280 VMware, Inc.

Verwenden von Speicheranbietern 26vSphere verwendet Speicheranbieter, um eine Integration mit externem physischen Speicher und Speicher-abstraktionen zu ermöglichen. Beim Verwenden von Speicheranbietern kann sich vSphere einen besserenEinblick in die Ressourcen verschaffen sowie umfassende und aussagekräftige Speicherdaten erhalten.vSphere kann dem Speicher zudem sämtliche Anforderungen übertragen, die auf der Speicherrichtlinie ba-sieren, die Sie für virtuelle Maschinen definiert haben.

Ein Speicheranbieter ist eine Softwarekomponente, die entweder von vSphere bereitgestellt oder von einemDrittanbieter über die vSphere-APIs für Storage Awareness (VASA) entwickelt wurde. In der Regel wird derexterne Speicheranbieter auf der Speicherseite installiert und dient als Storage Awareness-Dienst in dervSphere-Umgebung. ESXi-Hosts und vCenter Server stellen Verbindungen zum Speicheranbieter her underhalten Informationen über verfügbare Speichertopologie, Funktionen und den Status. Anschließend stelltvCenter Server diese Informationen für den vSphere Web Client bereit. Diese Information hilft dem spei-cherrichtlinienbasierten Management (SPBM), Entscheidungen über die Platzierung und Übereinstimmungder virtuellen Festplatten zu treffen.

Um zu erfahren, ob Ihr Speicher die Speicheranbieter-Plug-Ins unterstützt, wenden Sie sich an Ihren Spei-cheranbieter.

Sofern Ihr Speicher externe Speicheranbieter unterstützt, verwenden Sie den vSphere Web Client zum Re-gistrieren und Verwalten der Speicheranbieter-Komponenten.

Integrierte Speicheranbieter müssen üblicherweise nicht registriert werden. Der Speicheranbieter, der Virtu-al SAN unterstützt, wird beispielsweise bei der Aktivierung des Virtual SAN automatisch registriert. Weite-re Informationen finden Sie unter Kapitel 19, „Arbeiten mit Virtual SAN“, auf Seite 191.

Dieses Kapitel behandelt die folgenden Themen:

n „Speicheranbieter und Darstellung von Speicherdaten“, auf Seite 282

n „Anforderungen und Überlegungen hinsichtlich Speicheranbietern“, auf Seite 282

n „Speicherstatusberichte“, auf Seite 283

n „Registrieren von Speicheranbietern“, auf Seite 283

n „Absichern der Kommunikation mit Speicheranbietern“, auf Seite 284

n „Anzeigen von Speicheranbieterinformationen im vSphere Web Client“, auf Seite 284

n „Registrierung von Speicheranbietern im vSphere Web Client aufheben“, auf Seite 285

n „Aktualisieren von Speicheranbietern im vSphere Web Client“, auf Seite 285

VMware, Inc. 281

Speicheranbieter und Darstellung von SpeicherdatenvCenter Server kommuniziert mit dem Speicheranbieter, um Informationen zu erhalten, die der Speicheran-bieter von zugrunde liegenden physischen und softwaredefinierten Speichern erfasst. vCenter Server kanndann die Speicherdaten im vSphere Web Client anzeigen.

Die vom Speicheranbieter bereitgestellten Informationen können in die folgenden Kategorien aufgeteilt wer-den:

n Speichertopologie. Informationen zu Speicherelementen sind in Speicherberichten enthalten. Dazu ge-hören Daten wie Speicher-Arrays, Array-IDs usw.

Diese Informationen sind hilfreich, wenn Sie die Beziehungen zwischen virtueller Maschine und Spei-cher sowie die Konfigurationen rückverfolgen möchten oder wenn Sie wissen möchten, welche Ände-rungen an der Konfiguration des physischen Speichers vorgenommen wurden.

Weitere Informationen finden Sie in der Dokumentation vSphere-Überwachung und -Leistung.

n Anbieterspezifische Speicherfunktionen. Der Speicheranbieter erfasst und verteilt Informationen zu Ei-genschaften und Diensten, die der zugrunde liegende Speicher anbietet.

Sie verweisen auf diese Funktionen, wenn Sie Speicheranforderungen für virtuelle Maschinen und vir-tuelle Festplatten in einer Speicherrichtlinie definieren. Virtuelle Maschinen, die diese Speicherrichtlinieverwenden, werden in einem kompatiblen Speicher untergebracht, der einen gewissen Grad an Kapazi-tät, Leistung, Verfügbarkeit, Redundanz usw. gewährleistet. Weitere Informationen finden Sie unter „Grundlegendes zu Speicherfunktionen“, auf Seite 215.

n Speicherstatus. Diese Kategorie enthält Berichte zum Status verschiedener Speicherelemente. Sie enthältzudem Alarme und Ereignisse zum Senden von Benachrichtigungen über Konfigurationsänderungen.

Diese Informationen sind nützlich beim Beheben von Fehlern bei der Speicherverbindung und von Leis-tungsproblemen. Sie sind zudem hilfreich, um Array-generierte Ereignisse und Alarme mit den ent-sprechenden Leistungs- und Laständerungen am Array zu korrelieren.

Anforderungen und Überlegungen hinsichtlich SpeicheranbieternWenn Sie die Speicheranbieter-Funktionalität verwenden, sind bestimmte Anforderungen und Überlegun-gen zu berücksichtigen.

Die Speicheranbieter-Funktionalität wird als eine Erweiterung des VMware vCenter Storage Monitoring Ser-vice (SMS) implementiert. Da SMS Teil von vCenter Server ist, benötigt die Speicheranbieter-Funktionalitätkeine eigene Installation oder Aktivierung auf der vCenter Server-Seite.

Um Speicheranbieter zu verwenden, müssen diese Anforderungen erfüllt sein:

n vCenter Server Version 5.0 oder höher.

n ESX/ESXi-Hosts Version 4.0 oder höher.

n Die Speicher-Arrays müssen Storage-APIs für Storage Awareness-Plug-Ins unterstützen. Die Speicher-anbieter-Komponente muss auf der Speicherseite installiert sein. Informationen finden Sie unter vSphe-re-Kompatibilitätshandbuch, oder wenden Sie sich an Ihren Speicheranbieter.

Hinweis Fibre Channel over Ethernet (FCoE) bietet keine Unterstützung für Speicheranbieter.

Die folgenden Überlegungen sind bei der Verwendung von Speicheranbietern in Betracht zu ziehen:n Sowohl Blockspeichergeräte als auch Dateisystem-Speichergeräte können Speicheranbieter verwenden.

n Speicheranbieter können überall ausgeführt werden, ausgenommen vCenter Server.

n Mehrere vCenter Server können gleichzeitig mit einer einzelnen Instanz eines Speicheranbieters ver-bunden werden.

vSphere-Speicher

282 VMware, Inc.

n Ein einzelner vCenter Server kann gleichzeitig mit mehreren unterschiedlichen Speicheranbietern ver-bunden werden. Es ist möglich, für jeden Typ des physischen Speichergeräts, der Ihrem Host zur Verfü-gung steht, einen unterschiedlichen Speicheranbieter zu verwenden.

SpeicherstatusberichteWenn Sie Speicheranbieter verwenden, kann vCenter Server Statuseigenschaften für physische Speicherge-räte sammeln und diese Informationen im vSphere Web Client anzeigen.

Die Statusinformationen umfassen Ereignisse und Alarme.

n Ereignisse geben wichtige Änderungen an der Speicherkonfiguration an. Zu solchen Änderungen kön-nen die Erstellung und Löschung einer LUN gehören, oder dass auf eine LUN aufgrund der LUN-Mas-kierung nicht mehr zugegriffen werden kann.

n Alarme weisen auf eine Änderung der Speichersystemverfügbarkeit hin. Wenn Sie beispielsweise dieprofilbasierte Speicherverwaltung verwenden, können Sie Speicheranforderungen für virtuelle Maschi-nen angeben. Wenn Änderungen am zugrunde liegenden Speicher erfolgen, die möglicherweise gegendie Speicheranforderungen der virtuellen Maschine verstoßen, wird ein Alarm ausgelöst.

Weitere Informationen zu Ereignissen und Alarmen finden Sie in der Dokumentation zu vSphere-Überwa-chung und -Leistung.

Für Thin-bereitgestellte LUNs bestehen spezielle Anforderungen hinsichtlich der Berichterstellung. Infor-mationen zur Speicherplatzüberwachung auf Thin-bereitgestellten LUNs finden Sie unter „Array-Thin Pro-visioning und VMFS-Datenspeicher“, auf Seite 278.

Registrieren von SpeicheranbieternSie müssen zum Herstellen einer Verbindung zwischen dem vCenter Server und einem Speicheranbieterden Speicheranbieter registrieren. Stellen Sie sicher, dass Sie einen separaten Speicheranbieter für jeden Hostim Cluster registrieren.

Hinweis Wenn Sie Virtual SAN verwenden, werden die Speicheranbieter für Virtual SAN registriert undautomatisch in der Liste der Speicheranbieter angezeigt. Weitere Informationen hierzu finden Sie unter „An-zeigen von Speicheranbietern für Virtual SAN“, auf Seite 212. Falls Sie zur Fehlerbehebung die Speicheran-bieter für Virtual SAN entfernen oder deren Registrierung aufheben müssen, sollten Sie die Hosts für dieSpeicheranbieter entfernen und die Hosts wieder dem Virtual SAN-Cluster hinzufügen. Stellen Sie sicher,dass sich mindestens ein Speicheranbieter im aktiven Status befindet. Virtual SAN unterstützt keine manuel-le Registrierung von Speicheranbietern.

Voraussetzungen

Stellen Sie sicher, dass die Speicheranbieter-Komponente auf der Speicherseite installiert ist, und fragen SieIhren Speicheradministrator nach den Anmeldedaten.

Vorgehensweise

1 Navigieren Sie zum vCenter Server im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicheranbieter.

3 Klicken Sie auf das Symbol Neuen Speicheranbieter registrieren.

4 Geben Sie die Verbindungsinformationen für den Speicheranbieter ein, einschließlich des Namens, derURL und der Anmeldedaten.

Kapitel 26 Verwenden von Speicheranbietern

VMware, Inc. 283

5 (Optional) Wählen Sie die Option Zertifikat des Speicheranbieters verwenden und geben Sie den Spei-cherort des Zertifikats an, um dem vCenter Server das Zertifikat des Speicheranbieters zuzuordnen.

Wenn Sie diese Option nicht auswählen, wird ein Fingerabdruck des Zertifikats angezeigt. Sie könnenden Fingerabdruck überprüfen und ihn genehmigen.

Dieser Schritt gilt nicht für Virtual SAN und ist für alle anderen Typen von Speicheranbietern optional.

6 Klicken Sie auf OK, um die Registrierung abzuschließen.

Der vCenter Server hat den Speicheranbieter registriert und eine sichere SSL-Verbindung mit ihm herge-stellt.

Weiter

Falls der Speicheranbieter nicht registriert werden kann, lesen Sie den VMware-Knowledgebase-Artikel http://kb.vmware.com/kb/2079087. Informationen zu Problemen bei der Registrierung von Virtual SAN-Speicheranbietern finden Sie unter http://kb.vmware.com/kb/2105018.

Absichern der Kommunikation mit SpeicheranbieternFür die Kommunikation mit einem Speicheranbieter verwendet der vCenter Server eine sichere SSL-Verbin-dung. Der SSL-Authentifizierungsmechanismus erfordert, dass beide Parteien, der vCenter Server und derSpeicheranbieter, SSL-Zertifikate austauschen und sie zu ihren Truststores hinzufügen.

Der vCenter Server kann das Speicheranbieterzertifikat im Rahmen der Speicheranbieterinstallation zu sei-nem Truststore hinzufügen. Falls das Zertifikat nicht während der Installation hinzugefügt wird, verwendenSie eine der folgenden Methoden, um es beim Registrieren des Speicheranbieters hinzuzufügen:

n Navigieren Sie in vCenter Server zum Zertifikat des Speicheranbieters. Wählen Sie im Dialogfeld NeuerSpeicheranbieter die Option Zertifikat des Speicheranbieters verwenden aus und geben Sie den Spei-cherort des Zertifikats an.

n Verwenden Sie einen Fingerabdruck des Speicheranbieterzertifikats. Wenn Sie vCenter Server nicht ver-anlassen, das Anbieter-Zertifikat zu verwenden, wird der Fingerabdruck des Zertifikats angezeigt. Siekönnen den Fingerabdruck überprüfen und ihn genehmigen. Der vCenter Server fügt das Zertifikatzum Truststore hinzu und fährt mit dem Herstellen der Verbindung fort.

Der Speicheranbieter fügt das vCenter Server-Zertifikat zu seinem Truststore hinzu, wenn der vCenter Ser-ver zum ersten Mal eine Verbindung zum Anbieter herstellt.

Anzeigen von Speicheranbieterinformationen im vSphere Web ClientNachdem Sie eine Speicheranbieterkomponente mit dem vCenter Server registriert haben, erscheint derSpeicheranbieter auf der Liste der Speicheranbieter.

Zeigen Sie die allgemeinen Informationen zum Speicheranbieter und die Details für jede Speicherkompo-nente an.

Vorgehensweise

1 Navigieren Sie zum vCenter Server im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicheranbieter.

3 Zeigen Sie in der Liste „Speicheranbieter“ die mit dem vCenter Server registrierten Speicheranbieter-komponenten an.

Die Liste enthält allgemeine Anbieterinformationen, wie den Namen, die URL sowie den Zeitpunkt derletzten Ansichtsaktualisierung.

vSphere-Speicher

284 VMware, Inc.

4 Wenn Sie weitere Details ansehen möchten, wählen Sie einen bestimmten Speicheranbieter aus der Listeaus.

Zu den Detailinformationen gehören Speicher-Array-Anbieter sowie die vom Anbieter unterstütztenArray-Modelle.

Hinweis Ein einzelner Speicheranbieter kann Speicher-Arrays vieler verschiedener Anbieter unterstüt-zen.

Registrierung von Speicheranbietern im vSphere Web Client aufhebenHeben Sie die Registrierung für nicht benötigte Speicheranbieter auf.

Vorgehensweise

1 Navigieren Sie zum vCenter Server im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicheranbieter.

3 Wählen Sie aus der Liste der Speicheranbieter denjenigen aus, für den Sie die Registrierung aufhebenmöchten, und klicken Sie auf Registrierung des Speicheranbieters aufheben.

vCenter Server beendet die Verbindung und entfernt den Speicheranbieter aus seiner Konfiguration.

Aktualisieren von Speicheranbietern im vSphere Web ClientvCenter Server aktualisiert die Speicherdaten in seiner Datenbank in regelmäßigen Abständen. Die Updatessind unvollständig und spiegeln nur die Speicheränderungen wider, die Speicheranbieter an den vCenterServer übertragen. Bei Bedarf können Sie eine vollständige Datenbanksynchronisierung für den ausgewähl-ten Speicheranbieter durchführen.

Vorgehensweise

1 Navigieren Sie zum vCenter Server im Navigator von vSphere Web Client.

2 Klicken Sie auf die Registerkarte Verwalten und anschließend auf Speicheranbieter.

3 Wählen Sie aus der Liste den Speicheranbieter aus, mit dem Sie synchronisieren möchten, und klickenSie auf das Symbol Speicheranbieter erneut prüfen.

Der vSphere Web Client aktualisiert die Speicherdaten für den Anbieter.

Kapitel 26 Verwenden von Speicheranbietern

VMware, Inc. 285

vSphere-Speicher

286 VMware, Inc.

Verwenden von „vmkfstools“ 27vmkfstools ist einer der ESXi-Shell-Befehle zum Verwalten von VMFS-Volumes und virtuellen Festplatten.Mit dem vmkfstools-Befehl können Sie viele Speichervorgänge durchführen. Beispielsweise können SieVMFS-Datenspeicher auf einer physischen Partition erstellen und verwalten oder virtuelle Festplattendatei-en bearbeiten, die auf VMFS- oder NFS-Datenspeichern abgelegt sind.

Hinweis Nachdem Sie mit vmkfstools eine Änderung vorgenommen haben, wird der vSphere Web Clientmöglicherweise nicht sofort aktualisiert. Sie müssen vom Client aus eine Aktualisierung oder eine erneutePrüfung vornehmen.

Weitere Informationen zur ESXi-Shell finden Sie unter Erste Schritte mit vSphere-Befehlszeilenschnittstellen.

Dieses Kapitel behandelt die folgenden Themen:

n „vmkfstools-Befehlssyntax“, auf Seite 287

n „vmkfstools-Optionen“, auf Seite 288

vmkfstools-BefehlssyntaxIm Allgemeinen müssen Sie sich nicht als Root-Benutzer anmelden, um die vmkfstools-Befehle auszufüh-ren. Einige Befehle, z. B. Dateisystembefehle, erfordern jedoch eine Root-Anmeldung.

Der Befehl vmkfstools hat die folgende Befehlssyntax:

vmkfstools Verbindungsoptionen Optionen Ziel.

Ziel gibt eine Partition, ein Gerät oder einen Pfad an, auf den die Befehlsoption angewendet werden soll.

Tabelle 27‑1. vmkfstools -Befehlsargumente

Argument Beschreibung

Optionen Eine oder mehrere Befehlszeilenoptionen und die zugehörigen Argumente, mitdenen Sie die Aktivität angeben können, die vmkfstools ausführen soll. Hier-zu gehört beispielsweise die Auswahl des Festplattenformats beim Erstellen ei-ner neuen virtuellen Festplatte.Geben Sie nach der Eingabe der Option ein Ziel für den Vorgang an. Ziel kanneine Partition, ein Gerät oder ein Pfad sein.

Partition Bezeichnet die Festplattenpartitionen. Dieses Argument verwendet das FormatFestplatten-ID:P, wobei es sich bei Festplatten-ID um die vom Speicher-Array zu-rückgegebene Geräte-ID und bei P um eine Ganzzahl handelt, die die Partiti-onsnummer angibt. Diese Zahl der Partition muss größer als Null (0) sein undeiner gültigen VMFS-Partition entsprechen.

VMware, Inc. 287

Tabelle 27‑1. vmkfstools -Befehlsargumente (Fortsetzung)

Argument Beschreibung

Gerät Gibt die Geräte oder logischen Volumes an. Dieses Argument verwendet einenPfadnamen im ESXi-Gerätedateisystem. Der Pfadname beginnt mit /vmfs/Ge-räte, wobei es sich um den Mount-Punkt des Gerätedateisystems handelt.Verwenden Sie zur Angabe der verschiedenen Gerätetypen die folgenden For-mate:n /vmfs/Geräte/Festplatten für lokale oder SAN-basierte Festplatten.n /vmfs/devices/lvm für logische ESXi-Volumes.n /vmfs/Geräte/generisch für generische SCSI-Geräte.

Pfad Bezeichnet ein VMFS-Dateisystem oder eine Datei. Bei diesem Argument han-delt es sich um einen absoluten oder relativen Pfad, der einen symbolischenLink zu einem Verzeichnis, einer Raw-Gerätezuordnung oder einer Datei un-ter /vmfs aufführt.n Um ein VMFS-Dateisystem anzugeben, verwenden Sie dieses Format:

/vmfs/volumes/file_system_UUID

oder

/vmfs/volumes/file_system_label

n Verwenden Sie dieses Format, um eine Datei auf einem VMFS-Datenspei-cher anzugeben:

/vmfs/volumes/file_system_label|file_system_UUID/[dir]/my-Disk.vmdk

Sie brauchen nicht den gesamten Pfad anzugeben, wenn das aktuelle Ar-beitsverzeichnis gleichzeitig das übergeordnete Verzeichnis von my-Disk.vmdk ist.

vmkfstools-OptionenDer Befehl vmkfstools enthält mehrere Optionen. Einige der Optionen sollten nur von erfahrenen Benutzernverwendet werden.

Die Lang- und Kurzformen (mit einem Buchstaben) der Optionen sind gleichwertig. So sind zum Beispieldie folgenden Befehle identisch.

vmkfstools --createfs vmfs5 --blocksize 1m disk_ID:P

vmkfstools -C vmfs5 -b 1m disk_ID:P

Unteroption -vDie Unteroption -v bestimmt die Ausführlichkeit der Meldungen in der Befehlsausgabe.

Das Format für diese Unteroption lautet wie folgt:

-v --verbose number

Der Wert Zahl wird als ganze Zahl von 1 bis 10 angegeben.

Sie können die Unteroption -v für alle vmkfstools-Optionen verwenden. Wenn die Unteroption -v für dieAusgabe einer Option nicht vorgesehen ist, ignoriert vmkfstools den Teil -v der Befehlszeile.

Hinweis Da Sie die Unteroption -v in jeder vmkfstools-Befehlszeile verwenden können, wird sie in denBeschreibungen der einzelnen Optionen nicht als Unteroption verwendet.

vSphere-Speicher

288 VMware, Inc.

DateisystemoptionenMithilfe von Dateisystemoptionen können Sie einen VMFS-Datenspeicher erstellen und verwalten. DieseOptionen gelten nicht für NFS. Sie können viele dieser Aufgaben auch über den vSphere Web Client ausfüh-ren.

Auflisten der Attribute eines VMFS-VolumesVerwenden Sie zum Auflisten der Attribute eines VMFS-Volumes den Befehl vmkfstools.

-P --queryfs

-h --humanreadable

Diese Option listet die Attribute des angegebenen Volumes auf, wenn Sie sie auf eine Datei oder ein Ver-zeichnis auf einem VMFS-Volume anwenden. Zu den aufgelisteten Attributen gehören die Dateisystembe-zeichnung, falls vorhanden, die Anzahl an Erweiterungen, aus denen das angegebene VMFS-Volume be-steht, die UUID und eine Liste der Namen der Geräte, auf denen sich die einzelnen Erweiterungen befinden.

Hinweis Wenn ein Gerät zur Sicherung des VMFS-Dateisystems offline geschaltet wird, ändert sich die An-zahl der Erweiterungen und des verfügbaren Speichers entsprechend.

Sie können die Unteroption -h für die Option -P verwenden. In diesem Fall listet vmkfstools die Kapazitätdes Volumes in verständlicherer Form auf, z. B. 5 k, 12.1 M oder 2.1 G.

Erstellen eines VMFS-DatenspeichersVerwenden Sie zum Erstellen eines VMFS-Datenspeichers den Befehl vmkfstools.

-C --createfs [vmfs3|vmfs5]

-b --blocksize block_size kK|mM

-S --setfsname datastore

Mit dieser Option wird ein VMFS3- oder VMFS5-Datenspeicher auf der angegebenen SCSI-Partition erstellt,z. B. disk_ID:P. Diese Partition wird die vorgelagerte Partition des Dateisystems.

Hinweis Verwenden Sie die VMFS3-Option, wenn Sie Legacy-Hosts für den Zugriff auf den Datenspeicherbenötigen.

Für die Option -C können Sie folgende Unteroptionen angeben:

n -b --blocksize – Definiert die Blockgröße für den VMFS-Datenspeicher.

Für VMFS5 steht nur eine Blockgröße von 1 MB zur Verfügung. Die Standard-VMFS3-Blockgröße be-trägt 1 MB. Je nach Ihren Bedürfnissen kann die Blockgröße 1 MB, 2 MB, 4 MB oder 8 MB sein. WennSie die Größe eingeben, geben Sie den Einheitstyp an, indem Sie ein Suffix, wie z. B. „m“ oder „M“ hin-zufügen. Beim Einheitstyp wird nicht zwischen der Groß- und Kleinschreibung unterschieden.

n -S --setfsname – Definieren Sie die Volume-Bezeichnung des VMFS-Datenspeichers, den Sie erstellen.Für die Option -C können Sie folgende Unteroptionen angeben. Die Bezeichnung kann bis zu 128 Zei-chen lang sein und darf keine Leerstellen am Anfang oder Ende enthalten.

Hinweis vCenter Server unterstützt die Längenbeschränkung von 80 Zeichen für alle Einträge. Wennein Datenspeichername diese Länge überschreitet, wird der Name beim Hinzufügen dieses Datenspei-chers zu vCenter Server gekürzt.

Nachdem Sie die Volume-Bezeichnung festgelegt haben, können Sie sie bei der Angabe des VMFS-Da-tenspeichers im Befehl vmkfstools verwenden. Die Volume-Bezeichnung erscheint auch in den Auflis-tungen, die mit dem Linux-Befehl ls -l generiert werden, und als symbolische Verknüpfung zumVMFS-Volume im Verzeichnis /vmfs/volumes.

Kapitel 27 Verwenden von „vmkfstools“

VMware, Inc. 289

Verwenden Sie den Befehl ln -sf, wenn Sie die VMFS-Volume-Bezeichnung ändern möchten. Beispiel:

ln -sf /vmfs/volumes/UUID /vmfs/volumes/datastore

Datenspeicher ist die neue Volume-Bezeichnung, die für das VMFS mit der UUID zu verwenden ist.

Hinweis Wenn der Host mit vCenter Server registriert ist, werden alle Änderungen, die Sie an derVMFS-Volume-Bezeichnung vornehmen, von vCenter Server überschrieben. Dies sorgt dafür, dass dieVMFS-Bezeichnung über alle vCenter Server-Hosts hinweg einheitlich ist.

Erstellen eines VMFS-Dateisystems – BeispielDieses Beispiel veranschaulicht die Erstellung eines neuen VMFS-Datenspeichers mit dem Namen„my_vmfs“ auf der Partition naa.ID:1. Die Blockgröße dieser Datei ist 1 MB.

vmkfstools -C vmfs5 -b 1m -S my_vmfs /vmfs/devices/disks/naa.ID:1

Erweitern eines bestehenden VMFS-VolumesVerwenden Sie zum Hinzufügen einer Erweiterung zu einem VMFS-Volume den Befehl vmkfstools.

-Z --spanfs span_partition head_partition

Mithilfe dieser Option wird das VMFS-Dateisystem mit der angegebenen Head-Partition erweitert, indem essich über die durch span_partition angegebene Partition erstreckt. Sie müssen den vollständigen Pfadnameneingeben, z. B. /vmfs/devices/disks/disk_ID:1. Bei jeder Verwendung dieser Option wird das VMFS-Volu-me um eine neue Erweiterung vergrößert, sodass das Volume mehrere Partitionen umfasst.

Vorsicht Wenn Sie diese Option ausführen, gehen alle Daten verloren, die auf dem SCSI-Gerät, das unterspan_partition angegeben wird, gespeichert sind.

Beispiel für die Erweiterung eines VMFS-VolumesIn diesem Beispiel erweitern Sie das logische Dateisystem, indem Sie zulassen, dass es eine neue Partitionumfasst.

vmkfstools -Z /vmfs/devices/disks/naa.disk_ID_2:1 /vmfs/devices/disks/naa.disk_ID_1:1

Das erweiterte Dateisystem erstreckt sich über zwei Partitionen: naa.disk_ID_1:1 und naa.disk_ID_2:1. Indiesem Beispiel ist naa.disk_ID_1:1 der Name der Head-Partition.

Vergrößern einer vorhandenen ErweiterungAnstatt einem VMFS-Datenspeicher eine neue Erweiterung hinzuzufügen, können Sie mithilfe des Befehlsvmkfstools -G eine vorhandene Erweiterung vergrößern.

Verwenden Sie die folgende Option, um die Größe eines VMFS-Datenspeichers zu vergrößern, nachdem dieKapazität des zugrunde liegenden Speichers erhöht wurde.

-G --growfs device device

Mithilfe dieser Option kann ein vorhandener VMFS-Datenspeicher oder seine Erweiterung vergrößert wer-den. Beispiel:

vmkfstools --growfs /vmfs/devices/disks/disk_ID:1 /vmfs/devices/disks/disk_ID:1

vSphere-Speicher

290 VMware, Inc.

Upgrade eines VMFS-DatenspeichersSie können einen VMFS3- auf einen VMFS5-Datenspeicher aktualisieren.

Vorsicht Das Upgrade ist ein Prozess, der nur in eine Richtung ausgeführt werden kann. Nachdem Sieeinen VMFS3-Datenspeicher in einen VMFS5-Datenspeicher konvertiert haben, können Sie diese Konvertie-rung nicht rückgängig machen.

Verwenden Sie zum Upgrade des Datenspeichers den folgenden Befehl: vmkfstools -T|-- upgra-devmfs /vmfs/volumes/UUID

Hinweis Alle Hosts, die auf den Datenspeicher zugreifen, müssen VMFS5 unterstützen. Falls ein ESX/ESXi-Host der Version 4.x oder früher den VMFS3-Datenspeicher verwendet, schlägt das Upgrade fehl und dieMAC-Adresse des Hosts, der den Datenspeicher aktiv verwendet, wird angezeigt.

Optionen für virtuelle FestplattenMithilfe von Optionen für virtuelle Festplatten können Sie in VMFS- und NFS-Dateisystemen gespeichertevirtuelle Festplatten einrichten, migrieren und verwalten. Sie können die meisten dieser Aufgaben auchüber den vSphere Web Client ausführen.

Unterstützte FestplattenformateBeim Erstellen oder Klonen einer virtuellen Festplatte können Sie mit der Unteroption -d --diskformat dasFormat der Festplatte angeben.

Wählen Sie eines der folgenden Formate aus:

n zeroedthick (Standard) – Der Speicher, den die virtuelle Festplatte benötigt, wird während des Anle-gens zugewiesen. Alle Daten, die auf dem physischen Gerät verbleiben, werden nicht während des An-legens, sondern zu einem späteren Zeitpunkt während der ersten Schreibvorgänge der virtuellen Ma-schine gelöscht. Die virtuelle Maschine liest keine veralteten Daten von der Festplatte.

n eagerzeroedthick – Der Speicher, den die virtuelle Festplatte benötigt, wird beim Erstellen zugewiesen.Im Gegensatz zum zeroedthick-Format werden die verbleibenden Daten auf dem physischen Gerätwährend des Anlegens gelöscht. Das Anlegen von Festplatten in diesem Format kann wesentlich längerdauern als das Anlegen anderer Festplattentypen.

n thin – Thin-bereitgestellte virtuelle Festplatte. Im Gegensatz zum Thick-Format wird der erforderlicheSpeicher für die virtuelle Festplatte nicht während des Anlegens bereitgestellt, sondern später in ge-löschter Form und nach Bedarf.

n rdm:Gerät – Virtueller Kompatibilitätsmodus für die Raw-Festplattenzuordnung.

n rdmp:Gerät – Physischer Kompatibilitätsmodus (Pass-Through) für die Raw-Festplattenzuordnung.

n 2gbsparse – Eine Ersatzfestplatte mit höchstens 2 GB Erweiterungsgröße. Festplatten in diesem Formatkönnen mit gehosteten VMware-Produkten verwendet werden, wie z. B. VMware Fusion, Player, Serveroder Workstation. Sie können jedoch Ersatzfestplatten auf einem ESXi-Host erst einschalten, nachdemSie die Festplatte mithilfe von vmkfstools in einem kompatiblen Format, wie z. B. thick oder thin, er-neut importiert haben.

Weitere Informationen hierzu finden Sie unter „Migrieren von virtuellen Maschinen zwischen verschie-denen VMware-Produkten“, auf Seite 294.

NFS-Festplattenformate

Die einzigen Festplattenformate, die für NFS verwendet werden können, sind thin, thick, zeroedthick und2gbsparse.

Kapitel 27 Verwenden von „vmkfstools“

VMware, Inc. 291

Die Formate Thick, zeroedthick und thin weisen in der Regel dasselbe Verhalten auf, da der NFS-Serverund nicht der ESXi-Host die Zuteilungsrichtlinie festlegt. Die Standardzuordnungsrichtlinie auf den meistenNFS-Servern ist thin. Auf NFS-Servern, die „Storage APIs - Array-Integration“ unterstützen, können Sie vir-tuelle Festplatten im zeroedthick-Format erstellen. Der Vorgang „Speicherplatz reservieren“ ermöglichtNFS-Servern das Zuteilen und Garantieren von Speicherplatz.

Weitere Informationen zu den APIs für die Array-Integration finden Sie unter Kapitel 24, „Speicherhardwa-re-Beschleunigung“, auf Seite 261.

Erstellen eines virtuellen LaufwerksVerwenden Sie zum Erstellen einer virtuellen Festplatte den Befehl vmkfstools.

-c --createvirtualdisk size[kK|mM|gG]

-a --adaptertype [buslogic|lsilogic|ide|lsisas|pvscsi] srcfile

-d --diskformat [thin|zeroedthick|eagerzeroedthick]

Diese Option erstellt eine virtuelle Festplatte im angegebenen Pfad auf einem Datenspeicher. Legen Sie dieGröße der virtuellen Festplatte fest. Wenn Sie einen Wert für die Größe angeben, können Sie die Einheit fest-legen, indem Sie entweder das Suffix k (Kilobyte), m (Megabyte) oder g (Gigabyte) angeben. Bei der Größen-einheit wird die Groß-/Kleinschreibung nicht berücksichtigt. vmkfstools interpretiert sowohl k als auch K alsKilobyte. Wenn Sie keine Einheit eingeben, ist die Standardeinstellung für vmkfstools Byte.

Für die Option -c können Sie folgende Unteroptionen angeben.

n -a gibt den Controller an, den eine virtuelle Maschine für die Kommunikation mit den virtuellen Fest-platten verwendet. Sie können zwischen BusLogic, LSI Logic, IDE, LSI Logic SAS und VMware Paravir-tual SCSI wählen.

n -d bezeichnet die Festplattenformate.

Beispiel der Erstellung einer virtuellen FestplatteDieses Beispiel zeigt die Erstellung einer virtuellen Festplattendatei mit 2 GB und dem Namen rh6.2.vmdkim VMFS-Dateisystem mit dem Namen myVMFS. Diese Datei stellt eine leere virtuelle Festplatte dar, auf dievirtuelle Maschinen zugreifen können.

vmkfstools -c 2048m /vmfs/volumes/myVMFS/rh6.2.vmdk

Initialisieren einer virtuellen FestplatteVerwenden Sie zum Initialisieren einer virtuellen Festplatte den Befehl vmkfstools.

-w --writezeros

Mit dieser Option wird die virtuelle Festplatte bereinigt, indem die gesamten Daten mit Nullen überschrie-ben werden. In Abhängigkeit der Größe Ihrer virtuellen Festplatte und der E/A-Bandbreite des Geräts, dasals Host der virtuellen Festplatte dient, kann die Ausführung dieses Befehls lange dauern.

Vorsicht Bei der Ausführung dieses Befehls werden alle vorhandenen Daten auf der virtuellen Festplattegelöscht.

Vergrößern einer virtuellen Festplatte im Thin-FormatVerwenden Sie zum Vergrößern einer virtuellen Thin-Festplatte den Befehl vmkfstools.

-j --inflatedisk

Mit dieser Option wird eine virtuelle Festplatte vom Typ thin in den Typ eagerzeroedthick konvertiert, wo-bei alle bestehenden Daten erhalten bleiben. Alle Blöcke, die nicht bereits nicht zugewiesen wurden, werdenzugewiesen und gelöscht.

vSphere-Speicher

292 VMware, Inc.

Entfernen von mit Nullen aufgefüllten BlöckenVerwenden Sie den Befehl vmkfstools, um eine virtuelle Festplatte des Typs „schnell bereitgestellt“, „ze-roedthick“ oder „eagerzeroedthick“ in eine schnell bereitgestellte Festplatte zu konvertieren, bei der die mitNullen aufgefüllten Blöcke entfernt wurden.

-K --punchzero

Diese Option hebt die Zuweisung aller mit Nullen aufgefüllten Blöcke auf und belässt nur die Blöcke, diezuvor zugewiesen wurden und gültige Daten enthalten. Die Festplatte, die bei dem Vorgang erstellt wird,besitzt das Format „schnell bereitgestellt“.

Konvertieren einer virtuellen „zeroedthick“-Festplatte in eine „eagerzeroedthick“-FestplatteVerwenden Sie den Befehl vmkfstools, um eine virtuelle Festplatte des Typs „zeroedthick“ in eine Festplattedes Typs „eagerzeroedthick“ zu konvertieren.

-k --eagerzero

Mit dieser Option werden alle Daten auf der virtuellen Festplatte während der Durchführung der Konver-tierung beibehalten.

Löschen einer virtuellen FestplatteMit dieser Option wird eine virtuelle Festplattendatei im angegebenen Pfad des VMFS-Volumes gelöscht.

-U --deletevirtualdisk

Umbenennen eines virtuellen LaufwerksMit dieser Option wird eine virtuelle Festplattendatei im angegebenen Pfad des VMFS-Volumes umbenannt.

Sie können den ursprünglichen Dateinamen oder -pfad für alter Name und den neuen Dateinamen oder -pfad für neuer Name angeben.

-E --renamevirtualdisk oldName newName

Klonen oder Konvertieren einer virtuellen Festplatte oder einer RDM-FestplatteMit dem vmkfstools-Befehl können Sie eine Kopie einer von Ihnen angegebenen virtuellen Festplatte oderRohfestplatte erstellen.

Nur Root-Benutzer dürfen eine virtuelle Festplatte oder eine RDM klonen. Sie müssen den ursprünglichenDateinamen oder Dateipfad oldName und den neuen Dateinamen oder Dateipfad newName angeben.

-i|--clonevirtualdisk oldName newName

-d|--diskformat [thin|zeroedthick|eagerzeroedthick|rdm:device|rdmp:device]

-W|--objecttype [file|vsan|vvol]

--policyFile fileName

-N|--avoidnativeclone

Mit den folgenden Unteroptionen können Sie die entsprechenden Parameter für die von Ihnen erstellte Ko-pie ändern.

n -d|--diskformat bezeichnet die Festplattenformate.

n -W|--objecttype gibt an, ob es sich bei der virtuellen Festplatte um eine Datei in einem VMFS- oderNFS-Datenspeicher oder um ein Objekt in einem Virtual SAN- oder Virtual Volumes-Datenspeicherhandelt.

n --policyFile fileName gibt die VM-Speicherrichtlinie für die Festplatte an.

Kapitel 27 Verwenden von „vmkfstools“

VMware, Inc. 293

Standardmäßig verwendet ESXi die nativen Methoden zur Ausführung der Klonvorgänge. Wenn das Arraydie Klontechnologien unterstützt, können Sie die Vorgänge an das Array auslagern. Geben Sie die Option -N|--avoidnativeclone an, um natives ESXi-Klonen zu vermeiden.

Beispiel: Beispiel für das Klonen oder Konvertieren einer virtuellen Festplatte

In diesem Beispiel wird das Klonen der Inhalte einer virtuellen Master-Festplatte aus dem Repository tem-plates zu einer virtuellen Festplattendatei namens myOS.vmdk im Dateisystem myVMFS veranschaulicht.

vmkfstools -i /vmfs/volumes/myVMFS/templates/gold-master.vmdk /vmfs/volumes/myVMFS/myOS.vmdk

Sie können eine virtuelle Maschine für die Verwendung dieser virtuellen Festplatte konfigurieren, indem Sieder Konfigurationsdatei der virtuellen Maschine Zeilen hinzufügen, wie im folgenden Beispiel gezeigt:

scsi0:0.present = TRUE

scsi0:0.fileName = /vmfs/volumes/myVMFS/myOS.vmdk

Wenn Sie das Format der Festplatte konvertieren möchten, verwenden Sie hierfür die Unteroption -d|--diskformat.

Diese Unteroption ist nützlich, wenn Sie virtuelle Festplatten in einem Format importieren möchten, dasnicht mit ESXi kompatibel ist, wie beispielsweise das 2gbsparse-Format. Nachdem die Festplatte konvertiertwurde, können Sie diese Festplatte einer neuen virtuellen Maschine hinzufügen, die Sie in ESXi erstellen.

Beispiel:

vmkfstools -i /vmfs/volumes/myVMFS/templates/gold-master.vmdk /vmfs/volumes/myVMFS/myOS.vmdk -d

thin

Beispiel für das Klonen oder Konvertieren einer virtuellen FestplatteIn diesem Beispiel wird das Klonen der Inhalte einer virtuellen Master-Festplatte aus dem Repository tem-plates zu einer virtuellen Festplattendatei namens myOS.vmdk im Dateisystem myVMFS veranschaulicht.

vmkfstools -i /vmfs/volumes/myVMFS/templates/gold-master.vmdk /vmfs/volumes/myVMFS/myOS.vmdk

Sie können eine virtuelle Maschine für die Verwendung dieser virtuellen Festplatte konfigurieren, indem Sieder Konfigurationsdatei der virtuellen Maschine Zeilen hinzufügen, wie im folgenden Beispiel gezeigt:

scsi0:0.present = TRUE

scsi0:0.fileName = /vmfs/volumes/myVMFS/myOS.vmdk

Wenn Sie das Format der Festplatte konvertieren oder den Adaptertyp ändern möchten, verwenden Sie dieUnteroptionen -d|--diskformat und -a|--adaptertype. Beispiel:

vmkfstools -i /vmfs/volumes/myVMFS/templates/gold-master.vmdk /vmfs/volumes/myVMFS/myOS.vmdk -d

thin -a buslogic

Migrieren von virtuellen Maschinen zwischen verschiedenenVMware-ProduktenIn der Regel verwenden Sie VMware Converter, um virtuelle Maschinen von anderen VMware-Produktenauf Ihr ESXi-System zu migrieren. Sie können jedoch den Befehl vmkfstools -i dazu verwenden, virtuelleFestplatten im 2gbsparse-Format in ESXi zu importieren und anschließend diese Festplatte einer neuen vir-tuellen Maschine hinzufügen, die Sie in ESXi erstellen.

Sie müssen zuerst die virtuelle Festplatte importieren, da Sie keine Festplatten im 2gbsparse-Format aufdem ESXi-Host einschalten können.

Vorgehensweise

1 Sie importieren eine Festplatte im 2gbsparse-Format auf den ESXi-Host, indem Sie den folgenden Be-fehl ausführen. Achten Sie darauf, dass Sie das Festplattenformat wählen, das mit ESXi kompatibel ist.

vmkfstools -i <Eingabe> <Ausgabe> -d <Format>

vSphere-Speicher

294 VMware, Inc.

2 Verwenden Sie den vSphere Web Client, um die Festplatte hinzuzufügen, die Sie in ESXi in eine virtuel-le Maschine importiert haben.

Weitere Informationen finden Sie in der Dokumentation zu vSphere-Administratorhandbuch für virtuelleMaschinen.

Erweitern einer virtuellen FestplatteDiese Option erweitert die Größe einer Festplatte, die einer virtuellen Maschine zugewiesen wurde, nach-dem die virtuelle Maschine erstellt wurde.

-X --extendvirtualdisk newSize [kK|mM|gG]

Die virtuelle Maschine, die diese Festplattendatei verwendet, muss bei Eingabe dieses Befehls ausgeschaltetsein. Außerdem muss das Gastbetriebssystem in der Lage sein, die neue Festplattengröße zu erkennen undzu verwenden, damit es z. B. das Dateisystem auf der Festplatte aktualisieren kann, sodass der zusätzlicheSpeicherplatz auch genutzt wird.

Hinweis Sie können keine virtuellen SATA-Festplatten im laufenden Betrieb erweitern, oder irgendeinevirtuelle Festplatte, wenn die Kapazität nach der Erweiterung größer oder gleich 2 TB ist.

Sie geben den Parameter Neue Größe in Kilobyte, Megabyte oder Gigbyte an, indem Sie das Suffix k (Kilo-byte), m (Megabyte) oder g (Gigabyte) hinzufügen. Bei der Größeneinheit wird die Groß-/Kleinschreibungnicht berücksichtigt. vmkfstools interpretiert sowohl k als auch K als Kilobyte. Wenn Sie keine Einheit einge-ben, ist die Standardeinstellung für vmkfstools Kilobyte.

Der Parameter Neue Größe beschreibt die gesamte neue Größe und nicht nur die beabsichtigte Erweiterungder Festplatte.

Um beispielsweise eine virtuelle Festplatte mit 4GB um 1GB zu erweitern, geben Sie Folgendes an:vmkfstools -X 5g Festplattenname.

Mithilfe der Option -d eagerzeroedthick können Sie die virtuelle Festplatte auf das Format „eagerzeroed-thick“ erweitern.

Hinweis Erweitern Sie nicht die Basisfestplatte einer virtuellen Maschine, der Snapshots zugeordnet sind.Falls doch, können Sie den Snapshot nicht länger übergeben oder die Basisfestplatte auf ihre ursprünglicheGröße zurücksetzen.

Aktualisieren virtueller FestplattenDiese Option konvertiert die angegebene virtuelle Festplattendatei vom Format ESX Server 2 ins FormatESXi.

-M --migratevirtualdisk

Anlegen einer Raw-Gerätezuordnung im virtuellen KompatibilitätsmodusRDM- (Raw Device Mapping-)Datei auf einem VMFS-Volume angelegt und dieser Datei eine Raw-LUN zu-geordnet. Nach Herstellung dieser Zuordnung können Sie auf die LUN wie auf normale virtuelle VMFS-Festplatten zugreifen. Die Dateigröße der Zuordnung entspricht der Größe der Raw-LUN, auf die sie ver-weist.

-r --createrdm device

Verwenden Sie beim Festlegen des Geräte-Parameters das folgende Format:

/vmfs/devices/disks/disk_ID:P

Kapitel 27 Verwenden von „vmkfstools“

VMware, Inc. 295

Beispiel der Erstellung einer Raw-Gerätezuordnung im virtuellenKompatibilitätsmodusIm vorliegenden Beispiel erstellen Sie eine RDM-Datei namens my_rdm.vmdk und ordnen dieser Datei dieRaw-Festplatte disk_ID zu.

vmkfstools -r /vmfs/devices/disks/disk_ID my_rdm.vmdk

Sie können eine virtuelle Maschine so konfigurieren, dass sie die Zuordnungsdatei my_rdm.vmdk verwendet,indem Sie die Konfigurationsdatei der virtuellen Maschine um die folgenden Zeilen ergänzen:

scsi0:0.present = TRUE

scsi0:0.fileName = /vmfs/volumes/myVMFS/my_rdm.vmdk

Anlegen einer Raw-Gerätezuordnung im physischen KompatibilitätsmodusMit dieser Option können Sie einer Datei auf einem VMFS Volume ein Pass-Through-Raw-Gerät zuordnen.Bei dieser Zuordnung kann eine virtuelle Maschine die ESXi-SCSI-Befehlsfilterung umgehen, wenn sie aufihre virtuelle Festplatte zugreift. Diese Art der Zuordnung eignet sich dann, wenn die virtuelle Maschinesysteminhärente SCSI-Befehle versenden muss, wie beispielsweise dann, wenn SAN-gestützte Software aufder virtuellen Maschine ausgeführt wird.

-z --createrdmpassthru device

Nachdem Sie diese Art der Zuordnung aktiviert haben, können Sie damit auf die Raw-Festplatte wie aufjede andere virtuelle Festplatte zugreifen.

Verwenden Sie beim Festlegen des Geräte-Parameters das folgende Format:

/vmfs/devices/disks/disk_ID

Aufführen der Attribute einer RDMMit dieser Option können Sie die Attribute einer Raw-Festplattenzuordnung auflisten.

-q --queryrdm

Diese Option druckt den Namen der Raw-Festplatte „RDM“. Die Option druckt ferner weitere Identifikati-onsdaten wie die Festplatten-ID der Raw-Festplatte.

Anzeigen der Architektur der virtuellen FestplatteMit dieser Option werden Informationen zur Architektur einer virtuellen Festplatte angezeigt.

-g --geometry

Die Ausgabe erfolgt in dieser Form: Architekturinformationen C/H/S, wobei C die Anzahl der Zylinder, Hdie Anzahl der Köpfe und S die Anzahl der Sektoren angibt.

Hinweis Wenn Sie virtuelle Festplatten aus gehosteten VMware-Produkten auf den ESXi-Host importieren,kann es zu Fehlermeldungen bezüglich Diskrepanzen in der Festplattenarchitektur kommen. Eine Diskre-panz in der Festplattenarchitektur kann auch die Ursache von Problemen beim Laden eines Gastbetriebssys-tems oder bei der Ausführung einer neu erstellten virtuellen Maschine sein.

Prüfen und Reparieren virtueller FestplattenVerwenden Sie diese Option, um eine virtuelle Festplatte im Fall eines nicht ordnungsgemäßen Herunter-fahrens zu prüfen oder zu reparieren.

-x , --fix [check|repair]

vSphere-Speicher

296 VMware, Inc.

Prüfen der Festplattenkette auf KonsistenzMithilfe dieser Option können Sie die gesamte Festplattenkette prüfen. Sie können feststellen, ob Glieder inder Kette beschädigt sind oder ungültige hierarchische Beziehungen bestehen.

-e --chainConsistent

SpeichergerätoptionenGeräteoptionen ermöglichen Ihnen die Ausführung von Verwaltungsaufgaben für physische Speichergeräte.

Verwalten der SCSI-Reservierungen von LUNsMit der Option -L können Sie eine SCSI-LUN für die ausschließliche Verwendung durch einen ESXi-Hostreservieren, eine Reservierung aufheben, sodass andere Hosts auf die LUN zugreifen können, und eine Re-servierung zurücksetzen, wodurch alle Reservierungen eines Ziels aufgehoben werden.

-L --lock [reserve|release|lunreset|targetreset|busreset] device

Vorsicht Eine Verwendung der Option -L kann den Betrieb der anderen Server in einem SAN beeinträch-tigen. Verwenden Sie die Option -L nur zur Fehlerbehebung bei der Einrichtung von Clustern.

Wenden Sie diese Option nie auf eine LUN mit einem VMFS-Volume an, es sei denn, VMware empfiehlt Ih-nen ausdrücklich das Gegenteil.

Sie können die Option -L auf verschiedene Arten anwenden:

n -L reserve – Reserviert die angegebene LUN. Nach der Reservierung kann nur der Server, der dieseLUN reserviert hatte, darauf zugreifen. Wenn andere Server versuchen, auf diese LUN zuzugreifen, er-halten Sie einen Reservierungsfehler.

n -L release – Hebt die Reservierung der angegebenen LUN auf. Andere Server können wieder auf dieLUN zugreifen.

n -L lunreset – Setzt die angegebene LUN zurück, indem jede Reservierung der LUN zurückgesetzt unddie LUN den anderen Servern wieder zur Verfügung gestellt wird. Dies beeinflusst die anderen LUNsauf dem Gerät nicht. Wenn eine andere LUN auf dem Gerät reserviert wurde, bleibt sie reserviert.

n -L targetreset – Setzt das gesamte Ziel zurück. Dadurch werden die Reservierungen für alle LUNs,die dem Ziel zugeordnet sind, aufgehoben. Die entsprechenden LUNs stehen wieder allen Servern zurVerfügung.

n -L busreset – Setzt alle zugänglichen Ziele auf dem Bus zurück. Dadurch werden die Reservierungenfür alle LUNs, auf die durch den Bus zugegriffen werden kann, aufgehoben und die entsprechendenLUNs stehen wieder allen Servern zur Verfügung.

Verwenden Sie für den Parameter Gerät folgendes Format:

/vmfs/devices/disks/disk_ID:P

Durchbrechen von GerätesperrenMithilfe der Option -B können Sie die Gerätesperre einer bestimmten Partition durchbrechen.

-B --breaklock device

Verwenden Sie für den Parameter Gerät folgendes Format:

/vmfs/devices/disks/disk_ID:P

Kapitel 27 Verwenden von „vmkfstools“

VMware, Inc. 297

Sie können diesen Befehl verwenden, wenn mitten in einem Datenspeichervorgang, z. B. beim Vergrößernbzw. Hinzufügen einer Erweiterung oder bei der Neusignierung, ein Host ausfällt. Wenn Sie diesen Befehlausführen, stellen Sie sicher, dass kein anderer Host die Sperre hält.

vSphere-Speicher

298 VMware, Inc.

Index

Symbole{scsi,ide,sata}#:#.terminateVMOnPDL 143* neben dem Pfad 248

Aabhängige Hardware iSCSI

Konfigurations-Workflow 85Überlegungen 86und zugeordnete Netzwerkkarten 87

Abhängige iSCSI, Netzwerk 89Adaptives Modell 32ADT, , siehe auto disk transferAktiv/Aktiv-Festplatten-Arrays 38, 42, 55, 76, 82,

112, 250Aktiv/Passiv-Festplatten-Arrays, Start über ein

SAN 60Aktualisierte Informationen 11Aktueller Multipathing-Status 249Alarme 283Anbieter-Provider

aktualisieren 285anzeigen 284Aufheben der Registrierung 285registrieren 283

Anforderungen, Start über ein SAN 60Anwendungen, Mehrschichtig 33Anwendungsbeispiele 30APD

Behandlung 140Misc.APDHandlingEnable-Parameter 141Misc.APDTimeout 141

Array-basierte Lösung 34Array-Integration, Thin Provisioning 278ATS (Atomic Test and Set) 152ATS-Sperrung 152Auslagerung auf SSD 188Auslagerungs-Cache, Konfigurieren mit vFlash-

Ressource 228Authentifizierung 77, 100auto disk transfer 55Automatische Erkennung, SSD-Geräte 182Automatische Hostregistrierung, deaktivieren 70Automatische Volume-Übertragung 55AVT, , siehe auto volume transfer

BBandlaufwerke 42Beanspruchen von Pfaden 247Beanspruchungsregeln 247Befehl „vmkfstools -C“ 289Befehl „vmkfstools -G“ 290Befehl „vmkfstools -P“ 289Befehl „vmkfstools -v“ 288Befehl „vmkfstools -Z“ 290Beispiele

vmkfstools -C 290vmkfstools -Z 290

Beispiele für „vmkfstools“Erstellen virtueller Festplatten 292Erstellen von RDMs 296Festplatten klonen 294

Best Practices, FCoE 48Bevorzugter Pfad 248Bidirektionales CHAP 100BIOS, aktivieren für BFS 62Blockgeräte 175

CCHAP

Bidirektional 100deaktivieren 103Für Erkennungsziele 102Für iSCSI-Initiatoren 101Für statische Ziele 102Unidirektional 100

CHAP-Authentifizierung 77, 100CHAP-Authentifizierungsmethoden 100Checkliste 130Cluster für Virtual SAN, erstellen 199Cluster für Virtual SAN erstellen 199Clusterbildung 52Core-Dump-Dateien, erstellen 167

Ddas.maskCleanShutdownEnabled 143Dateibasierte Lösung (VMFS) 34Dateisysteme, aktualisieren 148Daten-Digests 78Datenspeicher

Aktualisieren 135

VMware, Inc. 299

Anzeigen 22anzeigen für ein übergeordnetes Objekt 24Datenspeicher-Überbuchung 277erstellen 154Hinzufügen von Erweiterungen 160Informationen prüfen 23Kapazität, erhöhen 160konfigurieren auf NFS-Volumes 155mounten 156NFS 147Pfade 249umbenennen 156Unmounten 161Verwalten von Duplizierten 156Virtual SAN 202VMFS 147

Datenspeicher für Virtual SAN, Festplatten über-wachen 206

Datenträger-Zeitüberschreitungswert 243Dauerhafter Geräteverlust 137den Cluster für Virtual SAN deaktivieren 202Diagnosepartition

konfigurieren 165Überprüfen 166

Diagnosepartitionen 41, 82Direktverbindung 52Disk.EnableNaviReg 70Disk.MaxLUN 136disk.terminateVMOnPDLDefault 143Drittanbieter-Sicherungspaket 36DRS-Unterstützung für virtuellen Flash 228Dump-Partitionen 41, 82DVD-ROM, Starten von 61dynamische Erkennung, konfigurieren 99Dynamische Erkennungsadressen 98dynamische Festplatten 164

EE/A-Verzögerung 82, 242Einrichten der vFlash-Ressource 229Einrichtung mehrerer vFlash-Ressourcen 229Einschränkungen 42Einschränkungen bei iSCSI-SAN 82EMC CLARiiON 53, 110EMC Symmetrix, Pseudo-LUNs 53, 111Entfernen von Festplatten aus Virtual SAN 205EqualLogic, Speichersysteme 113Ereignis des Typs „Keine Pfade verfügbar“ 137Ereignisse 283Erkennung

Adresse 98

Dynamisch 99statisch 99

Erkennungs-Codes 137erneut prüfen

Speicher 135Speicheradapter 136

Erneut prüfenLUN-Erstellung 135Pfadmaskierung 135wenn Pfad nicht verfügbar ist 135

erste Schritte mit Virtual SAN 191erweiterte Attribute, Hosts 145, 170erweiterte Einstellungen

Disk.EnableNaviReg 70Disk.MaxLUN 136

ErweiterungenHinzufügen zu Datenspeicher 160Vergrößern 160

esxcli-Befehle, und virtueller Flash 232ESXi-Host, und mehrere Speicher-Arrays 31EUI 74EVA (HP StorageWorks) 56, 112

FFailover

E/A-Verzögerung 242Transparent 38, 76

Failover-Pfade, Status 248FC-HBA-Installation 42FC-SAN

Hardwareanforderungen 41zugreifen 39

FCoE, Best Practices 48FCoE-Adapter 47Fehlerbehebung

Ändern der iSCSI-Startparameter 123Netzwerkverbindung unterbrochen 122

Fest, Pfadrichtlinie 246, 250Festplatten

Format 276Vergrößern 277

Festplatten in Datenspeichern für Virtual SANüberwachen 206

Festplatten-Arraysaktiv/aktiv 42, 82, 250aktiv/passiv 42, 82, 250

FestplattenformateThick-Provisioned 274Thin-bereitgestellt 274

FestplattengruppenHinzufügen einer Festplatte 205verwalten 203

Festplattenkette, Konsistenz 297Festplattenspiegelung 164

vSphere-Speicher

300 VMware, Inc.

Fibre-ChannelKonfigurations-Checkliste 72Konzepte 37

Fibre-Channel über Ethernet 47Fibre-Channel-SAN

Best Practices 69Probleme verhindern 69

FIP 48Flash-Geräte, Schätzen der Lebensdauer 187Flash-Lesecache

Migrationseinstellungen 231Migrieren virtueller Maschinen 231

GGeplanter Geräteverlust 138Gerätesperren, Durchbrechen 297Geräteverlust, Ungeplant 137, 139GPT 19Grundlegende Konnektivität 52

HHA-Unterstützung für virtuellen Flash 228Hardware-iSCSI, und Failover 240Hardware-iSCSI-Adapter

Abhängig 75unabhängig 75

Hardware-iSCSI-Initiatorenanzeigen 84Einrichten von Erkennungsadressen 98Installieren 84konfigurieren 83

Hardwarebeschleunigungaktivieren 263Anforderungen 262Blockspeicher 262Details zur Unterstützung 265Grundlegende Informationen 261Löschen von Beanspruchungsregeln 267NAS 268NAS-Status 270Status 262Vorteile 261

HBAseinrichten 42statischer Lastenausgleich 42Warteschlangentiefe 41

Header-Digests 78hinzufügen, NFS-Speicher 155Hinzufügen einer Festplatte zu einer Festplatten-

gruppe 205Hinzufügen eines Hosts zum Cluster für Virtual

SAN 207Hinzufügen eines Hosts zum Virtual SAN-Cluster

mithilfe eines Hostprofils 208

Hinzufügen Tag-basierter Regeln 220Hitachi Data Systems-Speicher, Microcode 56Hoch, Qualitätsstufe für Speicher 33Host-Cache, Auslagern auf 188Host-Cache-Konfiguration 188Hostbasiertes Failover 240Hostkonfiguration, erweiterte Einstellungen 70Hostregistrierung, deaktivieren 70Hosts

erweiterte Attribute 145, 170Und FC-SAN 37

Hosttyp 52, 110HP LeftHand P4000 VSA 114HP StorageWorks

EVA 56, 112MSA 111XP 56

HP StorageWorks SAN/iQ-Speicher 114

IiBFT 118iBFT-iSCSI-Start

Ändern der Startsequenz 120Best Practices für Netzwerke 121Einrichten von ESXi 119Einschränkungen 119Fehlerbehebung 122Installieren eines ESXi-Hosts 120Starten eines ESXi-Hosts 121

IBM ESS800 55IBM FAStT 54IBM System Storage DS4800, Failover-Konfigu-

ration 54IBM Systems Storage 8000 55IDE 14In den Host-Cache auslagern 188Installation

Schritte 43Vorbereiten für das Starten über ein SAN 60

Inter-Switch Link 54IP-Adresse 74IQN 74iSCSI 15iSCSI-Adapter

Ändern der allgemeinen Eigenschaften 89Erweiterte Parameter 104Grundlegende Informationen 81Hardware 75Software 75

iSCSI-Alias 74iSCSI-Initiatoren

CHAP konfigurieren 101

Index

VMware, Inc. 301

Einrichten von CHAP-Parametern 100Hardware 83Konfigurieren erweiterter Parameter 105

iSCSI-Namen, Konventionen 74iSCSI-Netzwerk

Adapter binden 95Ändern der Richtlinie 94Erstellen einer VMkernel-Schnittstelle 93Fehlerbehebung 97Port-Bindungsdetails 96verwalten 96

iSCSI-Port-Bindung, Überlegungen 92iSCSI-Ports 74iSCSI-SAN

Best Practices 125Boot 115Konzepte 73Probleme vermeiden 125zugreifen 78

iSCSI-SitzungenAnzeigen 106entfernen 107Hinzufügen für ein Ziel 107verwalten 106

iSCSI-Speichersysteme 109iSCSI-Start, iBFT 118iSCSI-Start-Firmware-Tabelle, , siehe iBFTiSCSI-Startparameter, konfigurieren 120ISL 54

JJumbo-Frames

Aktivieren für abhängige Hardware-iSCSI 98Aktivieren für Software-iSCSI 98Für unabhängige Hardware-iSCSI aktivie-

ren 98Verwenden mit iSCSI 97

KKeine Pfade verfügbar 140, 141Kennzeichnung entfernen 183, 184Kompatibilitätsmodi

physisch 175virtuell 175

Konfigurationsdateien, virtuelle Maschinen 144Konfigurationsparameter, virtuelle Maschi-

nen 144Konfigurationsschritte 43konfigurieren

dynamische Erkennung 99statische Erkennung 99

Konfigurieren des Flash-Lesecaches 230Konfigurieren eines Auslagerungs-Caches mithil-

fe einer vFlash-Ressource 228

LLastenausgleich 30, 42Leistung

Netzwerk 127optimieren 70, 126Speichersystem 126Überprüfen von Ethernet-Switch-Statisti-

ken 130Linux, Hosttyp 52Linux-Cluster, Hosttyp 52Linux-Clusterhosttyp 110Linux-Hosttyp 110lokale SSDs, nicht auffindbar 189LUN-Maskierung 37LUN-Wahl

Adaptives Modell 32Vorhersagemodell 32

LUNsÄndern der Anzahl an LUNs, nach denen ge-

sucht wird 136Änderungen vornehmen und erneut prü-

fen 135ein VMFS-Volume pro LUN 82Entscheidungen 31Festlegen einer Multipathing-Richtlinie 250Maskierung 257Multipathing-Richtlinie 250NPIV-basierter Zugriff 43Und VMFS-Datenspeicher 41Zuordnungen 42, 82

LUNs mit Thin ProvisioningBenachrichtigungen 278Ermitteln 279

MMarkieren von Geräten 185Maskierung von LUNs 257MBR 19Mehrere vFlash-Ressourcen 229Mehrschichtige Anwendungen 33Metadaten, RDMs 175Metadatenkonsistenz, Überprüfen mit VO-

MA 168Microcode, Hitachi Data Systems-Speicher 56Microsoft Cluster-Dienst 52Migration

Cross-Host Storage vMotion 274Speicher 274

Migrieren von virtuellen Maschinen mit Flash-Le-secache 231

Mittel, Qualitätsstufe für Speicher 33Mounten von VMFS-Datenspeichern 162

vSphere-Speicher

302 VMware, Inc.

MPPsAnzeigen 253Siehe auch Multipathing-Plug-Ins

MSA (HP StorageWorks) 111MSCS 52Multipathing

aktive Pfade 248Anzeigen des aktuellen Status 248beschädigte Pfade 248deaktivierte Pfade 248Standby-Pfade 248Überlegungen 251

Multipathing-Beanspruchungsregelnhinzufügen 255löschen 257

Multipathing-Plug-Ins, Beanspruchen von Pfa-den 247

Multipathing-Richtlinie 250Multipathing-Status 249

NN-Port-ID-Virtualisierung, , siehe NPIVNAA 74NAS 15NAS-Plug-Ins

aktualisieren 269Deinstallieren 269Installieren 268

Natives Multipathing-Plug-In 244, 245NetApp-Speicher 57NetApp-Speichersystem 113Netware-Hostmodus 56Netzwerk, konfigurieren 83Netzwerkadapter, Konfigurieren für den iBFT-

iSCSI-Start 120Netzwerkkarten, Zuordnen zu VMkernel 93Netzwerkleistung 127Netzwerkverbindung unterbrochen, Fehlerbehe-

bung 122Netzwerkverbindungen, erstellen 92Neusignieren einer VMFS-Datenspeicherko-

pie 157Neusignierung 156NFS-Datenspeicher

Maximale Größe 152Repositorys 153Und Nicht-ASCII-Zeichen 152Unmounten 161

NFS-Speicher, hinzufügen 155Niedrig, Qualitätsstufe für Speicher 33NMP

Beanspruchen von Pfaden 247E/A-Fluss 247Siehe auch Natives Multipathing-Plug-In

Notfallwiederherstellung 30NPIV

Ändern von WWNs 45Anforderungen 44Einschränkungen 44Grundlegende Informationen 43Zuweisen von WWNs 45

OOptionen für den Befehl „vmkfstools“ 288

PPartitionszuordnungen 175Passive Festplatten-Arrays 42, 82, 250PDL, , siehe Dauerhafter Geräteverlust , siehe

Permanent Device Loss (dauerhafterGeräteverlust)

Pfad-FailoverArray-basiert 242Hostbasiert 240Und virtuelle Maschinen 243

Pfad-Thrashing 53, 110Pfadausfall, erneutes Prüfen 135Pfadauswahl-Plug-Ins 246Pfadauswahlrichtlinien, ändern 250Pfade

bevorzugt 248deaktivieren 251Maskierung 257Maskierung aufheben 259

PfadrichtlinienFest 242, 246, 250Round Robin 246, 250Zuletzt verwendet 246, 250

Pfadverwaltung 239Pluggable Storage Architecture (Architektur des

im Betrieb austauschbaren Spei-chers) 244

Port_ID 38Port-Bindung 240Portweiterleitung 242Profilgesteuerter Speicher 215Prüfen, Anzahl ändern 136PSA, , siehe Pluggable Storage ArchitecturePSPs, , siehe Pfadauswahl-Plug-Ins

QQLogic-HBA-BIOS aktivieren für BFS 63

RRAID-Geräte 175Raw-Gerätezuordnung, Gerätezuordnun-

gen 171

Index

VMware, Inc. 303

RDMDynamische Namensauflösung 176mit Cluster 176physischer Kompatibilitätsmodus 175Überblick 171und virtuelle Festplattendateien 176virtueller Kompatibilitätsmodus 175Vorteile 173

RDMsPfadverwaltung 178Und Snapshots 175

Regelsätze 218Round Robin, Pfadrichtlinie 246, 250

SSAN

Anforderungen 41Besonderheiten 30Hardware-Failover 54Sicherung, Überlegungen 35Vorteile 29

SAN (Storage Area Network) 73SAN-Fabric 37SAN-Speicherleistung optimieren 70, 126SAN-Verwaltungssoftware 34SAS 14SATA 14SATPs

Anzeigen 254Regeln hinzufügen 259Siehe auch Plug-Ins für Speicher-Array-Typen

Schicht 3-Verbindungen 153Schulungssupport 9SCSI, vmkfstools 287SCSI-Controller 13Serverleistung 71, 127Sicherungen

Drittanbieter-Sicherungspaket 36Überlegungen 35

software FCoE Boot, Best Practices 66Software FCoE Boot

Anforderungen 65Einrichten 66ESXi-Installation 67Konfigurieren von Parametern 67

Software-FCoEund VMkernel 48Adapter aktivieren 49starten 65

Software-FCoE-Installation, Fehlerbehebung 68Software-iSCSI

Diagnosepartition 165

Netzwerk 89und Failover 240

Software-iSCSI-Adapterdeaktivieren 88konfigurieren 87

Software-iSCSI-Initiatore, aktivieren 88Software-iSCSI-Initiatoren, Einrichten von Erken-

nungsadressen 98Software-iSCSI-Start, Ändern von Einstellun-

gen 122Speicher

Adapter 21Bereitstellung 273Einführung 13Erneut prüfen 135Lokal 14Netzwerk 15Typen 14Unterstützte vSphere-Funktionen 26Verwendet von virtuellen Maschinen 276Zugriff für virtuelle Maschinen 25

Speicher und VMkernel 235Speicher-APIs, Storage Awareness 281Speicher-Array-Typ, Plug-Ins 246Speicher-Arrays

konfigurieren 51Leistung 71LSI-basiert 57

Speicheradapteranzeigen 21anzeigen im vSphere Web Client 21Erneut prüfen 136

SpeicheranbieterAnforderungen 282SSL-Verbindung 284

Speicherfilterdeaktivieren 163Erneutes Prüfen eines Hosts 163Gleicher Host und Transporte 163RDM 163VMFS 163

Speicherfunktion, Definition 215Speicherfunktionen 282Speicherfunktionen und Speicherrichtlinien 217Speichergerät

umbenennen 134Verbindungsstatus 142

Speichergeräteabhängen 139anhängen 139anzeigen 19Anzeigen 254Anzeigen für einen Adapter 20Anzeigen für einen Host 20

vSphere-Speicher

304 VMware, Inc.

benennen 133Hardwarebeschleunigungs-Status 264Pfade 249Trennungen 137verwalten 133

Speicherort von virtuellen Maschinen 33Speicherplatz 273Speicherplatz zurückgewinnen 280Speicherprozessoren

Konfigurieren von Sense-Daten 55Sense-Daten 55

Speicherrichtlinieaktivieren 219auf eine virtuelle Maschine anwenden 222Definieren für Virtual SAN 213löschen 221Übereinstimmung 222

Speicherrichtlinie löschen 221Speicherrichtlinien

bearbeiten 221erneutes Anwenden 225nicht übereinstimmend 224Regelsätze 218

Speicherrichtlinien bearbeiten 221Speicherstatus 282Speichersysteme

EMC CLARiiON 53, 110EMC Symmetrix 53, 111EqualLogic 113Hitachi 56HP StorageWorks 56, 111HP StorageWorks SAN/iQ 114Leistung 126NetApp 57, 113Typen 38, 76

Speichertopologie 282Speicherübereinstimmung

mittels Speicherrichtlinie 222Pro virtueller Maschine 223

Speichervirtualisierung 13SSD, überwachen 185SSD-Aktivierung, Vorteile 182SSD-Geräte

Automatische Erkennung 182Tag 182

SSDs, Best Practices 187Standard-Switches 93Start über ein SAN

Anforderungen 60HBA-Anforderungen 60Hostanforderungen 60Konfigurieren von Emulex HBAs 62

Konfigurieren von Qlogic HBAs 63Speicherkonfiguration 60Überblick 59Überlegungen zur Start-LUN 60Vorbereiten der Installation 60Vorteile 59

Start, BIOS-Einstellung für Start von SAN akti-vieren 62

Startadapter 61Starten von DVD-ROM 61Starten von einem iSCSI-SAN

Hardware-iSCSI 117iBFT 118Konfigurieren der iSCSI-Einstellungen 117Konfigurieren von HBAs 117Richtlinien 115Software-iSCSI 118Vorbereiten des SAN 116

statische Erkennung, konfigurieren 99Statische Erkennungsadressen 98Statische Ziele, entfernen 100Sternchen neben dem Pfad 248STP 48

TTag, SSD-Geräte 182Tag-basierte Regeln, hinzufügen 220Tag-basierte Speicherfunktionen 215Tags

Auf Datenspeicher anwenden 216erstellen 216

Tags auf Datenspeicher anwenden 216Tags erstellen 216Technischer Support 9Testen, Speichersysteme 109Thin Provisioning, Überbuchung 273Thin-Festplatten, erstellen 275TimeoutValue-Parameter 41, 82

UÜberlegungen bei der Hardwarebeschleuni-

gung 270Überwachen vom Virtual SAN 206Überwachen von Hosts für Virtual SAN 206Unabhängige Hardware-iSCSI-Adapter, IP-Ad-

resse ändern 84Ungeplanter Geräteverlust 137, 139Unidirektionales CHAP 100Unterstützte Geräte 52Updates von Metadaten 151USB 14

Index

VMware, Inc. 305

VVAAI-Beanspruchungsregeln

Definieren 266löschen 267VAAI-Filter 266VAAI-Plug-In 266

VAAI-Filter, Anzeigen 264VAAI-Plug-Ins, Anzeigen 264VASA, , siehe vStorage APIs für Storage Aware-

nessVerlagerungsmodi 210Verwalten von Festplattengruppen 203Verwaltungsanwendungen von Drittanbietern 34vFlash-Ressource

einrichten 229Entfernen 231Konfigurieren eines Auslagerungs-Ca-

ches 228vFlash-Ressource entfernen 231vFlash-Ressourcen, Mehrfacheinrichtung 229Virtual SAN

und vSphere HA 197aktivieren 199Anforderungen 195Beanspruchen von Festplatten 204Datenspeicher 202Definition 191den Cluster deaktivieren 202Entfernen von Festplatten 205Erweitern eines Clusters 207Festplatten manuell beanspruchen 204Informationen 191Lizenzierung 201Merkmale 193Speicheranbieter 212überwachen 206und objektbasierter Speicher 193und Speicherrichtlinien 211verwalten 207

Virtual SAN, aktivieren 200Virtual SAN, Netzwerk 196, 197virtuelle Festplatte, Reparieren 296Virtuelle Festplatten

Erweitern 295Formate 274Unterstützte Formate 291

virtuelle MaschinenE/A-Verzögerung 242Konfigurationsdateien 144Konfigurationsparameter 144Mit RDMs 177Speicherort 33Zugriff auf das iSCSI-SAN 78

Zugriff auf FC SAN 39Zuweisen von WWNs 45

Virtuelle Ports (VPORTs) 43virtueller Flash

deaktivieren 231DRS-Unterstützung 228HA-Unterstützung 228Volume-Limits 228

Virtuelles SSD-Gerät 186VM-Speicherprofile, , siehe SpeicherrichtlinienVM-Speicherrichtlinie, Übereinstimmung 223VMFS

ein VMFS-Volume pro LUN 82Konvertierung 291Neusignierung 156Sperrung 151Überprüfen der Metadatenkonsistenz 168vmkfstools 287

VMFS-Datenspeicheraktualisieren 158Ändern von Signaturen 157Erstellen auf Fibre-Channel-Speicher 154Erstellen auf iSCSI-Speicher 154erstellen auf SCSI-Festplatte 154Erstellen auf Speichergerät 154Festplattenformate 149gemeinsam nutzen 150Hinzufügen von Erweiterungen 160Kapazität, erhöhen 160löschen 162mounten 162Unmounten 161vergrößern 159

VMFS-Neusignierung 156VMFS3, aktualisieren 159VMFS5, Verbesserungen gegenüber

VMFS3 148VMFS5 und VMFS3, Differenzen 148VMkernel-Schnittstellen 93VMkernel.Boot.terminateVMOnPDL 143vmkfstools

Aktualisieren virtueller Festplatten 295Dateisystemoptionen 289Durchbrechen von Sperren 297Entfernen von mit Nullen aufgefüllten Blö-

cken 293Erstellen virtueller Festplatten 292Erstellen von RDMs 295, 296Erweitern virtueller Festplatten 295Festplatten klonen 293Festplattenkette 297Geometrie 296

vSphere-Speicher

306 VMware, Inc.

Geräteoptionen 297Initialisieren virtueller Festplatten 292Konvertierung virtueller Festplatten 293Löschen virtueller Festplatten 293Migrieren virtueller Festplatten 294Optionen für virtuelle Festplatten 291RDM-Attribute 296SCSI-Reservierungen 297Syntax 287Überblick 287Umbenennen virtueller Festplatten 293Vergrößern schnell bereitgestellter Festplat-

ten 292vMotion 29, 30, 42, 82, 110VMware, Hosttyp 52VMware DRS, Mit vMotion 82VMware HA 29VMware NMP

E/A-Fluss 247Siehe auch Natives Multipathing-Plug-In

VMware Ondisk Metadata Analyser, , siehe VO-MA

VMware PSPs, , siehe Pfadauswahl-Plug-InsVMware SATPs, , siehe Plug-Ins für Speicher-Ar-

ray-TypenVolume-Limits für virtuellen Flash 228VOMA 168Vorhersagemodell 32vSphere HA 110vStorage APIs für Storage Awareness 215

WWarteschlangentiefe 82Wartung 30Wartungsmodus, Virtual SAN 210World Wide Names, , siehe WWNsWorld Wide Port Names, , siehe WWPNsWWNNs 45WWNs

ändern 45Zuweisen zu virtuellen Maschinen 45

WWPNs 38, 45

XXP (HP StorageWorks) 56

ZZeigerblock-Cachespeicher, konfigurieren 169Zeitüberschreitung des Windows-Gastbetriebs-

systems 243Ziele 18, 76Ziele im Vergleich zu LUNs 76Zoning 37, 39

Zugriff auf Speicher 25Zugriffssteuerung 77Zuletzt verwendet, Pfadrichtlinie 246, 250Zuordnungen, LUN 42Zuordnungen, LUN 82

Index

VMware, Inc. 307

vSphere-Speicher

308 VMware, Inc.