Upload
doanthien
View
229
Download
1
Embed Size (px)
Citation preview
Hypervisor Typen
3
Type 1
setzt direkt auf der HW auf
z.B. XEN (Oracle VM x86), VMware ESX, Hyper-V
AIX / LPAR, Oracle VM for SPARC: Teil der Firmware
Type 2
setzt ein Träger-OS voraus
z.B. KVM, Virtual Box, VMware Workstation
Quelle: http://www.ok-labs.com/blog/entry/much-ado-about-a-type-2/
Oracle VM (x86)
4
aktuell Version 3.3.3
UEK 3 (basiert auf OEL 6)
XEN 4.3
Type 1 Hypervisor
Dom0
Verwaltungsdomain
direkter Zugriff auf HW
reserviertes RAM
/etc/grub.conf
Memorybedarf steigt mit der Zahl der I/O-Threads
ca. 512 MB pro VM reserviert
+ 20 MB +1 % vom Guest RAM für laufende VMs
Quelle: http://dtrace.org/blogs/brendan/2013/01/11/virtualization-performance-zones-kvm-xen//
HVM vs. PVM
5
Hardwarevirtualisierung (HVM)
Guest OS unverändert
Emulation aller HW-Schnittstellen
Paravirtualisierung (PVM)
modifiziertes Guest OS mit nativen HW-Treibern
z.B. RHEL 6
PV-Support im Kernel
allenfalls Treiberupgrade bei HW-Änderung erforderlich
HVM mit PV-Treibern
z.B. für Windows, RHEL 4.x, 5.x, 7.x
Microsoft Windows Server Virtualization Validation Program (SVVP)
massiver Performance-Boost im I/O-Bereich
Guest OS
Oracle Enterprise Linux
4.x ,5.x, 6.x, 7.x
RedHat Linux
4.x ,5.x, 6.x, 7.x
CentOS
4.x ,5.x, 6.x, 7.x
Solaris x86
10, 11
SUSE Enterprise Linux
11.x
Microsoft Windows Server
2003 R2 bis 2012 R2
Microsoft Windows
Vista, 7, 8, 8.1
Maxima pro Server
320 Cores
6 TB RAM
100 concurrently running VMs
Maxima pro HA Cluster
32 Server
2560 VMs
VM Limits
128 Cores
RAM: 2 TB (PV/HVM)
NICs: 8 (PV/HVM)
Virtual Disks: 104 (PV/HVM)
VDisk Size: 10 TB
6
Gastsysteme und Limits
Release Notes: http://docs.oracle.com/cd/E50245_01/E63729/html
VM Manager
separate Linux 6 Maschine
Konfiguration + Management
nicht für den laufenden Betrieb
nötig
Storage
local Disk
local Partition / LVM
NFS
iSCSI
Fibre Channel
Netzwerk
Trennung optional
VLAN Support
Bonding
8
Single Server Architektur
Live Migration
optional dediziertes Netzwerk
10 GBit empfehlenswert
gleiches Instruction Set
zwingend
Server Processor Compatibility
Groups
Anti-Affinity Groups
Gruppierung von VMs. die nicht
auf den gleichen Knoten laufen
sollen
12
Severpool Features
Server 1 Server 2
Shared Storage
DRS
Dynamic Resource Scheduling
CPU Load
Network Utilization
DPM
Dynamic Power Management
CPU Load
13
Severpool Features /2
White Paper: http://www.oracle.com/us/technologies/virtualization/ovm3-arch-tech-overview-459307.pdf
Migrationsszenarien
14
von VMware
direkter Import der vmdk-Files als VDisk via HTML
Transfer der Diskfiles in ein NFS-Repo und Cloning
von OVM
wie VMware
von physischer Maschine
P2V Tool
Quelle: http://www.oracle.com/us/026971.pdf/
Templates & Assemblies
15
Templates
vorgefertigte VM-Templates von Oracle
http://www.oracle.com/technetwork/server-storage/vm/templates-101937.html
User-defined
Clone von aktueller VM
"Golden Image"
Assemblies
Import von ova-Files
enthalten eine od. mehrere VMs
Erzeugung von Templates aus Assemblies
Command Line Interface
16
Beispiel: create VM
# ssh admin@localhost -p 10000
OVM> create Vm name=vm01 repository=SATA-Raid5 domainType=XEN_HVM_PV_DRIVERS cpuCount=4
memory=4096 osType="Oracle Linux 7"
on serverpool name=sit-cl02
OVM> create VirtualDisk name=vm01_d00 size=10 sparse=Yes shareable=No
on repository name=SATA-Raid5
OVM> create VmDiskMapping slot=0 virtualDisk=vm01_d00 name=vm01_d00 on vm name=vm01
OVM> create VmDiskMapping slot=1 virtualCd=OEL7.1.iso name=cdrom on vm name=vm01
OVM> edit Vm name=vm01 bootOrder=cdrom,disk
OVM> create Vnic network=VLAN-DEMO-01 name=net1 on vm name=vm01
OVM> start vm name=vm01
18
OVM Cluster im SAN
ocfs2
OVM 1
Guest VM
virtual
disk
FS/ASM
OVM 2
Guest VM
virtual
disk
FS/ASM
FC
19
OVM Cluster im SAN /2
ocfs2
OVM 1
Guest VM
virtual
disk
physical
disk
FS/ASM
OVM 2
Guest VM
virtual
disk
physical
disk
FS/ASM
FC
FS/ASM FS/ASM
Snapshot Clones
20
Thin Clones
nur mit Virtual Disks
OCFS2 Funktionalität
Copy On Write (COW) Filesystem
Snapshot = Clone
vollwertige VM
kann separat gestartet werden
konsistent im laufenden Betrieb
nur im gleichen Repository möglich
Dauer: < 1s
Backup Szenarien
Thin Clone erstellen
Move in ein NFS-Storage
oder: Übergabe an einen Backup Client
via NFS Export
keine Lizenzkosten
Open Source
Manager ist nur Freeware
Weblogic-basierend
Support optional
Server Pinning
Lizenzierung einzelner Server
für alle Oracle Produkte
HA nur bedingt
cold Failover im Rahmen der
Failover Cluster Regelung
CPU Pinning
Lizenzierung einzelner Cores
HA möglich
KEINE Live Migration
Zertifizierung & Support
für alle Oracle Produkte
kaum vorhanden für SW-
Appliances von Drittherstellern
24
Support & Lizenzen
CPU Pinning
25
Setup
am OVM Manager
ovm_utils: Patch 13602094
separat zu installieren
ab 3.3: Aktivierung von tcps (Port 54322)
ovm_vmcontrol
Live migration of CPU pinned virtual machines to another Oracle VM Server is not permitted under the terms of
the hard partitioning license. Consequently, for Oracle VM 3, DRS (Distributed Resource Scheduler) and DPM
(Distributed Power Management) policies should not be enabled for server pools containing CPU pinned
guests.
http://www.oracle.com/technetwork/server-storage/vm/ovm-hardpart-168217.pdf
# ovm_vmcontrol -u admin -p Test1234 -h localhost -v ora01 -c vcpuset -s 0,2,4,6
Oracle VM VM Control utility 2.0.1.
Connecting with a secure connection.
Connected.
Command : vcpuset
Pinning virtual CPUs
Pinning of virtual CPUs to physical threads '0,2,4,6' 'ora01' completed.
Manager
andere Untersuchungen
28
Open University Australia
Oracle RAC und Oracle Applications auf OVM Giests http://www.oracle.com/us/technologies/virtualization/oracle-vm-for-oracle-database-2155841.pdf
DR-Konzepte - traditionell
30
White Papers:
http://www.oracle.com/us/technologies/virtualization/ovm3-arch-tech-overview-459307.pdf
http://www.oracle.com/technetwork/server-storage/vm/ovm3-disaster-recovery-1872591.pdf
Streched Serverpool /2
32
DR & HA – kein SPOF
Verteilung von Server + Storage über 2 Standorte
active/active Storage in OVM nicht vorgesehen
redundanter Manager
könnte auch eine eigene VM im HA-Mode sein
Performance & Stabilität
es gelten die gleichen Regeln wie in allen Clustern
redundante Wege
Split Brain Problematik
Latenzzeiten kontrollieren
DR-Konzepte – innovativ
33
10 GBitSSDPCIe / NVMe
SSDPCIe / NVMe
SAN / NAS SAN / NAS
DRBD
Virtual SharedStorage
Site A Site B
DR-Konzepte – innovativ /2
34
Active / Active
beide Seiten synchron
voll nutzbar
"Site Overprovisioning"
günstige Storage Infrastruktur
SAN oder NFS nicht zwingend erforderlich
lokale Disken möglich
High Performance SSDs
SAS, SATA, PCIe, NVMe
Customized Setup
Verwendung von Standard (Open Source) Software
NICHT out of the box
Kritikpunkte
36
Storage Management
keine Live Migration zwischen Repositories
keine online Storage Migration
GUI
kein Multitasking in der gleichen Session
mehrere Sessions erforderlich, CLI
keine Userverwaltung (Mandantenfähigkeit)
marginales Monitoring
Backup
erst beginnende Integration in Backup-Produkte
Overprovisioning
nur für CPUs, nicht für RAM
Verbreitung
kaum Zertifizierungen für SW-Appliances von Fremdherstellern