38
Oracle VM (x86): Der Aschenputtel-Hypervisor? DOAG 2015 November 2015 | Mag. Dr. Thomas Petrik

Oracle VM (x86): Der Aschenputtel-Hypervisor? - doag.org · PDF filegleiches Instruction Set zwingend Server Processor Compatibility Groups Anti-Affinity Groups ... Oracle RAC und

Embed Size (px)

Citation preview

Oracle VM (x86):Der Aschenputtel-Hypervisor?

DOAG 2015

November 2015 | Mag. Dr. Thomas Petrik

Basiskomponenten

2

Hypervisor Typen

3

Type 1

setzt direkt auf der HW auf

z.B. XEN (Oracle VM x86), VMware ESX, Hyper-V

AIX / LPAR, Oracle VM for SPARC: Teil der Firmware

Type 2

setzt ein Träger-OS voraus

z.B. KVM, Virtual Box, VMware Workstation

Quelle: http://www.ok-labs.com/blog/entry/much-ado-about-a-type-2/

Oracle VM (x86)

4

aktuell Version 3.3.3

UEK 3 (basiert auf OEL 6)

XEN 4.3

Type 1 Hypervisor

Dom0

Verwaltungsdomain

direkter Zugriff auf HW

reserviertes RAM

/etc/grub.conf

Memorybedarf steigt mit der Zahl der I/O-Threads

ca. 512 MB pro VM reserviert

+ 20 MB +1 % vom Guest RAM für laufende VMs

Quelle: http://dtrace.org/blogs/brendan/2013/01/11/virtualization-performance-zones-kvm-xen//

HVM vs. PVM

5

Hardwarevirtualisierung (HVM)

Guest OS unverändert

Emulation aller HW-Schnittstellen

Paravirtualisierung (PVM)

modifiziertes Guest OS mit nativen HW-Treibern

z.B. RHEL 6

PV-Support im Kernel

allenfalls Treiberupgrade bei HW-Änderung erforderlich

HVM mit PV-Treibern

z.B. für Windows, RHEL 4.x, 5.x, 7.x

Microsoft Windows Server Virtualization Validation Program (SVVP)

massiver Performance-Boost im I/O-Bereich

Guest OS

Oracle Enterprise Linux

4.x ,5.x, 6.x, 7.x

RedHat Linux

4.x ,5.x, 6.x, 7.x

CentOS

4.x ,5.x, 6.x, 7.x

Solaris x86

10, 11

SUSE Enterprise Linux

11.x

Microsoft Windows Server

2003 R2 bis 2012 R2

Microsoft Windows

Vista, 7, 8, 8.1

Maxima pro Server

320 Cores

6 TB RAM

100 concurrently running VMs

Maxima pro HA Cluster

32 Server

2560 VMs

VM Limits

128 Cores

RAM: 2 TB (PV/HVM)

NICs: 8 (PV/HVM)

Virtual Disks: 104 (PV/HVM)

VDisk Size: 10 TB

6

Gastsysteme und Limits

Release Notes: http://docs.oracle.com/cd/E50245_01/E63729/html

Architektur

7

VM Manager

separate Linux 6 Maschine

Konfiguration + Management

nicht für den laufenden Betrieb

nötig

Storage

local Disk

local Partition / LVM

NFS

iSCSI

Fibre Channel

Netzwerk

Trennung optional

VLAN Support

Bonding

8

Single Server Architektur

IPMI / ILO

Start Server

DPM

HA-Fencing

9

HA-Cluster Architektur

10

OVM Manager

Enterprise Features

11

Live Migration

optional dediziertes Netzwerk

10 GBit empfehlenswert

gleiches Instruction Set

zwingend

Server Processor Compatibility

Groups

Anti-Affinity Groups

Gruppierung von VMs. die nicht

auf den gleichen Knoten laufen

sollen

12

Severpool Features

Server 1 Server 2

Shared Storage

DRS

Dynamic Resource Scheduling

CPU Load

Network Utilization

DPM

Dynamic Power Management

CPU Load

13

Severpool Features /2

White Paper: http://www.oracle.com/us/technologies/virtualization/ovm3-arch-tech-overview-459307.pdf

Migrationsszenarien

14

von VMware

direkter Import der vmdk-Files als VDisk via HTML

Transfer der Diskfiles in ein NFS-Repo und Cloning

von OVM

wie VMware

von physischer Maschine

P2V Tool

Quelle: http://www.oracle.com/us/026971.pdf/

Templates & Assemblies

15

Templates

vorgefertigte VM-Templates von Oracle

http://www.oracle.com/technetwork/server-storage/vm/templates-101937.html

User-defined

Clone von aktueller VM

"Golden Image"

Assemblies

Import von ova-Files

enthalten eine od. mehrere VMs

Erzeugung von Templates aus Assemblies

Command Line Interface

16

Beispiel: create VM

# ssh admin@localhost -p 10000

OVM> create Vm name=vm01 repository=SATA-Raid5 domainType=XEN_HVM_PV_DRIVERS cpuCount=4

memory=4096 osType="Oracle Linux 7"

on serverpool name=sit-cl02

OVM> create VirtualDisk name=vm01_d00 size=10 sparse=Yes shareable=No

on repository name=SATA-Raid5

OVM> create VmDiskMapping slot=0 virtualDisk=vm01_d00 name=vm01_d00 on vm name=vm01

OVM> create VmDiskMapping slot=1 virtualCd=OEL7.1.iso name=cdrom on vm name=vm01

OVM> edit Vm name=vm01 bootOrder=cdrom,disk

OVM> create Vnic network=VLAN-DEMO-01 name=net1 on vm name=vm01

OVM> start vm name=vm01

Disken, Snapshots, Clones

17

18

OVM Cluster im SAN

ocfs2

OVM 1

Guest VM

virtual

disk

FS/ASM

OVM 2

Guest VM

virtual

disk

FS/ASM

FC

19

OVM Cluster im SAN /2

ocfs2

OVM 1

Guest VM

virtual

disk

physical

disk

FS/ASM

OVM 2

Guest VM

virtual

disk

physical

disk

FS/ASM

FC

FS/ASM FS/ASM

Snapshot Clones

20

Thin Clones

nur mit Virtual Disks

OCFS2 Funktionalität

Copy On Write (COW) Filesystem

Snapshot = Clone

vollwertige VM

kann separat gestartet werden

konsistent im laufenden Betrieb

nur im gleichen Repository möglich

Dauer: < 1s

Backup Szenarien

Thin Clone erstellen

Move in ein NFS-Storage

oder: Übergabe an einen Backup Client

via NFS Export

COW Snapshot - OLTP

21

create Snapshot

Swingbench 2.5, Order Entry Benchmark

COW Snapshot - DWH

22

Swingbench 2.5, Sales History Benchmark

kein zusätzlicher

Platzbedarf

Lizenzen & Support

23

keine Lizenzkosten

Open Source

Manager ist nur Freeware

Weblogic-basierend

Support optional

Server Pinning

Lizenzierung einzelner Server

für alle Oracle Produkte

HA nur bedingt

cold Failover im Rahmen der

Failover Cluster Regelung

CPU Pinning

Lizenzierung einzelner Cores

HA möglich

KEINE Live Migration

Zertifizierung & Support

für alle Oracle Produkte

kaum vorhanden für SW-

Appliances von Drittherstellern

24

Support & Lizenzen

CPU Pinning

25

Setup

am OVM Manager

ovm_utils: Patch 13602094

separat zu installieren

ab 3.3: Aktivierung von tcps (Port 54322)

ovm_vmcontrol

Live migration of CPU pinned virtual machines to another Oracle VM Server is not permitted under the terms of

the hard partitioning license. Consequently, for Oracle VM 3, DRS (Distributed Resource Scheduler) and DPM

(Distributed Power Management) policies should not be enabled for server pools containing CPU pinned

guests.

http://www.oracle.com/technetwork/server-storage/vm/ovm-hardpart-168217.pdf

# ovm_vmcontrol -u admin -p Test1234 -h localhost -v ora01 -c vcpuset -s 0,2,4,6

Oracle VM VM Control utility 2.0.1.

Connecting with a secure connection.

Connected.

Command : vcpuset

Pinning virtual CPUs

Pinning of virtual CPUs to physical threads '0,2,4,6' 'ora01' completed.

Manager

Performance

26

27

DWH Load / Swingbench

andere Untersuchungen

28

Open University Australia

Oracle RAC und Oracle Applications auf OVM Giests http://www.oracle.com/us/technologies/virtualization/oracle-vm-for-oracle-database-2155841.pdf

DR-Konzepte

29

DR-Konzepte - traditionell

30

White Papers:

http://www.oracle.com/us/technologies/virtualization/ovm3-arch-tech-overview-459307.pdf

http://www.oracle.com/technetwork/server-storage/vm/ovm3-disaster-recovery-1872591.pdf

Streched Serverpool

31

MOS Note 1602029.1

Streched Serverpool /2

32

DR & HA – kein SPOF

Verteilung von Server + Storage über 2 Standorte

active/active Storage in OVM nicht vorgesehen

redundanter Manager

könnte auch eine eigene VM im HA-Mode sein

Performance & Stabilität

es gelten die gleichen Regeln wie in allen Clustern

redundante Wege

Split Brain Problematik

Latenzzeiten kontrollieren

DR-Konzepte – innovativ

33

10 GBitSSDPCIe / NVMe

SSDPCIe / NVMe

SAN / NAS SAN / NAS

DRBD

Virtual SharedStorage

Site A Site B

DR-Konzepte – innovativ /2

34

Active / Active

beide Seiten synchron

voll nutzbar

"Site Overprovisioning"

günstige Storage Infrastruktur

SAN oder NFS nicht zwingend erforderlich

lokale Disken möglich

High Performance SSDs

SAS, SATA, PCIe, NVMe

Customized Setup

Verwendung von Standard (Open Source) Software

NICHT out of the box

Kritik & Ausblick

35

Kritikpunkte

36

Storage Management

keine Live Migration zwischen Repositories

keine online Storage Migration

GUI

kein Multitasking in der gleichen Session

mehrere Sessions erforderlich, CLI

keine Userverwaltung (Mandantenfähigkeit)

marginales Monitoring

Backup

erst beginnende Integration in Backup-Produkte

Overprovisioning

nur für CPUs, nicht für RAM

Verbreitung

kaum Zertifizierungen für SW-Appliances von Fremdherstellern

Gartner's Magic Quadrant

37

Mag. Dr. Thomas Petrik | +43 664/155 [email protected]

Noch Fragen?

Wir haben die Antworten: