15
Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL 10. DFN-Forum Kommunikationstechnologien, 2017, Berlin Sebastian Rieger, Hochschule Fulda, Fachbereich Angewandte Informatik

Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Embed Size (px)

Citation preview

Page 1: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL

10. DFN-Forum Kommunikationstechnologien, 2017, BerlinSebastian Rieger, Hochschule Fulda, Fachbereich Angewandte Informatik

Page 2: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

• Problemstellung

• Vor- und Nachteile von Netz-Emulatoren

• Virtual Internet Routing Lab (VIRL)

• Beispiele für virtuelle Netz-Topologien

• Herausforderungen in Bezug auf die Skalierung

• Evaluation

• Fazit und Ausblick

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL2

Agenda

Page 3: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Netzwerk-Labor “NetLab” an der Hochschule Fulda

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL3

Page 4: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Netzwerk-Labor “NetLab” an der Hochschule Fulda

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL4

Page 5: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

• Praxisnahe Übungen/Praktika, Forschungsprojekte im Bereich Netztechnologien und -dienste

• Verschiedene Hard- und Softwarelösungen für Netz-Testbeds im Einsatz

• Zunehmende Praxisnähe: großer Aufwand/Komplexität, Fokus auf Theorie: zunehmend abstrakt

• Weitere Aspekte: z.B. Eignung für Lehre (Skalierbarkeit, Collaboration/E-Learning, Vor-/Nachbereitung)

• Mittelweg: Virtuelle Testbeds (vgl. weitere Paper DFN-Forum 2016/2017) und Emulation von Netzen

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL5

Problemstellung

Page 6: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Vorteile der Emulation

• Vgl. z.B. Paper aus Forschungsgruppe um Nick McKeown zu mininet (siehe Table 1 rechts)

• Integration reale Netze/Tools/Images, geringe Vor-/Nachbereitungszeit bei Übungen vgl. mit virtuellen oder physikalischen Testbeds

Nachteile der Emulation

• Virtuelle Images von realen Netzkomponenten brauchen „viele“ Ressourcen (RAM, CPU)

• Teilweise höhere Komplexität (Verwendung und Administration)

Trade-off: Ressourcen vs. Praxisnähe

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL6

Vor-/Nachteile von Netz-Emulatoren

Page 7: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Verschiedene Software-Lösungen für Netz-Emulation getestet bzw. noch im Einsatz:

• Enterprise Network Simulation Platform (eNSP): primär auf Huawei Komponenten ausgerichtet

• IOS on Unix (IOU): nur Cisco-intern verfügbar

• Emulated Virtual Environment Next Generation (EVE-NG): Alpha-Status

• mininet: primärer Fokus SDN, Netz-Konfiguration über Python API, keine VMs/Images

• Graphical Network Simulator 3 (GNS3): interessante Alternative, Marketplace, OpenSource

… bieten keinen Cluster/Load Balancing, scale-out und zentrale Administration eingeschränkt

… teilweise Collaboration-Funktionen und verfügbare Images ebenfalls eingeschränkt

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL7

Verwendete Netz-Emulatoren im NetLab

Page 8: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Seit 2015 im Test - Virtual Internet Routing Lab (VIRL) von Cisco (Version 1.2.83)

• Netz-Virtualisierungs- und Orchestrierungsplattform

• Lokale Installation oder zentral bzw. VIRL Cluster (bietet scale-out)

• Automatische Konfiguration für Netz-Design (AutoNetKit)

• Integration reale Netze (Layer-2 „flat“, NAT), OpenVPN in virtuelle Testbeds, reale Geräte-Konfigs

• Cisco Images IOS, IOS Layer-2, IOS XE/XR, NX-OS, ASA, 3rd Party: Arista, Juniper, FortiNet, Cumulus …

• Open Source als Basis: Ubuntu, OpenStack, KVM und LXC, linux-bridge (VXLAN)

• Eclipse-basierter Client (frei, auch von zu Hause für Studierende nutzbar), Web-Interface, REST-API

• Nachteile: Lizenz (in den letzten Jahren freie F&L-Lizenz), geplant max. 20 Cisco Nodes Einzelplatzlizenz, Weiterentwicklung bzgl. Cisco Modeling Labs (CML)

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL8

Verwendete Netz-Emulatoren im NetLab (2)

Page 9: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

a) 4 Arista vEOS „diamond shape“• Virtuelle Version von Arista EOS, fast alle Layer-2/3/Management Features• Spanning Tree Protocol (STP)• Link-Aggragation (LACP)• Multi-Chassis Link Aggregation (MLAG)b) Leaf-Spine Architektur (2 Spines, 4 Leaves)• BGP Fabric (IOSv, NX-OSv), Equal Cost Multi-Path (ECMP)• Linux Container (LXC) mit iperf• Verwendung regulärer IOS und Linux Commands• Wireshark für Traffic Capture• Nodes/Links up/down setzbar, QoS Emulation (Delay, Loss, …)

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL9

Beispiele für verwendete Topologien im NetLab

Page 10: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

c) SDN Topologie

• OpenDaylight Controller, Definition von Flow für client und server

• Arista vEOS OpenFlow Switch

d) Beispiel für einfachere Topologie im Bachelor

• Troubleshooting (u.a. ping, traceroute/mtr, Wireshark)

• Fehler z.B.: ARP, Routing/Switching, Delay/Packet Loss, Port Status

• Zugriff auf Server B (Ubuntu mit Apache) aus Lab (OpenVPN)

• ISP nutzt WAN-Emulation, bindet Topology per NAT an Internet an

• Alle Topologien per Git bereitgestellt, Zugriff in VIRL integriert

• Weitere Images in VIRL: Docker, kali, ostinato, vyatta, …

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL10

Beispiele für verwendete Topologien im NetLab

Page 11: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Teaching/Collaboration

• Komplexität für Verwendung und Administration

• Kann durch zentrale Bereitstellung/Vorkonfiguration und Tutorials abgefedert werden

Skalierbarkeit

• Topologien brauchen aufgrund realitätsnaher VMs mehrere Minuten für Start (Simulator/mininetbraucht nur wenige Sekunden, aber geringerer Funktionsumfang)

• Hohe Anforderung an Ressourcen (z.B. 1-2 GB RAM, 1-2 vCPU Cores pro Node in Topologie)

VIRL Benchmarking und Perfomance-Optimierung

• Cluster aus 4x VIRL Host, 64 GB RAM, 32 vCPUs als VM in VMware vSphere 6.5 (nestedvirtualization)

• Test: Paralleler Start von mehreren Topologien mit 4 Arista vEOS Nodes per REST-API

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL11

Herausforderungen

Page 12: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

• Topologie 4x Arista vEOS(8 GB RAM, 4 vCPUs pro Topologie)

• Paralleler Start mehrerer Topologien über VIRL REST-API

• Automatisierter Test/Python-Skript, Mittelwert aus 10 Tests

• Start Time: Zeitpunkt nachdem REST-API Start quittiert hat

• Active Time: VMs für Arista vEOSstarten (KVM)

• Usable Time: alle Topologien und darin enthaltene Experimente laufen, Konsole aller virtuellen Nodes nutzbar

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL12

Evaluation 2-Node Cluster

Startzeit4Arista vEOS Topologie– 2-NodeCluster

Page 13: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

• 4-Node Cluster erlaubt >10 parallele Topologien, ca. 45 sec weniger bei 10 vgl. mit 2-Node Cluster

• Rechts: manuelle Erhöhung Worker Processes OpenStack (Nova, Neutron) zus. ca. 90 sec weniger

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL13

Evaluation 4-Node Cluster und Optimierung von OpenStack Konfiguration

Page 14: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

• Cluster Größe erlaubt erwartungsgemäß größere/mehr Topologien

• SSD/ramdisk von Cisco empfohlen, im Test bei <20 Topologien jedoch kaum relevant, da Images eh im Cache, Verlust an RAM kritischer

• Bei < 10 Topologien in Evaluation leichter Zuwachs von Usable Time (Scheduling, Management in VIRL und OpenStack), darüber >20% Reduktion möglich

• Optimierung Worker Prozesse Neutron (Anlegung virtueller Netze) und Nova (Virtuelle Maschinen) bringt ~11% Reduktion (z.B. 1 Neutron-Server in VIRL standard, erhöht auf 10)

• OpenStack/VIRL Overhead hat massiven Einfluss, braucht selbst viele Ressourcen, weitere Optimierung möglich

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL14

Diskussion, Grenzen und Alternativen

Page 15: Skalierbare virtuelle Netz-Testbeds für Lehr- und ... · PDF file1/1/2017 · McKeown zu mininet (siehe Table 1 rechts) ... • OpenStack/VIRL Overhead hat massiven Einfluss, braucht

Zukunft VIRL• Probleme Lizenz, akademische Lizenz (79€/Jahr) seit 1.1.2017 gestrichen, Umstieg Cisco Modeling

Labs unattraktiv, Lösung ggf.: Einzellizenz (199€/Jahr max. 20 Cisco Nodes, beliebig viele Arista etc.)• Weiterentwicklung stockt seit Oktober?, Strategie-Wechsel bei Cisco?Alternative: GNS3 (seit 5/2017 Version 2.0, viele Verbesserungen), EVE-NG, …• Großes Potenzial, GNS3 zudem bereits einige Vorteile zu VIRL, aber kein scale-out inkl. Lastverteilung• Im Bereich SDN bleibt mininet die primäre AlternativeAusblick auf weitere Entwicklung und Lösung im NetLab• VIRL Scheduler für automatisches Starten vor Lehrveranstaltung, ggf. Erweiterung GNS3 etc.• Weitere Performance-Steigerungen: Kernel Samepage Merging (KSM), Optimierung OpenStack Konfig• Tools (Benchmark, Scheduler), Topologien: https://gogs.informatik.hs-fulda.de/srieger

Vielen Dank für die Aufmerksamkeit! Gibt es Fragen?

S. Rieger: Skalierbare virtuelle Netz-Testbeds für Lehr- und Forschungsumgebungen mit VIRL15

Fazit und Ausblick