Quality of Service in Quality of Service in ATMATM
Quality of Service in Quality of Service in ATMATM
Prof. Dr. W. RiggertProf. Dr. W. Riggert
Prof. Dr. W. Riggert 2
Inhalt
• Das Tutorial ist in vier Abschnitte gegliedert.
• Abschnitt 1-3 behandeln die prinzipielle Aspekte, der verbleibende Abschnitt widmet sich Anwendungsapekten.
• Ein weiteres Tutorial wird sich mit Queuing und Pufferung beschäftigen.
Was versteht man unter Quality of Service ? Wie wichtig ist es ?Wie mißt man sie ? Wann implementiert man sie ?
Prof. Dr. W. Riggert 3
Neue Herausforderungen
Intranet undIntranet undGroupwareGroupware
GeschäftskritischeGeschäftskritischeAnwendungenAnwendungenInformationsverteilunInformationsverteilun
g (Multicast)g (Multicast)PictureTePictureTell
DatenmengenDatenmengen
UnvorhersehbarerUnvorhersehbarerDatenflußDatenfluß
Verfügbarkeit und Verfügbarkeit und AntwortzeitAntwortzeit
Prof. Dr. W. Riggert 4
QoS: Beschreibung
• Rechner nutzen ein Netzwerk um miteinander zu kommunizieren. Die Anwendungen benötigen dafür einen gewissen Anteil verfügbarer Bandbreite. In Abhängigkeit vom Typus der Applikation kann der Datenverkehr Zeitschranken unterliegen, deren Einhaltung durch die Konkurrenz mit anderen Rechnern erschwert wird. Nur im falle exklusiver Punkt-zu-Punkt Verbindungen lassen sich spezifische Übertragungsparameter gewährleisten
Rechner A
Rechner B
Netz : nutzer- und anwendungstransparent
Prof. Dr. W. Riggert 5
• Die Netze der Vergangenheit berücksichtigten keine Einhaltung spezifischer Parameter wie Bandbreite, Verzögerung oder Varianz der Verzögerung. Das IP-basierte Internet sichert z.B. nur best-effort-Dienste zu. Bisher spielten temporäre Restriktionen keine Rolle, allein die Zuverlässigkeit stand im Vordergrund.
• Internetnutzer in Europa kennen den Effekt, daß die Geschwindigkeit des Netzes nachmittags sinkt, wenn in den USA die Arbeitszeit beginnt.
QoS: Bedeutung
?
Prof. Dr. W. Riggert 6
QoS : Anwendungssicht• Die Frage nach QoS tritt auf, wenn
mehrere Applikationen um die Ressource Bandbreite konkurrieren. Ein Filetransfer oder ein Web-Browser benötigt zwar hohe Übertragungskapazitäten, sein Ablauf ist aber nicht zeitsensitiv. Eine Sprachverbindung hingegen basiert auf geringer Bandbreite aber hohen Qualitätsmerkmalen.
• Verschärft wird diese Situation, wenn beide Anwendungen auf den gleichen Rechner laufen.
Anwendung 1 Anwendung 2
Anwendung 1 Anwendung 2
geringe Bandbreite, zeitsensitiv
hohe Bandbreite verzögerungstolerant
Prof. Dr. W. Riggert 7
QoS : Serviceebenen
Priorisierte Anwendungen mit garantierter Bandbreite
Konventionelle Anwendungen nach dem Best-Effort-Schema
Anwendungen mit Dienstgüteanforderungen
Prof. Dr. W. Riggert 8
QoS : Vorzüge von ATM• Selbst hartnäckige Gegner von ATM
müssen einräumen, daß es die einzige Technologie ist, die von Grund auf für QoS-Merkmale konzipiert ist :
• Das Switchingkonzept erlaubt die Zuweisung expliziter Bandbreite an die Rechner.
• Die feste Zellgröße gewährleistet die Einhaltung von Verzögerungsvorgaben.
• Der verbindungsorientierte Charakter gestattet die Festlegung von Übertragungsparametern auf dem Weg durch das Netz und ermöglicht die Überprüfung deren Einhaltung
• Switching-Technologie •Übertragungseinheit fester Größe
• Verbindungsorientiertheit• Standardimplementation
von QoS-Parametern
Prof. Dr. W. Riggert 9
QoS : Eigenschaften
• Um die Diensgüte einer Übertragung zu beschreiben, dienen vier Parameter :
• Bandbreite• Verzögerung• Zuverlässigkeit• Kosten
die eine sehr spezifische Abbildung in die ATM-Metrik besitzen.
Bandbreite Peak Cell Rate (PCR) Sustained Cell Rate (SCR) Minimum Cell Rate (MCR)
Verzögerung Cell Transfer Delay (CTD) Cell Delay Variation (CDV)
Zuverlässigkeit Cell Loss Ratio (CLR)
Kosten pro virtuellem Kanal
Prof. Dr. W. Riggert 10
ATM-Verkehrsvertrag• Um eine Verbindung über das Netz
aufzubauen, die eine bestimmte Dienstgüte gewährleistet, müssen alle beteiligten Rechner der Einhaltung der daran geknüpften Merkmale zustimmen. Diese Art des Vertrages wird zwischen den ATM-Endstationen ausgehandelt. Im Falle der Beteiligung von Ethernet/Token Ring-Stationen sieht der Ablauf anders aus.
• ATM definiert vier Basisverträge, die eine allgemeine Einordnung der Anforderungen einer Verbindung erlauben. Dennoch könnte eine Verbindung keiner dieser Kategorien angehören und seine eigenen QoS-Parameter festlegen.
ATM-Servicekategorien
Garantiert Best Effort
CBR VBR-rt VBR-nrt UBR ABR
Prof. Dr. W. Riggert 11
Constant Bit Rate (CBR)
• Eine CBR-Verbindung unterstützt Anwendungen mit konstantem Bandbreitenbedarf. Hierunter fällt unkomprimierte Sprache mit 64 Kbit/s.
• Der CBR-Typ wird auch für WAN-Strecken verwendet, wenn E1 oder T3 Übertragungswege über einen ATM-Backbone geführt werden.
• Der Bandbreitenbedarf wird durch einen Parameter, die Peak Cell Rate, beschrieben.
VBR
ABR
UBR
CBR
Prof. Dr. W. Riggert 12
Variable Bit Rate (VBR)• Diese Verbindungsart ist speziell für
variable Bandbreitenanforderungen konzipiert, die sich durch drei Parameter charakterisieren lassen :
• Peak Cell Rate• Sustained Cell Rate• Maximum Burst Size
• Damit eignet sich dieses Konzept besonders für Sprach- und Videoübertragungen. Für Realtime-Anwendungen wie Videokonferenzing kommt als weiterer Parameter die Cell Delay Variation hinzu.
Für unvorhergesehenen Verkehr,der ein bestimmtes Maximum und eine bestimmte Dauer nicht über-schreiten darf.
VBR
ABR
UBR
CBR
Prof. Dr. W. Riggert 13
Unspecified Bit Rate (UBR)
• VBR bildet die Erfordernisse des normalen LAN-Verkehrs nicht ausreichend ab, da das Bandbreitenausmaß nicht vorhersagbar ist und die Gefahr besteht, die Maximale Burst Size zu verletzen. UBR versucht diese Gefahr zu bannen, indem es den Bandbreitenrest in „best-effort“-Art nutzt.
• Werden UBR-Verbindungen überlastet, führt dies zu steigenden Puferzeiten der Zellen. Bei Pufferüberlauf werden einfach Zellen verworfen
VBR
ABR
UBR
CBR
Prof. Dr. W. Riggert 14
Available Bit Rate
• Das ABR-Verfahren wurde entwickelt, um UBR-Verbindungen mit einer Datenflußkontrolle zu versehen. Anstelle des Auftretens von Überlast, versuchen die ATM-Switches proaktiv zu reagieren und reduzieren die Übertragungsrate analog zum Window-Mechanismus in TCP.
VBR
ABR
UBR
CBR
Prof. Dr. W. Riggert 15
ATM-Queuing
• Zur Abwicklung von Verbindungen mit unterschiedlichen Verkehrstypen benötigt ATM eine Prioritäts-Queuing. CBR genießt höchste Priorität, da die Daten sensitiv hinsichtlich der Variation der Zellverzögerung sind, daran schließt sich der VBR-Verkehr aufgrund seiner möglichen Realtime-Anforderungen an. ABR und UBR sind für diesen Gesichtspunkt als unkritisch einzustufen.
Prof. Dr. W. Riggert 16
ATM-Verkehrsparameter
• ATM spezifiziert für jeden Verbindungstyp die den zugehörigen Zellfluß charakterisierenden Parameter
Merkmal CBR VBR- rt VBR- nrt ABR UBR Klasse
CLR - QoS maxCTD und CDV
nur Mean CTD
- - QoS
PCR und CDVT
Traffi c
SCR und BT N/ A N/ A N/ A Traffi c MCR N/ A N/ A N/ A N/ A Traffi c Überlast-kontrolle
- - - - Traffi c
Merkmal CBR VBR- rt VBR- nrt ABR UBR Klasse
CLR - QoS maxCTD und CDV
nur Mean CTD
- - QoS
PCR und CDVT
Traffi c
SCR und BT N/ A N/ A N/ A Traffi c MCR N/ A N/ A N/ A N/ A Traffi c Überlast-kontrolle
- - - - Traffi c
Prof. Dr. W. Riggert 17
Verkehrsmanagement• ATM als verbindungsorientierte Technologie ist gezwungen,
Funktionen für das Akzeptieren oder Verweigern einer Verbindung bereitzustellen. Dabei darf eine neue Verbindung nur zugelassen werden, wenn jeder betroffene Netzknoten über ausreichend Ressourcen verfügt und keine Dienstgütevereinbarungen anderer Verbindungen verletzt.
ATM Netz
Ich möchte :X Mbit/sY DelayZ Zellverlust
CACCACKann diese Verbin-dung unterstützt
werden, ohne anderezu verletzen?
Neinoder
Ja, ich stimmedem Vertrag zu
Garantierter QoS Request
Contract
Prof. Dr. W. Riggert 18
Dienstklassen und Managementfunktionen
• Eine Verbindung zwischen den einzelnen Dienstkategorie und die sie unterstützenden Verkehrsmanagementfunktionen stellt folgende Tabelle her :
Funktion/ Klasse
CBR VBR UBR ABR
Garantie Bandbreite und Delay
Minimale Bandbreite
- Kaum
Traffi c Vor-hersage
100 % <100% - -
CAC J a J a - - UPC J a J a Möglich Möglich Flusskontrolle - Möglich Möglich J a Überlastkon-trolle
- J a J a J a
Funktion/ Klasse
CBR VBR UBR ABR
Garantie Bandbreite und Delay
Minimale Bandbreite
- Kaum
Traffi c Vor-hersage
100 % <100% - -
CAC J a J a - - UPC J a J a Möglich Möglich Flusskontrolle - Möglich Möglich J a Überlastkon-trolle
- J a J a J a
Prof. Dr. W. Riggert 19
Traffic Shaping
• Traffic Shaping in Form einer Verstetigung des Verkehrsmusters ist nützlich, weil der normale Datenstrom weitgehend unvorhersehbar ist. Burst Traffic ist aber gerade die Ursache für Pufferüberläufe, Paketverlust und variierende Verzögerung der Paketweiterleitung. Das Ziel besteht daher darin, den Datenstrom zu glätten.
• Traffic shaping: Um dieses Muster einzuhalten dient der ‘Leaky bucket algorithm’, der die Spitzen-Durchschnitsrate und die Burstgröße begrenzt
Aktueller Datenstrom
Geglätteter Datenstrom
ShaperShaperShaperShaper
Prof. Dr. W. Riggert 20
Leaky Bucket Konzept (leckender Trichter)
• Zur Durchführung der im Verkehrsvertrag hinterlegten Dienstgüten bedient sich ATM einer Menge von Algorithmen, die innerhalb jeden Knotens ausgeführt werden und die die Korrektheit des Datenstromes überprüfen. Für CBR, VBR-rt, VBR-nrt und UBR-Verbindungen wird eine Übereinstimmung des aktuellen mit dem ausgehandelten Verkehrsfluss durch einen Generic Cell Rate-Algorithmus (GCRA) sichergestellt.
Zellen
Trichter
Zellen, die demVerkehrsvertragentsprechen
Zelldurchlassnach GCRA, z.B.Token Bucket
Prof. Dr. W. Riggert 21
GCRA - Generic Cell Rate Algorithmus
TAT = Theoretische Ankunftszeit
ta = Tatsächliche Ankunftszeit der Zelle
I = Increment Parameter
L = Limit Parameter(Obergrenze für „Klumpen-
bildung)
TAT’ := TATTAT’ := TAT
TAT:=tTAT:=taaStartStart
Warten auf Zellankunft
TAT < tTAT < taa ? ?
TAT > tTAT > taa+L ?+L ?
TAT’ := TAT+ITAT’ := TAT+I
Konforme ZelleY
N
Y
Konforme Zelle
Nicht-konforme Zelle
TAT := TAT’TAT := TAT’
TAT ’ := tTAT ’ := taa+I+IN
Prof. Dr. W. Riggert 22
Token Bucket : Beispiel eines GCRA
ppToken
BBÜberlauf-ende Token
Zellankunft Konforme Zellen
BB—Burstgröße
pp—Token Ankunftsrate
Verkehrsvertrag verletzende Zellen
Zuordnung Token - Zelle
Prof. Dr. W. Riggert 23
Beispiel
• Die Zellen erreichen den Trichter in gleichen Zeitabständen. Der Zustand des Trichters unmittelbar vor Eintreffen der Zellen ist mit t- bezeichnet, nach der Zellverarbeitung tritt der Zustand t+ ein. Der Parameter I=1,5 zeigt an, dass die Durchflussgeschwindigkeit geringer als die Ankunftsrate ist und die Trichtergröße zwei Zelleinheiten umfasst. Im Beispiel gilt, dass die Ankunftsrate um die Hälfte über der Abfertigungrate liegt.
GCRA(1.5, 2) Zelle Zelle keine Zelle Zelle Zelle
Zeit
2
1
t- t+ t- t+ t- t+ t- t+ t- t+
Prof. Dr. W. Riggert 24
Queue-Management
• Mehrere Verfahren zur Verwaltung der Ressourcen Bandbreite und Puffer und zur Abbildung von Prioritäten haben sich herauskristallisiert. Dazu zählen in erster Linie Konzepte für ein ausgefeiltes Queuing und Vorschläge zur Vermeidung von Überlast. Paketankunft und Ordnung gemäß
zugesicherter Übertragungsmerkmale
Prof. Dr. W. Riggert 25
FIFO-Queuing
• Gemäß dieses Verfahrens werden die einlaufenden Pakete bei Überlast in ihrer Reihenfolge zwischengespeichert und in der gleichen Sequenz an den Folgeknoten weitergeleitet, sobald die Überlastungssituation sich entspannt hat. FIFO macht damit keinen Gebrauch von Prioritäten, einzig die Reihenfolge bestimmt die Bandbreite und Pufferallokation.
Quelle 2
Quelle 1
Quelle 3
1
3
2
Sequentialisierungnach zeitlicher
Reihenfolge
Prof. Dr. W. Riggert 26
des FIFO-Queuing
• einfaches Verfahren mit geringem Overhead
• Alle Datenflüsse werden ohne Unterscheidung nach garantierten Merkmale, Burstverkehr oder Best-Effort in die gleiche Schlange eingeordnet.• Ohne eine Trennung des Verkehrsflusses kann die Verzögerung nicht wirksam kontrolliert werden.• Burstverkehr erzeugt zusätzliche Verzögerungen für die konkurrierenden Übertragungen.
Prof. Dr. W. Riggert 27
Prioritäts-Queuing 1
• Prioritäts-Queuing versucht, Verkehrsströme durch die Zuweisung von Prioritäten zu differenzieren. Die Differenzierung geschieht über das Netzwerkprotokoll, die empfangenen Interfaces, die Paketgröße oder die Adressen. Jedem Paket wird einer separate Warteschlange zugeordnet, die mit einer bestimmten Priorität verbunden ist. Während der Übertragung räumt der Algorithmus den Schlangen mit der höchsten Priorität absoluten Vorrang ein.
Quelle 1
Quelle 2
Quelle 3
Klassifikation inprioritätsabhängige
Warteschlangen
Zellübertragungnach Priorität
Prof. Dr. W. Riggert 28
Prioritäts-Queuing 2
EinlaufendeZellen
Warteschlangen nachPrioritäten
Übertragung
s-Queue
Hoch
Mittel
Normal
Gering
Klassifikation
nach Priorität
Klassifikation
nach Priorität
Absolutes Prioritäts- Scheduling
Prof. Dr. W. Riggert 29
des Prioritäts-Queuing
• einfaches Verfahren mit geringem Overhead• Verzögerungen sind darauf begrenzt, wie die Klassifikation erfolgt
• Datenflüsse mit garantierter Priorität werden zulasten andere Übertragungen bevorzugt• Verzögerungen summieren sich beim Passieren mehrerer Netzknoten
Prof. Dr. W. Riggert 30
Custom Queuing 1• Diese Form des Puffermanagements
erlaubt unterschiedlichen Anwendun- gen die Netzressourcen mit einer spezifischen Bandbreite und Verzöge- rung zu nutzen. Erreicht wird dies durch die Zuweisung eines bestimmten Betrages an Warteschlangenkapazität an die einzelnen Paketklassen. Der Algorithmus bedient die einzelnen Schlangen nach dem Round-Robin-Prinzip und sendet innerhalb der Schlangen den reservierten Bandbrei- tenanteil in Form einer konfigurierbaren Bytezahl bevor er zur nächsten Schlange wechselt.
Quelle 1
Quelle 2
Quelle 3
Klassifikation nachWarteschlange
Zellübertragungnach Byte Count
der Warteschlange
Prof. Dr. W. Riggert 31
Custom Queuing 2
Interface Puffer
Bis zu 16
3/10
Weighted RoundRobin Scheduling(Byte Count-basiert)
Allokation des Bandbreitenant
eils
2/10
3/10
2/10
Link-Nutzungs-verhältnis
EinlaufendeZellen
Klassifikationnach
Priorität
Klassifikationnach
Priorität
Übertragungs
-Queue
Prof. Dr. W. Riggert 32
des Custom-Queuing
• Das Verfahren stellt sicher, dass keine Applikation mehr als den ihr zugesicherten Teil der Bandbreite beanspruchen kann
• Wie das Priority Queuing ist auch dieser Ansatz statisch und reagiert nicht auf Änderungen der Netzwerkbedingungen• Das FIFO-Verfahren innerhalb der Warteschlangen läßt den Verkehr nicht vorhersagbar werden.
Prof. Dr. W. Riggert 33
Fair Queuing
• Fair Queuing ordnet gemäß der Arbeitsweise des Time Division Multiplexing die einlaufenden Pakete separaten Schlangen zu. Dies entspricht auf dem Flughafen den getrennten Schlangen für jeden Flug.
6666 4444 1111
3333
5555 2222
Ankunftsreihenfolge
5555 4444 1111
2222
6666 3333
Übertragungsreihenfolge
Prof. Dr. W. Riggert 34
des Fair-Queuing
• Burst-Verkehr beeinflußt keine anderen Datenströme• Gut geeignet für die faire Behandlung vieler Best-Effort-Übertragungen
• Verlangt pro Datenfluß eine Warteschlange/Klasse• Erlaubt keine Differenzierung der Bandbreitenansprüche unterschiedlicher Anwendungen.
Prof. Dr. W. Riggert 35
Weighted Fair Queuing 1• Weighted Fair Queuing ordnet den
Datenflüssen der einzelnen Sender eine spezielle Queue zu, um Bandbreite und Verzögerungskennzeichen der ausgehandelten Multi-Media-Anwendungen zu garantieren. Die einzelnen auf diese Weise pro Quelle entstehenden Schlangen arbeitet der Router nach dem Round-Robin-Verfahren ab. Fairness leitet sich aus der Überlegung ab, daß eine adäquate Zuteilung der Dienstgüten zu den Erfordernissen der einzelnen Anwendungen erfolgt
Anforderungen :– “Die
Verkehrsverzögerung muss vorhersagbar vorhersagbar seinsein”
– “Reservierte Datenflüsse müssen eine gewisse BandbreiteBandbreite und Latenz Latenz beanschruchen”
Prof. Dr. W. Riggert 36
Weighted Fair Queuing 2
Interface Puffer
KonfigurierbareZahl von
Warteschlangen
Klassifikation des Datenflusses durch:
• Quell- und Zieladresse• Protokoll• Port/Anwendung
Gewichte bestimmt durch :• Verlangte QoS (IP Precedence,
RSVP)• Durchsatz (weighted-fair)
Weighted Fair Scheduling
36© 1998, Cisco Systems, Inc.
507NW’98
EinlaufendeZellen
KlassifikationKlassifikation
Übertragungs
-Queue
Prof. Dr. W. Riggert 37
des Weighted Fair-Queuing
• genaue Überwachung der Bandbreite• genaue Kontrolle der Verzögerung
• sehr komplexes Verfahren• verlangt mehr Einordnung und Sortierung als die anderen Ansätze• Die verfügbare Bandbreite hängt aber von der Anzahl simultaner Verbindungen ab und ist damit eine Funktion des Verkehrsaufkommens.
Prof. Dr. W. Riggert 38
Überlast-Management
• Diese Verfahren zielen auf die Vermeidung von Überlast- situationen. Dazu überwachen sie die durchschnittliche Länge der Warteschlange und veranlassen den Sender notfalls zur Reduktion der Übertragungs- leistung. Zwei Verfahren für den paketbasierten Datenverkehr werden eingesetzt :– Early Packet Discard– Partiel Packet Discard
Eigenschaften der Überlast-Algorithmen:• Überlastvermeidung• Zur Zusammenarbeit mit TCP entworfen• Vermeiden globale Synchronisa- tion mehrerer Verbindungen
Prof. Dr. W. Riggert 39
Early Packet Discard
• Die Form der frühzeitigen Paketabweisung verhindert das Überschreiten der Gesamtzahl der Zellen im Output-Buffer durch einen benutzerdefinierten Schwellwert, der die Aufnahme neuer Zellen eines weiteren zugehörigen LAN-Paketes verhindert, da durch die Füllgrenze mit Zellverlusten zu rechnen ist. Der verbleibende Platz wird LAN-Paketen zugewiesen, deren Übertragung bereits begonnen hat, um ihnen die Chance einer erfolgreichen vollständigen Übertragung zu geben.
Output Puffer
EOPEOP
EPD Schwellwert
EOPEOP 00
00
00
00
00000 11 0000
Prof. Dr. W. Riggert 40
Partial Packet Discard 1
• Falls trotz EPD die Puffer überlaufen und Zellen verworfen werden müssen, eliminiert PPD alle zu einem Paket gehörigen Zellen. Das Verwerfen von Zellen geschieht folglich nicht zufällig, sondern versucht, komplette Pakete und nicht einzelne Zellen unterschiedlicher Pakete zu eliminieren. Dieses Verfahren hat den Vorteil, dass der Durchsatz erheblich erhöht werden kann, da nur die Retransmission einzelner ausgewählter Pakete notwendig wird
TCP/IP Paket
X
Das Verwerfen einzelner Zellen eines TCP/IP-Paketes erweist sich als ineffektiv
Prof. Dr. W. Riggert 41
Partial Packet Discard 2
• PPD nutzt die Vorteile der TCP Datenflußkontrolle. Bereits vor entstehen der Überlast verwirft PPD zufällig ein Paket (alle Zellen des Paketes) und zwingt auf diese Weise die Quelle, die Übertragung zu drosseln. TCP reagiert auf den Paketverlust mit einer Verkleinerung des “Windows” solange , bis alle Paket ohne Retransmission ihr Ziel erreichen.
Queue
Anzeige : Schlange gefülltFolge :Paketverwerfen
Paketan-kunft
41© 1998, Cisco Systems, Inc.
502NW’98