31.10.2012 Aufrufe

Datenkommunikation - FET

Datenkommunikation - FET

Datenkommunikation - FET

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Zielausgang weiter. Dieses Vorgehen eignet sich besonders für Single-Chip-Lösungen, sie kommen bei einem 8-Port Switch<br />

typischerweise mit zwei MByte Gesamtpuffer aus.<br />

Einfache Switches basieren in der Regel auf einer Busarchitektur mit hoher Bandbreite, da diese vom Schaltungsaufwand geringer<br />

ist. Dabei fließen die Rahmen von den Eingängen über den ersten Bus an einen zentralen Puffer und von dort über einen<br />

zweiten Bus zu den Ausgängen. Für High-End-Switches kommen häufig Crossbars mit zentraler oder verteilter Pufferung<br />

zum Einsatz, die in der Regel mittels speziell konstruierter Chips (Application Specific Integrated Circuits, ASICs) aufgebaut<br />

werden.<br />

complete partitioning complete sharing Partial sharing<br />

völlig getrennte Pufferbereiche (CP, complete partitioning)<br />

völlig gemeinsamer Pufferbereich (CS, complete sharing)<br />

gemeinsamer Pufferbereich mit richtungsabhängiger Begrenzung<br />

(SMXQ, sharing with maximum queue length)<br />

gemeinsamer Pufferbereich mit richtungsabhängiger Reservierung<br />

(SMA, sharing with minimum allocation)<br />

gemeinsamer Pufferbereich mit richtungsabhängiger Begrenzung und Reservierung<br />

(SMQMA, sharing with maximum queue length and minimum allocation)<br />

Bild: Pufferverwaltung<br />

Ungünstig ist die Zentralpufferung jedoch, wenn ein<br />

Ausgang Y - beispielsweise einer, an dem ein Server<br />

hängt - häufiger Rahmen erhält als die anderen. Dabei<br />

kann der Zentralpuffer mit Rahmen voll laufen,<br />

weil Ausgang Y sie nicht schnell genug abnehmen<br />

kann. Das kann soweit führen, dass der Zentralpuffer<br />

keinen Platz mehr für Rahmen an andere Ausgänge<br />

hat.<br />

Um dies zu vermeiden, begrenzt man üblicherweise<br />

die Puffermenge, die ein Ausgang belegen darf.<br />

Als Kenngröße ist ferner interessant, wie viele Rahmen ein Switch maximal pro Sekunde weiterleiten kann. Dabei ist das<br />

Blocking beziehungsweise, Non-Blocking ein wesentliches Merkmal. Blocking bedeutet, dass der Switch Rahmen mangels<br />

ausreichender Bandbreite oder Pufferkapazität verwerfen muss.<br />

Wie viele Verbindungen ein Switch simultan schalten muss, hängt von seiner Port-Anzahl ab. Im schlimmsten Fall empfangen<br />

alle Anschlüsse mit voller Geschwindigkeit. Dabei muss die interne Bandbreite für Non-Blocking so groß sein wie die<br />

Bandbreite aller Ports zusammen. Bei einem Fast-Ethernet-Switch mit acht Anschlüssen ergeben sich beispielsweise 800<br />

Mbit/s.<br />

Die Anzahl der Rahmen pro Sekunde hängt dagegen von der Bandbreite des Ports und der minimalen Rahmengröße ab, letztere<br />

ist bei Ethernet mit 64 Bytes festgelegt, dazu kommt ein gewisser Overhead für Präambel und Inter-Frame-Gap. So liefert<br />

ein Port bei 100 Mbit/s maximal 148.800 Rahmen pro Sekunde, bei 10 Mbit/s entsprechend 14.880 und bei 1 Gbit/s<br />

1.488.000 Rahmen/s. Setzt man das für den obigen Switch-Beispiel ein, dann muss dieser über acht simultane Verbindungen<br />

knapp 1,2 Millionen Rahmen pro Sekunde. Schafft er das, dann ist er Non-blocking und besitzt die sogenannte Wire-Speed-<br />

Fähigkeit.<br />

Vermittlung<br />

Neben der Angabe der Anzahl Rahmen pro Sekunden beeinflusst die Latenz den LAN-Durchsatz. Darunter versteht man die<br />

Zeit, die verstreicht, während der Switch ein Datenrahmen verarbeitet. Wie groß die Latenz ist, hängt nun vom verwendeten<br />

Switching-Verfahren ab. Dabei unterscheidet man drei Formen: Cut-Through, Store-and-Forward sowie Adaptive-Cut-<br />

Through.<br />

• Cut-Through: Hier beginnt der Switch mit der Ausgabe des Datenstroms auf den Zielport, sobald er diesen über die<br />

Zieladresse identifiziert hat, also schon nachdem die ersten Bytes eines Rahmens hereingekommen sind. Das macht Cut-<br />

Through zum schnellsten Verfahren. Ein Nachteil liegt jedoch darin, dass fehlerhafte oder beschädigte Rahmen ungehindert<br />

durchlaufen und auch auf der Ausgabeseite eine an sich unnötige Belastung des LAN darstellen.<br />

• Store-and-Forward:: Hiermit wird diese Belastung vermeidet, denn der Switch liest erst den vollständige Rahmen ein,<br />

puffert es und testet die Richtigkeit anhand der Prüfsumme (CRC). Ist der Rahmen fehlerfrei, gibt der Switch es auf den<br />

Zielport aus, wenn nicht, verwirft er es. Wegen der Zwischenpufferung ist Store-and-Forward grundsätzlich langsamer als<br />

Cut-Through, dafür minimiert es die Netzbelastung mit fehlerhaften Rahmen. Außerdem kann ein Store-and-Forward-<br />

Switch Rahmen zwischen unterschiedlich schnellen Netzsegmenten - beispielsweise von 10 auf 100 Mbit/s -vermitteln.<br />

• Adaptive-Cut-Through-Verfahren: Es vereint die Vorteile beider Methoden. Nach der Startphase setzt der Switch zunächst<br />

das schnellere Cut-Through ein, prüft jedoch auch dabei anhand der CRC die Fehlerfreiheit. Bei Überschreiten einer<br />

festgelegten Fehlerschwelle schaltet er auf Store-and-Forward um. Geht die Fehlerrate später wieder zurück, dann<br />

kommt erneut Cut-Through zum Zug. So erreicht man ein Optimum zwischen Performance und Fehlerfreiheit. Adaptive-<br />

Cut-Through kommt derzeit nur bei High-End-Switches zur Anwendung, die eine einzige Datenrate unterstützen.<br />

Institut für Kommunikationsnetze - TU Wien - o. Univ. Prof. Dr. Harmen R. van As - Vorlesung <strong>Datenkommunikation</strong> Teil 3-1a 5

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!