25.01.2014 Aufrufe

Institut für Kommunikationsnetze und Rechnersysteme - Universität ...

Institut für Kommunikationsnetze und Rechnersysteme - Universität ...

Institut für Kommunikationsnetze und Rechnersysteme - Universität ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

– 97 –<br />

4.2.2.2 Ungesättigte TCP-Quellen<br />

Die überwiegende Zahl von TCP-Untersuchungen, die in der Literatur zu finden sind, basieren<br />

auf einem einfachen Modell <strong>für</strong> die auf TCP aufsetzende Anwendungsebene, bei dem auf der<br />

Senderseite immer Daten bereitstehen. Es handelt sich somit um ungesättigte Quellen (greedy<br />

sources) auf der Gr<strong>und</strong>lage permanenter TCP-Verbindungen. 5<br />

Mitunter wird ein solches Modell auch als FTP-Modell bezeichnet, was aber aus zwei Gründen<br />

irreführend ist. Einerseits werden dabei die charakteristischen Eigenschaften von FTP selbst,<br />

wie z. B. der Aufbau eines separaten Kontrollkanals, gar nicht berücksichtigt, andererseits sind<br />

auch TCP-Verbindungen in FTP genauso wie im Fall von WWW dynamisch, d. h. innerhalb<br />

einer TCP-Verbindung wird nur eine begrenzte Datenmenge übertragen. Allerdings ist aus<br />

Messungen bekannt, dass Dateien, die über FTP übertragen werden, tatsächlich tendenziell<br />

größer sind als Objekte, die im WWW abgerufen werden [266], sodass diese Bezeichnung in<br />

gewissem Sinn gerechtfertigt ist.<br />

Während in analytischen Modellen häufig eine einzelne permanente TCP-Verbindung in Kombination<br />

mit einem stark vereinfachten Netzmodell betrachtet wird [212], basieren simulative<br />

Untersuchungen zumeist auf einer Überlagerung einer festen Anzahl von ungesättigten TCP-<br />

Quellen, unter denen die im Netz verfügbare Bandbreite aufgeteilt wird.<br />

Ein Nachteil eines solchen Überlagerungsmodells ist dessen deterministischer Charakter. Dieser<br />

rührt daher, dass sämtliche TCP-Algorithmen deterministischer Natur sind <strong>und</strong> sich daher<br />

im Falle eines Netzmodells ohne stochastische Komponenten ein vorhersehbarer Ablauf von<br />

Ereignissen (z. B. Paketankünfte/-verluste) ergibt. Prinzipiell bedeutet dies, dass in Bezug auf<br />

den Gesamtsystemzustand auch Zyklen vorkommen können, was die Gültigkeit der aus einer<br />

Simulation abgeleiteten statistischen Größen (z. B. mittlerer Durchsatz) in Frage stellen würde.<br />

Andererseits scheint es gerechtfertigt, das System aufgr<strong>und</strong> des immens großen Zustandsraums<br />

als pseudozufällig zu betrachten, was wiederum die Anwendung statistischer Auswertung<br />

erlaubt.<br />

Eine einfache Möglichkeit, um wenigstens die durch einen gemeinsamen Sendebeginn verursachte<br />

Gefahr einer Synchronität der überlagerten TCP-Quellen zu vermeiden, ist eine Verschiebung<br />

des Sendebeginns jeder Quelle um ein zufälliges Zeitintervall. Dabei bietet sich<br />

z. B. eine Gleichverteilung dieses Offsets an, deren Obergrenze so gewählt ist, dass am Ende<br />

der Warmlaufphase alle Quellen aktiv sind.<br />

Darüber hinaus gibt es weitere Möglichkeiten, Zufall in das Modell zu bringen. So können in<br />

Anlehnung an das Phasensprungverfahren bei Modellen <strong>für</strong> periodische Quellen [61] Mechanismen<br />

eingesetzt werden, bei denen in großen Abständen kurze Aktivitätspausen eingestreut<br />

werden. Hierbei ist entweder der Abstand der Pausen oder die Pausendauer als Zufallsvariable<br />

5 Gelegentlich wird auch die Bezeichnung persistente Quellen (persistent sources) verwendet.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!