Institut für Kommunikationsnetze und Rechnersysteme - Universität ...
Institut für Kommunikationsnetze und Rechnersysteme - Universität ...
Institut für Kommunikationsnetze und Rechnersysteme - Universität ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
– 97 –<br />
4.2.2.2 Ungesättigte TCP-Quellen<br />
Die überwiegende Zahl von TCP-Untersuchungen, die in der Literatur zu finden sind, basieren<br />
auf einem einfachen Modell <strong>für</strong> die auf TCP aufsetzende Anwendungsebene, bei dem auf der<br />
Senderseite immer Daten bereitstehen. Es handelt sich somit um ungesättigte Quellen (greedy<br />
sources) auf der Gr<strong>und</strong>lage permanenter TCP-Verbindungen. 5<br />
Mitunter wird ein solches Modell auch als FTP-Modell bezeichnet, was aber aus zwei Gründen<br />
irreführend ist. Einerseits werden dabei die charakteristischen Eigenschaften von FTP selbst,<br />
wie z. B. der Aufbau eines separaten Kontrollkanals, gar nicht berücksichtigt, andererseits sind<br />
auch TCP-Verbindungen in FTP genauso wie im Fall von WWW dynamisch, d. h. innerhalb<br />
einer TCP-Verbindung wird nur eine begrenzte Datenmenge übertragen. Allerdings ist aus<br />
Messungen bekannt, dass Dateien, die über FTP übertragen werden, tatsächlich tendenziell<br />
größer sind als Objekte, die im WWW abgerufen werden [266], sodass diese Bezeichnung in<br />
gewissem Sinn gerechtfertigt ist.<br />
Während in analytischen Modellen häufig eine einzelne permanente TCP-Verbindung in Kombination<br />
mit einem stark vereinfachten Netzmodell betrachtet wird [212], basieren simulative<br />
Untersuchungen zumeist auf einer Überlagerung einer festen Anzahl von ungesättigten TCP-<br />
Quellen, unter denen die im Netz verfügbare Bandbreite aufgeteilt wird.<br />
Ein Nachteil eines solchen Überlagerungsmodells ist dessen deterministischer Charakter. Dieser<br />
rührt daher, dass sämtliche TCP-Algorithmen deterministischer Natur sind <strong>und</strong> sich daher<br />
im Falle eines Netzmodells ohne stochastische Komponenten ein vorhersehbarer Ablauf von<br />
Ereignissen (z. B. Paketankünfte/-verluste) ergibt. Prinzipiell bedeutet dies, dass in Bezug auf<br />
den Gesamtsystemzustand auch Zyklen vorkommen können, was die Gültigkeit der aus einer<br />
Simulation abgeleiteten statistischen Größen (z. B. mittlerer Durchsatz) in Frage stellen würde.<br />
Andererseits scheint es gerechtfertigt, das System aufgr<strong>und</strong> des immens großen Zustandsraums<br />
als pseudozufällig zu betrachten, was wiederum die Anwendung statistischer Auswertung<br />
erlaubt.<br />
Eine einfache Möglichkeit, um wenigstens die durch einen gemeinsamen Sendebeginn verursachte<br />
Gefahr einer Synchronität der überlagerten TCP-Quellen zu vermeiden, ist eine Verschiebung<br />
des Sendebeginns jeder Quelle um ein zufälliges Zeitintervall. Dabei bietet sich<br />
z. B. eine Gleichverteilung dieses Offsets an, deren Obergrenze so gewählt ist, dass am Ende<br />
der Warmlaufphase alle Quellen aktiv sind.<br />
Darüber hinaus gibt es weitere Möglichkeiten, Zufall in das Modell zu bringen. So können in<br />
Anlehnung an das Phasensprungverfahren bei Modellen <strong>für</strong> periodische Quellen [61] Mechanismen<br />
eingesetzt werden, bei denen in großen Abständen kurze Aktivitätspausen eingestreut<br />
werden. Hierbei ist entweder der Abstand der Pausen oder die Pausendauer als Zufallsvariable<br />
5 Gelegentlich wird auch die Bezeichnung persistente Quellen (persistent sources) verwendet.