1 Grundlagen Verteilter Systeme 1.1 Begründung und Bedeutung ...

www2.cs.uni.paderborn.de

1 Grundlagen Verteilter Systeme 1.1 Begründung und Bedeutung ...

1 Grundlagen Verteilter Systeme

© H.-U. Hei§, Uni Paderborn

1.1 BegrŸndung und Bedeutung

Verteilte Systeme

Warum bilden ãVerteilte SystemeÒ ein eigenstŠndiges Thema ?

¥ Es gibt parallele AktivitŠten

(Koordination, Synchronisation)

¥ Es gibt keinen gemeinsamen Speicher

(Interaktion durch Nachrichtenaustausch)

¥ Systeme kšnnen sehr gro§ sein

(Gro§systemeffekte, Umschlag von der QuantitŠt in die QualitŠt)

¥ Fehler und AusfŠlle sind wahrscheinlich

(Fehlertoleranz)

¥ Komponenten (Hardware und Software) sind heterogen

(Standardisierung von Schnittstellen)

1-1


© H.-U. Hei§, Uni Paderborn

Paradigmenwechsel in der Informatik

Zum wissenschaftstheoretischen Begriff des Paradigma

παραδειγµα = Beispiel, Muster

Paradigma im Sinne von Th. Kuhn (ãThe structure of scientific revolutionsÒ):

Summe aller Grundannahmen, die in einem gewissen Zeitraum in einem Fachgebiet

allgemein anerkannt werden, d.h. das aktuell gŸltige Fundament eines Fachgebiets

Beispiele fŸr Paradigmenwechsel in der Physik:

¥ Kopernikanische Wende:

†bergang vom geozentrischen (PtolemŠus) zum heliozentrischen Weltbild

(Kopernikus)

¥ Von der NewtonÕschen Mechanik zur RelativitŠtstheorie und weiter zur

Quantenmechanik

1-2


© H.-U. Hei§, Uni Paderborn

Paradigmenwechsel in der Informatik

Phase 1: 1930 - 1960 (AnfŠnge)

Sichtweise:

Rechenassistent

Maschine

Charakterisierung:

In eine leere Maschine wird ausfŸhrbarer Code inklusive Eingabedaten geladen,

die Maschine berechnet Ergebnisse, gibt sie aus und hŠlt an.

1-3


© H.-U. Hei§, Uni Paderborn

Phase 2: 1960 - 1980 (Hoch-Zeit der Informatik)

Sichtweise: Hierarchie logischer, sprachverarbeitender Maschinen

Programm

Übersetzer

Maschine

Charakterisierung:

Programme in hšheren Programmiersprachen dienen als Eingabedaten fŸr †bersetzer oder

Interpreterierer, die daraus ausfŸhrbaren Code erzeugen.

Abarbeitung weitgehend sequentiell.

Residentes Betriebssystem ermšglicht Mehrprogrammbetrieb (time-sharing)

1-4


© H.-U. Hei§, Uni Paderborn

Phase 3: heute

Sichtweise:

Eine Gruppe autonomer, ãintelligenterÒ Instanzen, die untereinander und mit der Au§enwelt

interagieren.

Charakterisierung:

Komplexe Softwaresysteme erstrecken sich Ÿber eine Vielzahl von Rechnern.

Sie bestehen aus einer Vielzahl spezialisierter, parallel arbeitender ãAgentenÒ,

die zur ErfŸllung ihrer komplexen Aufgaben miteinander kooperieren und

gleichzeitig im Wettbewerb um knappe Ressourcen stehen.

1-5


© H.-U. Hei§, Uni Paderborn

Was ist ein Verteiltes System ?

Definition (Leslie Lamport)

(nicht ganz ernst gemeint)

"A distributed system is one

on which I cannot get any work done

because some machine I have never heard of

has crashed."

Begriffliche AnnŠherung

ãEin verteiltes System ist eine Zusammenfassung autonomer Rechner,

die durch ein Netzwerk verbunden sind und

durch geeignete SoftwareunterstŸtzung sich dem Benutzer

als ein zusammenhŠngendes Rechensystem darstellen.Ò

1-6


© H.-U. Hei§, Uni Paderborn

Beispiele

¥ Ein Transputersystem (z.B. direkt gekoppelte Transputer-Bausteine mit lokalem

Speicher)

¥ Ein Netz von Arbeitsplatzrechnern (verbunden durch Ethernet oder Token-Ring)

¥ Gesamtheit aller Internet-Knoten

¥ Die durch einen Bus gekoppelten Prozessoren in einem Automobil

(ABS, Motorsteuerung, autom. Getriebe, Airbag, Navigationsrechner)

¥ Ein Netz von Bargeldautomaten und dazugehšrige Server-Rechner

¥ Die Gesamtheit aller Rechnerknoten einer vollautomatischen Fertigungsstra§e

¥ Die Menge aller Mobiltelephone in einer Zelle

d.h. Verteilte Systeme umfassen nahezu alle Bereiche heutigen Rechnereinsatzes

1-7


© H.-U. Hei§, Uni Paderborn

1.2 Entstehung Verteilter Systeme

Verteilte Systeme sind das Resultat zweier Prozesse:

¥ Verteilen

Programme und Daten werden auf mehrere Rechner verteilt, um Beschleunigung oder

Fehlertoleranz zu erzielen

¥ Verbinden

Rechner und ihre Programme werden von anderen Rechnern erreichbar und bilden

gro§e Verbunde logischer und physikalischer Betriebsmittel

1-8


© H.-U. Hei§, Uni Paderborn

Das Grosch'sche Gesetz

Leistung

"Die Leistung eines Rechners steigt (ungefŠhr) quadratisch mit dem Preis"

Konsequenz:

Preis

Es ist gŸnstiger, einen doppelt so schnellen Rechner zu kaufen als zwei einfach schnelle

(Das Gesetz galt in den Sechzigern und Siebzigern Ÿber einen weiten Bereich von

Universalrechnern)

1-9


© H.-U. Hei§, Uni Paderborn

Achtziger Jahre

Aufkommen leistungsstarker Mikroprozessoren

¥ Hohe Integrationsdichte (VLSI)

¥ Ein-Chip-Prozessoren

¥ Automatisierter Herstellungsprozess

¥ Automatisierter Entwurfsprozess

¥ Hohe StŸckzahlen

Konsequenz:

Grosch'sches Gesetz gilt nicht mehr:

1000 billige Mikroprozessoren bringen (rechnerisch) mehr Leistung (MIPS) als teurer

Superrechner (z.B. Cray)

Idee:

Zur Erzielung hoher Leistung bei geringen Kosten viele Prozessoren gemeinsam einsetzen.

⇒ Parallelverarbeitung (ãVerteilenÒ)

1-10


© H.-U. Hei§, Uni Paderborn

Achtziger Jahre

¥ Verbreitung von Arbeitsplatzrechner und PCs

Bildschirme werden durch PCs ersetzt

Workstations erreichen die Leistung von Gro§rechnern bei einem Bruchteil des

Preises.

¥ Verbreitung lokaler Netze (LAN) (Ethernet)

Mšglichkeit, eine gro§e Anzahl autonomer Rechner kostengŸnstig mit einem

leistungsfŠhigen Medium zu verbinden.

Zugriff auf Dateien anderer Rechner

Nutzung von (Unter)programmen und anderer Betriebsmittel auf entfernten Rechnern

⇒ Verteilte Systeme (ãVerbindenÒ)

1-11


© H.-U. Hei§, Uni Paderborn

Wesentliche Eigenschaften

¥ Gemeinsame Nutzung von Betriebsmitteln

(GerŠte, Kommunikationsverbindungen, Programme, Daten)

erweist sich im verteilten Fall als schwieriger

¥ NebenlŠufigkeit

in hohem Ma§e vorhanden: Ein komplexes Netzwerk paralleler AktivitŠten

¥ Skalierbarkeit

als Forderung: System soll auch noch funktionieren, wenn sich die Zahl der

Knoten um Zehnerpotenzen Šndert

¥ Transparenz

Benutzer soll von der Verteiltheit des Systems mšglichst nichts mitbekommen

¥ Offenheit

Verwendete Schnittstellen (HW&SW) sollen šffentlich sein, damit neue

Komponenten leicht integriert werden kšnnen

¥ Fehlertoleranz

Einzelne AusfŠlle einzelner Komponenten dŸrfen nicht zum Ausfall des gesamten

Systems fŸhren

1-12


© H.-U. Hei§, Uni Paderborn

Vor- und Nachteile verteilter Systeme

Vorteile

¥ Kostenreduktion

¥ Lokale Kontrolle und VerfŸgbarkeit

¥ Ma§geschneiderte Konfiguration

¥ Leichte Erweiterbarkeit

¥ Ausfalltoleranz

¥ Hohe Leistung durch Parallelarbeit

¥ Modulare Software

¥ HerstellerunabhŠngigkeit

¥ †bereinstimmung mit

organisatorischen Strukturen

Nachteile

¥ Hoher Bedienungs- und

Wartungsaufwand

¥ Probleme durch HeterogenitŠt

¥ Schwierigkeit, korrekte verteilte

Software zu erstellen

¥ KomplexitŠt des

Kommunikationssystems

¥ Hoher Aufwand beim †bergang vom

zentralisierten zum dezentralen

System

¥ Sicherheitsprobleme

¥ Gesamtkosten schwer abzuschŠtzen

1-13


© H.-U. Hei§, Uni Paderborn

1.3 Hardware-Architektur Verteilter Systeme

Grobklassifikation nach Flynn

Das bekannteste und einfachste Klassifikationsschema unterscheidet nach Einfachheit

oder Vielfachheit von Befehls- und Datenstršmen.

Durch Kombination gelangt man zu vier Klassen:

SD (Single Data)

MD (Multiple Data)

SI (Single Instruction)

MI (Multiple Instruction)

SISD

konventionelle

von-Neumann-Rechner

MISD

(bisher) leer

SIMD

Feldrechner,

Vektorrechner

(Cray-1, CM-2, MasPar,..)

MIMD

Multiprozessorsysteme,

Verteilte Systeme

(Transputersysteme, Suprenum,

Sequent Balance, CM-5,

SGI, Intel Paragon,

IBM SP6000, Cray T3D/T3E)

1-14


© H.-U. Hei§, Uni Paderborn

MIMD-Maschinen

a) Multirechnersysteme (message passing systems, loosely coupled systems)

Jeder Prozessor P verfŸgt Ÿber einen eigenen Speicher M, auf den nur er Zugriff hat.

Datenaustausch durch Versenden von Nachrichten Ÿber ein Verbindungsnetzwerk

Verbindungsnetz

P P P P P P P P

M M M M M M M M

1-15


© H.-U. Hei§, Uni Paderborn

b) Multiprozessorsysteme (shared memory systems, tightly coupled systems)

Alle Prozessoren (P) greifen Ÿber ein gemeinsames Kommunikationsnetz

auf gemeinsame Speichermodule (M) zu

P P P P P P P P

Verbindungsnetz

M

M

M

M

Nach der Art der Erreichbarkeit der Speichermodule kann weiter unterschieden werden:

- einheitlicher Speicherzugriff (uniform memory access, UMA):

Zugriffszeit zum Speichermodul ist unabhŠngig von der Adresse des Prozessors oder

des Speichermoduls

- uneinheitlicher Speicherzugriff (nonuniform memory access , NUMA

Zugriffszeit hŠngt von den beteiligten Adressen ab.

1-16


© H.-U. Hei§, Uni Paderborn

Verbindungsnetze

Allgemeine Kriterien

¥ Erweiterbarkeit

Variable Anzahl von AnschlŸssen pro Prozessor

Beliebige Inkremente

¥ Leistung

Kurze Wege zwischen allen Prozessoren

Hohe Bandbreite

Geringe †bertragungsdauer

¥ Kosten

Proportional zur Anzahl der Leitungen und zur Anzahl der AnschlŸsse.

¥ ZuverlŠssigkeit

Die Existenz redundanter Datenpfade

¥ FunktionalitŠt

Pufferung

Wegewahl

Gruppenkommunikation

1-17


© H.-U. Hei§, Uni Paderborn

Statische Verbindungsnetze

KonnektivitŠtsspektrum statischer Netze

Ring Hyperwürfel vollständig vermascht

Anz. Verbindungen

n

n/2 log2 n

n (n-1) / 2

Anschlüsse/Prozessor

2

log2 n

n-1

Durchmesser

n/2

log2 n

1

1-18


© H.-U. Hei§, Uni Paderborn

Beispiele

Gitter-Strukturen

4x4-Gitter

4x4-Torus

Eigenschaften

¥ Konstanter Knotengrad

¥ Erweiterbarkeit in kleinen Inkrementen

¥ Gute UnterstŸtzung von Algorithmen mit lokaler Kommunikationsstruktur

(Modellierung physikalischer Prozesse)

1-19


© H.-U. Hei§, Uni Paderborn

HyperwŸrfel

HyperwŸrfel der Dimension 4 (H(4))

Eigenschaften:

¥ logarithmischer Durchmesser

¥ Erweiterung in Zweierpotenzen

¥ Variabler Knotengrad

1-20


© H.-U. Hei§, Uni Paderborn

WŸrfelartig verbundene Ringe CCC(d) (cube connected cycles)

d-dimensionalen HyperwŸrfel, bei dem jeder durch einen Ring der Anzahl d ersetzt wird.

Jeder dieser d Knoten besitzt neben den zwei Ringkanten eine weitere Kante in Richtung

einer der d HyperwŸrfel-Dimensionen

Cube Connected Cycles der Dimension 3 (CCC(3))

Eigenschaften:

¥ logarithmischer Durchmesser

¥ konstanter Knotengrad (=3)

¥ Erweiterung nur in Zweierpotenzen

1-21


© H.-U. Hei§, Uni Paderborn

Parameter typischer statischer Verbindungsnetze

Anzahl

Knoten

Anzahl Kanten

max.

Knotengrad

Durchmesser

Gitter G( a 1

× a 2

×L× a d

)

d


k =1

a k

d

∑(a k −1) ∏a 2d

i

∑ a k −1

k=1

i≠k

d

k=1

( )

Torus T(a 1

× a 2

×L× a d

)

d

d

∏ a k d a k

k =1

k=1


2d a k /2

d


k=1



HyperwŸrfel H(d) 2 d d 2 d−1 d d

Cube Connected Cycles

CCC(d)

d 2 d 3d 2 d−1 3 2d + ⎣d/2⎦

1-22


© H.-U. Hei§, Uni Paderborn

Dynamische Verbindungsnetze

Alle Komponenten haben Zugang zu einem gemeinsamen Verbindungsnetz.

Verbindungen werden bei Bedarf geschaltet

schaltbares Verbindungsnetz

Schema eines dynamischen Netzes

Im wesentlichen lassen sich drei Klassen unterscheiden

¥ Bus

¥ Schaltermatrix

¥ Mehrstufige Netze

1-23


© H.-U. Hei§, Uni Paderborn

Busartige Netze

Eigenschaften:

¥ KostengŸnstig

¥ Blockierend

¥ erweiterbar

¥ geeignet fŸr begrenzte Anzahl von Komponenten

Einzelbus

M M M M P

P P P

Bus

Mehrbus - Verbindungsnetz (MultibusfŸr Multiprozessor-Architektur

M M M M P

P P P

B1

B2

Bm

1-24


© H.-U. Hei§, Uni Paderborn

Gitter von Bussen fŸr Multicomputer-Architektur (Suprenum)

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

1-25


© H.-U. Hei§, Uni Paderborn

Schaltermatrix

Eigenschaften

¥ Teuer

¥ Blockierungsfrei, leistungsfŠhig

¥ Zahl der AnschlŸsse festgelegt

¥ Wegen der quadratisch wachsenden Kosten nur fŸr begrenzte Anzahlen realisierbar

M M M M

M M M M

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

P

Interprozessorverbindung

Verbindung zwischen

Prozessoren und Speichermodulen

1-26


© H.-U. Hei§, Uni Paderborn

Mehrstufige Netze

Kleinere Schaltermatrizen (z.B. 2x2) dienen als Zellen, die in Stufen zu komplexeren Netzen

verschaltet werden.

Eigenschaften

¥ teilweise blockierend

¥ erweiterbar

(a) (b) (c) (d)

Elementare SchalterzustŠnde:

Durchschaltung (a), Kreuzschaltung (b), obere (c) und untere (d) VervielfŠltigung

1-27


© H.-U. Hei§, Uni Paderborn

Beispiel: Omega-Netz

000

001

000

001

010

011

010

011

100

101

100

101

110

111

110

111

1-28


© H.-U. Hei§, Uni Paderborn

Klassen dynamischer Verbindungsnetze mit ihren wesentlichen

Eigenschaften im Vergleich:

Bus Mehrstufige Schaltermatrix

Netze

Latenzzeit (Distanz) 1 log n 1

Bandbreite pro

1/n 1 1

Anschluss

Schalterkosten n n log n n2

Verdrahtungskosten n n log n n

AbschŠtzung des asymptotischen Wachstums von Kosten- und Leistungsmerkmalen

dynamischer Verbindungsnetze

1-29


© H.-U. Hei§, Uni Paderborn

Lokale Netze

¥ meist bus- oder ringartige Topologie

¥ diverse Medien

(z.B. Koaxialkabel, Twisted Pair, Glasfaser, Infrarot)

¥ diverse Protokolle

(z.B. Ethernet, Fast-Ethernet, Gigabit-Ethernet, Token-Ring, FDDI, ATM)

¥ angeschlossene Rechnerknoten hŠufig sehr heterogen bezŸglich

- Leistung

- Hersteller

- Betriebssystem

¥ meist hierarchische heterogene Struktur von Subnetzen

(gegliederte Netze)

1-30


© H.-U. Hei§, Uni Paderborn

Beispiel fŸr gegliedertes lokales Netz

Rep

File-Server

Router

Ethernet

Bridge

Token-Ring

PSE

FDDI-Ring

Bridge

WAN-

Verbindungen

1-31


© H.-U. Hei§, Uni Paderborn

Cluster-Architekturen

Unter einem Cluster versteht man die Zusammenfassung vollstŠndiger autonomer Rechner

(Workstations, PCs) zu einem Parallelrechner.

Die Komponentenrechner kšnnen, mŸssen aber nicht rŠumlich eng gekoppelt sein.

Wesentlich ist die Kopplung durch ein Hochgeschwindigkeitsnetz.

Typischerweise eingesetzte Netze

Fast Ethernet

ATM

Myrinet

SCI (Scalable Coherent Interface)

1-32


© H.-U. Hei§, Uni Paderborn

Beispiel: SCI-Cluster der Uni Paderborn (Siemens hpcLine)

96 Doppelprozessor-PCs (Pentium II, 450 MHz) mit insgesamt 48 GB Hauptspeicher,

mit SCI-Ringen als 12x8-Torus verschaltet.

NUMA-Architektur: Hardwarezugriff auf entfernten Speicher

Prozessor

Prozessor

Prozessor

Prozessor

L1

L2

L1

L2

Cache

Cache

L1

L2

L1

L2

Prozessor-Bus

Speicher

Busbrücke

I/O-Bus

I/O-Bus

Busbrücke

Prozessor-Bus

Speicher

SCI

Adapter

SCI

Adapter

SCI-Ring

1-33


© H.-U. Hei§, Uni Paderborn

1.4 Software-Architektur Verteilter Systeme

Anwendungen sollen in mšglichst transparenter Weise unterstŸtzt werden,

d.h. es wird eine SW-Infrastruktur benštigt, welche die Verteiltheit weitgehend

verdeckt.

Verteilte Anwendung

???

Rechner Rechner Rechner Rechner

Verbindungsnetz

1-34


© H.-U. Hei§, Uni Paderborn

Zwei ArchitekturansŠtze fŸr verteilte Systeme:

Verteiltes Betriebssystem:

Das Betriebssystem selbst stellt bereits die benštigten Funktionen zur VerfŸgung

Verteilte Anwendung

Verteiltes Betriebssystem

Rechner Rechner Rechner Rechner

Verbindungsnetz

Netzwerk-Betriebssystem

Die lokalen Betriebssysteme werden ergŠnzt um eine weitere Schicht

(Netzwerkbetriebssystem, Middleware), welche die verteilten Funktionen anbietet

Verteilte Anwendung

Netzwerk-Betriebssystem

lok. BS lok. BS lok. BS lok. BS

Rechner Rechner Rechner Rechner

Verbindungsnetz

1-35


© H.-U. Hei§, Uni Paderborn

Allgemeine Betriebssystem-Architektur

(Mikrokern-Architktur)

Steuerung & Kontrolle

Kommandos,

Benutzerschnittstelle

Anwendung

Prozeßbereich

Dienste

Betrieb und Verwaltung

realer und logischer

Betriebsmittel

BS-Kern

Hardware

Kernschnittstelle

Prozeßverwaltung

Interaktion

Kernbereich

1-36


© H.-U. Hei§, Uni Paderborn

Architektur lokaler Betriebssysteme

Benutzerprozesse

BS-Prozesse

Kernschnittstelle

Betriebssystemkern

Hardware

1-37


© H.-U. Hei§, Uni Paderborn

Architektur verteilter Betriebssysteme

Benutzerprozesse

Rechnergrenze

BS-Prozesse

BS-Kern

Hardware

BS-Kern

Hardware

Verbindungsnetz

1-38


© H.-U. Hei§, Uni Paderborn

Prozesskommunikation

Konzeptuelle Sicht:

A

B

oder

A

K

Kommunikationsobjekt

B

Realisierung:

A

B

Senden(K,..)

Empfangen(K,..)

Kern

K

1-39


© H.-U. Hei§, Uni Paderborn

Verteilte Betriebssysteme: Architekturvarianten

In verteilten Systemen mŸssen zur Prozessinteraktion Rechnergrenzen Ÿberwunden

werden.

Die dazu erforderliche Kommunikationssoftware kann nun im Betriebssystemkern integriert

sein (Kernverbund) oder als spezielle Komponente au§erhalb des Kerns existieren

(Proze§verbund)

¥ Beim Kernverbund ist die Verteiltheit unter der Kernschnittstelle verborgen.

Kernaufrufe kšnnen sich auf beliebige Objekte im Netz beziehen.

Die Vereinigung aller Kerne bildet den Verbundkern.

¥ Beim Prozessverbund bleibt die lokale Kernschnittstelle unangetastet.

Der lokale Kern ist sich nicht bewusst, dass er Teil eines verteilten Systems ist.

Auf diese Weise kšnnen bestehende Betriebssysteme zu verteilten Betriebssystemen

erweitert werden.

1-40


© H.-U. Hei§, Uni Paderborn

Kernverbund:

Rechnergrenzen

Prozeß

Prozeß

Verbundsoftware

lok. BS-Kern

Verbundkern

Verbundsoftware

lok. BS-Kern

1-41


© H.-U. Hei§, Uni Paderborn

Prozessverbund:

Rechnergrenzen

Prozeß

Prozeß

Verbundsoftware

Verbundsoftware

BS-Kern

BS-Kern

1-42


© H.-U. Hei§, Uni Paderborn

Abgrenzung verteilter Betriebssysteme

Multiprozessor-BS Verteiltes BS Netzwerk-BS

Alle Rechner das gleiche

BS?

ja ja nein

Wie viele Kopien des BS

?

1 n n

Gemeinsame

Prozesswarteschlange ?

ja nein nein

Kommunikation gemeinsamer Speicher Nachrichtenaustausch Nachrichtenaustausch /

gemeinsame Dateien

1-43


© H.-U. Hei§, Uni Paderborn

Transparenz

Transparenz ist die Eigenschaft, dass der Benutzer (fast) nichts von der Verteiltheit merkt

Sie bildet die wesentliche Herausforderung beim Entwurf verteilter Systeme

¥ Zugriffstransparenz

Zugriffe auf entfernte BM in gleicher Weise wie auf lokale

¥ Ortstransparenz

Namenstransparenz

Objekte werden Ÿber einen Namen angesprochen,

der unabhŠngig von seinem Ort ist

BenutzermobilitŠt

Auch wenn der Benutzer seinen Ort Šndert,

kann er die Objekte mit gleichem Namen ansprechen

¥ Replikationstransparenz

Falls zur Leistungssteigerung (temporŠre) Kopien von Daten angelegt werden,

wird fŸr deren Konsistenz automatisch gesorgt.

1-44


© H.-U. Hei§, Uni Paderborn

Transparenz

¥ Fehlertransparenz

AusfŠlle einzelner Komponenten sollen mšglichst nicht bemerkbar sein

¥ Migrationstransparenz

Die Verlagerung eines Objektes an einen anderen Ort soll nicht bemerkbar sein

¥ NebenlŠufigkeitstransparenz

Die Tatsache, dass mehrere Benutzer von verschiedenen Orten auf Objekte

gemeinsam zugreifen, soll zu keinen Fehlern oder Problemen fŸhren.

¥ Skalierungsstransparenz

Die Erweiterung um weitere Knoten soll im laufenden Betrieb mšglich sein.

Die Verfahren und Algorithmen sollen das Wachstum ãverkraftenÒ kšnnen

¥ Leistungstransparenz

Keine LeistungseinbrŸche einzelner Knoten durch ungleiche Lastverteilung

1-45

Weitere Magazine dieses Users
Ähnliche Magazine