18.01.2013 Aufrufe

18. TB - Bayern - Datenschutzbeauftragter

18. TB - Bayern - Datenschutzbeauftragter

18. TB - Bayern - Datenschutzbeauftragter

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Der Bayerische Landesbeauftragte für den Datenschutz<br />

<strong>18.</strong> Tätigkeitsbericht, 1998; Stand: 16.12.1998<br />

_____________________________________________________________________________<br />

nenbezogener Daten - aufgetreten sind, läßt sich - bei fehlender Protokollierungsmöglichkeit -<br />

meist nicht feststellen.<br />

Die Datenverarbeitung wird also zunehmend unübersichtlicher. Vielerorts unternimmt man zwar<br />

Anstrengungen, wieder mehr Transparenz in die Datenverarbeitung zu bringen, manche Anwender<br />

haben jedoch schon den Überblick verloren oder wollen nicht mehr so viele Ressourcen in<br />

die automatisierte Datenverarbeitung stecken und nehmen die oft günstigen Angebote von externen<br />

Dienstleistern in Anspruch (Outsourcing).<br />

Anfang 1997 fand in den Vereinigten Staaten eine repräsentative Umfrage zum Thema "Sicherheit<br />

und Verfügbarkeit der automatisierten Datenverarbeitung" statt, an der sich etwa 2000 Unternehmen<br />

beteiligten (MERIT-Studie, Maximizing the Efficiency of Resources in Information<br />

Technology). Das Ergebnis überrascht eigentlich nicht: Mainframe-Architekturen wurden weit<br />

zuverlässiger eingeschätzt als Systeme in verteilten Client/Server-Umgebungen. 70 Prozent der<br />

Unternehmen, die Großrechner einsetzen, haben Verfügbarkeitswerte von über 99,5 Prozent,<br />

hingegen können nur 55 Prozent, die mit Client/Server-Umgebungen arbeiten, mit gleicher Verfügbarkeit<br />

aufwarten. Als Gründe für das bessere Abschneiden des Großrechners wurden gerin-<br />

gere Ausfallzeiten, als Folge stabilerer Software, und bessere Wiederherstellungsmechanismen<br />

genannt. Die Ausfälle der Client/Server-Systeme hatten ihren Grund meist in Anwendungsfeh-<br />

lern, in Fehlern in der Software, in einer unzureichenden Änderungskontrolle oder in der fehlenden<br />

Prozeßautomation. Überlastung, vorher nicht erkannte Spitzenlasten und ungenügende<br />

Bandbreiten wurden als Gründe für die Netzwerkausfälle genannt. Die Ausfälle bei den Daten-<br />

banken resultierten häufig aus unzureichenden Speicherkapazitäten, vollen Protokolldateien oder<br />

sonstigen Überlastungen. Die Anwendungsfehler waren auf eine ebenfalls unzureichende Änderungskontrolle,<br />

auf Betriebsfehler oder mangelnde Automatisierung zurückzuführen. Führende<br />

Softwarehäuser haben deshalb auf diese Erscheinung reagiert und bieten plattformübergreifende<br />

Softwareprodukte zur Steuerung und Überwachung dieser Systemumgebungen an. Alle Probleme<br />

lassen sich jedoch auch mit diesen Produkten nicht lösen.<br />

Viele, vor allem kleinere Anwender werden jedoch weiterhin mit diesen Problemen leben müssen,<br />

weil sie sich keinen Großrechner leisten können und über keine Fachleute verfügen, die eine<br />

so komplexe Steuerungs- und Überwachungssoftware bedienen können. Denn der Betreuungsaufwand<br />

einer solchen Software ist nicht zu unterschätzen und die Personaldecke in der Informationstechnik<br />

ist häufig dünn. Auf den Einsatz der Datenverarbeitung zu verzichten, kann sich

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!