27.12.2012 Aufrufe

Einführung in CA ARCserve Backup

Einführung in CA ARCserve Backup

Einführung in CA ARCserve Backup

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Funktionsweise der Datendeduplizierung<br />

772 Adm<strong>in</strong>istrationshandbuch<br />

Durch die Deduplizierung werden für jede Sicherungssitzung drei Dateien<br />

erstellt:<br />

■ Indexdateien (Metadatendateien)<br />

– Hash-Dateien: Speichern die den redundanten Datenblöcken<br />

zugewiesenen Markierungen.<br />

– Referenzdateien: Zählen die Hash-Werte und speichern die Adresse<br />

<strong>in</strong> den Datendateien, die den jeweiligen Hash-Werten entsprechen.<br />

■ Datendateien: Speichern die redundanzfreien gesicherten Daten.<br />

Die beiden Indexdateien nehmen zusammen nur e<strong>in</strong>en ger<strong>in</strong>gen Anteil des<br />

gesamten Datenspeichers <strong>in</strong> Anspruch. Daher ist die Größe des Laufwerks, auf<br />

dem diese gespeichert s<strong>in</strong>d, weniger von Bedeutung als die Geschw<strong>in</strong>digkeit.<br />

Für diesen Zweck würde sich e<strong>in</strong>e Solid State Disk oder e<strong>in</strong> Gerät mit ähnlich<br />

ger<strong>in</strong>gen Suchzeiten empfehlen.<br />

Während nachfolgender Sicherungen geschieht Folgendes:<br />

■ <strong>CA</strong> <strong>ARCserve</strong> <strong>Backup</strong> durchsucht e<strong>in</strong>gehende Daten und segmentiert sie <strong>in</strong><br />

Datenblöcke (Chunks).<br />

■ <strong>CA</strong> <strong>ARCserve</strong> <strong>Backup</strong> führt den Hash-Algorithmus aus und weist Hash-<br />

Werte zu.<br />

■ <strong>CA</strong> <strong>ARCserve</strong> <strong>Backup</strong> vergleicht die neuen Hash-Werte mit den vorherigen<br />

Werten und sucht dabei nach Duplikaten. Wenn Duplikate gefunden<br />

werden, werden diese nicht auf die Festplatte geschrieben, sondern die<br />

Referenzdatei wird mit dem Speicherort des ursprünglichen Vorkommens<br />

des Datenblocks aktualisiert.<br />

H<strong>in</strong>weis: Verwenden Sie zum Erzielen höherer Durchsätze und ger<strong>in</strong>gerer<br />

CPU-Belastung die Optimierungsfunktion. Bei aktivierter Optimierung<br />

durchsucht <strong>CA</strong> <strong>ARCserve</strong> <strong>Backup</strong> die Dateiattribute nach Änderungen auf der<br />

Ebene der Datei-Header. Wenn ke<strong>in</strong>e Änderungen vorliegen, wird der Hash-<br />

Algorithmus für diese Dateien nicht ausgeführt, und die Dateien werden nicht<br />

auf die Festplatte kopiert. Der Hash-Algorithmus wird nur für Dateien<br />

ausgeführt, die seit der letzten Sicherung geändert wurden. Wählen Sie zur<br />

Aktivierung der Optimierung im Bildschirm zur Konfiguration von<br />

Deduplizierungsgruppen die Option "Optimierung bei<br />

Deduplizierungssicherungen ermöglichen". Die Optimierung wird nur auf<br />

W<strong>in</strong>dows-Volumes unterstützt. Bei streambasierten Sicherungen, wie SQL VDI,<br />

Exchange auf Datenbankebene, Oracle oder VMware-Sicherungen auf Image-<br />

Ebene, wird die Optimierung nicht unterstützt.<br />

Wenn Sie Deduplizierungsdaten wiederherstellen müssen, nutzt <strong>CA</strong> <strong>ARCserve</strong><br />

<strong>Backup</strong> die Indexdateien, um die e<strong>in</strong>zelnen Datenblöcke zu ermitteln und zu<br />

suchen, die zur Zusammensetzung des ursprünglichen Datenstroms<br />

erforderlich s<strong>in</strong>d.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!