Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>RAID</strong>-Systeme<br />
Raider<br />
01 # df ‐h<br />
aus mehreren Platten auch <strong>RAID</strong>s der<br />
Level 4, 5, 6 <strong>und</strong> 10 zusammenbauen,<br />
die entsprechende Menge an Festplatten<br />
vorausgesetzt (siehe Tabelle 1 <strong>und</strong> den<br />
Artikel zu <strong>RAID</strong>-Gr<strong>und</strong>lagen in diesem<br />
Heft).<br />
Außerdem kann Raider <strong>mit</strong> Logical Volumes<br />
umgehen, was bei zum Beispiel bei<br />
Fedora, Red Hat <strong>und</strong> CentOS der Default-<br />
Installationsmodus ist. Hier<strong>mit</strong> ein <strong>RAID</strong><br />
zu realisieren, erfordert doch einiges<br />
an Konfigurationsaufwand, den Raider<br />
einem abnehmen kann. Die Ausgangsposition<br />
einer solchen Installation ist in<br />
Listing 1 zu sehen.<br />
Boot-Partition<br />
Der folgende Aufruf startet <strong>mit</strong> drei zusätzlichen<br />
Festplatten die Konvertierung<br />
zu einem <strong>RAID</strong>-5, das die Daten über<br />
die Festplatten verteilt, aber durch Parity-<br />
Informationen absichert, also hohe Performance<br />
<strong>und</strong> Sicherheit vereint:<br />
raider ‐R5 sda sdb sdc sdd<br />
Weil es im aktuellen Fall schon eine Boot-<br />
Partition gibt, wandelt Raider sie wieder<br />
in ein <strong>RAID</strong> um. Fehlt eine solche Partition,<br />
<strong>und</strong> der Anwender wählt ein anderes<br />
<strong>RAID</strong> als Level 1, ändert Raider die<br />
Partitionierung. Weil die Linux-Bootloader<br />
üblicherweise nur von <strong>RAID</strong>-1 booten<br />
können, jedenfalls, wenn das <strong>RAID</strong><br />
degraded ist, legt Raider dann auf jeder<br />
Listing 1: LVM-Partitionen<br />
02 Dateisystem Size Used Avail Use%<br />
Eingehängt auf<br />
03 /dev/mapper/VolGroup‐lv_root<br />
04 50G 1,7G 46G 4% /<br />
05 tmpfs 3,9G 0 3,9G 0% /dev/shm<br />
06 /dev/sda1 485M 35M 425M 8% /boot<br />
07 /dev/mapper/VolGroup‐lv_home<br />
08 235G 188M 222G 1% /home<br />
Level<br />
Tabelle 1: <strong>RAID</strong>-Level Minimalkonfiguration<br />
Min. Anzahl<br />
Festplatten<br />
neuen Festplatte eine Boot-Partition <strong>mit</strong><br />
etwa 500 MByte an, die es später zu einem<br />
<strong>RAID</strong>-1 vereint. Fällt eine Platte aus,<br />
kann das System also auf jeden Fall von<br />
einer der verbliebenen Platten booten.<br />
Nach dem Durchlauf des Kommandos<br />
muss man wieder den Rechner ausschalten<br />
<strong>und</strong> dieses Mal die erste <strong>mit</strong> der letzten<br />
Festplatte am Bus vertauschen, die<br />
anderen beiden können bleiben, wo sie<br />
sind.<br />
Nach dem Booten startet »raider ‐‐run«<br />
wieder den Rebuild des <strong>RAID</strong>. Weil es bei<br />
einem laufenden System keine zwei Volume<br />
Groups <strong>mit</strong> gleichem Namen geben<br />
kann, hat Raider auf dem neuen <strong>RAID</strong><br />
eine Volume Group <strong>mit</strong> einem ähnlichen<br />
aber leicht veränderten Namen gegeben<br />
(siehe Listing 2). Er kommt zustande,<br />
indem Raider hinter den Originalnamen<br />
»__raider« setzt. Dies lässt sich aber <strong>mit</strong><br />
der Kommandozeilenoption »‐l« ändern.<br />
Bei vielen Tests ging <strong>mit</strong> Raider alles gut,<br />
aber einmal weigerte sich das Programm,<br />
in der zweiten Phase die verbliebene<br />
Platte dem neuen <strong>RAID</strong>-Verb<strong>und</strong> hinzuzufügen,<br />
<strong>mit</strong> dem lapidaren Hinweis:<br />
Failed to add a device in /dev/md1 array<br />
Auch das Logfile, das »raiderl« anzeigt,<br />
schwieg sich aus. Mehr Informationen<br />
Lesegeschwindigkeit<br />
Schreibgeschwindigkeit<br />
1 1+1 1x 1x 1x<br />
5 1+2 2x 1/2x 2x<br />
6 1+3 2x 1/3x 2x<br />
10 1+3 1x 1x 2x<br />
sind dafür in weiteren Logdateien zu finden,<br />
die in »/var/log/raider« liegen. So<br />
protokolliert »/var/log/raider/raider_debug_STEP3_.log«<br />
minutiös jedes einzelne<br />
Kommando, das Raider im Lauf seiner<br />
Arbeit aufruft. Hier fand sich schließlich<br />
die Zeile:<br />
mdadm: Cannot open /dev/sdd1: Device or U<br />
resource busy<br />
Typischerweise ist es unter Linux nicht<br />
immer einfach, die Ursache für eine<br />
solche Fehlermeldung zu finden. Das<br />
Mount-Kommando zeigte an, dass die<br />
Partition nicht eingeb<strong>und</strong>en war, auch<br />
»lsof« lieferte keine neuen Erkenntnisse.<br />
Schließlich verriet »swapon ‐s«, dass das<br />
System, aus welchen Gründen auch immer,<br />
die komplette Festplatte zum Swappen<br />
verwendete (Abbildung 4).<br />
Das Abschalten des Swap <strong>mit</strong> »swapoff<br />
/ dev/sdd « brachte schließlich die Lösung.<br />
Nun ließ sich zuerst das Device<br />
»sdd1« dem <strong>RAID</strong>-1 »md0« hinzufügen.<br />
Ein Blick in »/proc/mdstat« zeigte, dass<br />
sich das Boot-<strong>RAID</strong> in etwa einer Minute<br />
synchronisierte. Auch die zweite Partition<br />
die zu dem <strong>RAID</strong>-5 <strong>mit</strong> der Volume Group<br />
gehört, wurde <strong>mit</strong> dem folgenden Befehl<br />
Teil des Verb<strong>und</strong>s:<br />
mdadm ‐‐add /dev/md1 /dev/sdd2<br />
Kapazität<br />
Listing 2: Raider-LVM<br />
01 # df ‐h<br />
02 Dateisystem Size Used Avail Use%<br />
Eingehängt auf<br />
03 /dev/mapper/VolGroup__raider‐lv_root<br />
04 50G 1,9G 45G 4% /<br />
05 tmpfs 3,9G 0 3,9G 0% /dev/shm<br />
06 /dev/md0 485M 61M 399M 14% /boot<br />
07 /dev/mapper/VolGroup__raider‐lv_home<br />
08 235G 188M 222G 1% /home<br />
Abbildung 3: Nach dem Hinzufügen der zweiten Festplatte zum <strong>RAID</strong>-Verb<strong>und</strong> läuft die Synchronisation, die<br />
sich eine Zeit lang hinzieht.<br />
54 Ausgabe 06-2012 Admin www.admin-magazin.de