Installation Guide, RHEL 5, NFS, 5.0 - bei der ATIX AG
Installation Guide, RHEL 5, NFS, 5.0 - bei der ATIX AG
Installation Guide, RHEL 5, NFS, 5.0 - bei der ATIX AG
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
ased on<br />
Enterprise IT Platform<br />
<strong>Installation</strong> <strong>Guide</strong><br />
<strong>RHEL</strong>5, <strong>NFS</strong>, version
Datum 07.11.2011 Version 2.0 Seite 1/29<br />
Referenz-Architektur<br />
zu<br />
<strong>Installation</strong> <strong>der</strong><br />
com.oonics Enterprise IT Platform<br />
Version: 2.0<br />
Datum: 07.11.2011<br />
com.oonics: Version <strong>5.0</strong><br />
Linux Distribution: <strong>RHEL</strong>5<br />
Sharedroot: <strong>NFS</strong><br />
<strong>ATIX</strong> <strong>AG</strong><br />
Einsteinstr. 10<br />
85716 Unterschleißheim<br />
Version: 2.0
Datum 07.11.2011 Version 2.0 Seite 2/29<br />
Inhaltsverzeichnis<br />
1. Über das Dokument.....................................................................................3<br />
1.1. Kurzinhalt................................................................................................3<br />
1.2. Konventionen..........................................................................................3<br />
1.2.1. Warnung.......................................................................................... 3<br />
1.2.2. Hinweis............................................................................................3<br />
1.2.3. Tipp..................................................................................................3<br />
1.2.4. Benutzereingabe:............................................................................ 3<br />
1.2.5. Bildschirmausgabe:.........................................................................4<br />
1.2.6. Variable Werte.................................................................................4<br />
1.3. Leser.......................................................................................................4<br />
2. Die com.oonics Enterprise IT Platform.....................................................5<br />
3. Voraussetzungen......................................................................................... 7<br />
3.1. Benötigte Informationen......................................................................... 7<br />
3.2. Benötigte Software................................................................................. 7<br />
3.2.1. Red Hat Enterprise Linux 5............................................................. 7<br />
3.2.2. com.oonics Enterprise IT Platform..................................................8<br />
3.3. Benötigte Infrastruktur............................................................................ 8<br />
3.3.1. DHCP Server (Linux).......................................................................8<br />
3.3.2. DHCP Server (Windows)................................................................9<br />
3.3.3. TFTP Server.................................................................................... 9<br />
3.3.4. <strong>NFS</strong> Server....................................................................................10<br />
3.4. Lokale <strong>RHEL</strong>5 Standardinstallation......................................................11<br />
4. com.oonics <strong>NFS</strong> Sharedroot <strong>Installation</strong> ............................................... 12<br />
4.1. Red Hat Software Pakete ....................................................................12<br />
4.2. Einhängen des <strong>NFS</strong> Exports, kopieren des root Filesystems..............13<br />
4.3. chroot ins neue Root............................................................................ 14<br />
4.4. Einrichten o<strong>der</strong> überprüfen <strong>der</strong> com.oonics Software Channel...........15<br />
4.5. <strong>Installation</strong> <strong>der</strong> com.oonics und Cluster Software Pakete....................15<br />
4.6. Einrichten <strong>der</strong> Sharedroot Konfiguration.............................................. 16<br />
4.6.1. Red Hat Cluster Konfigurationsdatei ............................................16<br />
4.6.2. Lokale Konfigurationsdateien (empfohlen)...................................18<br />
4.7. Anpassungen des Linux Betriebssystems............................................19<br />
4.8. Erstellen <strong>der</strong> PXE Boot Konfiguration..................................................23<br />
5. Einrichten von com.oonics Enterprise Copy..........................................26<br />
5.1. Initrd Verwaltung...................................................................................26<br />
5.1.1. mkinitrd.xml................................................................................... 26<br />
5.2. Localclone.............................................................................................26<br />
5.2.1. localclone.xml................................................................................26<br />
6. Anhang........................................................................................................28<br />
6.1. Paketliste.............................................................................................. 28
Datum 07.11.2011 Version 2.0 Seite 3/29<br />
1. Über das Dokument<br />
1.1. Kurzinhalt<br />
Die <strong>ATIX</strong> Referenz-Architektur Dokumentation beschreibt den von <strong>ATIX</strong> getesteten<br />
und unterstützten Weg <strong>der</strong> <strong>Installation</strong> <strong>der</strong> com.oonics Enterprise IT Platform.<br />
In diesem Dokument wird die <strong>Installation</strong> <strong>der</strong> com.oonics Enterprise IT Platform auf<br />
Basis von <strong>RHEL</strong>5 und <strong>NFS</strong> Sharedroot Dateisystem beschrieben.<br />
1.2. Konventionen<br />
In dem Dokument gelten folgende Konventionen:<br />
1.2.1. Warnung<br />
Achtung:<br />
Hier ist Vorsicht geboten!<br />
1.2.2. Hinweis<br />
Hinweis:<br />
Ein Hinweis für Sie!<br />
1.2.3. Tipp<br />
Tipp:<br />
Ein guter Tipp!<br />
1.2.4. Benutzereingabe:<br />
Die Kommandozeileneingabe als Benutzer root wird durch den Prompt<br />
[servername]# eingeleitet:<br />
[Servername]# echo Hello World
Datum 07.11.2011 Version 2.0 Seite 4/29<br />
1.2.5. Bildschirmausgabe:<br />
Hello World<br />
1.2.6. Variable Werte<br />
Variable Werte werden in eckigen Klammern dargestellt: [Meine Variable]<br />
Werte, die an die jeweilige Konfiguration anzupassen sind o<strong>der</strong> davon abhängig sind,<br />
werden orange und fett markiert:<br />
[Servername]# hostname<br />
workshop1<br />
Shell Variablen werden durch ein „$“ Zeichen und großen Buchstaben dargestellt:<br />
[Servername]# export COM_NODENAME1=“testnode1“<br />
[Servername]# echo $COM_NODENAME1<br />
testnode1<br />
1.3. Leser<br />
Die Dokumentation richtet sich an erfahrene Linux System Administratoren.
Datum 07.11.2011 Version 2.0 Seite 5/29<br />
2. Die com.oonics Enterprise IT Platform<br />
Die com.oonics Enterprise IT Platform konsolidiert Server- und Speichersysteme und<br />
ermöglicht so Hochverfügbarkeit, optimale Skalierbarkeit und einfaches<br />
Management.<br />
Die com.oonics Enterprise IT Platform ist für Unternehmen je<strong>der</strong> Größe geeignet und<br />
spiegelt die individuellen Bedürfnisse des Anwen<strong>der</strong>s wie<strong>der</strong>.<br />
Doch Bedürfnisse än<strong>der</strong>n sich, darum ist es wichtig eine flexible, modulare<br />
Infrastruktur zu besitzen, die sich einfach erweitern und umstrukturieren lässt.<br />
Deshalb besteht die com.oonics Enterprise IT Platform aus einem flexiblen<br />
Baukastensystem aus Industriestandard-Komponenten auf Linux-Basis. Die<br />
Plattform gewährleistet die Freiheit zur Verän<strong>der</strong>ung<br />
Zusätzlich liefert die com.oonics Enterprise IT Platform eine Lösung für eine <strong>der</strong><br />
bedeutendsten Aufgaben <strong>der</strong> IT: Kostensenkung und gleichzeitige Optimierung <strong>der</strong><br />
Leistungsfähigkeit und Verfügbarkeit von Anwendungen wie File und Web Services,<br />
Datenbanken (z. B. Oracle, PostgreSQL, MySQL), anspruchsvollen ERP-Systemen<br />
(z. B. SAP) und Server Virtualisierung.<br />
Das modulare Baukastensystem <strong>der</strong> com.oonics Enterprise IT Platform:<br />
Bei <strong>der</strong> com.oonics Enterprise IT Platform haben alle Server direkten Zugriff auf die<br />
Speichergeräte und können diese konkurrierend gleichermaßen beschreiben und<br />
lesen. Ein Linux Shared-Filesystem verbindet da<strong>bei</strong> Applikations-Server und ein<br />
angebundenes Speichernetzwerk und ermöglicht parallele Filesystem-Zugriffe von<br />
allen Cluster-Knoten aus auf ein zentrales Speichersystem. Das Konzept <strong>der</strong><br />
com.oonics Enterprise IT Platform besteht darin, dass die Cluster-Knoten vollständig<br />
ohne Festplatten auskommen, direkt vom Speichernetzwerk booten und sogar die<br />
Systemdaten teillen.
Datum 07.11.2011 Version 2.0 Seite 6/29<br />
Innerhalb <strong>der</strong> com.oonics Enterprise IT Platform werden Server mit gleichen<br />
Aufgaben logisch zu Clustern zusammengefasst. Die Zuweisung ist jedoch flexibel<br />
und kann je<strong>der</strong>zeit geän<strong>der</strong>t werden. So können z. B. Datenbank-Server (Blau) durch<br />
einfaches Neustarten zu Web-Servern (Gelb) umfunktioniert werden, um z. B. auf<br />
Lastspitzen reagieren zu können.<br />
Des Weiteren können von einer <strong>Installation</strong>, automatisiert und in kurzer Zeit, beliebig<br />
viele Kopien erzeugt und gesichert werden, z. B. zur Erzeugung von Test-,<br />
Entwicklungs- und Produktionsumgebungen (QA-Tier-Stufen). Gleichermaßen wird<br />
com.oonics auch für Rolling-Updates (Software Updates ohne Unterbrechung)<br />
verwendet, die Funktionalitäten müssen jedoch vom Cluster und vom Linux-<br />
Betriebsystem unterstützt werden.<br />
Die com.oonics Enterprise IT Platform besteht aus foldenden Basis-Komponenten:<br />
• com.oonics Sharedroot Cluster<br />
Der com.oonics Sharedroot Cluster ist ein nach dem „pay as grow“-Prinzip<br />
skalierbarer Single System Image Cluster für Hochverfügbarkeits- und<br />
Hochleistungsanwendungen.<br />
• com.oonics Bare Metal Boot<br />
Mit com.oonics Bare Metal Boot kann eine bestehende<br />
Betriebssysteminstallation ohne weitere Anpassungen und ohne<br />
Migrationsaufwand, sowohl auf unterschiedlicher Hardware (z. B. IBM, HP<br />
etc.) als auch auf unterschiedlichen Virtualisierungsplattformen (z. B.<br />
VMware, XEN, KVM etc.) betrieben werden.<br />
• com.oonics GrayHead<br />
Der com.oonics GrayHead ist die zentralisierte Monitoring- und Management-<br />
Applikation zur proaktiven und reaktiven Überwachung <strong>der</strong> gesamten<br />
Infrastruktur.<br />
• com.oonics Enterprise Copy<br />
Die com.oonics Enterprise Copy ist ein Cluster o<strong>der</strong> Single-Server Cloning<br />
Framework zur Erstellung von lokalen o<strong>der</strong> remote Shadow <strong>Installation</strong>en für<br />
Testsysteme, Disaster Recovery Konzepten o<strong>der</strong> Roll-Out Szenarien. Der<br />
Framework ist in gängige Enterprise Backup- und Storage-Lösungen<br />
integrierbar.<br />
• com.oonics Live DVD<br />
Die com.oonics Live DVD enthält alle com.oonics Tools und ist im <strong>ATIX</strong> Web-<br />
Shop erhältlich.<br />
• com.oonics Disaster Recovery<br />
Das com.oonics Disaster Recovery Feature ermöglicht die automatische<br />
Erstellung von bootfähigen Disaster Recovery-<strong>Installation</strong>en sowie das<br />
Anlegen von Disaster Recovery-Sicherungen zur einfachen<br />
Wie<strong>der</strong>herstellung des Systems.<br />
Die folgende Anleitung ist Teil <strong>der</strong> <strong>ATIX</strong> Referenz-Architektur Reihe.<br />
In diesem Dokument wird die <strong>Installation</strong> des com.oonics Sharedroot Clusters mit<br />
<strong>NFS</strong> als Shared-Filesystem beschrieben. Als Linux Enterprise Distribution kommt<br />
Red Hat Enterprise Linux 5 (<strong>RHEL</strong>5) zum Einsatz.
Datum 07.11.2011 Version 2.0 Seite 7/29<br />
3. Voraussetzungen<br />
3.1. Benötigte Informationen<br />
Für den <strong>Installation</strong>sprozess des com.oonics Sharedroot Clusters werden folgende<br />
Informationen benötigt. In <strong>der</strong> Spalte „Genutzter Wert“ sind die in den folgenden<br />
Beispielen genutzten Werte verzeichnet<br />
Name Beschreibung Genutzter Wert<br />
Clustername Name des Clusters testcuster<br />
Knotenzahl Initiale Anzahl <strong>der</strong> Clusterknoten 2<br />
dhcp-server Netzwerk Adresse des dhcp Servers 192.168.120.1<br />
tftp-server Netzwerk Adresse des TFTP Servers 192.168.120.1<br />
nfs-server Netzwerk Adresse des <strong>NFS</strong> Servers 192.168.120.1<br />
Knoten1 Name des ersten Clusterknotens workshop1<br />
MAC1_1 Erste MAC Adresse des Knoten1 00:0c:29:60:d2:10<br />
MAC1_2 Zweite MAC Adresse des Knoten1 Für Test optional<br />
IP_INT_1 IP Adresse für PXE und <strong>NFS</strong> Zugriff<br />
Knoten1<br />
192.168.120.50<br />
IP_PUB_1 Public IP Adresse für Knoten 1 Für Test optional<br />
Knoten2 Name des zweiten Clusterknotens workshop2<br />
MAC2_1 Erste MAC Adresse des Knoten2 00:0c:29:36:79:e3<br />
MAC2_2 Zweite MAC Adresse des Knoten2 optional<br />
IP_INT_2 IP Adresse für PXE und <strong>NFS</strong> Zugriff<br />
Knoten2<br />
192.168.120.60<br />
IP_PUB_2 Public IP Adresse für Knoten 2 Für Test optional<br />
3.2. Benötigte Software<br />
Die com.oonics Enterprise IT Platform basiert auf einer Enterprise Linux Distribution.<br />
In diesem Fall wird das Red Hat Enterprise Linux 5 eingesetzt.<br />
Die com.oonics Software Version ist <strong>5.0</strong><br />
3.2.1. Red Hat Enterprise Linux 5<br />
Es wird eine gültige Red Hat Enterprise Linux 5 (<strong>RHEL</strong>5) Software Subscription<br />
benötigt.<br />
Wir empfehlen die Nutzung <strong>der</strong> in com.oonics integrierten Red Hat Software<br />
Subscription (<strong>RHEL</strong>5 for com.oonics). Für Fragen steht Ihr <strong>ATIX</strong> Ansprechpartner<br />
(vertrieb@atix.de) gerne für Sie bereit.<br />
Die aktuell unterstützte Version ist <strong>RHEL</strong>5.7 o<strong>der</strong> höher.
Datum 07.11.2011 Version 2.0 Seite 8/29<br />
3.2.2. com.oonics Enterprise IT Platform<br />
Für die <strong>Installation</strong> <strong>der</strong> com.oonics Enterprise IT Platform wird eine com.oonics<br />
Software Subscription benötigt. Diese wird in zwei Varianten ausgeliefert:<br />
1. com.oonics Enterprise IT Platform inkl. <strong>RHEL</strong>5<br />
2. com.oonics Enterprise IT Platform standalone<br />
Haben Sie Fragen zu <strong>der</strong> com.oonics Software Subscription? Ihr <strong>ATIX</strong><br />
Ansprechpartner (vertrieb@atix.de) ist gerne für Sie da.<br />
Die aktuell unterstützte com.oonics Version ist <strong>5.0</strong> o<strong>der</strong> höher.<br />
3.3. Benötigte Infrastruktur<br />
Die Server o<strong>der</strong> Clusterknoten (Knoten) <strong>der</strong> com.oonics Enterprise IT Platform für<br />
<strong>NFS</strong> erhalten ihre Boot Konfiguration durch ein Preboot eXecution Environment<br />
(PXE). Die Systemverzeichnise (root) werden von einem <strong>NFS</strong> Server bereitgestellt.<br />
Im Folgenden wird die Umgebung beschrieben, die aus einem DHCP Server, einem<br />
TFTP Server und einem <strong>NFS</strong> Server besteht.<br />
3.3.1. DHCP Server (Linux)<br />
Der DHCP Server muss die Clusterknoten erkennen und sie auf PXEboot verweisen.<br />
Im Folgenden wird <strong>bei</strong>spielhaft die <strong>Installation</strong> und Konfiguration eines Linux<br />
basierten DHCP Servers beschrieben. Die hier verwendeten com.oonics<br />
Clusterknoten sind workshop1 und workshop2.<br />
dhcp-server# yum install dhcp<br />
dhcp-server# cat /etc/dhcpd.conf<br />
ddns-update-style ad-hoc;<br />
allow booting;<br />
allow bootp;<br />
option routers 192.168.120.10;<br />
option subnet-mask 255.255.25<strong>5.0</strong>;<br />
option domain-name "workshop.atix";<br />
option domain-name-servers 192.168.3.121;<br />
default-lease-time 21600;<br />
max-lease-time 43200;<br />
subnet 192.168.120.0 netmask 255.255.25<strong>5.0</strong> {<br />
#range 192.168.120.100 192.168.120.200;<br />
deny unknown-clients;<br />
}<br />
group {<br />
#tftp server<br />
next-server 192.168.120.10;<br />
#This is the pxe bootloa<strong>der</strong> file<br />
filename "pxelinux.0";<br />
# One host block per client. This network only has one.<br />
host workshop1 {<br />
option host-name "workshop1";
Datum 07.11.2011 Version 2.0 Seite 9/29<br />
hardware ethernet 00:0c:29:60:d2:10;<br />
fixed-address 192.168.120.50;<br />
}<br />
host workshop2 {<br />
option host-name "workshop2";<br />
hardware ethernet 00:0c:29:36:79:e3;<br />
fixed-address 192.168.120.60;<br />
}<br />
}<br />
dhcp-server# chkconfig dhcpd on<br />
dhcp-server# /etc/init.d/dhcpd start<br />
3.3.2. DHCP Server (Windows)<br />
Sollte ein Windows basierter DHCP Server genutzt werden, sind die DHCP Optionen<br />
066 (Filename) und 067 (Startserver) wie folgt zu setzten:<br />
• 066 (Filename): pxelinux.0<br />
• 067 (Startserver): 192.168.120.10<br />
Diese Optionen werden entwe<strong>der</strong> pro Rechner (Leaseeintrag im DHCP) o<strong>der</strong> global<br />
gesetzt.<br />
3.3.3. TFTP Server<br />
Der TFTP Server stellt alle notwendigen Dateien für den Linux boot Prozess zur<br />
Verfügung. Die <strong>Installation</strong> eines TFTP Servers unter Linux wird im folgenden<br />
<strong>bei</strong>spielhaft beschrieben:<br />
tftp-server# yum install tftp-server syslinux<br />
tftp-server# cat /etc/xinetd.d/tftp<br />
[…]<br />
service tftp<br />
{<br />
socket_type = dgram<br />
protocol = udp<br />
wait = yes<br />
user = root<br />
server = /usr/sbin/in.tftpd<br />
server_args = -v -s /tftpboot<br />
disable = no<br />
per_source = 11<br />
cps = 100 2<br />
flags = IPv4<br />
}<br />
tftp-server# service xinetd restart<br />
Hinweis<br />
tftp ist standardmässig auf disable=yes
Datum 07.11.2011 Version 2.0 Seite 10/29<br />
3.3.4. <strong>NFS</strong> Server<br />
Für die <strong>Installation</strong>en <strong>der</strong> com.oonics Enterprise IT Platform für <strong>NFS</strong> wird folgende<br />
<strong>NFS</strong> Server Konfiguration benötigt:<br />
<strong>NFS</strong> Server Export Optionen:<br />
Option Beschreibung<br />
rw Das <strong>NFS</strong> Filesystem wird mit schreib-/leserechten exportiert<br />
sync Schreiboperationen werden erst bestätigt, wenn diese auf ein<br />
stabiles Storagesystem geschrieben worden sind<br />
no_root_squash „root squashing“ wird deaktiviert<br />
fsid=XX XX ist ein eindeutiger identifier für das exportierte Filesystem<br />
Filesystem Pfade:<br />
Wir empfehlen, dass die Filesysteme für den <strong>NFS</strong> Export unter<br />
/srv/nfs/comoonics eingehängt werden. Dort finden sich wie<strong>der</strong>um die Basis-<br />
Verzeichnisse für die einzelnen Cluster mit folgenden Unterverzeichnissen:<br />
• root (<strong>der</strong> eigentliche Produktionscluster)<br />
• root_clone (<strong>der</strong> clone des Produktionsclusters)<br />
• config (optional, Konfigurationsdateien, die zum Cluster gehören, aber u.U.<br />
nicht in die Rootfilesysteme passen<br />
Filesystem Größen:<br />
Die über <strong>NFS</strong> bereitgestellten Verzeichnisse müssen folgende<br />
Kapazitätsanfor<strong>der</strong>ungen erfüllen:<br />
export Mindestgröße Empf. Größe<br />
/srv/nfs/comoonics/[clustername]/root 10GB 20GB<br />
/srv/nfs/comoonics/[clustername]/root_clone 10GB 20GB<br />
Im Folgenden wird <strong>bei</strong>spielhaft die Konfiguration auf einem Linux <strong>NFS</strong> Server für ein<br />
com.oonics Sharedroot Filesystem beschrieben.<br />
nfsserver# mkdir -p /srv/nfs/comoonics/testcluster/root<br />
nfsserver# mkdir -p /srv/nfs/comoonics/testcluster/root_clone<br />
nfsserver# cat /etc/exports<br />
/srv/nfs/comoonics/testcluster/root<br />
192.168.120.0/255.255.25<strong>5.0</strong>(rw,no_root_squash,sync,fsid=1)<br />
/srv/nfs/comoonics/testcluster/root_clone<br />
192.168.120.0/255.255.25<strong>5.0</strong>(rw,no_root_squash,sync,fsid=2)<br />
[…]
Datum 07.11.2011 Version 2.0 Seite 11/29<br />
3.4. Lokale <strong>RHEL</strong>5 Standardinstallation<br />
Für die <strong>Installation</strong> <strong>der</strong> com.oonics Enterprise IT Platform für <strong>RHEL</strong>5 - <strong>NFS</strong> wird ein<br />
installiertes <strong>RHEL</strong>5 benötigt.<br />
Bei Bedarf können folgende <strong>Installation</strong>soptionen abgewählt werden.<br />
• „Legacy Software Support“ auswählen<br />
• Kein „GNOME“<br />
• Keine „Servers“<br />
• Keine „Applications“<br />
• selinux deaktiviert<br />
• iptables (Firewall) deaktiviert
Datum 07.11.2011 Version 2.0 Seite 12/29<br />
4. com.oonics <strong>NFS</strong> Sharedroot <strong>Installation</strong><br />
Die <strong>Installation</strong> des Betriebssystems für die com.oonics Enterprise IT Platform auf<br />
<strong>NFS</strong> Sharedroot erfolgt in folgenden Schritten:<br />
1. Anpassung <strong>der</strong> RedHat Pakete<br />
2. Einrichten des <strong>NFS</strong> Exports<br />
3. Einhängen des <strong>NFS</strong> Exports<br />
4. Kopieren <strong>der</strong> lokalen <strong>RHEL</strong>5 <strong>Installation</strong> auf das <strong>NFS</strong> Export<br />
5. chroot ins neue root Verzeichnis<br />
6. Einrichten des com.oonics yum channels<br />
7. Konfiguration <strong>der</strong> sharedroot Umgebung<br />
8. Erstellen <strong>der</strong> Initial Ramdisk (initrd)<br />
9. Anpassung des Bootdevices.<br />
4.1. Red Hat Software Pakete<br />
In diesem Schritt werden weitere Red Hat Software Pakete installiert.<br />
Gemäß unserer Empfehlung wird davon ausgegangen, dass für die <strong>Installation</strong> <strong>der</strong><br />
com.oonics Enterprise IT Platform eine gültige com.oonics Software Subscription und<br />
eine <strong>RHEL</strong>5 for com.oonics Software Subscription eingesetzt wird.<br />
Das System soll im com.oonics Enterprise IT Platform Software Management<br />
System (COM-RHN) (http://rpm.atix.de)<br />
angemeldet sein. Dafür ist das <strong>ATIX</strong> SSL<br />
Zertifikat sowie Anpassungen in <strong>der</strong> Datei /etc/sysconfig/rhn/up2date<br />
notwendig.<br />
workshop1# rpm --import http://rpm.atix.de/pub/comoonics-RPM-<br />
GPG.key<br />
workshop1# cat /etc/sysconfig/rhn/up2date<br />
[…]<br />
serverURL[comment]=Remote server URL<br />
serverURL=http://rpm.atix.de/XMLRPC<br />
[…]<br />
useNoSSLForPackages=1<br />
[…]<br />
Das System muss registriert werden.<br />
workshop1# rhnreg_ks --activationkey=
Datum 07.11.2011 Version 2.0 Seite 13/29<br />
Hinweis<br />
Ihren persönlichen Activation Key erhalten Sie von Ihrem <strong>ATIX</strong> Ansprechpartner. Bei<br />
Fragen zu Ihrem Activation Key können Sie sich je<strong>der</strong>zeit an support@atix.de<br />
wenden.<br />
Im Anschluss können die zusätzlich benötigten Red Hat Software Pakete installiert<br />
werden:<br />
workshop1# yum clean all<br />
workshop1# yum install strace systemtap nmap mc vim-enhanced ntp<br />
screen net-snmp sysstat yum-utils libxslt-python<br />
Wenn möglich, sollten zusätzlich folgende Pakete installiert ...<br />
workshop1# yum install rsyslog postfix<br />
... und die dann nicht mehr benötigten Pakete deinstalliert werden:<br />
workshop1# rpm -e sendmail<br />
workshop1# rpm -e sysklogd<br />
4.2. Einhängen des <strong>NFS</strong> Exports, kopieren des root<br />
Filesystems<br />
Die selinux Umgebung muss deaktiviert sein. Dazu wird folgen<strong>der</strong> Befehl<br />
eingegeben:<br />
workshop1# setenforce 0<br />
Die selinux Konfigurationsdatei muss überprüft und gegebenenfalls angepasst<br />
werden:<br />
workshop1# cat /etc/sysconfig/selinux<br />
# This file controls the state of SELinux on the system.<br />
# SELINUX= can take one of these three values:<br />
# enforcing - SELinux security policy is enforced.<br />
# permissive - SELinux prints warnings instead of enforcing.
Datum 07.11.2011 Version 2.0 Seite 14/29<br />
# disabled - No SELinux policy is loaded.<br />
SELINUX=disabled<br />
# SELINUXTYPE= can take one of these two values:<br />
# targeted - Targeted processes are protected,<br />
# mls - Multi Level Security protection.<br />
SELINUXTYPE=targeted<br />
Standardmäßig wird die Sharedroot Umgebung in /mnt/newroot gemountet und<br />
eingerichtet.<br />
Nachfolgend wird die lokale <strong>Installation</strong> auf den <strong>NFS</strong> Einhängepunkt kopiert.<br />
workshop1# mkdir /mnt/newroot/<br />
workshop1# mount -o nolock -t nfs<br />
192.168.120.1:/srv/nfs/comoonics/testcluster/root /mnt/newroot/<br />
workshop1# yum clean all<br />
workshop1# cp -ax / /mnt/newroot/<br />
workshop1# cp -ax /boot/* /mnt/newroot/boot/<br />
Hinweis:<br />
Das /boot Verzeichnis muss extra kopiert werden, da es von cp -x als an<strong>der</strong>es<br />
Filesystem (Mountpoint) ausgeschlossen wird.<br />
4.3. chroot ins neue Root<br />
Es werden /proc, /sys und /dev des laufenden Systems in <strong>der</strong> chroot Umbegung<br />
benötigt.<br />
workshop1# mount --rbind /dev /mnt/newroot/dev/<br />
workshop1# mount -t proc proc /mnt/newroot/proc<br />
workshop1# mount -t sysfs none /mnt/newroot/sys<br />
Anschließend kann in das neue root Filesystem /mnt/newroot gewechselt werden.<br />
workshop1# chroot /mnt/newroot
Datum 07.11.2011 Version 2.0 Seite 15/29<br />
4.4. Einrichten o<strong>der</strong> überprüfen <strong>der</strong> com.oonics Software<br />
Channel<br />
Für die <strong>Installation</strong> <strong>der</strong> com.oonics Software Pakete muss <strong>der</strong> zugehörige Software<br />
Channel für das System abonniert sein.<br />
Hierzu wird im com.oonics Enterprise IT Platform Software Management System<br />
(http://rpm.atix.de) unter „Systems“ → „[SYSTEMNAME]“ → „Alter channel<br />
subscriptions“ <strong>der</strong> „comoonics“ Channel ausgewählt.<br />
Hinweis<br />
Durch die Registrierung des Systems mittels Activation Key werden die com.oonics<br />
Channel automatisch hinzugefügt.<br />
4.5. <strong>Installation</strong> <strong>der</strong> com.oonics und Cluster Software Pakete<br />
Folgende com.oonics Pakete müssen installiert werden:<br />
workshop1# yum install comoonics-bootimage comoonics-bootimageextras-nfs<br />
comoonics-cdsl-py comoonics-ec-py comoonics-cs-xsl-ec<br />
comoonics-bootimage-listfiles-rhel5-nfs comoonics-bootimagelistfiles-firmware<br />
Das Paket comoonics-bootimage-extras-localconfigs-<strong>5.0</strong> sollte nur dann installiert<br />
werden, wenn die <strong>Installation</strong> über lokale Konfigurationsdateien erfolgt (empfohlen).<br />
Zusätzlich muss folgendes Red Hat Paket installiert werden:<br />
workshop1# yum install pyparted<br />
Optional sind je nach Bedarf folgende Pakete zu installieren:<br />
Für die Nutzung von rsyslog:<br />
workshop1# yum install comoonics-bootimage-listfiles-rsyslogd<br />
Optional kann zusätzlich ein Hochverfügbarkeitscluster eingerichtet werden. Hierzu<br />
müssen folgende Pakete installiert werden:<br />
workshop1# yum install cman rgmanager
Datum 07.11.2011 Version 2.0 Seite 16/29<br />
Das Paket comoonics-bootimage-extras-network wird benötigt, wenn <strong>der</strong><br />
<strong>NFS</strong> Sharedroot Export über tagged VLANs gemountet werden soll:<br />
workshop1# yum install comoonics-bootimage-extras-network<br />
4.6. Einrichten <strong>der</strong> Sharedroot Konfiguration<br />
Initial wird das com.oonics Repositiory für die Context Dependent Symbolic<br />
Links (CDSL) erstellt.<br />
workshop1# com-cdslinvadm create --maxnodeidnum=KNOTENANZAHL+2<br />
Die neu erstellte CDSL Infrastruktur soll gemountet werden:<br />
workshop1# mount --bind /.cluster/cdsl/1/ /.cdsl.local/<br />
Die com.oonics Enterprise IT Platform 5 unterstützt zwei unabhängige Möglichkeiten<br />
<strong>der</strong> Systemkonfiguration, die im folgenden beschrieben werden. Im nächsten Schritt<br />
muss sich für eine <strong>der</strong> <strong>bei</strong>den Methoden entschieden werden.<br />
1. Red Hat Cluster Konfigurationsdatei<br />
2. Lokale Konfigurationsdateien (empfohlen)<br />
4.6.1. Red Hat Cluster Konfigurationsdatei<br />
Um die com.oonics Konfiguration in die Red Hat Cluster Konfigurationsdatei zu<br />
speichern, muss diese erweitert o<strong>der</strong> neu erstellt werden.<br />
Die /etc/cluster/cluster.conf Datei muss erstellt werden. Als Vorlage kann<br />
folgende Datei dienen:<br />
<br />
<br />
<br />
<br />
<br />
<br />
Datum 07.11.2011 Version 2.0 Seite 17/29<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
Hinweis:<br />
Wenn Netzwerkkarten unterschiedlicher Hersteller verwendet werden, ist es<br />
empfohlen, für die NICs driver=“kernelmodul“ zu setzen.<br />
z.B.:<br />
<br />
Hinweis:<br />
Wenn ein Hochverfügbarkeits- o<strong>der</strong> GFS- Cluster eingerichtet werden soll, muss die<br />
Datei cluster.conf entsprechend erweitert werden.<br />
cluster.conf Syntax validieren:<br />
workshop1# com-queryclusterconf nodeids<br />
Die Netzwerkkartenkonfiguration muss angepasst werden (wenn möglich - keine<br />
MAC Adressen in den -ifcfg Dateien und die in cluster.conf definierten NICs mit<br />
onboot=no versehen). Das betrifft alle Netzwerkkarten!:<br />
workshop1# cat /etc/sysconfig/network-scripts/ifcfg-eth0<br />
DEVICE=eth0<br />
BOOTPROTO=none<br />
ONBOOT=no
Datum 07.11.2011 Version 2.0 Seite 18/29<br />
4.6.2. Lokale Konfigurationsdateien (empfohlen)<br />
Die Konfiguration <strong>der</strong> com.oonics Enterprise It Platform wird in lokale<br />
Konfigurationsdateien abgespeichert. Dies stellt die empfohlene Methode dar.<br />
Erstellen <strong>der</strong> Netzwerk-Konfiguration für alle Knoten:<br />
workshop1# cd /etc/sysconfig/network-scripts<br />
workshop1# cat ifcfg-eth0<br />
BOOTPROTO="static"<br />
IPADDR="192.168.120.50"<br />
NETMASK="255.255.25<strong>5.0</strong>"<br />
GATEWAY="192.168.120.10"<br />
DEVICE="eth0"<br />
ONBOOT="no"<br />
STARTMODE="nfsroot"<br />
Das Paket comoonics-bootimage-extras-localconfigs muss installiert werden.<br />
workshop1# yum install comoonics-bootimage-extras-localconfigs<br />
Die Netzwek Konfigurationsdatei muss hostabhängig gemacht werden:<br />
workshop1# com-mkcdsl --hostdependent ifcfg-eth0<br />
Wenn statische IP Adressen verwendet werden, müssen die hostabhängigen<br />
Netzwekkonfigurationsdateien angepasst werden.<br />
workshop1# cat /.cluster/cdsl/1/etc/sysconfig/networkscripts/ifcfg-eth0<br />
BOOTPROTO="static"<br />
IPADDR="192.168.120.50"<br />
NETMASK="255.255.25<strong>5.0</strong>"<br />
GATEWAY="192.168.120.10"<br />
DEVICE="eth0"<br />
ONBOOT="no"<br />
STARTMODE="nfsroot"<br />
workshop1# cat /.cluster/cdsl/2/etc/sysconfig/networkscripts/ifcfg-eth0<br />
BOOTPROTO="static"<br />
IPADDR="192.168.120.60"<br />
NETMASK="255.255.25<strong>5.0</strong>"
Datum 07.11.2011 Version 2.0 Seite 19/29<br />
GATEWAY="192.168.120.10"<br />
DEVICE="eth0"<br />
ONBOOT="no"<br />
STARTMODE="nfsroot"<br />
workshop1# cat /.cluster/cdsl/default/etc/sysconfig/networkscripts/ifcfg-eth0<br />
BOOTPROTO="static"<br />
IPADDR="192.168.120.X"<br />
NETMASK="255.255.25<strong>5.0</strong>"<br />
GATEWAY="192.168.120.10"<br />
DEVICE="eth0"<br />
ONBOOT="no"<br />
STARTMODE="nfsroot"<br />
Die „/var/run“ bind Mountpoints müssen konfiguriert werden.<br />
workshop1# cat /etc/cdsltab<br />
bind /.cluster/cdsl/%(nodeid)s/var/run /var/run __initrd<br />
Für die Nutzung des com.oonics distributed shell (com-dsh) müssen die Hostnamen<br />
<strong>der</strong> Cluster Knoten in die Datei /etc/comoonics/groups/all eingetragen werden.<br />
workshop1# cat /etc/comoonics/groups/all<br />
workshop1<br />
workshop2<br />
4.7. Anpassungen des Linux Betriebssystems<br />
Für die com.oonics Enterprise IT Platform sind ein paar Anpassungen an dem<br />
Betriebssystem notwendig, welche im Folgenden beschrieben werden.<br />
Es ist notwendig, dass das /tmp Verzeichnis hostabhängig o<strong>der</strong> lokal ist.<br />
Für ein hostabhängiges /tmp Verzeichnis wird ein symbolischer Link gesetzt:<br />
workshop1# rm -rf /tmp/<br />
workshop1# ln -s /var/tmp/ /tmp<br />
Hinweis:<br />
Lokale /tmp Filesysteme werden über einen Eintrag in <strong>der</strong> Datei /etc/fstab<br />
erstellt.
Datum 07.11.2011 Version 2.0 Seite 20/29<br />
Die hostabhängigen sowie die gemeinsam genutzten Verzeichnisse sollen nun<br />
festgelegt werden.<br />
Hinweis:<br />
Bitte immer den vollständigen, direkten Pfad angeben.<br />
Tipp:<br />
Sollten sich unnötige Dateien wie z.B. Logs in /var/ befinden, ist es aus<br />
Platzgründen sinnvoll, diese vorab zu löschen.<br />
workshop1# com-mkcdsl --hostdependent /var/tmp/ /var/account<br />
/var/cache /var/local /var/lock /var/log /var/spool<br />
/var/lib/dbus /var/lib/dhclient /var/run<br />
/var/lib/logrotate.status /etc/blkid /etc/sysconfig/network<br />
Es muss ein für alle Server im Cluster gemeinsames Lock-Verzeichnis angelegt<br />
werden:<br />
workshop1# mkdir /var/sharelock<br />
/etc/fstab muss angepasst werden – Die Einträge für das alte rootfs und /boot<br />
müssen entfernt werden:<br />
workshop1# cat /etc/fstab<br />
192.168.120.1:/srv/nfs/comoonics/testcluster/root / nfs<br />
nolock,defaults 0 0<br />
/dev/vg_local/lv_swap swap swap defaults 0 0<br />
/dev/vg_local/lv_tmp /var/tmp ext3 defaults 1 2<br />
tmpfs /dev/shm tmpfs defaults 0 0<br />
devpts /dev/pts devpts gid=5,mode=620 0 0<br />
sysfs /sys sysfs defaults 0 0<br />
proc /proc proc defaults 0 0<br />
Die hostabhängigen Mountpoints für /var/run müssen angelegt werden.<br />
/var/run muss <strong>bei</strong> Bedarf noch zusätzlich mit einem lvm Unterverzeichnis<br />
versehen werden:<br />
workshop1# rm /var/run<br />
workshop1# mkdir /var/run<br />
workshop1# for i in $(seq 1 $(com-cdslinvadm --get maxnodeidnum ))<br />
default;do mkdir /$(com-cdslinvadm --get tree)/$i/var/run/lvm ;done
Datum 07.11.2011 Version 2.0 Seite 21/29<br />
/etc/mtab muss auf /proc/mounts umgeleitet werden:<br />
workshop1# cd /etc/<br />
workshop1# rm -f mtab<br />
workshop1# ln -s /proc/mounts mtab<br />
Achtung:<br />
Nach einem Systemupdate können die chkconfig Einstellungen wie<strong>der</strong> auf default<br />
stehen – Services wie kudzu müssen nach einem Update kontrolliert werden.<br />
Es muss sichergestellt sein, dass Hostnames und Hostname-Auflösung für den<br />
Cluster zuverlässig funktioniert.<br />
Da die Datei /etc/sysconfig/network hostabhängig ist, muss diese für jeden<br />
Clusterknoten angepasst werden.<br />
Tipp:<br />
Editieren hostabhängiger Dateien: vi akzeptiert Wildcards in Dateinamen und<br />
Pfaden → alle Dateien werden geöffnet:<br />
workshop1# vi /.cluster/cdsl/*/etc/sysconfig/network<br />
/etc/sysconfig/network:<br />
workshop1# cat /etc/sysconfig/network<br />
NETWORKING=yes<br />
NETWORKING_IPV6=yes<br />
HOSTNAME=workshop1<br />
/etc/hosts:<br />
workshop1# cat /etc/hosts<br />
# Do not remove the following line, or various programs<br />
# that require network functionality will fail.<br />
127.0.0.1 localhost.localdomain localhost<br />
::1 localhost6.localdomain6 localhost6<br />
192.168.120.50 workshop1<br />
192.168.120.60 workshop2
Datum 07.11.2011 Version 2.0 Seite 22/29<br />
Standardmäßig sollen folgende Services ein bzw. ausgeschaltet werden:<br />
workshop1# for service in gpm kudzu restorecond smartd pcscd<br />
bluetooth hidd irda mdmpd yum-updatesd ip6tables iptables; do echo<br />
$service off; chkconfig $service off; done<br />
workshop1# for service in netconsole ntpd snmpd rsyslog; do echo<br />
$service on; chkconfig $service on; done<br />
Tipp:<br />
sshd frühzeitig starten, um <strong>bei</strong>m Booten (vor Aktivierung des Cluster Stacks) die<br />
Möglichkeit zu haben, mittels ssh auf das System zuzugreifen:<br />
workshop1# chkconfig sshd off<br />
workshop1# sed -i /etc/init.d/sshd -r -e 's/# chkconfig:<br />
([[:digit:]]+) [[:digit:]]+ ([[:digit:]])/# chkconfig: \1 20 \2/'<br />
workshop1# chkconfig sshd on<br />
Warnung:<br />
Wenn ein Red Hat Cluster Manager gestartet werden soll, ist darauf zu achten,<br />
dass selinux und iptables richtig konfiguriert sind!<br />
Bestimmte cronjobs sollen ausgeschaltet werden:<br />
rm /etc/cron.*/rpm /etc/cron.*/makewhatis.cron<br />
/etc/cron.*/mlocate.cron /etc/cron.*/prelink<br />
/etc/cron.*/makewhatis.cron /etc/cron.*/99-raid-check<br />
Der Zeitabgeich mit einem zentralen Server soll angepasst werden:<br />
# # cat > /etc/cron.daily/ntp ntpdate time-server &>/dev/null && hwclock --systohc &>/dev/null<br />
> EOF<br />
workshop1# chmod a+x /etc/cron.daily/ntp
Datum 07.11.2011 Version 2.0 Seite 23/29<br />
Die ssh-Keys sollten generiert werden, damit man ohne Abfragen zwischen den<br />
Nodes über ssh wechseln kann:<br />
workshop1# ssh-keygen<br />
workshop1# cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys<br />
workshop1# chmod 600 /root/.ssh/authorized_keys<br />
workshop1# com-dsh hostname<br />
Eine neue initrd soll gebaut werden (im Falle eines Kernelupdates bzw. Xen-Kernel<br />
muss die Kernelversion explizit angegeben werden):<br />
workshop1# /opt/atix/comoonics-bootimage/mkinitrd -f<br />
/boot/initrd_sr-$(uname -r).img $(uname -r)<br />
4.8. Erstellen <strong>der</strong> PXE Boot Konfiguration<br />
Nachdem <strong>der</strong> Sharedroot Cluster eingerichtet ist und die initrd Datei erstellt wurde,<br />
muss <strong>der</strong> PXE Boot Server noch abschließend konfiguriert werden.<br />
Die Boot Verzeichnisse <strong>der</strong> Sharedroot Cluster werden mittels Bindmounts in das<br />
Verzeichnis des TFTP Servers gemountet.<br />
Dazu wird die Datei /etc/fstab auf dem TFTP Server angepasst. Aus<br />
Sicherheitsgründen werden Bindmounts direkt auf das /boot Verzeichnis des Clusters<br />
gesetzt:<br />
tftp-server# cat /etc/fstab<br />
[...]<br />
/srv/nfs/comoonics/testcluster/root/boot /tftpboot/testcluster<br />
auto bind 0 0<br />
tftp-server# mkdir /tftpboot/testcluster<br />
tftp-server# mount /tftpboot/testcluster<br />
Um eine Vereinfachung <strong>der</strong> PXE Boot Konfiguration zu erreichen, wird <strong>der</strong> Kernel<br />
und die initrd Dateien des Sharedroot Clusters auf einheitliche Namen abstrahiert:<br />
tftp-server# cd /tftpboot/testcluster/<br />
tftp-server# ln -s vmlinuz-2.6.18-274.7.1.el5 vmlinuz.el5<br />
tftp-server# ln -s initrd_sr-2.6.18-274.7.1.el5.img initrd_sr.el5<br />
tftp-server# ln -s initrd_sr-2.6.18-274.7.1.el5.img.failsafe<br />
initrd_sr.el5.failsafe
Datum 07.11.2011 Version 2.0 Seite 24/29<br />
Für jeden Server wird eine PXE-Boot Konfigurationsdatei mit dem Namen pxe.<br />
[nodename].conf erstellt.<br />
tftp-server# cat /tftpboot/testcluster/pxe.workshop1.conf<br />
# This is the com.oonics PXE boot config file<br />
timeout 100<br />
prompt 1<br />
default comoonics<br />
LABEL comoonics<br />
KERNEL /testcluster/vmlinuz.el5<br />
APPEND initrd=/testcluster/initrd_sr.el5 nodeid=1<br />
LABEL comoonics-failsafe<br />
KERNEL /testcluster/vmlinuz.el5<br />
APPEND initrd=/testcluster/initrd_sr.el5.failsafe nodeid=1<br />
LABEL comoonics-clone<br />
KERNEL /testcluster/vmlinuz.el5<br />
APPEND initrd=/testcluster/initrd_sr.el5 nodeid=1<br />
root=192.168.120.10:/srv/nfs/comoonics/testcluster/root_clone<br />
LABEL comoonics-clone-failsafe<br />
KERNEL /testcluster/vmlinuz.el5<br />
APPEND initrd=/testcluster/initrd_sr.el5.failsafe nodeid=1<br />
root=192.168.120.10:/srv/nfs/comoonics/testcluster/root_clone<br />
LABEL debug<br />
KERNEL /testcluster/vmlinuz.el5<br />
APPEND initrd=/testcluster/initrd_sr.el5 nodeid=1 com-debug<br />
com-step com-expert<br />
Nun werden symbolische Links für die PXE Boot-Konfigurationen angelegt. Diese<br />
dienen als Alias Adressen und sorgen für eine Vereinfachung <strong>der</strong> Administration des<br />
Systems:<br />
tftp-server# cd /tftpboot/pxelinux.cfg/<br />
tftp-server# ln -s workshop1 01-00-21-5a-aa-61-e8<br />
tftp-server# ln -s workshop2 01-00-21-5a-48-72-50<br />
tftp-server# ln -s ../testcluster/pxe.workshop1.conf workshop1<br />
tftp-server# ln -s ../testcluster/pxe.workshop2.conf workshop2<br />
Der Cluster ist jetzt funktionsfähig und kann über PXE gebootet werden.
Datum 07.11.2011 Version 2.0 Seite 25/29<br />
Tipp:<br />
Um die Funktionalität <strong>der</strong> <strong>Installation</strong> zu verifizieren, ist es sinnvoll einen weiteren<br />
Node in den Cluster zu booten, um eventuelle Än<strong>der</strong>ungen auf dem ersten Node<br />
noch vornehmen zu können.<br />
Hinweis:<br />
Auf den Cluster-Knoten muss im BIOS PXE als default Bootdevice gesetzt werden<br />
Aus Gründen <strong>der</strong> Verfügbarkeit kann es sinnvoll sein, mehr als einen NIC für<br />
PXEboot einzurichten.
Datum 07.11.2011 Version 2.0 Seite 26/29<br />
5. Einrichten von com.oonics Enterprise Copy<br />
com.oonics Enterprise Copy wird standardmäßig für folgende Aufgaben eingerichtet:<br />
Aufgabe Beschreibung<br />
mkinitrd Erstellen eines neuen initrds sowie ein failsafe backup<br />
localclone Erstellung eines bootfähigen Clones <strong>der</strong> Betriebssystem-<strong>Installation</strong>.<br />
5.1. Initrd Verwaltung<br />
5.1.1. mkinitrd.xml<br />
Die Datei mkinitrd.xml wird in dem Verzeichnis<br />
/etc/comoonics/enterprisecopy mit folgendem Inhalt erzeugt:<br />
workshop1# cat /etc/comoonics/enterprisecopy/mkinitrd.xml<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
Um ein neues initrd zu erzeugen, wird nun einfach folgen<strong>der</strong> com-ec Befehl<br />
ausgeführt:<br />
workshop1# com-ec /etc/comoonics/enterprisecopy/mkinitrd.xml<br />
5.2. Localclone<br />
5.2.1. localclone.xml<br />
Um eine lokale, bootfähige Kopie des Sharedroot Clusters erstellen zu können, wird<br />
die Datei localclone.xml mit folgendem Inhalt im Verzeichnis<br />
/etc/comoonics/enterprisecopy erstellt:
Datum 07.11.2011 Version 2.0 Seite 27/29<br />
workshop1# cat /etc/comoonics/enterprisecopy/localclone.xml<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
workshop1# cd /etc/comoonics/enterprisecopy<br />
workshop1# cp /opt/atix/comoonics-cs/xsl/defaults.xsl .<br />
Der Clone-Prozess wird durch folgendes com-ec Kommando gestartet:<br />
workshop1# com-ec -x /opt/atix/comoonics-cs/xsl/localclone.xsl<br />
/etc/comoonics/enterprisecopy/localclone.xml
Datum 07.11.2011 Version 2.0 Seite 28/29<br />
6. Anhang<br />
6.1. Paketliste<br />
Im folgenden ist die Liste <strong>der</strong> notwendigen und empfohlenen Softwarepakete<br />
dargestellt:<br />
Paket Beschreibung Status<br />
comoonics-cluster-py com.oonics cluster configuration utilities<br />
written in Python<br />
Notwendig<br />
comoonics-release com.oonics release package Notwendig<br />
comoonics-cdsl-py com.oonics cdsl utilities and library<br />
written in Python<br />
comoonics-ec-base-py com.oonics Enterprise Copy base<br />
libraries<br />
comoonics-ec-py com.oonics Enterprisecopy utilities and<br />
libraries written in Python<br />
comoonics-bootimagelistfiles-rsyslogd<br />
Notwendig<br />
Notwendig<br />
Notwendig<br />
Syslog listfiles for the rsyslog daemon Notwendig<br />
comoonics-base-py com.oonics minimum baselibraries Notwendig<br />
comoonics-tools-py com.oonics base tools Notwendig<br />
comoonics-bootimagelistfiles-all<br />
comoonics-bootimageinitscripts<br />
com.oonics listfilesfiles for all<br />
distributions<br />
Initscripts used by the com.oonics<br />
cluster environment.<br />
comoonics-storage-py com.oonics Enterprisecopy storage<br />
utilities and libraries written in Python<br />
comoonics-bootimage Scripts for creating an initrd in a<br />
com.oonics cluster environment<br />
comoonics-cs-xml XML and DTD Files for comoonics<br />
clustersuite<br />
comoonics-bootimageextras-nfs<br />
comoonics-cluster-toolspy<br />
comoonics-bootimagelistfiles-rhel5<br />
comoonics-bootimageextras-syslog<br />
comoonics-bootimageextras-localconfigs<br />
Notwendig<br />
Notwendig<br />
Notwendig<br />
Notwendig<br />
Notwendig<br />
Listfiles for nfs sharedroot configurations Notwendig für<br />
<strong>NFS</strong><br />
com.oonics cluster tools Notwendig<br />
Extrafiles for RedHat Enterprise Linux Notwendig für<br />
<strong>RHEL</strong>5<br />
Syslog implementation for com.oonics Notwendig<br />
Extra for cluster configuration via local<br />
files<br />
Notwendig für<br />
lokale<br />
Konfigurationsdateien.<br />
comoonics-bootimage- Extrafiles for <strong>RHEL</strong>5 <strong>NFS</strong> support Notwendig
Datum 07.11.2011 Version 2.0 Seite 29/29<br />
Paket Beschreibung Status<br />
listfiles-rhel5-nfs<br />
com.oonics-bootimagelistfiles-firmware<br />
Listfiles for including firmware images<br />
into the initrd.<br />
comoonics-cs-xsl-ec XSL Files for comoonics<br />
enterprisecopy to use cloning<br />
(master/localclone)<br />
Notwendig<br />
Notwendig