16.04.2013 Aufrufe

Installation Guide, RHEL 5, NFS, 5.0 - bei der ATIX AG

Installation Guide, RHEL 5, NFS, 5.0 - bei der ATIX AG

Installation Guide, RHEL 5, NFS, 5.0 - bei der ATIX AG

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

ased on<br />

Enterprise IT Platform<br />

<strong>Installation</strong> <strong>Guide</strong><br />

<strong>RHEL</strong>5, <strong>NFS</strong>, version


Datum 07.11.2011 Version 2.0 Seite 1/29<br />

Referenz-Architektur<br />

zu<br />

<strong>Installation</strong> <strong>der</strong><br />

com.oonics Enterprise IT Platform<br />

Version: 2.0<br />

Datum: 07.11.2011<br />

com.oonics: Version <strong>5.0</strong><br />

Linux Distribution: <strong>RHEL</strong>5<br />

Sharedroot: <strong>NFS</strong><br />

<strong>ATIX</strong> <strong>AG</strong><br />

Einsteinstr. 10<br />

85716 Unterschleißheim<br />

Version: 2.0


Datum 07.11.2011 Version 2.0 Seite 2/29<br />

Inhaltsverzeichnis<br />

1. Über das Dokument.....................................................................................3<br />

1.1. Kurzinhalt................................................................................................3<br />

1.2. Konventionen..........................................................................................3<br />

1.2.1. Warnung.......................................................................................... 3<br />

1.2.2. Hinweis............................................................................................3<br />

1.2.3. Tipp..................................................................................................3<br />

1.2.4. Benutzereingabe:............................................................................ 3<br />

1.2.5. Bildschirmausgabe:.........................................................................4<br />

1.2.6. Variable Werte.................................................................................4<br />

1.3. Leser.......................................................................................................4<br />

2. Die com.oonics Enterprise IT Platform.....................................................5<br />

3. Voraussetzungen......................................................................................... 7<br />

3.1. Benötigte Informationen......................................................................... 7<br />

3.2. Benötigte Software................................................................................. 7<br />

3.2.1. Red Hat Enterprise Linux 5............................................................. 7<br />

3.2.2. com.oonics Enterprise IT Platform..................................................8<br />

3.3. Benötigte Infrastruktur............................................................................ 8<br />

3.3.1. DHCP Server (Linux).......................................................................8<br />

3.3.2. DHCP Server (Windows)................................................................9<br />

3.3.3. TFTP Server.................................................................................... 9<br />

3.3.4. <strong>NFS</strong> Server....................................................................................10<br />

3.4. Lokale <strong>RHEL</strong>5 Standardinstallation......................................................11<br />

4. com.oonics <strong>NFS</strong> Sharedroot <strong>Installation</strong> ............................................... 12<br />

4.1. Red Hat Software Pakete ....................................................................12<br />

4.2. Einhängen des <strong>NFS</strong> Exports, kopieren des root Filesystems..............13<br />

4.3. chroot ins neue Root............................................................................ 14<br />

4.4. Einrichten o<strong>der</strong> überprüfen <strong>der</strong> com.oonics Software Channel...........15<br />

4.5. <strong>Installation</strong> <strong>der</strong> com.oonics und Cluster Software Pakete....................15<br />

4.6. Einrichten <strong>der</strong> Sharedroot Konfiguration.............................................. 16<br />

4.6.1. Red Hat Cluster Konfigurationsdatei ............................................16<br />

4.6.2. Lokale Konfigurationsdateien (empfohlen)...................................18<br />

4.7. Anpassungen des Linux Betriebssystems............................................19<br />

4.8. Erstellen <strong>der</strong> PXE Boot Konfiguration..................................................23<br />

5. Einrichten von com.oonics Enterprise Copy..........................................26<br />

5.1. Initrd Verwaltung...................................................................................26<br />

5.1.1. mkinitrd.xml................................................................................... 26<br />

5.2. Localclone.............................................................................................26<br />

5.2.1. localclone.xml................................................................................26<br />

6. Anhang........................................................................................................28<br />

6.1. Paketliste.............................................................................................. 28


Datum 07.11.2011 Version 2.0 Seite 3/29<br />

1. Über das Dokument<br />

1.1. Kurzinhalt<br />

Die <strong>ATIX</strong> Referenz-Architektur Dokumentation beschreibt den von <strong>ATIX</strong> getesteten<br />

und unterstützten Weg <strong>der</strong> <strong>Installation</strong> <strong>der</strong> com.oonics Enterprise IT Platform.<br />

In diesem Dokument wird die <strong>Installation</strong> <strong>der</strong> com.oonics Enterprise IT Platform auf<br />

Basis von <strong>RHEL</strong>5 und <strong>NFS</strong> Sharedroot Dateisystem beschrieben.<br />

1.2. Konventionen<br />

In dem Dokument gelten folgende Konventionen:<br />

1.2.1. Warnung<br />

Achtung:<br />

Hier ist Vorsicht geboten!<br />

1.2.2. Hinweis<br />

Hinweis:<br />

Ein Hinweis für Sie!<br />

1.2.3. Tipp<br />

Tipp:<br />

Ein guter Tipp!<br />

1.2.4. Benutzereingabe:<br />

Die Kommandozeileneingabe als Benutzer root wird durch den Prompt<br />

[servername]# eingeleitet:<br />

[Servername]# echo Hello World


Datum 07.11.2011 Version 2.0 Seite 4/29<br />

1.2.5. Bildschirmausgabe:<br />

Hello World<br />

1.2.6. Variable Werte<br />

Variable Werte werden in eckigen Klammern dargestellt: [Meine Variable]<br />

Werte, die an die jeweilige Konfiguration anzupassen sind o<strong>der</strong> davon abhängig sind,<br />

werden orange und fett markiert:<br />

[Servername]# hostname<br />

workshop1<br />

Shell Variablen werden durch ein „$“ Zeichen und großen Buchstaben dargestellt:<br />

[Servername]# export COM_NODENAME1=“testnode1“<br />

[Servername]# echo $COM_NODENAME1<br />

testnode1<br />

1.3. Leser<br />

Die Dokumentation richtet sich an erfahrene Linux System Administratoren.


Datum 07.11.2011 Version 2.0 Seite 5/29<br />

2. Die com.oonics Enterprise IT Platform<br />

Die com.oonics Enterprise IT Platform konsolidiert Server- und Speichersysteme und<br />

ermöglicht so Hochverfügbarkeit, optimale Skalierbarkeit und einfaches<br />

Management.<br />

Die com.oonics Enterprise IT Platform ist für Unternehmen je<strong>der</strong> Größe geeignet und<br />

spiegelt die individuellen Bedürfnisse des Anwen<strong>der</strong>s wie<strong>der</strong>.<br />

Doch Bedürfnisse än<strong>der</strong>n sich, darum ist es wichtig eine flexible, modulare<br />

Infrastruktur zu besitzen, die sich einfach erweitern und umstrukturieren lässt.<br />

Deshalb besteht die com.oonics Enterprise IT Platform aus einem flexiblen<br />

Baukastensystem aus Industriestandard-Komponenten auf Linux-Basis. Die<br />

Plattform gewährleistet die Freiheit zur Verän<strong>der</strong>ung<br />

Zusätzlich liefert die com.oonics Enterprise IT Platform eine Lösung für eine <strong>der</strong><br />

bedeutendsten Aufgaben <strong>der</strong> IT: Kostensenkung und gleichzeitige Optimierung <strong>der</strong><br />

Leistungsfähigkeit und Verfügbarkeit von Anwendungen wie File und Web Services,<br />

Datenbanken (z. B. Oracle, PostgreSQL, MySQL), anspruchsvollen ERP-Systemen<br />

(z. B. SAP) und Server Virtualisierung.<br />

Das modulare Baukastensystem <strong>der</strong> com.oonics Enterprise IT Platform:<br />

Bei <strong>der</strong> com.oonics Enterprise IT Platform haben alle Server direkten Zugriff auf die<br />

Speichergeräte und können diese konkurrierend gleichermaßen beschreiben und<br />

lesen. Ein Linux Shared-Filesystem verbindet da<strong>bei</strong> Applikations-Server und ein<br />

angebundenes Speichernetzwerk und ermöglicht parallele Filesystem-Zugriffe von<br />

allen Cluster-Knoten aus auf ein zentrales Speichersystem. Das Konzept <strong>der</strong><br />

com.oonics Enterprise IT Platform besteht darin, dass die Cluster-Knoten vollständig<br />

ohne Festplatten auskommen, direkt vom Speichernetzwerk booten und sogar die<br />

Systemdaten teillen.


Datum 07.11.2011 Version 2.0 Seite 6/29<br />

Innerhalb <strong>der</strong> com.oonics Enterprise IT Platform werden Server mit gleichen<br />

Aufgaben logisch zu Clustern zusammengefasst. Die Zuweisung ist jedoch flexibel<br />

und kann je<strong>der</strong>zeit geän<strong>der</strong>t werden. So können z. B. Datenbank-Server (Blau) durch<br />

einfaches Neustarten zu Web-Servern (Gelb) umfunktioniert werden, um z. B. auf<br />

Lastspitzen reagieren zu können.<br />

Des Weiteren können von einer <strong>Installation</strong>, automatisiert und in kurzer Zeit, beliebig<br />

viele Kopien erzeugt und gesichert werden, z. B. zur Erzeugung von Test-,<br />

Entwicklungs- und Produktionsumgebungen (QA-Tier-Stufen). Gleichermaßen wird<br />

com.oonics auch für Rolling-Updates (Software Updates ohne Unterbrechung)<br />

verwendet, die Funktionalitäten müssen jedoch vom Cluster und vom Linux-<br />

Betriebsystem unterstützt werden.<br />

Die com.oonics Enterprise IT Platform besteht aus foldenden Basis-Komponenten:<br />

• com.oonics Sharedroot Cluster<br />

Der com.oonics Sharedroot Cluster ist ein nach dem „pay as grow“-Prinzip<br />

skalierbarer Single System Image Cluster für Hochverfügbarkeits- und<br />

Hochleistungsanwendungen.<br />

• com.oonics Bare Metal Boot<br />

Mit com.oonics Bare Metal Boot kann eine bestehende<br />

Betriebssysteminstallation ohne weitere Anpassungen und ohne<br />

Migrationsaufwand, sowohl auf unterschiedlicher Hardware (z. B. IBM, HP<br />

etc.) als auch auf unterschiedlichen Virtualisierungsplattformen (z. B.<br />

VMware, XEN, KVM etc.) betrieben werden.<br />

• com.oonics GrayHead<br />

Der com.oonics GrayHead ist die zentralisierte Monitoring- und Management-<br />

Applikation zur proaktiven und reaktiven Überwachung <strong>der</strong> gesamten<br />

Infrastruktur.<br />

• com.oonics Enterprise Copy<br />

Die com.oonics Enterprise Copy ist ein Cluster o<strong>der</strong> Single-Server Cloning<br />

Framework zur Erstellung von lokalen o<strong>der</strong> remote Shadow <strong>Installation</strong>en für<br />

Testsysteme, Disaster Recovery Konzepten o<strong>der</strong> Roll-Out Szenarien. Der<br />

Framework ist in gängige Enterprise Backup- und Storage-Lösungen<br />

integrierbar.<br />

• com.oonics Live DVD<br />

Die com.oonics Live DVD enthält alle com.oonics Tools und ist im <strong>ATIX</strong> Web-<br />

Shop erhältlich.<br />

• com.oonics Disaster Recovery<br />

Das com.oonics Disaster Recovery Feature ermöglicht die automatische<br />

Erstellung von bootfähigen Disaster Recovery-<strong>Installation</strong>en sowie das<br />

Anlegen von Disaster Recovery-Sicherungen zur einfachen<br />

Wie<strong>der</strong>herstellung des Systems.<br />

Die folgende Anleitung ist Teil <strong>der</strong> <strong>ATIX</strong> Referenz-Architektur Reihe.<br />

In diesem Dokument wird die <strong>Installation</strong> des com.oonics Sharedroot Clusters mit<br />

<strong>NFS</strong> als Shared-Filesystem beschrieben. Als Linux Enterprise Distribution kommt<br />

Red Hat Enterprise Linux 5 (<strong>RHEL</strong>5) zum Einsatz.


Datum 07.11.2011 Version 2.0 Seite 7/29<br />

3. Voraussetzungen<br />

3.1. Benötigte Informationen<br />

Für den <strong>Installation</strong>sprozess des com.oonics Sharedroot Clusters werden folgende<br />

Informationen benötigt. In <strong>der</strong> Spalte „Genutzter Wert“ sind die in den folgenden<br />

Beispielen genutzten Werte verzeichnet<br />

Name Beschreibung Genutzter Wert<br />

Clustername Name des Clusters testcuster<br />

Knotenzahl Initiale Anzahl <strong>der</strong> Clusterknoten 2<br />

dhcp-server Netzwerk Adresse des dhcp Servers 192.168.120.1<br />

tftp-server Netzwerk Adresse des TFTP Servers 192.168.120.1<br />

nfs-server Netzwerk Adresse des <strong>NFS</strong> Servers 192.168.120.1<br />

Knoten1 Name des ersten Clusterknotens workshop1<br />

MAC1_1 Erste MAC Adresse des Knoten1 00:0c:29:60:d2:10<br />

MAC1_2 Zweite MAC Adresse des Knoten1 Für Test optional<br />

IP_INT_1 IP Adresse für PXE und <strong>NFS</strong> Zugriff<br />

Knoten1<br />

192.168.120.50<br />

IP_PUB_1 Public IP Adresse für Knoten 1 Für Test optional<br />

Knoten2 Name des zweiten Clusterknotens workshop2<br />

MAC2_1 Erste MAC Adresse des Knoten2 00:0c:29:36:79:e3<br />

MAC2_2 Zweite MAC Adresse des Knoten2 optional<br />

IP_INT_2 IP Adresse für PXE und <strong>NFS</strong> Zugriff<br />

Knoten2<br />

192.168.120.60<br />

IP_PUB_2 Public IP Adresse für Knoten 2 Für Test optional<br />

3.2. Benötigte Software<br />

Die com.oonics Enterprise IT Platform basiert auf einer Enterprise Linux Distribution.<br />

In diesem Fall wird das Red Hat Enterprise Linux 5 eingesetzt.<br />

Die com.oonics Software Version ist <strong>5.0</strong><br />

3.2.1. Red Hat Enterprise Linux 5<br />

Es wird eine gültige Red Hat Enterprise Linux 5 (<strong>RHEL</strong>5) Software Subscription<br />

benötigt.<br />

Wir empfehlen die Nutzung <strong>der</strong> in com.oonics integrierten Red Hat Software<br />

Subscription (<strong>RHEL</strong>5 for com.oonics). Für Fragen steht Ihr <strong>ATIX</strong> Ansprechpartner<br />

(vertrieb@atix.de) gerne für Sie bereit.<br />

Die aktuell unterstützte Version ist <strong>RHEL</strong>5.7 o<strong>der</strong> höher.


Datum 07.11.2011 Version 2.0 Seite 8/29<br />

3.2.2. com.oonics Enterprise IT Platform<br />

Für die <strong>Installation</strong> <strong>der</strong> com.oonics Enterprise IT Platform wird eine com.oonics<br />

Software Subscription benötigt. Diese wird in zwei Varianten ausgeliefert:<br />

1. com.oonics Enterprise IT Platform inkl. <strong>RHEL</strong>5<br />

2. com.oonics Enterprise IT Platform standalone<br />

Haben Sie Fragen zu <strong>der</strong> com.oonics Software Subscription? Ihr <strong>ATIX</strong><br />

Ansprechpartner (vertrieb@atix.de) ist gerne für Sie da.<br />

Die aktuell unterstützte com.oonics Version ist <strong>5.0</strong> o<strong>der</strong> höher.<br />

3.3. Benötigte Infrastruktur<br />

Die Server o<strong>der</strong> Clusterknoten (Knoten) <strong>der</strong> com.oonics Enterprise IT Platform für<br />

<strong>NFS</strong> erhalten ihre Boot Konfiguration durch ein Preboot eXecution Environment<br />

(PXE). Die Systemverzeichnise (root) werden von einem <strong>NFS</strong> Server bereitgestellt.<br />

Im Folgenden wird die Umgebung beschrieben, die aus einem DHCP Server, einem<br />

TFTP Server und einem <strong>NFS</strong> Server besteht.<br />

3.3.1. DHCP Server (Linux)<br />

Der DHCP Server muss die Clusterknoten erkennen und sie auf PXEboot verweisen.<br />

Im Folgenden wird <strong>bei</strong>spielhaft die <strong>Installation</strong> und Konfiguration eines Linux<br />

basierten DHCP Servers beschrieben. Die hier verwendeten com.oonics<br />

Clusterknoten sind workshop1 und workshop2.<br />

dhcp-server# yum install dhcp<br />

dhcp-server# cat /etc/dhcpd.conf<br />

ddns-update-style ad-hoc;<br />

allow booting;<br />

allow bootp;<br />

option routers 192.168.120.10;<br />

option subnet-mask 255.255.25<strong>5.0</strong>;<br />

option domain-name "workshop.atix";<br />

option domain-name-servers 192.168.3.121;<br />

default-lease-time 21600;<br />

max-lease-time 43200;<br />

subnet 192.168.120.0 netmask 255.255.25<strong>5.0</strong> {<br />

#range 192.168.120.100 192.168.120.200;<br />

deny unknown-clients;<br />

}<br />

group {<br />

#tftp server<br />

next-server 192.168.120.10;<br />

#This is the pxe bootloa<strong>der</strong> file<br />

filename "pxelinux.0";<br />

# One host block per client. This network only has one.<br />

host workshop1 {<br />

option host-name "workshop1";


Datum 07.11.2011 Version 2.0 Seite 9/29<br />

hardware ethernet 00:0c:29:60:d2:10;<br />

fixed-address 192.168.120.50;<br />

}<br />

host workshop2 {<br />

option host-name "workshop2";<br />

hardware ethernet 00:0c:29:36:79:e3;<br />

fixed-address 192.168.120.60;<br />

}<br />

}<br />

dhcp-server# chkconfig dhcpd on<br />

dhcp-server# /etc/init.d/dhcpd start<br />

3.3.2. DHCP Server (Windows)<br />

Sollte ein Windows basierter DHCP Server genutzt werden, sind die DHCP Optionen<br />

066 (Filename) und 067 (Startserver) wie folgt zu setzten:<br />

• 066 (Filename): pxelinux.0<br />

• 067 (Startserver): 192.168.120.10<br />

Diese Optionen werden entwe<strong>der</strong> pro Rechner (Leaseeintrag im DHCP) o<strong>der</strong> global<br />

gesetzt.<br />

3.3.3. TFTP Server<br />

Der TFTP Server stellt alle notwendigen Dateien für den Linux boot Prozess zur<br />

Verfügung. Die <strong>Installation</strong> eines TFTP Servers unter Linux wird im folgenden<br />

<strong>bei</strong>spielhaft beschrieben:<br />

tftp-server# yum install tftp-server syslinux<br />

tftp-server# cat /etc/xinetd.d/tftp<br />

[…]<br />

service tftp<br />

{<br />

socket_type = dgram<br />

protocol = udp<br />

wait = yes<br />

user = root<br />

server = /usr/sbin/in.tftpd<br />

server_args = -v -s /tftpboot<br />

disable = no<br />

per_source = 11<br />

cps = 100 2<br />

flags = IPv4<br />

}<br />

tftp-server# service xinetd restart<br />

Hinweis<br />

tftp ist standardmässig auf disable=yes


Datum 07.11.2011 Version 2.0 Seite 10/29<br />

3.3.4. <strong>NFS</strong> Server<br />

Für die <strong>Installation</strong>en <strong>der</strong> com.oonics Enterprise IT Platform für <strong>NFS</strong> wird folgende<br />

<strong>NFS</strong> Server Konfiguration benötigt:<br />

<strong>NFS</strong> Server Export Optionen:<br />

Option Beschreibung<br />

rw Das <strong>NFS</strong> Filesystem wird mit schreib-/leserechten exportiert<br />

sync Schreiboperationen werden erst bestätigt, wenn diese auf ein<br />

stabiles Storagesystem geschrieben worden sind<br />

no_root_squash „root squashing“ wird deaktiviert<br />

fsid=XX XX ist ein eindeutiger identifier für das exportierte Filesystem<br />

Filesystem Pfade:<br />

Wir empfehlen, dass die Filesysteme für den <strong>NFS</strong> Export unter<br />

/srv/nfs/comoonics eingehängt werden. Dort finden sich wie<strong>der</strong>um die Basis-<br />

Verzeichnisse für die einzelnen Cluster mit folgenden Unterverzeichnissen:<br />

• root (<strong>der</strong> eigentliche Produktionscluster)<br />

• root_clone (<strong>der</strong> clone des Produktionsclusters)<br />

• config (optional, Konfigurationsdateien, die zum Cluster gehören, aber u.U.<br />

nicht in die Rootfilesysteme passen<br />

Filesystem Größen:<br />

Die über <strong>NFS</strong> bereitgestellten Verzeichnisse müssen folgende<br />

Kapazitätsanfor<strong>der</strong>ungen erfüllen:<br />

export Mindestgröße Empf. Größe<br />

/srv/nfs/comoonics/[clustername]/root 10GB 20GB<br />

/srv/nfs/comoonics/[clustername]/root_clone 10GB 20GB<br />

Im Folgenden wird <strong>bei</strong>spielhaft die Konfiguration auf einem Linux <strong>NFS</strong> Server für ein<br />

com.oonics Sharedroot Filesystem beschrieben.<br />

nfsserver# mkdir -p /srv/nfs/comoonics/testcluster/root<br />

nfsserver# mkdir -p /srv/nfs/comoonics/testcluster/root_clone<br />

nfsserver# cat /etc/exports<br />

/srv/nfs/comoonics/testcluster/root<br />

192.168.120.0/255.255.25<strong>5.0</strong>(rw,no_root_squash,sync,fsid=1)<br />

/srv/nfs/comoonics/testcluster/root_clone<br />

192.168.120.0/255.255.25<strong>5.0</strong>(rw,no_root_squash,sync,fsid=2)<br />

[…]


Datum 07.11.2011 Version 2.0 Seite 11/29<br />

3.4. Lokale <strong>RHEL</strong>5 Standardinstallation<br />

Für die <strong>Installation</strong> <strong>der</strong> com.oonics Enterprise IT Platform für <strong>RHEL</strong>5 - <strong>NFS</strong> wird ein<br />

installiertes <strong>RHEL</strong>5 benötigt.<br />

Bei Bedarf können folgende <strong>Installation</strong>soptionen abgewählt werden.<br />

• „Legacy Software Support“ auswählen<br />

• Kein „GNOME“<br />

• Keine „Servers“<br />

• Keine „Applications“<br />

• selinux deaktiviert<br />

• iptables (Firewall) deaktiviert


Datum 07.11.2011 Version 2.0 Seite 12/29<br />

4. com.oonics <strong>NFS</strong> Sharedroot <strong>Installation</strong><br />

Die <strong>Installation</strong> des Betriebssystems für die com.oonics Enterprise IT Platform auf<br />

<strong>NFS</strong> Sharedroot erfolgt in folgenden Schritten:<br />

1. Anpassung <strong>der</strong> RedHat Pakete<br />

2. Einrichten des <strong>NFS</strong> Exports<br />

3. Einhängen des <strong>NFS</strong> Exports<br />

4. Kopieren <strong>der</strong> lokalen <strong>RHEL</strong>5 <strong>Installation</strong> auf das <strong>NFS</strong> Export<br />

5. chroot ins neue root Verzeichnis<br />

6. Einrichten des com.oonics yum channels<br />

7. Konfiguration <strong>der</strong> sharedroot Umgebung<br />

8. Erstellen <strong>der</strong> Initial Ramdisk (initrd)<br />

9. Anpassung des Bootdevices.<br />

4.1. Red Hat Software Pakete<br />

In diesem Schritt werden weitere Red Hat Software Pakete installiert.<br />

Gemäß unserer Empfehlung wird davon ausgegangen, dass für die <strong>Installation</strong> <strong>der</strong><br />

com.oonics Enterprise IT Platform eine gültige com.oonics Software Subscription und<br />

eine <strong>RHEL</strong>5 for com.oonics Software Subscription eingesetzt wird.<br />

Das System soll im com.oonics Enterprise IT Platform Software Management<br />

System (COM-RHN) (http://rpm.atix.de)<br />

angemeldet sein. Dafür ist das <strong>ATIX</strong> SSL<br />

Zertifikat sowie Anpassungen in <strong>der</strong> Datei /etc/sysconfig/rhn/up2date<br />

notwendig.<br />

workshop1# rpm --import http://rpm.atix.de/pub/comoonics-RPM-<br />

GPG.key<br />

workshop1# cat /etc/sysconfig/rhn/up2date<br />

[…]<br />

serverURL[comment]=Remote server URL<br />

serverURL=http://rpm.atix.de/XMLRPC<br />

[…]<br />

useNoSSLForPackages=1<br />

[…]<br />

Das System muss registriert werden.<br />

workshop1# rhnreg_ks --activationkey=


Datum 07.11.2011 Version 2.0 Seite 13/29<br />

Hinweis<br />

Ihren persönlichen Activation Key erhalten Sie von Ihrem <strong>ATIX</strong> Ansprechpartner. Bei<br />

Fragen zu Ihrem Activation Key können Sie sich je<strong>der</strong>zeit an support@atix.de<br />

wenden.<br />

Im Anschluss können die zusätzlich benötigten Red Hat Software Pakete installiert<br />

werden:<br />

workshop1# yum clean all<br />

workshop1# yum install strace systemtap nmap mc vim-enhanced ntp<br />

screen net-snmp sysstat yum-utils libxslt-python<br />

Wenn möglich, sollten zusätzlich folgende Pakete installiert ...<br />

workshop1# yum install rsyslog postfix<br />

... und die dann nicht mehr benötigten Pakete deinstalliert werden:<br />

workshop1# rpm -e sendmail<br />

workshop1# rpm -e sysklogd<br />

4.2. Einhängen des <strong>NFS</strong> Exports, kopieren des root<br />

Filesystems<br />

Die selinux Umgebung muss deaktiviert sein. Dazu wird folgen<strong>der</strong> Befehl<br />

eingegeben:<br />

workshop1# setenforce 0<br />

Die selinux Konfigurationsdatei muss überprüft und gegebenenfalls angepasst<br />

werden:<br />

workshop1# cat /etc/sysconfig/selinux<br />

# This file controls the state of SELinux on the system.<br />

# SELINUX= can take one of these three values:<br />

# enforcing - SELinux security policy is enforced.<br />

# permissive - SELinux prints warnings instead of enforcing.


Datum 07.11.2011 Version 2.0 Seite 14/29<br />

# disabled - No SELinux policy is loaded.<br />

SELINUX=disabled<br />

# SELINUXTYPE= can take one of these two values:<br />

# targeted - Targeted processes are protected,<br />

# mls - Multi Level Security protection.<br />

SELINUXTYPE=targeted<br />

Standardmäßig wird die Sharedroot Umgebung in /mnt/newroot gemountet und<br />

eingerichtet.<br />

Nachfolgend wird die lokale <strong>Installation</strong> auf den <strong>NFS</strong> Einhängepunkt kopiert.<br />

workshop1# mkdir /mnt/newroot/<br />

workshop1# mount -o nolock -t nfs<br />

192.168.120.1:/srv/nfs/comoonics/testcluster/root /mnt/newroot/<br />

workshop1# yum clean all<br />

workshop1# cp -ax / /mnt/newroot/<br />

workshop1# cp -ax /boot/* /mnt/newroot/boot/<br />

Hinweis:<br />

Das /boot Verzeichnis muss extra kopiert werden, da es von cp -x als an<strong>der</strong>es<br />

Filesystem (Mountpoint) ausgeschlossen wird.<br />

4.3. chroot ins neue Root<br />

Es werden /proc, /sys und /dev des laufenden Systems in <strong>der</strong> chroot Umbegung<br />

benötigt.<br />

workshop1# mount --rbind /dev /mnt/newroot/dev/<br />

workshop1# mount -t proc proc /mnt/newroot/proc<br />

workshop1# mount -t sysfs none /mnt/newroot/sys<br />

Anschließend kann in das neue root Filesystem /mnt/newroot gewechselt werden.<br />

workshop1# chroot /mnt/newroot


Datum 07.11.2011 Version 2.0 Seite 15/29<br />

4.4. Einrichten o<strong>der</strong> überprüfen <strong>der</strong> com.oonics Software<br />

Channel<br />

Für die <strong>Installation</strong> <strong>der</strong> com.oonics Software Pakete muss <strong>der</strong> zugehörige Software<br />

Channel für das System abonniert sein.<br />

Hierzu wird im com.oonics Enterprise IT Platform Software Management System<br />

(http://rpm.atix.de) unter „Systems“ → „[SYSTEMNAME]“ → „Alter channel<br />

subscriptions“ <strong>der</strong> „comoonics“ Channel ausgewählt.<br />

Hinweis<br />

Durch die Registrierung des Systems mittels Activation Key werden die com.oonics<br />

Channel automatisch hinzugefügt.<br />

4.5. <strong>Installation</strong> <strong>der</strong> com.oonics und Cluster Software Pakete<br />

Folgende com.oonics Pakete müssen installiert werden:<br />

workshop1# yum install comoonics-bootimage comoonics-bootimageextras-nfs<br />

comoonics-cdsl-py comoonics-ec-py comoonics-cs-xsl-ec<br />

comoonics-bootimage-listfiles-rhel5-nfs comoonics-bootimagelistfiles-firmware<br />

Das Paket comoonics-bootimage-extras-localconfigs-<strong>5.0</strong> sollte nur dann installiert<br />

werden, wenn die <strong>Installation</strong> über lokale Konfigurationsdateien erfolgt (empfohlen).<br />

Zusätzlich muss folgendes Red Hat Paket installiert werden:<br />

workshop1# yum install pyparted<br />

Optional sind je nach Bedarf folgende Pakete zu installieren:<br />

Für die Nutzung von rsyslog:<br />

workshop1# yum install comoonics-bootimage-listfiles-rsyslogd<br />

Optional kann zusätzlich ein Hochverfügbarkeitscluster eingerichtet werden. Hierzu<br />

müssen folgende Pakete installiert werden:<br />

workshop1# yum install cman rgmanager


Datum 07.11.2011 Version 2.0 Seite 16/29<br />

Das Paket comoonics-bootimage-extras-network wird benötigt, wenn <strong>der</strong><br />

<strong>NFS</strong> Sharedroot Export über tagged VLANs gemountet werden soll:<br />

workshop1# yum install comoonics-bootimage-extras-network<br />

4.6. Einrichten <strong>der</strong> Sharedroot Konfiguration<br />

Initial wird das com.oonics Repositiory für die Context Dependent Symbolic<br />

Links (CDSL) erstellt.<br />

workshop1# com-cdslinvadm create --maxnodeidnum=KNOTENANZAHL+2<br />

Die neu erstellte CDSL Infrastruktur soll gemountet werden:<br />

workshop1# mount --bind /.cluster/cdsl/1/ /.cdsl.local/<br />

Die com.oonics Enterprise IT Platform 5 unterstützt zwei unabhängige Möglichkeiten<br />

<strong>der</strong> Systemkonfiguration, die im folgenden beschrieben werden. Im nächsten Schritt<br />

muss sich für eine <strong>der</strong> <strong>bei</strong>den Methoden entschieden werden.<br />

1. Red Hat Cluster Konfigurationsdatei<br />

2. Lokale Konfigurationsdateien (empfohlen)<br />

4.6.1. Red Hat Cluster Konfigurationsdatei<br />

Um die com.oonics Konfiguration in die Red Hat Cluster Konfigurationsdatei zu<br />

speichern, muss diese erweitert o<strong>der</strong> neu erstellt werden.<br />

Die /etc/cluster/cluster.conf Datei muss erstellt werden. Als Vorlage kann<br />

folgende Datei dienen:<br />

<br />

<br />

<br />

<br />

<br />

<br />


Datum 07.11.2011 Version 2.0 Seite 17/29<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

Hinweis:<br />

Wenn Netzwerkkarten unterschiedlicher Hersteller verwendet werden, ist es<br />

empfohlen, für die NICs driver=“kernelmodul“ zu setzen.<br />

z.B.:<br />

<br />

Hinweis:<br />

Wenn ein Hochverfügbarkeits- o<strong>der</strong> GFS- Cluster eingerichtet werden soll, muss die<br />

Datei cluster.conf entsprechend erweitert werden.<br />

cluster.conf Syntax validieren:<br />

workshop1# com-queryclusterconf nodeids<br />

Die Netzwerkkartenkonfiguration muss angepasst werden (wenn möglich - keine<br />

MAC Adressen in den -ifcfg Dateien und die in cluster.conf definierten NICs mit<br />

onboot=no versehen). Das betrifft alle Netzwerkkarten!:<br />

workshop1# cat /etc/sysconfig/network-scripts/ifcfg-eth0<br />

DEVICE=eth0<br />

BOOTPROTO=none<br />

ONBOOT=no


Datum 07.11.2011 Version 2.0 Seite 18/29<br />

4.6.2. Lokale Konfigurationsdateien (empfohlen)<br />

Die Konfiguration <strong>der</strong> com.oonics Enterprise It Platform wird in lokale<br />

Konfigurationsdateien abgespeichert. Dies stellt die empfohlene Methode dar.<br />

Erstellen <strong>der</strong> Netzwerk-Konfiguration für alle Knoten:<br />

workshop1# cd /etc/sysconfig/network-scripts<br />

workshop1# cat ifcfg-eth0<br />

BOOTPROTO="static"<br />

IPADDR="192.168.120.50"<br />

NETMASK="255.255.25<strong>5.0</strong>"<br />

GATEWAY="192.168.120.10"<br />

DEVICE="eth0"<br />

ONBOOT="no"<br />

STARTMODE="nfsroot"<br />

Das Paket comoonics-bootimage-extras-localconfigs muss installiert werden.<br />

workshop1# yum install comoonics-bootimage-extras-localconfigs<br />

Die Netzwek Konfigurationsdatei muss hostabhängig gemacht werden:<br />

workshop1# com-mkcdsl --hostdependent ifcfg-eth0<br />

Wenn statische IP Adressen verwendet werden, müssen die hostabhängigen<br />

Netzwekkonfigurationsdateien angepasst werden.<br />

workshop1# cat /.cluster/cdsl/1/etc/sysconfig/networkscripts/ifcfg-eth0<br />

BOOTPROTO="static"<br />

IPADDR="192.168.120.50"<br />

NETMASK="255.255.25<strong>5.0</strong>"<br />

GATEWAY="192.168.120.10"<br />

DEVICE="eth0"<br />

ONBOOT="no"<br />

STARTMODE="nfsroot"<br />

workshop1# cat /.cluster/cdsl/2/etc/sysconfig/networkscripts/ifcfg-eth0<br />

BOOTPROTO="static"<br />

IPADDR="192.168.120.60"<br />

NETMASK="255.255.25<strong>5.0</strong>"


Datum 07.11.2011 Version 2.0 Seite 19/29<br />

GATEWAY="192.168.120.10"<br />

DEVICE="eth0"<br />

ONBOOT="no"<br />

STARTMODE="nfsroot"<br />

workshop1# cat /.cluster/cdsl/default/etc/sysconfig/networkscripts/ifcfg-eth0<br />

BOOTPROTO="static"<br />

IPADDR="192.168.120.X"<br />

NETMASK="255.255.25<strong>5.0</strong>"<br />

GATEWAY="192.168.120.10"<br />

DEVICE="eth0"<br />

ONBOOT="no"<br />

STARTMODE="nfsroot"<br />

Die „/var/run“ bind Mountpoints müssen konfiguriert werden.<br />

workshop1# cat /etc/cdsltab<br />

bind /.cluster/cdsl/%(nodeid)s/var/run /var/run __initrd<br />

Für die Nutzung des com.oonics distributed shell (com-dsh) müssen die Hostnamen<br />

<strong>der</strong> Cluster Knoten in die Datei /etc/comoonics/groups/all eingetragen werden.<br />

workshop1# cat /etc/comoonics/groups/all<br />

workshop1<br />

workshop2<br />

4.7. Anpassungen des Linux Betriebssystems<br />

Für die com.oonics Enterprise IT Platform sind ein paar Anpassungen an dem<br />

Betriebssystem notwendig, welche im Folgenden beschrieben werden.<br />

Es ist notwendig, dass das /tmp Verzeichnis hostabhängig o<strong>der</strong> lokal ist.<br />

Für ein hostabhängiges /tmp Verzeichnis wird ein symbolischer Link gesetzt:<br />

workshop1# rm -rf /tmp/<br />

workshop1# ln -s /var/tmp/ /tmp<br />

Hinweis:<br />

Lokale /tmp Filesysteme werden über einen Eintrag in <strong>der</strong> Datei /etc/fstab<br />

erstellt.


Datum 07.11.2011 Version 2.0 Seite 20/29<br />

Die hostabhängigen sowie die gemeinsam genutzten Verzeichnisse sollen nun<br />

festgelegt werden.<br />

Hinweis:<br />

Bitte immer den vollständigen, direkten Pfad angeben.<br />

Tipp:<br />

Sollten sich unnötige Dateien wie z.B. Logs in /var/ befinden, ist es aus<br />

Platzgründen sinnvoll, diese vorab zu löschen.<br />

workshop1# com-mkcdsl --hostdependent /var/tmp/ /var/account<br />

/var/cache /var/local /var/lock /var/log /var/spool<br />

/var/lib/dbus /var/lib/dhclient /var/run<br />

/var/lib/logrotate.status /etc/blkid /etc/sysconfig/network<br />

Es muss ein für alle Server im Cluster gemeinsames Lock-Verzeichnis angelegt<br />

werden:<br />

workshop1# mkdir /var/sharelock<br />

/etc/fstab muss angepasst werden – Die Einträge für das alte rootfs und /boot<br />

müssen entfernt werden:<br />

workshop1# cat /etc/fstab<br />

192.168.120.1:/srv/nfs/comoonics/testcluster/root / nfs<br />

nolock,defaults 0 0<br />

/dev/vg_local/lv_swap swap swap defaults 0 0<br />

/dev/vg_local/lv_tmp /var/tmp ext3 defaults 1 2<br />

tmpfs /dev/shm tmpfs defaults 0 0<br />

devpts /dev/pts devpts gid=5,mode=620 0 0<br />

sysfs /sys sysfs defaults 0 0<br />

proc /proc proc defaults 0 0<br />

Die hostabhängigen Mountpoints für /var/run müssen angelegt werden.<br />

/var/run muss <strong>bei</strong> Bedarf noch zusätzlich mit einem lvm Unterverzeichnis<br />

versehen werden:<br />

workshop1# rm /var/run<br />

workshop1# mkdir /var/run<br />

workshop1# for i in $(seq 1 $(com-cdslinvadm --get maxnodeidnum ))<br />

default;do mkdir /$(com-cdslinvadm --get tree)/$i/var/run/lvm ;done


Datum 07.11.2011 Version 2.0 Seite 21/29<br />

/etc/mtab muss auf /proc/mounts umgeleitet werden:<br />

workshop1# cd /etc/<br />

workshop1# rm -f mtab<br />

workshop1# ln -s /proc/mounts mtab<br />

Achtung:<br />

Nach einem Systemupdate können die chkconfig Einstellungen wie<strong>der</strong> auf default<br />

stehen – Services wie kudzu müssen nach einem Update kontrolliert werden.<br />

Es muss sichergestellt sein, dass Hostnames und Hostname-Auflösung für den<br />

Cluster zuverlässig funktioniert.<br />

Da die Datei /etc/sysconfig/network hostabhängig ist, muss diese für jeden<br />

Clusterknoten angepasst werden.<br />

Tipp:<br />

Editieren hostabhängiger Dateien: vi akzeptiert Wildcards in Dateinamen und<br />

Pfaden → alle Dateien werden geöffnet:<br />

workshop1# vi /.cluster/cdsl/*/etc/sysconfig/network<br />

/etc/sysconfig/network:<br />

workshop1# cat /etc/sysconfig/network<br />

NETWORKING=yes<br />

NETWORKING_IPV6=yes<br />

HOSTNAME=workshop1<br />

/etc/hosts:<br />

workshop1# cat /etc/hosts<br />

# Do not remove the following line, or various programs<br />

# that require network functionality will fail.<br />

127.0.0.1 localhost.localdomain localhost<br />

::1 localhost6.localdomain6 localhost6<br />

192.168.120.50 workshop1<br />

192.168.120.60 workshop2


Datum 07.11.2011 Version 2.0 Seite 22/29<br />

Standardmäßig sollen folgende Services ein bzw. ausgeschaltet werden:<br />

workshop1# for service in gpm kudzu restorecond smartd pcscd<br />

bluetooth hidd irda mdmpd yum-updatesd ip6tables iptables; do echo<br />

$service off; chkconfig $service off; done<br />

workshop1# for service in netconsole ntpd snmpd rsyslog; do echo<br />

$service on; chkconfig $service on; done<br />

Tipp:<br />

sshd frühzeitig starten, um <strong>bei</strong>m Booten (vor Aktivierung des Cluster Stacks) die<br />

Möglichkeit zu haben, mittels ssh auf das System zuzugreifen:<br />

workshop1# chkconfig sshd off<br />

workshop1# sed -i /etc/init.d/sshd -r -e 's/# chkconfig:<br />

([[:digit:]]+) [[:digit:]]+ ([[:digit:]])/# chkconfig: \1 20 \2/'<br />

workshop1# chkconfig sshd on<br />

Warnung:<br />

Wenn ein Red Hat Cluster Manager gestartet werden soll, ist darauf zu achten,<br />

dass selinux und iptables richtig konfiguriert sind!<br />

Bestimmte cronjobs sollen ausgeschaltet werden:<br />

rm /etc/cron.*/rpm /etc/cron.*/makewhatis.cron<br />

/etc/cron.*/mlocate.cron /etc/cron.*/prelink<br />

/etc/cron.*/makewhatis.cron /etc/cron.*/99-raid-check<br />

Der Zeitabgeich mit einem zentralen Server soll angepasst werden:<br />

# # cat > /etc/cron.daily/ntp ntpdate time-server &>/dev/null && hwclock --systohc &>/dev/null<br />

> EOF<br />

workshop1# chmod a+x /etc/cron.daily/ntp


Datum 07.11.2011 Version 2.0 Seite 23/29<br />

Die ssh-Keys sollten generiert werden, damit man ohne Abfragen zwischen den<br />

Nodes über ssh wechseln kann:<br />

workshop1# ssh-keygen<br />

workshop1# cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys<br />

workshop1# chmod 600 /root/.ssh/authorized_keys<br />

workshop1# com-dsh hostname<br />

Eine neue initrd soll gebaut werden (im Falle eines Kernelupdates bzw. Xen-Kernel<br />

muss die Kernelversion explizit angegeben werden):<br />

workshop1# /opt/atix/comoonics-bootimage/mkinitrd -f<br />

/boot/initrd_sr-$(uname -r).img $(uname -r)<br />

4.8. Erstellen <strong>der</strong> PXE Boot Konfiguration<br />

Nachdem <strong>der</strong> Sharedroot Cluster eingerichtet ist und die initrd Datei erstellt wurde,<br />

muss <strong>der</strong> PXE Boot Server noch abschließend konfiguriert werden.<br />

Die Boot Verzeichnisse <strong>der</strong> Sharedroot Cluster werden mittels Bindmounts in das<br />

Verzeichnis des TFTP Servers gemountet.<br />

Dazu wird die Datei /etc/fstab auf dem TFTP Server angepasst. Aus<br />

Sicherheitsgründen werden Bindmounts direkt auf das /boot Verzeichnis des Clusters<br />

gesetzt:<br />

tftp-server# cat /etc/fstab<br />

[...]<br />

/srv/nfs/comoonics/testcluster/root/boot /tftpboot/testcluster<br />

auto bind 0 0<br />

tftp-server# mkdir /tftpboot/testcluster<br />

tftp-server# mount /tftpboot/testcluster<br />

Um eine Vereinfachung <strong>der</strong> PXE Boot Konfiguration zu erreichen, wird <strong>der</strong> Kernel<br />

und die initrd Dateien des Sharedroot Clusters auf einheitliche Namen abstrahiert:<br />

tftp-server# cd /tftpboot/testcluster/<br />

tftp-server# ln -s vmlinuz-2.6.18-274.7.1.el5 vmlinuz.el5<br />

tftp-server# ln -s initrd_sr-2.6.18-274.7.1.el5.img initrd_sr.el5<br />

tftp-server# ln -s initrd_sr-2.6.18-274.7.1.el5.img.failsafe<br />

initrd_sr.el5.failsafe


Datum 07.11.2011 Version 2.0 Seite 24/29<br />

Für jeden Server wird eine PXE-Boot Konfigurationsdatei mit dem Namen pxe.<br />

[nodename].conf erstellt.<br />

tftp-server# cat /tftpboot/testcluster/pxe.workshop1.conf<br />

# This is the com.oonics PXE boot config file<br />

timeout 100<br />

prompt 1<br />

default comoonics<br />

LABEL comoonics<br />

KERNEL /testcluster/vmlinuz.el5<br />

APPEND initrd=/testcluster/initrd_sr.el5 nodeid=1<br />

LABEL comoonics-failsafe<br />

KERNEL /testcluster/vmlinuz.el5<br />

APPEND initrd=/testcluster/initrd_sr.el5.failsafe nodeid=1<br />

LABEL comoonics-clone<br />

KERNEL /testcluster/vmlinuz.el5<br />

APPEND initrd=/testcluster/initrd_sr.el5 nodeid=1<br />

root=192.168.120.10:/srv/nfs/comoonics/testcluster/root_clone<br />

LABEL comoonics-clone-failsafe<br />

KERNEL /testcluster/vmlinuz.el5<br />

APPEND initrd=/testcluster/initrd_sr.el5.failsafe nodeid=1<br />

root=192.168.120.10:/srv/nfs/comoonics/testcluster/root_clone<br />

LABEL debug<br />

KERNEL /testcluster/vmlinuz.el5<br />

APPEND initrd=/testcluster/initrd_sr.el5 nodeid=1 com-debug<br />

com-step com-expert<br />

Nun werden symbolische Links für die PXE Boot-Konfigurationen angelegt. Diese<br />

dienen als Alias Adressen und sorgen für eine Vereinfachung <strong>der</strong> Administration des<br />

Systems:<br />

tftp-server# cd /tftpboot/pxelinux.cfg/<br />

tftp-server# ln -s workshop1 01-00-21-5a-aa-61-e8<br />

tftp-server# ln -s workshop2 01-00-21-5a-48-72-50<br />

tftp-server# ln -s ../testcluster/pxe.workshop1.conf workshop1<br />

tftp-server# ln -s ../testcluster/pxe.workshop2.conf workshop2<br />

Der Cluster ist jetzt funktionsfähig und kann über PXE gebootet werden.


Datum 07.11.2011 Version 2.0 Seite 25/29<br />

Tipp:<br />

Um die Funktionalität <strong>der</strong> <strong>Installation</strong> zu verifizieren, ist es sinnvoll einen weiteren<br />

Node in den Cluster zu booten, um eventuelle Än<strong>der</strong>ungen auf dem ersten Node<br />

noch vornehmen zu können.<br />

Hinweis:<br />

Auf den Cluster-Knoten muss im BIOS PXE als default Bootdevice gesetzt werden<br />

Aus Gründen <strong>der</strong> Verfügbarkeit kann es sinnvoll sein, mehr als einen NIC für<br />

PXEboot einzurichten.


Datum 07.11.2011 Version 2.0 Seite 26/29<br />

5. Einrichten von com.oonics Enterprise Copy<br />

com.oonics Enterprise Copy wird standardmäßig für folgende Aufgaben eingerichtet:<br />

Aufgabe Beschreibung<br />

mkinitrd Erstellen eines neuen initrds sowie ein failsafe backup<br />

localclone Erstellung eines bootfähigen Clones <strong>der</strong> Betriebssystem-<strong>Installation</strong>.<br />

5.1. Initrd Verwaltung<br />

5.1.1. mkinitrd.xml<br />

Die Datei mkinitrd.xml wird in dem Verzeichnis<br />

/etc/comoonics/enterprisecopy mit folgendem Inhalt erzeugt:<br />

workshop1# cat /etc/comoonics/enterprisecopy/mkinitrd.xml<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

Um ein neues initrd zu erzeugen, wird nun einfach folgen<strong>der</strong> com-ec Befehl<br />

ausgeführt:<br />

workshop1# com-ec /etc/comoonics/enterprisecopy/mkinitrd.xml<br />

5.2. Localclone<br />

5.2.1. localclone.xml<br />

Um eine lokale, bootfähige Kopie des Sharedroot Clusters erstellen zu können, wird<br />

die Datei localclone.xml mit folgendem Inhalt im Verzeichnis<br />

/etc/comoonics/enterprisecopy erstellt:


Datum 07.11.2011 Version 2.0 Seite 27/29<br />

workshop1# cat /etc/comoonics/enterprisecopy/localclone.xml<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

workshop1# cd /etc/comoonics/enterprisecopy<br />

workshop1# cp /opt/atix/comoonics-cs/xsl/defaults.xsl .<br />

Der Clone-Prozess wird durch folgendes com-ec Kommando gestartet:<br />

workshop1# com-ec -x /opt/atix/comoonics-cs/xsl/localclone.xsl<br />

/etc/comoonics/enterprisecopy/localclone.xml


Datum 07.11.2011 Version 2.0 Seite 28/29<br />

6. Anhang<br />

6.1. Paketliste<br />

Im folgenden ist die Liste <strong>der</strong> notwendigen und empfohlenen Softwarepakete<br />

dargestellt:<br />

Paket Beschreibung Status<br />

comoonics-cluster-py com.oonics cluster configuration utilities<br />

written in Python<br />

Notwendig<br />

comoonics-release com.oonics release package Notwendig<br />

comoonics-cdsl-py com.oonics cdsl utilities and library<br />

written in Python<br />

comoonics-ec-base-py com.oonics Enterprise Copy base<br />

libraries<br />

comoonics-ec-py com.oonics Enterprisecopy utilities and<br />

libraries written in Python<br />

comoonics-bootimagelistfiles-rsyslogd<br />

Notwendig<br />

Notwendig<br />

Notwendig<br />

Syslog listfiles for the rsyslog daemon Notwendig<br />

comoonics-base-py com.oonics minimum baselibraries Notwendig<br />

comoonics-tools-py com.oonics base tools Notwendig<br />

comoonics-bootimagelistfiles-all<br />

comoonics-bootimageinitscripts<br />

com.oonics listfilesfiles for all<br />

distributions<br />

Initscripts used by the com.oonics<br />

cluster environment.<br />

comoonics-storage-py com.oonics Enterprisecopy storage<br />

utilities and libraries written in Python<br />

comoonics-bootimage Scripts for creating an initrd in a<br />

com.oonics cluster environment<br />

comoonics-cs-xml XML and DTD Files for comoonics<br />

clustersuite<br />

comoonics-bootimageextras-nfs<br />

comoonics-cluster-toolspy<br />

comoonics-bootimagelistfiles-rhel5<br />

comoonics-bootimageextras-syslog<br />

comoonics-bootimageextras-localconfigs<br />

Notwendig<br />

Notwendig<br />

Notwendig<br />

Notwendig<br />

Notwendig<br />

Listfiles for nfs sharedroot configurations Notwendig für<br />

<strong>NFS</strong><br />

com.oonics cluster tools Notwendig<br />

Extrafiles for RedHat Enterprise Linux Notwendig für<br />

<strong>RHEL</strong>5<br />

Syslog implementation for com.oonics Notwendig<br />

Extra for cluster configuration via local<br />

files<br />

Notwendig für<br />

lokale<br />

Konfigurationsdateien.<br />

comoonics-bootimage- Extrafiles for <strong>RHEL</strong>5 <strong>NFS</strong> support Notwendig


Datum 07.11.2011 Version 2.0 Seite 29/29<br />

Paket Beschreibung Status<br />

listfiles-rhel5-nfs<br />

com.oonics-bootimagelistfiles-firmware<br />

Listfiles for including firmware images<br />

into the initrd.<br />

comoonics-cs-xsl-ec XSL Files for comoonics<br />

enterprisecopy to use cloning<br />

(master/localclone)<br />

Notwendig<br />

Notwendig

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!