Linux-Magazin Start in die Wolken (Vorschau)

201032.hgu4n

07/11

Anzeige:

JeTzT

Linux DeDicateD Server

beSteLLen unD einen

DynamiSchen Linux v-Server

gratiS Dazu erhaLten!

STRATO PRO

Server-Technik, die begeistert!

strato-pro.de siehe Seite 57

STR0611_TKS_Dedi_Server_120x17_CS3 1

25.05.2011 17:18:16 Uhr

Ubuntu 11.04 mit

dem Unity-Desktop

Canonical krempelt die Oberfläche um,

die Gnome-Community ist pikiert. S. 54

Apache 2.4

Was Admins über das erste

Major update seit fünf

Jahren wissen sollten S. 76

Novell zerlegen

Der Hausherr Attach mate

teilt die Produkte auf und

setzt neue Chefs ein S. 24

Start in die Wolken

Keine heiße Luft: Wie Cloud

Computing die eigene IT entlastet

■ Sehr zufriedene Nutzer, aber zu wenige S. 26

■ Anwendungen aussuchen, die sich am besten

für die Cloud eignen S. 30

■ Cloud-Verbände sparen nicht mit Geld und

guten Worten S. 36

■ So gehts: Clouddienste hochverfügbar gestalten S. 40

■ Github, Google Code, Gitorius, Bitbucket,

Dropbox und der Wave-Nachfolger Vibe S. 46

■ Atop, ein Top für alle Ressourcen S. 72

■ Besser schreiben mit Celtx, Scrivener,

Storybook und Writer’s Café S. 58

15 Jahre Tux: Ein flugunfähiger Moppel-Vogel erobert weltweit die Herzen S. 80

www.linux-magazin.de

Deutschland Österreich Schweiz Benelux Spanien Italien

4 5,95 4 6,70 sfr 11,90 4 7,00 4 7,95 4 7,95

4 192587 305954 07


Managed

Hosting

sicher, flexibel und verfügbar

Profitieren Sie von:

neueste Clustertechnologie

Hosting direkt am DE-CIX

ISO 27001 zertifiziertes

Hochsicherheits-Datacenter

IPv4 und IPv6 native

24/7 Service und Support

Entdecken Sie den Unterschied

Professionelles Hosting mit persönlichem

und kompetentem Support.

Individuelle Hostinglösungen vom Server

bis zum Clustersystem mit Beratung,

Planung und Service 24/7.

Wir bieten über 10 Jahre Erfahrung

in Hosting und Systemadministration –

für mehr Performance, Sicherheit und

Verfügbarkeit, jeden Tag, rund um die Uhr.

www.hostserver.de/hosting

0 30 / 420 200 24 hostserver.de

Berlin Marburg Frankfurt am Main


Nur Peanuts

Login 07/2011

Editorial

Bei AG-Vorständen ist der Kleinaktionär eher unbeliebt: Mit seinen paar

Aktien machtmäßig nur ein Zwerg, versucht er bei der Hauptversammlung

seine magere Dividende am Buffet mit Naturalien aufzubessern. Schlimmer

noch: Mancher nutzt sein Rederecht, um mal so richtig vom Leder ziehen. So

ist der Fall „Martin Helfrich“ dokumentiert, der bei der Telekom-Hauptversammlung

2005 in der TUI-Arena zu Hannover von der niedersächsisch Polizei

vom Rednerpult abgeführt wurde. In seiner Wut über die Verschmelzung

von T-Online mit dem Mutterkonzern hatte er die Aufforderung von Telekom-

Chef Kai-Uwe Ricke, seine Rede zu beenden, hartnäckig ignoriert.

Unter einem renitenten Kleinaktionär zu leiden hat es dieser Tage auch

Microsoft-Chef Steve Ballmer. Ein Anleger namens David Einhorn fordert:

„Es ist Zeit für den Microsoft-Aufsichtsrat, um Steve Ballmer zu sagen: Wir Jan Kleinert, Chefredakteur

haben jetzt gesehen, was du kannst, gib jemand anderem eine Chance“.

Ballmer habe zugelassen, dass Microsoft bei Suchmaschinen, mobiler Kommunikationssoftware, Tablets

und sozialen Netzwerken von Konkurrenten wie Google und Apple geschlagen worden sei. Um die Misserfolge

auszugleichen verschwende Ballmer enorme Ressourcen.

Armer Steve. Einmal in Rage, attestiert Einhorn Ballmer ein „Charlie-Brown-Management“. Gemeint ist

die stets unglückliche Comic-Hauptfigur der Peanuts: In Sachen Haarwuchs Ballmer nicht unähnlich, ist

Charlie Brown der Prototyp des ewigen Verlierers. Fast alle Mädchen spielen ihm Streiche, insbesondere

Lucy. Die Baseballmannschaft, deren Manager er ist, hat nur ein einziges Spiel gewonnen – und selbst den

einen Sieg bekommt sie aberkannt.

Dieser David Einhorn redet ganz schön fies über den MS-Chef. Ja und, wen kümmerts?! Einhorn hält mit

seiner Investmentgesellschaft Greenlight Capital ja gerade mal 0,11 Prozent der Microsoft-Aktien (schlappe

9 Millionen Stück). Andererseits gilt Einhorn in der New Yorker Finanzwelt als unfehlbares Orakel, seit er

bereits im Mai 2008 eine Pleite der Investmentbank Lehman Brothers vorhersagte, die bekanntlich im

September 2008 auch eintrat und für die weltweite Bankenkrise als initial gilt. Dass der im Vergleich zu

Ballmer mittellose Einhorn so vom Leder zieht, wird den Microsoft-Chef also schon ärgern. Einhorn von

der Polizei wie einst Martin Helfrich arrestieren zu lassen, kommt wohl auch nicht infrage.

Hoffentlich nimmt sich Ballmer, der auch als Stichwortgeber für die Linux-Branche nahezu unverzichtbar

ist, das Gerede von Kleinaktionär Einhorn nicht so zu Herzen. Finanziell recht unabhängig könnte er nämlich

den Büttel hinwerfen und mit Snoopy, Marcie und Peppermint Patty in die Südsee zieht. Was dann?

Sicher, seine Aufgaben könnte sein Freund Linus übernehmen. Lucys kleiner Bruder und zweitbester Freund

von Charlie ist leicht an seiner Schmusedecke zu erkennen. Der religiös recht bewanderte Linus gilt

Peanuts-Kennern als die reifste Persönlichkeit aller Figuren. Deshalb und weil er seine Schmusedecke geschickt

als Waffe gegen Fliegen einzusetzen versteht, wagt es kaum jemand, sich über ihn lustig zu machen.

Zweifellos eine wichtige Eigenschaft für den Chef einer Gesellschaft mit respektlosen Kleinaktionären.

www.linux-magazin.de

3


Inhalt

www.linux-magazin.de 07/2011 07/2011

4

Der Wille allein, Teile der eigenen IT in die Cloud zu verfrachten, reicht nicht. Gefragt ist ein

detaillierter Flugplan, der klarmacht, welchen Dienst oder welche Infrastruktur der Admin

praktischerweise zuerst starten lässt. Das Titelthema klärt außerdem über Hochverfügbarkeit

in der Cloud auf und schaut sich Cloudapplikationen für den Desktop an.

Aktuell

Titelthema: Cloud Computing

Software

6 News

n X-Navigator: Web-Globus für OSM

n Chrome 11 kann Spracheingabe

n Open Shift: Red Hats Cloud-Plattform

26 Erfahrungsberichte

Titel

Ein Trend mit Startschwierigkeiten.

30 Die richtige Strategie

Vom Kleinstunternehmen zum Konzern.

Welche Dienste können in die Wolke?

Intern

Private Cloud

intern

Hybrid Cloud

Public Cloud

extern

Extern

53 Einführung

Auf der DELUG-DVD: Backtrack 5.0

54 Ubuntu 11.04

Titel

Unity-Oberfläche sorgt für Diskussionen.

58 Bitparade

Titel

Autorentools im Test: Celtx, Scrivener,

Storybook und Writer´s Café

Communtu, eine Art Suse Studio für

Ubuntu, soll im Herbst an den Start gehen.

Sonstige Virtualisierungen

und (Web-)Dienste

Internet

Firma

12 Zahlen & Trends

n EOS-Directory geht an die OSBF

n Oracle: Hudson zur Eclipse Foundation

n Bund antwortet zum Auswärtigen Amt

n Kempf ist neuer Bitkom-Präsident

Richard Stallman auf dem Desktop Summit

2010. Auch für 2011 steht das Programm..

Public, Private und Hybrid Cloud: Nicht alle Daten

dürfen in fremden Rechenzentren landen.

36 Die Unterstützer

Verbände und Spezialisten erklären, was

funktioniert und was sich ändern muss.

40 Cloud-Verfügbarkeit

Vier Cloud-Produkte im Vergleich: Wer

bietet genug Ausfallsicherheit?

Software für Bücher und Stücke

66 Verteilter Bugtracker

Simple Defects erledigt für Bugs, was Git

für den Programmiercode macht.

68 Tooltipps

Agentsmith, Movgrab, CVE und HDT.

18 Linuxtag 2011

Die Linux-Welt traf sich in Berlin.

Legofan: Das

siegreiche

Team des

Hackerwettbe

werbs

auf dem

Linuxtag.

22 Zacks Kernel-News

n Mehr Sicherheit im Memory Heap

n „Nichts Großes“: Neues Tool für KVM

24 Novell nach der Übernahme

Attachmate setzt neue Chefs ein.

Titel

Amazons AWS verspricht viel, litt zuletzt

aber unter Ausfällen und Überlastung.

46 PC in die Cloud

Cloud-Tools für den Linux-Desktop.

Vieles, wofür früher der heimische PC notwendig

war, lässt sich in die Cloud auslagern.

Duff hilft doppelte Dateien zu finden.

Service

3 Editorial

108 IT-Profimarkt

109 Stellenanzeigen

111 Seminare

112 Inserenten, Veranstaltungen

113 Impressum, Autoren

114 Vorschau


07/2011 07/2011

Inhalt

54 Ubuntu Unity 11.04

Wenn die Server zu langsam laufen,

hilft Monitoringsoftware herauszufinden,

woran es liegt. Das CLI­Tool Atop

glänzt mit vielen Funktionen.

76 Apache 2.4

London, Paris, Berlin: Seit Larry Ewing

1995 den Pinguin Tux entwarf, hat der

einen Siegeszug zum weltweit beliebtesten

Linux­Maskottchen hingelegt.

94 Objekterkennung

Open­Source­Bibliotheken detektieren

Hautfarbe, Gesicht und Schrift. Ein

wenig Python hilft, die Funktionen in

Skripte zu gießen.

www.linux-magazin.de

5

Sysadmin

Forum

Programmieren

71 Einführung

Aus dem Alltag eines Sysadmin: DNSSEC

zwingt Charly zum Tool-Update.

80 15 Jahre Tux

Titel

Die Linux-Stilikone feiert 15. Geburtstag.

92 Bash Bashing – Folge 15

Shellskripte aus der Stümperliga:

Debugging und Konfigurationen.

72 Atop

Titel

Der System- und Prozessmonitor Atop

stellt das klassische Top in den Schatten.

Mit gepatchtem Kernel zeigt Atop die Engpässe

im Netzwerktraffic pro Prozess.

76 Apache 2.4

Titel

Erstmals seit 2006 schaltet der wichtigste

Webserver seine Majorversion hoch. Es

gibt neue MPMs und besseres Logging.

Er hat viel erlebt: Ein Rückblick mit Tux.

82 Recht

Urteile des EU-Gerichtshofs zum elektronischen

Vertrieb.

Vererbungslehre:

Das Skript »ober.

sh« ruft die

Da tei »unter.

sh« auf, die

bei spielsweise

Konfigura tionsparameter

und

Variablen setzen

könnte.

94 Python deutet Fotos

Mit Open CV, Tesseract und ein wenig

Handarbeit erkennt Software Menschen

und Texte vollautomatisch.

Ob die Musik von der CD kommt oder per

Download, macht einen großen Unterschied.

86 Bücher

Werke über Continuous

Integration und Wireshark.

Das Python­Programm zur Gesichtser kennung

gibt seine Befunde interaktiv aus.

Ist schon in Sichtweite – der nächste

Apache­Webserver mit neuen Features.

DELUG-DVD

TOOL

Details auf S. 53

Backtrack 5.0

TOOL

TOOL

Von der DVD bootet das Pen-Testing-

Linux in der neuesten Version

88 Leserbriefe

Auf den Punkt gebracht.

E-Book gratis

Vollständiges O'Reilly-Buch

Linux Server-Sicherheit“

102 Perl-Snapshot

Perlmeister Mike Schilli nutzt das

Drop box-API für seinen eigenen

Synchronisationsclient.

Graph DB 2.0

TOOL

Fertig konfigurierte Software-

Appliance mit der blitzschnellen

No-SQL-Datenbank

TOOL

Blogger-Videos

Mitschnitte der Re:publica-

Auftritte von D. Domscheit-Berg,

S. Lobo und anderen

Ab in die Kiste: Auch selbst geschriebene Program

me können das Dropbox­Web­API nutzen.


Aktuell

www.linux-magazin.de News 07/2011

6

News

Xnavigator: Ein Web-Globus für Openstreetmap

Die Universität Heidelberg hat

einen interaktiven Web-GIS-

Client für Web-3-D-Dienste

namens Xnavigator als GPL-

Software veröffentlicht. Das

Tool nutzt Openstreetmapund

SRTM-Daten, das sind

Satelliteninformationen fürs

Terrain, um ein dreidimensionales

Abbild der Erde im

Browser darzustellen – inklusive

Routingfunktion.

Wer das Standard-Java-Plugin

installiert, einen flotten Rechner

und eine gute Internetverbindung

hat, kann auf der

Projektseite [http://​www.​osm‐3d.​

​org/​home.​de.​htm] den Globus,

auf den Openstreetmap-Daten

sowie zahlreiche Zusatzlayers

mit Points of Interest eingeblendet

werden, im Browser

drehen und zoomen.

In den meisten Fällen fließender

arbeitet zwar das Java-

Webstart-Programm, das aber

ebenfalls eine Neigung zum

Verbrauch von Hardware-Ressourcen

verspürt – Minimum

sind 1,5 GByte RAM und eine

Dualcore-CPU, besser gar 4

GByte und ein Quadcore. Dafür

gibt es dann auch zahlreiche

weitere Funktionen zum

Aufruf, die das Web-Plugin

nicht bietet.

Alexander Zipf, Professor an

der Uni Heidelberg, dazu:

„Wir freuen uns über jeden

Beitrag aus der Community.

Die URL des Dienstes kann

selbstverständlich frei genutzt

Ansichtssachen: Openstreetmap in 3-D mit Xnavigator.

werden, der Server selbst und

die Datenverarbeitung dahinter

sind aber noch Bestandteil

umfangreicher Abschlussarbeiten

und daher nicht im

Paket enthalten.“

n

Communtu: Ubuntu-Distribution im Eigenbau

Ähnlich wie Suse Studio erlaubt

die Onlineplattform

Communtu das Zusammenstellen

eigener Ubuntu-Distributionen,

die dem Anwender

als ISO-Image zum Download

Die Weboberfläche des Systembaukastens erlaubt nicht nur die Auswahl verschiedener

Pakete, sondern auch Architekturen und Versionen.

bereitstehen. Das Projekt fußt

auf Ruby on Rails und greift

auf freie Software wie Mkisofs

oder Apt-get zurück.

Dem Anwender stehen für seine

persönlichen Zusammenstellungen

so genannte Bündel

zur Wahl. Es ist zudem

jedem Anwender freigestellt,

sein eigenes Bündel zu erstellen

– das nach einer festen

Registrierung auch in seinem

Profil erhalten bleibt. Generell

ist die Plattform aber auch unregistrierten

Anwendern zur

Verfügung offen. Diese erhalten

dafür einen temporären

Account, der nach einem Tag

erlischt.

An grundlegendem Packmaterial

liegen bei Communtu von

8.04 bis 11.04 alle gängigen

Ubuntu-Versionen und Desktops

zur Auswahl bereit. Bislang

beschränkt sich das Projekt

auf die Integration zusätzlicher

Pakete, eine weitere

Ausbaustufe sieht zum Beispiel

vor, die Lokalisierung des

Systems anzupassen.

Ein Problem, das auch an dere

Projekte dieser Kategorie

plagt, ist das Auflösen von

In kompatibilitäten und Abhängigkeiten.

Communtu will

dies später durch das Abhängigkeiten-Prüftool

Edos-Debcheck

besser als andere in den

Griff bekommen.

Zum offiziellen Launch im

Oktober zur Ubucon in Leipzig

wollen die Entwickler

auch ein neues Feature bereitstellen,

das es den Nutzern

ermöglichen soll, die Live-CD

in einer auf KVM basierenden

virtuellen Maschine gleich online

zu testen.

n


Archos-Tablet: Androide mit kapazitivem Display

Archos fügt seiner Hometablet-Serie

ein 7-Zoll-Modell mit

Android 2.1 und kapazitivem

Display hinzu. Der berührungsempfindliche

Multitouchscreen

mit 800 mal 400

Pixeln ist die wichtigste Neuerung

des Geräts. Micro-SD-

HC-Slot, USB-Schnittstelle

zwei Lautsprecher und ein

Mikrofon zählen zu den weiteren

Hardwaremerkmalen,

die eine 600-MHz-CPU von

ARM antreibt. Das 7c getaufte

Gerät bringt eine virtuelle

Tastatur und eine integrierte

E-Mail-Anwendung mit.

Open-Z: Open-Bravo-Fork für deutsches Recht

Der Standardkonten-Rahmen

SKR03/ 04 und eine Datev-

Schnittstelle zählen zu den

Anpassungen, die die Firma

Zimmermann-Software dem

ERP-System Open-Z angedeihen

ließ. Die Codebasis für

das freie Open-Z liefert Open

Bravo.

Firmenchef Stefan Zimmermann

und seine Entwickler

haben sich der deutschen

Gegebenheiten angenommen

und versucht sowohl die fiskalischen

Anforderungen als

auch die spezifischen Bedürfnisse

des deutschen Marktes

zu erfüllen, die Umsatzsteuer-

Voranmeldung zählt zu diesen

Spezifika. Das Web-basierte

Open-Z bietet Projektmanagementfunktionen

und SOAP-

Schnittstellen und lässt sich

an einen Webshop anbinden.

Version 2.0: Mark Webbink führt Groklaw weiter

Pamela Jones hatte unter

dem Kürzel „PJ“ die Website

Groklaw zur Anlaufstation

für Informationen zu den

Rechtsstreitigkeiten von SCO

um Unix-Rechte gemacht.

Im April verkündete sie nun

ihren Rückzug. SCO habe

verloren, hieß es zur Begründung,

Linux habe die von SCO

ausgelöste Krise überstanden.

Die Community reagierte auf

die Ankündigung und bat

vielstimmig, die Seite nicht

aufzugeben.

Nun kündigt Jones an, dass

sie Groklaw an Mark Webbink

übergibt. Webbink war

Rechtsbeistand von Red Hat

und hält eine Professur an der

New York Law School, wo er

sich um Patente kümmert und

mit dem US-Patent- und Markenamt

zusammenarbeitet.

Archos verbindet den Nutzer

nicht zum Android-Market,

sondern zur Archos Applib als

Repository für kostenlose und

kommerzielle Anwendungen.

Das Tablet sei

für rund 180

Euro im Handel,

teilt Archos

mit.

Der Hersteller

ordnet sein Gerät

etwa zwischen

Smartphone

und PC

ein und setzt

auf die Verbindung

ins Web, zu sozialen

Netzwerken und auf die Wiedergabe

von Multimedia-Inhalten

wie Videos, Fotos, E-

Books und Musik.

n

Für den Hausgebrauch gedacht: Archos Hometablet mit

kapazitivem Display.

Der Hersteller will mit der Veröffentlichung

von Open-Z bei

Sourceforge [http://​sourceforge.​

​net/​projects/​openz/] eine Community

sowie ein Partnernetzwerk

aufbauen und für dieses

Provisions- und Kooperationsmodelle

anbieten.

Zimmermann-Software selbst

bietet kommerzielle Dienste

nach dem Muster Software as

a Service an.

n

Jones will ein Auge auf Groklaw

[http://​www.groklaw.net]​haben,

ohne die Bürde regelmäßiger

Berichterstattung. Webbink

werde Groklaw zur wichtigen

Anlaufstation für Fragen

zum Thema Recht und freie

Software machen. Außerdem

wolle der Professor seine Jurastudenten

an der Gestaltung

von Groklaw beteiligen, gibt

sich Jones überzeugt. n

Qt 5 für 2012

angekündigt

Nach rund sechs Jahren Qt

4 möchte Nokia sein Toolkit

modernisieren und stellt für

2012 die Qt-Version 5 in Aussicht.

Das hat Qts Entwicklungschef

Lars Knoll bekannt

gegeben. Diese Version soll

den Prozessor der Grafikkarte

besser nutzen, einfachere

Anwendungsentwicklung mit

Javascript und QML ermöglichen

sowie die Integration

von Desktopanwendungen

und Web verstärken.

Zudem möchten die Entwickler

die Pflege des Toolkits und

seine Portierung auf möglichst

viele Plattformen einfacher

machen. Dazu trennen sie sich

vorrangig von einigen alten

Code-Portionen und setzen alle

Qt-Ports auf das Lighthouse-

Projekt auf. QML und dessen

Scenegraph sollen dann das

Kernstück der neuen Architektur

bilden. Daneben arbeiten

die Qt-Programmierer an einer

modularen Umstrukturierung

der Quelltext-Repositories und

möchten alle Q-Widget-Funktionen

in eine eigene Bibliothek

auslagern.

Den ersten Betacode für Qt 5

soll es Ende 2011 geben, eine

fertige Release 2012. Weitere

Details finden sich in Lars

Knolls Blogeintrag [http://​labs.​

​qt.​nokia.​com/​2011/​05/​09/​thoughts​

‐about‐qt‐5/].

Der KDE-Entwickler Aaron

Seigo greift die Nachricht von

Qt 5 auf und macht sich in

[http://aseigo.blogspot.com/2011/​

05​qt5‐kde5.html] Gedanken zu

einem möglichen KDE 5. Er

sieht die technologischen

Neuerungen als gute Gelegenheit,

KDEs Codebestand zu

konsolidieren. Einen Bruch

wie einst zwischen den KDE-

Versionen 3 und 4 soll es jedoch

nicht geben.

n

News 07/2011

Aktuell

www.linux-magazin.de

7


Aktuell

www.linux-magazin.de News 07/2011

8

Ubuntu macht Lubuntu zum offiziellen Derivat

Julien Lavergne von Lubuntu freut sich auf die

Nutzung der Canonical-Infrastruktur.

Auf dem Ubuntu Developer

Summit 2011

(UDS) im Mai in Budapest

klärten Mark

Shuttleworth und Colin

Watson mit Projektmitglied

Julien

Lavergne die Details,

um Lubuntu zu einem

offiziell unterstützten

Ubuntu-Derivat zu

machen. Nun ist es

amtlich: Lubuntu ist

Derivat und damit

landen die Pakete der Distribution

künftig im Universe-

Repository.

Noch gibt es kein ISO und keine

Pakete auf der offiziellen

Ubuntu-Seite, doch Lavergne

will die Entwickler-Mailingliste

des Ubuntu-Projekts informieren,

sobald die Software

in den offiziellen Paketquellen

steckt und es ein installierbares

Image gibt. Lubuntu 11.10

ist damit die erste offiziell

unterstützte Version der Distribution.

Ubuntu mit L hat

sein Einsatzgebiet vor allem

auf leistungsarmen Rechnern

wie dem altersschwachen

Pentium II, der meist nur 128

MByte RAM einstecken hat.

Dem LXDE-Desktop fehlen

einige Komfortfunktionen,

dafür braucht er wenig Ressourcen.

Lubuntu verwendet

unter anderem Pcmanfm als

Dateimanager, Chromium als

Browser und Sylpheed als seinen

E-Mail-Client.

n

Opera Dragonfly: Freies

Entwicklerwerkzeug im Browser

Verständig: Google Chrome 11 nimmt

Spracheingaben an

Opera hat die Version 1.0

der für Webentwickler und

Webdesigner gedachten Toolsammlung

Dragonfly freigegeben.

Mit DOM-Inspektor,

Javascript-Debugger, Netz-

automatisch. Auch die Versionen

Opera Mobile 9.5 Beta 1

und höher und Opera Devices

SDK 9.7 und höher enthalten

Dragonfly. Für Opera Mini

gibt es keine Unterstützung,

Mit der stabilen Version 11 des

Google-Browsers versteht

Chrome Spracheingaben, etwa

für Übersetzungen im

Google-Translate-Service. Wie

Software-Entwickler Josh

Estelle in seinem Blogbeitrag

ausführt, funktioniert die

Spracheingabe per HTML –

mit einem vorhandenen Mikrofon

in Google Translate

über ein Icon.

Die Ausgabe der Übersetzung

kann sich der Nutzer dann

auch vorsprechen lassen.

Chrome setzt dafür das bereits

als Entwurf beim Webkonsortium

W3C vorliegende Speech-

Input-API ein.

Google hat im Zuge seines

Vulnerability Rewards Program

rund 16 500 US-Dollar

an jene ausgeschüttet, die kritische

Fehler gefunden haben.

Google Chrome 11 bringt ansonsten

eine Reihe von Bugfixes

mit. Googles Browser

steht in diversen Linux-Paketen

zum Download [http://

www.google.com/chrome]. n

Dragonfly untersucht Webseiten mit diversen Tools nach Fehlern.

werkinspektion und einigen

Werkzeugen für Designer,

etwa zur Verwaltung von

Farben, Fonts und Styles, soll

Dragonfly beim Erstellen von

Webseiten helfen.

Dragonfly steckt ab Version

9.5 des Opera-Browsers im

Menü »Extras/ Erweitert/ Entwicklerwerkzeuge«

und muss

nicht eigens installiert werden.

Aktualisierungen erfährt

die Toolsammlung ebenfalls

was an der Komprimierung

der an Handys mit Opera Mini

geschickten Daten liegt,

schreiben die Entwickler bei

Opera.

In der Dragonfly-Dokumentation

[http://​www.​opera.​com/​

​dragonfly/​documentation/] sind

weitere Informationen enthalten.

Für Anwender lohnt auch

ein Blick auf die Tastenkürzel.

Operas Dragonfly steht unter

einer BSD-Lizenz.

n

Spracheingabe im Google-Übersetzungsdienst über ein Mikrofon-Icon.


Open BSD 4.9 bootet 64 Kerne

Das Open-BSD-Projekt hat

sein freies Unix-Betriebssystem

in Version 4.9 veröffentlicht.

Für die Architekturen

I-386 und AMD64 gibt es einige

Neuerungen: Die generischen

Kernel bieten zudem

standardmäßig Lesezugriff

auf NTFS-Partitionen. Mittels

SMP-Kernel lassen sich nun

Systeme mit bis zu 64 Prozessorkernen

booten, und bei der

Suche nach dem Bootdevice

kann Open BSD 4.9 mehr als

16 Laufwerke probieren.

Daneben gibt es Unterstützung

für den AES-NI-Befehlssatz

aktueller Intel-Prozessoren.

Anwender der HPPA-Architektur

dürfen sich ebenfalls

über Multiprozessor-Support

freuen.

Das Erzeugen und Darstellen

von Manpages übernimmt

statt Groff nun die alternative

Man-Implementierung

Mandoc. Daneben liefert das

neue Open BSD unter anderem

die Python-Versionen

2.4.6, 2.5.4 und 2.6.6, Ruby

1.8.7.330 und 1.9.2.136 sowie

PHP 5.2.16. Zu den Servern

zählen MySQL 5.1.54, PostgreSQL

9.0.3, Postfix 2.7.2

sowie Open LDAP 2.3.43 und

2.4.23. Desktop-Anwender

erhalten sowohl Open Office

3.3.0rc9 als auch Libre Office

3.3.0.4. Unverzichtbar ist das

bei Open BSD beheimatete

Open SSH, das in Version 5.8

mitgeliefert wird.

Details liefern die Release Notes

[http://​openbsd.​org/​49.​html].

Images zur Installation stehen

auf Spiegelservern zum

Download bereit. Daneben

gibt es auch CD-Sets zu kaufen,

deren Erlös dem Projekt

zugutekommt.

n

Virtuelle Server

Top-Performance zum Tiefpreis!

Free NAS 8.0 mit Active Directory

Das auf BSD aufbauende

Betriebssystem für Network

Attached Storage, ist in Version

8.0 erhältlich. Free NAS

verwendet die derzeit stabile

Free-BSD-Version 8.2 als Basis.

Die neue Release kann

Benutzer über Active Directory

authentifizieren. Als Filesharing-Protokolle

unterstützt

das System NFS, CIFS, AFP,

FTP und TFTP.

Daneben kann es Geräte als

I-SCSI-Targets exportieren.

Die Release Notes weisen

allerdings noch auf einige

Einschränkungen dabei hin

und empfehlen, ein Target

pro LUN zu verwenden. Features

für Heimanwender wie

Bittorrent und UPnP sind verschwunden,

sollen aber später

als Plugins zurückkehren. Auf

der Festplatte kommt primär

Suns Dateisystem ZFS zum

Einsatz. Daneben lässt sich

im Prinzip auch das Free-BSD-

Dateisystem UFS2 einsetzen.

Davon raten die Entwickler

allerdings ab.

Free NAS 8.0 ist zur Installation

auf USB-Speicher oder

Speicherkarten gedacht. Das

Betriebssystem und der Datenspeicher

bleiben auf diese

Weise vollständig getrennt.

Fertige Images für 32- und

64-Bit-Intel-CPUs stehen auf

Sourceforge [http://​sourceforge.​

​net/​projects/​freenas/​files/​FreeNAS​

‐8/] zum Download bereit.

Aber Vorsicht: Ein Upgrade

von Free NAS 7.0 wird nicht

unterstützt.

n

• bis zu 3 CPU-Kerne

• bis zu 8 GB RAM

• bis zu 95 GB Festplatte

• RAID-10-Datensicherheit

• 5.000 GB Traffic inklusive

• SSL-Zertifikat inklusive

• Root-Zugriff per SSH

• 100 % Backup-Speicher

• 99,9 % garantierte Verfügbarkeit

• 30 Tage Geld-zurück-Garantie

• auch als Managed Server erhältlich

• viele 64-Bit-Betriebssysteme nach Wahl

6 Monate

kostenlos

danach ab 12,99 €*

Jetzt kostenlos informieren unter:

080 0 638 2587

www.netclusive.de/linux

* Aktion „6 Monate kostenlos“ gilt bis 30.06.2011. Nach 6 Monaten regulärer monatlicher Grundpreis:

VPS L 12,99 €, VPS XL 16,99 €, VPS XXL 29,99 €. Die Mindestvertragslaufzeit beträgt wahlweise 12 Monate

(Aktion 6 Monate kostenlos entfällt) oder 24 Monate (6 Monate kostenlos). Abrechnung vierteljährlich. Einmalige

Einrichtungsgebühr 9,99 €. Alle Preise inkl. MwSt. Preisänderungen und Irrtümer vorbehalten.


Aktuell

www.linux-magazin.de News 07/2011

10

Kurznachrichten

Emacspeak 34.0: Das​freie​Desktopsystem​mit​Sprachausgabe​verwendet​

die​Text‐to‐Speech‐Software​Viavoice​von​IBM​und​basiert​auf​dem​erweiterbaren​

Unix‐Editor​ GNU​ Emacs.​ Neu: Unterstützung​ der​ kommenden​

Emacs‐Version​24​und​für​den​Twittering‐Modus​samt​Logins​über​Oauth.​

Ein​API‐Client​für​die​Hörbuch‐Bibliothek​Librivox​ist​ebenfalls​hinzugekommen.​Lizenz:​GPL​[http://​emacspeak.​sourceforge.​net]

Tomb 1.0: Ein​neues​Open‐Source‐Tool​zum​Verschlüsseln​von​Verzeichnissen,​das​eine​Weiterentwicklung​des​Dynebolic‐Tools​Mknest​darstellt.​

Es​ erzeugt​ Dateien,​ die​ ein​ mit​ Cryptsetup​ und​ LUKS​ verschlüsseltes​

Verzeichnis​enthalten.​Zum​Entschlüsseln​sind​jeweils​der​Schlüssel​und​

eine​Passphrase​erforderlich.​Der​Anwender​erhält​Tomb​als​Kommandozeilenprogramm​sowie​ein​Tray‐Applet.​Neu:

Erste​Release.​Lizenz:​GPL​

[http://​tomb.​dyne.​org]

Open CMS 8: Die​ Alkacon​ GmbH​ hat​ ihre​ freies​ Contentmanagement‐

System​aufgefrischt.​Neu: Der​Modus​„Advanced​Direct​Edit“​sowie​der​

Sitemap‐Editor​erlauben​jetzt​das​Bearbeiten​per​Drag & Drop.​Das​Upload‐Applet​ist​durch​einen​komplett​in​HTML​umgesetzten​Upload‐Dialog​

ersetzt,​ der​ auch​ das​ Hochladen​ mehrerer​ Daten​ ermöglicht.​ Lizenz:​

LGPLv2.1​[http://​www.​opencms.​org]

Pyinstaller 1.5: Das​ freie​ Tool​ baut​ aus​ Python‐Code​ Binärdateien​ für​

Linux,​Mac​OS​X​und​Windows,​die​keine​externen​Abhängigkeiten​mehr​

besitzen.​Neu: Die​Release​erzeugt​auch​ausführbare​Dateien​für​64‐Bit‐

Windows.​ Daneben​ gibt​ es​ die​ Python‐2.6‐Unterstützung​ nun​ auch​ für​

Microsofts​Betriebssystem.​Ebenfalls​neu​ist​der​Support​für​Python​2.7​

auf​allen​Zielplattformen.​Lizenz: GPLv2​[http://​www.​pyinstaller.​org]

Lyx 2.0.0: Die​freie​GUI‐Anwendung​für​den​Textsatz​mit​Latex​öffnet​

mit​Version​2.0.0​einen​neuen​Zweig.​Neu: Eine​Suchfunktion,​die​auch​

Formatierungen​ berücksichtigt,​ Echtzeit‐Rechtschreibprüfung​ und​ das​

Vergleichen​von​Dokumenten.​Ein​mehrsprachiger​Thesaurus,​Unterstützung​für​Verweise​mit​dem​Paket​Refstyle​sowie​mehrere​Indizes.​Daneben​

lassen​sich​nun​Xetex,​Luatex​und​XHTML​als​Backends​verwenden.​Lizenz:

GPLv2​[http://​www.​lyx.​org/​Download/]

Leto DMS 3.0:​Ein​vormals​My​DMS​genanntes​System​für​das​Dokumentenmanagement.​Neu:

Die​Software​besteht​nun​aus​einem​Kernmodul,​

einem​Webdav‐Server​und​der​Weboberfläche.​Damit​ändert​sich​auch​die

Installation,​denn​das​Corepaket​lässt​sich​per​PEAR​einspielen.​Daneben​

erfuhr​ die​ Suchmaschine​ Verbesserungen,​ einige​ Dateitypen​ wie​ Text​

und​HTML​lassen​sich​nun​online​bearbeiten.​Lizenz: GPLv2​[http://​www.​

​letodms.​com]

Superb Mini Server 1.6.0:​Eine​Server‐Distribution​mit​zahlreichen​vorkonfigurierten​

Diensten,​ die​ auf​ Slackware​ basiert.​ Neu: Der​ Installer​

beherrscht​nun​GPT‐Partitionierung​mit​Gdisk​und​bietet​Btrfs​als​Dateisystem​an.​Zu​den​neuen​Softwarepaketen​zählen​Btrfsprogs,​RRD​Tools,​

Midnight​Commander,​Open​MPI​sowie​der​Mailfilter​Dove‐Pigeonhole.​Das​

Extra‐ISO‐Image​enthält​High‐Availability‐Tools​wie​Open​AIS,​Pacemaker​

und​Corosync.​Lizenz: GPL​[http://​sms.​it‐ccs.​com/​downloads.​html]

Acer Iconia A500: 10-Zoll-Tablet mit Android 3.0

Acer bringt mit dem Iconia

A500 ein Android-Tablet mit

kapazitivem Display (1280

mal 800 Pixel) auf den Markt.

Der Hersteller rüstet das Tablet

mit einer Nvidia-Tegra-250-

Dualcore-CPU und dem Grafikprozessor

Geforce Ultra-

Low Power aus. Bestückt ist

das Gerät mit einer 32 GByte

großen SSD und mit 1 GByte

DDR2-Speicher.

WLAN und Bluetooth sorgen

für drahtlose Verbindungen,

eine 3G-Version soll in einigen

Wochen folgen. Acer hat

rund 500 Euro für das Tablet

Das Iconia A500 – ein neuer Bewerber im

wachsenden Markt der Android-Tablets

veranschlagt, es soll in kleineren

Stückzahlen bereits im

Fachhandel sein.

Via HDMI überträgt das

kleine Iconia HD-Inhalte

(1080 p) an Fernsehgeräte.

Ein Firmware-

Update für die nachfolgende

Full-HD-Übertragung

kündigt Acer bereits

an, es soll „over

the air“ im Tablet landen.

Auf dem in gebürstetem

Aluminium gehaltenen

Rücken des Tablets

sind eine Kamera mit 5 Megapixeln

und LED-Blitz zu finden.

An der Frontseite dient

eine 2-Megapixel-Kamera für

Videotelefonie. Beide Kameras

zeichnen Videos auf. Mikrofon,

Lautsprecher, Lagesensor

und GPS-Modul sind vorhanden.

Das A500 misst 260 mal

177 mal 13 Millimeter und

wiegt in der WLAN-Ausführung

700, in der kommenden

3G-Version 730 Gramm. n

Open Shift: Cloud-Plattform für Entwickler

Mit Open Shift, das vorgefertigte

Laufzeitumgebungen in

der Cloud bereitstellt, möchte

Red Hat Software-Entwickler

als Kunden gewinnen. Die

„Platform as a Service“ bietet

fertige Systeme mit vorinstallierten

Laufzeitumgebungen

für Java EE, Python,

PHP und Ruby. Mit Jboss,

Spring, Django, Rails und

Zend Framework sind umfangreiche

Ausstattungen im

Angebot. Dazu kommen ein

verteiltes Dateisystem sowie

SQL- und No-SQL-Datenbanken.

Die Open-Shift-Website

[http://​openshift.​redhat.​com/] ist

mit zahlreichen Tutorials und

Videos gespickt. Daneben gibt

es Foren für Anwender.

Derzeit steht Open Shift Express

als kostenloses Angebot

gegen Registrierung zur Verfügung.

Kommandozeilentools

helfen bei Konfiguration

und Deployment. Java EE

mit Jboss bleibt dem Angebot

Flex vorbehalten, bei dem

der Anwender selbst Kunde

bei Amazons Cloudservice

wird. Open Shift beruht unter

anderem auf Technologie, die

Red Hat mit dem Cloudspezialisten

Makara gekauft hat.

(mfe/tle/kki/mhu/uba) n


SM

Intel AppUp developer program –

einfach profitieren

Apps und Spiele für Tablets sowie Netbooks erstellen, portieren und verkaufen:

Jetzt ganz einfach. Wir bieten Entwicklern eine zukunftsorientierte Plattform mit

vielen Fördermöglichkeiten und fairer Umsatzbeteiligung – nutzen Sie die Chance,

sich in einem wachsenden Markt zu positionieren und steigern Sie den Absatz

Ihrer Portierungen sowie Neuentwicklungen.

Hier können Sie sich anmelden und erhalten weitere Informationen:

appdeveloper.intel.com

Alle Infos unter

http://appdeveloper.intel.com/en-us/join

Melde dich an beim

Intel and Intel AppUp are trademarks of Intel Corporation in the U.S. and/or other countries.


Aktuell

www.linux-magazin.de Zahlen & Trends 07/2011

12

Zahlen & Trends

Gnome erneuert Stipendienprogramm für Frauen

In die Entwicklung von Gnome

3.0 sind so viele Codebeiträge

von Frauen eingeflossen wie

nie zuvor in der Geschichte

des Linux-Desktops. Da dies

den von einigen Sponsoren

getragenen Stipendien innerhalb

des „Outreach Program

for Women“ zuzurechnen ist,

gibt es nun eine Neuauflage

der geschlechtsspezifischen

Förderung.

Die finanziellen Zuwendungen

übernehmen Collabora,

Google, Mozilla und die

Gnome Foundation. Acht

Teilnehmerinnen zählte die

von Dezember 2010 bis März

Gnome zählt bei seinen Anwendungen inzwischen viele Beiträge von Frauen.

2011 dauernde erste Runde.

Profitiert haben davon unter

anderem die Webcam-Anwendung

Cheese, die dank der

Programmierung von Luciana

Fujii Pontello nun auch anderen

Anwendungen als Bibliothek

zur Verfügung steht.

Benachrichtigungsfunktionen

in der Gnome-Shell und der

Multi-User-Chat in Empathy

zählen ebenfalls zu den Errungenschaften,

die dem Outreach

Program for Women

entspringen.

Nun sind weitere acht Stipendiatinnen

ausgewählt worden,

die von Ende Mai bis Ende

August an dem Programm

teilnehmen dürfen. Gnome

hat zudem sieben Teilnehmerinnen

akzeptiert, die

vom Google Summer of Code

finanziert – an Gnome arbeiten.

Insgesamt hatten sich

beim Google Summer of Code

27 Frauen für die Desktop-

Projekte gemeldet.

Gnome hatte sein Outreach

Program for Women gestartet,

um den Anteil der weiblichen

Bewerberinnen am Summer

of Code zu steigern, und sieht

sich nun durch die rege Teilnahme

bestätigt. Im zugehörigen

Blogpost unter [http://​www.​

​gnome.​org/​press/​2011/​04/​after‐a​

‐successful‐first‐round‐gnome‐project‐announces‐new‐outreach‐program‐for‐women‐interns/]

sind

die Teilnehmerinnen und ihre

Projekte aufgezählt. n

Oracle will Hudson der Eclipse Foundation geben

Nach langem Gezerre um Namensrechte,

Einflussnahme

und einer darauf folgenden

Umbenennung und Abspaltung

des Hudson-Projekts

als Jenkins hat Oracle nun

überraschend den Vorschlag

gemacht, Hudson zu einem

Projekt der Eclipse Foundation

zu machen.

Begibt sich das Projekt Hudson,

ein Continuous Integration

Server für die Java-

Entwicklung, wie vorgesehen

unter die Fittiche der Foundation,

will Oracle die Hudson-

Namensrechte und die zugehörigen

Domains an Eclipse

übergeben. Einen entsprechenden

Vorschlag hat Oracle

nach eigenen Angaben der

Foundation bereits gemacht.

Hudson soll damit ein Projekt

innerhalb von Eclipse werden.

Oracle will dort die Leitung

übernehmen, unterstützt von

den Firmen Sonatype, Tasktop

und VMware.

Seitens der Eclipse Foundation

scheint es Zustimmung

zu geben. Oracle kann schon

in seiner Mitteilung Mike Milinkovich,

Executive Director

der Eclipse Foundation, zitieren,

der Hudson auf dem

neutralen Boden der Stiftung

als künftig gut aufgehoben

ansieht.

Kohsuke Kawaguchi, der

Gründer des Hudson-Projekts,

sieht den Vorschlag Oracles,

Hudson mit Markenrechten

und Domains an die Eclipse

Foundation zu übertragen, als

Resultat des Erfolgs von Jenkins,

so heißt der kürzlich im

Streit mit Oracle erfolgte Fork

des Projekts. Wie Hudson verkörpert

auch der Name Jenkins

das Bild eines englischen

Butlers.

Wäre Jenkins nach der Trennung

von Oracle nicht so

erfolgreich gewesen, hätte

Oracle keinen Handlungsbedarf,

folgert Kawaguchi.

Eine kleine Spitze gegen die

Hudson-Eigentümer kann sich

Kawaguchi nicht verkneifen.

Es gäbe da noch das eine

oder andere Problem mit Eigentumsrechten:

So sei das

Hudson-Logo ein Microsoft-

Clipart, worauf er Oracle

schon vor einiger Zeit hingewiesen

habe, außerdem stecke

in Hudson noch seine Arbeit

von rund sechs Monaten nach

dem Ausscheiden bei Oracle.

Dass dieser Code so einfach

weitergegeben werden könne,

bezweifelt Kawaguchi. n


Führungswechsel beim Bitkom

Dieter Kempf, der Vorstandsvorsitzende

der Datev eG, übernimmt die

Bitkom-Präsidentschaft.

Mit Professor Dieter Kempf

soll ab Juni ein neuer Präsident

dem deutschen Verband

Bitkom vorstehen. Der satzungsgemäß

ausscheidende

amtierende Präsident August-

Wilhelm Scheer hat Kempf

(58) den Bitkom-Mitgliedern

als Nachfolger vorgeschlagen.

Die Bitkom-Vizepräsidenten

und das Präsidium haben

Zustimmung für diesen Vorschlag

signalisiert.

Kempf ist hauptberuflich Vorstandsvorsitzende

der genossenschaftlich

organisierten

Datev eG und als Vorsitzender

des Vereins „Deutschland

sicher im Netz“ (DsiN) aktiv.

Er fungiert derzeit bereits als

Schatzmeister im Präsidium

des Bitkom. Die Amtszeit von

Präsident Professor August-

Wilhelm Scheer endet am 17.

Juni. Er ist seit 2003 Mitglied

im Hauptvorstand und seit

2004 Mitglied im Präsidium

des Bitkom. Seit 2007 leitet er

als Präsident den Branchenverband.

Der „Bundesverband Informationswirtschaft,

Telekommunikation

und neue Medien

e.V.“ (Bitkom) vertritt gemäß

Selbstdarstellung rund 1350

Unternehmen der deutschen

ITK-Branche und sieht sich als

strategischer Vermittler zwischen

Politik und Wirtschaft.

700 der rund 1000 Direktmitglieder

sind mittelständische

Unternehmen.

n

Web-M-Community startet Cross-License-Initiative

Das von Internet-Branchengrößen

wie Mozilla, Opera

und Google ins Leben gerufene

Web-M-Projekt zur Entwicklung

eines freien Mediaformats

für Webanwendungen

hat eine Lizenzierungsinitiative

gestartet.

Die Community Cross-License

(CCL, [http://​www.​webm‐ccl.​org])

des Web-M-Projekts soll dazu

beitragen, dass Entwickler

und Firmen weitere Codeund

Codec-Bestandteile zum

Projekt beisteuern können.

Die Mitglieder und Lizenznehmer

verpflichten sich mit

ihrer Teilnahme dazu, von

ihnen gehaltene Patente den

anderen Mitgliedern jeweils

gebührenfrei zur Verfügung

zu stellen.

Während das Web-M-Projekt

mit rund 40 Gründungsmitgliedern

gestartet ist, sind es

bei der CCL-Initiative derzeit

17 Teilnehmer, darunter aber

auch namhafte Hardware-

Hersteller wie AMD, Cisco,

MIPS, Samsung und Texas

Instruments.

Wichtiger Bestandteil des

Web-M-Projekts sind die von

Google, Matroska und Xiph.

org bereits zur Verfügung

gestellten Komponenten, die

inzwischen zur breiteren

Akzeptanz von Web-M in

HTML-5-fähigen Browsern

wie Firefox, Chrome, Opera

und dem Internet Explorer geführt

haben.

n

Betriebssystemmarkt wächst auf 30 Milliarden Dollar

Der US-Marktforscher Gartner

kommt bei seiner Analyse für

den weltweiten Betriebssystemmarkt

im Jahr 2010 auf

einen Umsatz von 30 Milliarden

US-Dollar. Das entspricht

einem Wachstum von fast 8

Prozent gegenüber dem Vorjahr.

Linux (vornehmlich im

Serverbereich) und Mac OS X

zählen zu den am schnellsten

wachsenden Segmenten.

Marktführer ist Microsoft mit

78 Prozent über alle Betriebssystemarten

hinweg betrachtet.

Insgesamt haben Client-

Betriebssysteme mit 9,3 Prozent

ein besseres Wachstum

als die für Server (5,7 Prozent).

Die während der Wirtschaftskrise

aufgeschobenen

und nun eingelösten Käufe

seien für den Anstieg bei den

Clients verantwortlich. n


Aktuell

www.linux-magazin.de Zahlen & Trends 07/2011

14

Regierung zum Windows-Schwenk des Auswärtigen Amts

Sechs Bundestagsabgeordnete

aus der Fraktion Bündnis 90

Grüne hatten in einer kleinen

Anfrage eine Liste mit Fragen

an die Bundesregierung

eingereicht, die sich mit der

umstrittenen Re-Migration

von Linux zu Windows im

Auswärtigen Amt beschäftigte.

Die an der Anfrage beteiligten

Parlamentarier werfen

der Bundesregierung vor,

Die Antwort der Regierung auf die Anfrage ist umfangreich und für die Open-Source-Welt enttäuschend.

ihre eigenen Vorsätze zu Open

Source, offenen Standards

und freier Software nicht

umzusetzen und proprietäre

Softwarehersteller indirekt zu

bevorzugen.

20 Seiten stark ist die Antwort

auf die Fragen der Bündnisgrünen.

In dem Dokument, das

Abgeordnete um Konstantin

von Notz dem Linux-Magazin

zur Verfügung stellten, arbeitet

die Bundesregierung in ihren

Antworten auf die Kleine

Anfrage der Grünen drei Argumente

als zentral heraus:

Kosten sowie mangelnde

Benutzerfreundlichkeit und

mangelhafte Interoperabilität

der verwendeten freien Software

hätten die Re-Migration

zu Windows und Microsoft

Office erzwungen. Dabei sei

der Wechsel im Auswärtigen

Amt auch keinesfalls von

einer Einzelperson entschieden

worden, sondern von der

gesamten Leitung des Amtes

getragen sowie von einem

nicht näher genannten Beratungsunternehmen

empfohlen

worden.

Am kostenintensivsten war

laut dem Schreiben die eigenverantwortliche

Pflege von

Updates und Patches. Hier

konstatiert das Dokument, es

sei auch mit freier Software

unmöglich, sich von Updatezyklen

zu lösen, dabei habe

man aber keinen Hersteller

mehr, der in Produkthaftung

genommen werden könnte.

„Diese Verfahrensweise erwies

sich auf Dauer – insbesondere

beim Einsatz maßgeschneiderter

Individualentwicklungen

– als sehr personalintensiv

und unwirtschaftlich.“

Lizenzkosten habe man nicht

sparen können, weil immer

noch Dual-Boot-Lösungen nötig

gewesen seien.

n

IBM stiftet HTML-Editor Maqetta als Open Source

Computerriese IBM hat den

HTML-Editor Maqetta, der

im Browser läuft, unter freien

Lizenzen an die Dojo Foundation

übergeben. Die Software

macht ausgiebig Gebrauch

von HTML 5, Ajax und den

Javascript-Bibliotheken Dojo

und Jquery.

Der Wysiwyg-Editor läuft als

Anwendung in modernen

Browsern wie Chrome, Safari

oder Firefox 4. Er unterstützt

CSS, bietet Vorlagen für die

Anzeigebereiche von Smartphones

sowie fertige Widgets

und ermöglicht es den Entwicklern,

Entwürfe im Team

zu bewerten und zu kommentieren.

Daneben lassen sich

mit der Software Benutzeroberflächen

in Wireframe-Art

entwerfen, die sie in mehreren

Bedienungszuständen darstellen

kann.

IBM hat die Software der Dojo

Foundation unter einem dualen

Lizenzierungsmodell zur

Verfügung gestellt: Für Entwickler

und Anwender gilt dabei

je nach Vorliebe die überarbeitete

BSD-Lizenz oder

die Academic Free License in

der Version 2.1. Der Maqetta-

Code ist in einem Github-

Repository verfügbar. Weitere

Informationen gibt es auf den

Webseiten des Maqetta-Projekts

[http://​maqetta.​org]. Die

Software befindet sich noch in

einem Preview-Stadium, die

verfügbare Online-Demo gibt

derzeit noch kein besonders

gutes Bild ab.

n

Der Wysiwyg-Editor Maqetta bietet fertige Widgets für HTML-5-Anwendungen.


Novell schließt Verkauf an Attachmate ab

Novell hat den Merger mit

Attachmate nun abgeschlossen.

In dessen Verlauf wird

Novell zu einer 100-prozentigen

Tochter der Attachmate

Group. Zudem, so Novell in

einer Mitteilung, sei der ebenfalls

angekündigte Verkauf

des Patentportfolios an die

CPTN-Holding für rund 450

Millionen in bar ebenfalls abgeschlossen.

Der Handel mit Novell-Aktien

an der Technologiebörse Nasdaq

endete somit zum Handelsschluss

am 27. April, es

erfolgte dann die Abmeldung

von der Börse. Zur Abwicklung

der Aktienverkäufe habe

man einen Service beauftragt,

der Aktionäre über die Formalitäten

informieren werde,

so Novell. Aktionäre, deren

Novell-Papiere bei Brokern

oder Banken liegen, sollten

sich dort melden, falls keine

umgehende Benachrichtigung

des jeweiligen Händlers über

das nötige Prozedere bei ihnen

eingehe.

Vor Kurzem haben zudem

die eingeschalteten Wettbewerbshüter,

das deutsche

Bundeskartellamt und das

US-Justizministerium, für den

Patenthandel mit der CPTN-

Holding grünes Licht gegeben,

allerdings unter der Auflage,

dass die Patente nicht gegen

freie Software eingesetzt werden.

Andreas Mundt, Präsident des

Bundeskartellamtes, kommentierte:

„Auch ein Erwerb von

Patenten kann im Einzelfall

zu erheblichen wettbewerbsschädlichen

Effekten führen.

Wir haben deshalb die

Auswirkungen des Verkaufs

der Novell-Patente auch auf

Open-Source-Software genau

geprüft. Mit den vorgenommenen

Änderungen tragen die

Unternehmen den Bedenken

hier in Deutschland und in

USA Rechnung.“

n

Oracle beerdigt kommerzielles Open Office

Als Folge der Übernahme von

Sun Microsystems kündigt

Oracle jetzt an, die kommerzielle

Version von Open Office

einzustellen.

Die Bürosoftware soll künftig

ein reines Community-Projekt

sein, sagte Edward Screven,

Chief Corporate Architect.

Oracle will nun mit der Community

zusammenarbeiten.

Inwieweit die Unterstützung

sich in der Anzahl fest angestellter

Entwickler ausdrückt,

hat Oracle noch nicht kundgetan,

verspricht aber allgemein,

sich den offenen Standards

wie dem Open Document

Format zu verpflichten

und deren Entwicklung zu

unterstützen. Große Investitionen

in Open Source sind

ebenfalls angekündigt, wobei

Linux und MySQL besonders

hervorgehoben sind.

Seit der Übernahme von Sun

Microsystems durch Oracle

gab es einige Unklarheiten

über die Zukunft von Open

Office. Im Zuge der von einigen

Community-Mitgliedern

als unzureichend empfundenen

Kommunikation über

die Zukunft von Open Office

hatten sich bereits der Fork

Libre Office und die dahinter

stehende Document Foundation

gegründet.

n

IT-Services erzielen mehr Umsatz

Mit einem Anstieg von 3 Prozent

gegenüber dem Vorjahr

haben sich die weltweiten

Geschäfte bei den Anbietern

von IT-Services im Jahr 2010

wieder erholt. Auf rund 793

Milliarden US-Dollar legen die

Gartner-Analysten den weltweiten

Umsatz mit IT-Services

im Jahr 2010 fest.

Trotz dieses Anstiegs seien

die Auswirkungen der ebenfalls

weltweiten Finanzkrise

immer noch zu spüren. Noch

im Jahr 2009 war der Service-

Markt allerdings um fünf Prozent

eingebrochen, der jetzt

zu verzeichnende leichte Anstieg

lasse auf eine Normalisierung

hoffen, schreiben die

Analysten.

Bei den Anbietern liegt IBM

mit einem Marktanteil von

rund 7 Prozent an der Spitze.

Der Umsatz von IBM mit IT-

Services lag laut Gartner im

Jahr 2010 bei rund 56 Milliarden

US-Dollar, ein Plus von

2,6 Prozent.

HP als Zweitplatzierter hatte

dagegen zu kämpfen und blieb

mit einem Wachstum von 0,3

Prozent auf 35 Milliarden US-

Dollar auf dem Vorjahresniveau.

Fujitsu, Accenture und

CSC folgen auf den weiteren

Plätzen der Top 5. Accenture

legte mit einem Anstieg des

Umsatzes um 6 Prozent (1,3

Milliarden US-Dollar) auf 22

Milliarden US-Dollar die beste

Wachstumsrate vor. n

Programmvielfalt beim Desktop Summit

Das Programm der gemeinsamen

Konferenz der beiden

populärsten Linux-Desktops

KDE und Gnome steht: Mit

über 170 Vorträgen und Präsentationen

gastiert der Desktop

Summit 2011 vom 6. bis

12. August in Berlin.

Als Keynote-Sprecher ist neben

den Vertretern von Gnome

und KDE die Design-Expertin

Claire Rowland vertreten.

Vorträge von FSFE-Präsident

Karsten Gerloff, Qt-Entwickler

Knut Yrvin, Michael Meeks

von Novell, Gnome-Enthusiast

Vincent Untz und vielen

mehr laden zum Besuch.

Als heißes Diskussionsthema

gelten Copyright-Verträge.

Vertreter von Canonical, Novell

und des Software Freedom

Conservancy werden

dazu eine Podiumsdiskussion

führen. Näheres unter [https://

www.desktopsummit.org]. n

Gab beim vorangegangenen Desktop Summit seinen Segen: Richard Stallman.

Zahlen & Trends 07/2011

Aktuell

www.linux-magazin.de

15


Aktuell

www.linux-magazin.de Zahlen & Trends 07/2011

16

Wikimedia hortet 10 Millionen Bilder

Das Medienarchiv Wikimedia

Commons, das freie und

gemeinfreie Medieninhalte

wie Fotos, Grafiken, Videos,

Animationen und Audio-Dateien

– unter anderem auch

von Wikipedia – sammelt,

hat nach eigenem Bekunden

die 10-Millionen-Marke überschritten.

Damit hat sich der

Fundus im Vergleich zum Jahr

2009 verdoppelt.

Wikimedia Commons kann

bei seinem Bestand sowohl

auf Privataufnahmen als auch

auf Material aus öffentlichen

Archiven zurückgreifen. Prominente

Beispiele für letztere

Gruppierung sind das deutsche

Bundesarchiv, das rund

100 000 Fotos der Geschichte

einbrachte, und die Universitätsbibliothek

Dresden mit

rund 250 000 Aufnahmen. Bilder

sind bei Wikimedia Commons

in mehrere Qualitätskategorien

eingestuft, etwa als

exzellente Fotos.

n

Open-Office-Verein wird zu Freies Office

Mit der Umbenennung von

Openoffice.org Deutschland

e.V. in Freies Office Deutschland

e.V. will der gemeinnützige

Förderverein demonstrieren,

dass er für alle freien

Office-Programme eintritt und

sein Engagement nicht auf

Open Office beschränkt.

Die Mitglieder haben dem Namenswechsel

bereits zugestimmt.

Während die Erweiterung

der freien Office-Suiten

maßgeblich den Open-Office-

Fork Libre Office umfasst,

seien auch alle anderen freien

Office-Programme willkommen,

die offene Standards unterstützen,

so Florian Effenberger,

der Mitglied im Vorstand

des Fördervereins ist

und gleichzeitig im Steering

Committee der Document

Foundation sitzt.

n

Android verliert Punkte

Der Benutzer „leinad“ hat mit seinem Upload das Archiv von Wikimedia die

Zehn-Millionen-Marke überschreiten lassen.

EOS-Directory geht an OSBF

Die Open Source Business

Foundation (OSBF) hat das

Portal Enterprise Open Source

Directory (EOS) übernommen.

Ende 2006 als Open-

Source-Katalog gestartet und

im Jahr 2007 von Optaros

dann online eingeführt, ging

das EOS an den Open-Source-

Consultant und Optaros-Mitarbeiter

Bruno von Rotz, der

dem Verzeichnis von Open-

Source-Projekten und -Anbietern

mit dem Advisory and

Expert Board ein Komitee von

Ratgebern und Experten zur

Seite stellte.

Der neue Eigentümer OSBF

will das Portal nun aufpolieren

und zur Anlaufstelle

und Informationsplattform

für Unternehmen und Organisationen

im Bereich Open-

Source-Produkte machen. Ein

neues Advisory Board soll es

ebenfalls geben, es befinde

sich gerade im Aufbau, heißt

es auf Rückfrage.

Ziel ist es, das EOS-Angebot

[http://www.eosdirectory.com]​weiter

auszubauen und ein Verzeichnis

aller Open-Source-

Dienstleister in Deutschland,

Österreich und der Schweiz

aufzustellen. Ein Relaunch

soll die Inhalte dann auch auf

Deutsch anbieten. Zudem

sucht die OSBF Sponsoren.

Die Website ist bereits auf die

OSBF umgestellt.

n

Eine von Appcelerator und

dem US-Marktforscher IDC

mit 2760 Entwicklern aus

dem Appcelerator-Netzwerk

durchgeführte Umfrage zeigt

ein nachlassendes Interesse

an der Android-Plattform. Beliebteste

Plattformen bleiben

– mit einer Zustimmung von

91 Prozent – Apples I-OS und

als Zielgerät das iPhone. 86

Prozent sehen das iPad als interessante

Plattform. Auf Android-Smartphones

entfallen

85 Prozent und auf Android-

Tablets 71 Prozent.

Als Gründe nannten 63 Prozent

der befragten Entwickler

die vielen unterschiedlichen

Geräte und Android-Versionen

IBM, HP, Intel, Red Hat, Suse,

BMC Software und Eucalyptus

Software haben die Open Virtualization

Alliance gegründet

und setzen damit gemeinsam

auf die Kernel-based Virtual

Machine (KVM). Das Bündnis

[http://www.openvirtualizationalliance.org]​

will sich mit

am Markt. Auch die Anlaufschwierigkeiten

bei den Verkäufen

der Android-Tablets

gelten den Entwicklern als

Hemmschuh, die verschiedenen

Android-Markets täten

ein Übriges.

Den dritten Platz beim Entwicklerinteresse

belegt gemäß

den Angaben unter [http://​www.​

​appcelerator.​com/​company/​survey​

‐results/​mobile‐developer‐report​

‐april‐2011] erstmals Microsoft

mit Windows Phone 7. Trotz

eines eigenen Minus von 4

Prozentpunkten profitiert

Microsoft von dem noch stärker

abfallenden Blackber ry-OS

(minus 11 Punkte) aus dem

Hause RIM.

n

Open Virtualization Alliance gegründet

best Practices, Investitionen

in das Ökosystem von KVM

und Entwicklungen rund um

das freie Projekt beteiligen. In

Konkurrenz zu den bestehenden

KVM-Communities will

die Gruppe nicht treten, sie

sieht sich vielmehr als Ergänzung.

(kki/mfe/mhu/uba) n


Aktuell

www.linux-magazin.de Linuxtag 2011 07/2011

18

Linuxtag 2011 in Berlin

Man sieht sich

Kernel, Security, Virtualisierung, Cloud und Office - der Linuxtag in Berlin schaffte stets den Spagat, Firmen,

Behörden und Community unter einem gemeinsamen Messedach zusammenzubringen und alle mit Vorträgen

zu aktuellen IT-Themen zu versorgen. Ulrich Bantle

© Linuxtag

Seit 2007 lädt der Linuxtag [1]

die Open-Source-Szene nach

Berlin. Nur die Vorverlegung

in den Mai wich von der inzwischen

erreichten Konstanz

ab. Den früheren Termin behalten

die Organisatoren aber

im nächsten Jahr bei: Die 18.

Ausgabe des Linuxtags findet

vom 23. bis 26. Mai 2012 statt.

Dem Ruf des veranstaltenden

Vereins und der Messe Berlin

folgten vom 11. bis 14. Mai in

diesem Jahr fast 12 000 Besucher,

77 freie Projekte und 43

Firmen stellten aus.

Berührungspunkte

Traditionell ist der Linuxtag

kein Platz fürs marktschreierische

Verkünden von Weltneuheiten.

Dass sich dort 15 Mitglieder

des LVM-/ Device mapper-Teams

des Linux-Kernels

aus sechs Ländern zu ihrem

Jahresmeeting verabredet haben,

beschreibt schon eher

seinen Charakter. Und dass

die Zuhörer mit Spannung

verfolgten, wie sich Oracles

Open-Source-Chef Wim Coekaerts

(Abbildung 1) schlägt,

passt ebenso ins Bild.

Coekaerts zeigte sich – nach

seinem Vortrag zum Thema

„Taking Linux into the Clouds“

zum weiteren Vorgehen seines

Arbeitgebers in Sachen

Open Office gefragt – ebenso

höflich wie zugeknöpft: Es sei

ihm bitte nachzusehen, dass

er dazu keine Stellungnahme

abgebe (siehe Bericht in „Zahlen

und Trends“).

Später versuchte er im Gespräch

mit dem Linux-Magazin

die Strategie Oracles zu erklären,

die da lautet: Konzentration

auf das Kerngeschäft und

volle Integration auch der zugekauften

Technologien.

Coekaerts weist das derzeit

in Foren oft entworfene Bild

eines wahllos einkaufenden

Großkonzerns von sich: „Wir

tun, was wir sagen“, entgegnet

er und erneuert das Commitment

zu MySQL, das nun

unter seine Leitung fällt. Auch

die Beiträge Oracles zur Open-

Source-Entwicklung sieht er

derzeit unterbewertet. Sein

Linux-Kernel-Team etwa habe

über ein Jahr an der Verbesserung

des Kernels in Sachen

Unterstützung für Mehrkernprozessoren

gearbeitet und

das Ergebnis als freien Code

in den Upstream gegeben.

„Alles am Laufen“

Problemen mit der öffentlichen

Wahrnehmung begegnete

auch Andreas Heinrich

von IBM, der mit

dem Limux-Projekt

die Umstellung der

Münchner Stadtverwaltung

auf Linux

leitet. „Ich dachte, es

gibt euch gar nicht

mehr“, begrüßte ein

Messebesucher den

daraufhin schockierten

Heinrich (Abbildung

2) am Stand

von Limux.

Er ließ das nicht auf

sich sitzen: Das Limux-Projekt

sei immer

„on track“ gewesen,

auch wenn

es ab und zu Prob-

leme gegeben habe. 2013 sollen

80 Prozent der PCs mit

Linux bestückt sein, derzeit

laufe Linux auf 6200 PCs. Im

Laufe des Jahres 2011 sollen

zudem nur noch freie Anwendungen

zum Einsatz kommen,

gab Heinrich preis.

Zahlenwerk

Der amtierende Debian-Projektleiter

Stefano Zacchiroli

konnte dagegen mit dem vor

einigen Monaten veröffentlichten

Debian 6.0 aus dem

Vollen schöpfen. 150 000 Bugfixes,

29 000 Pakete, davon

10 000 neue, sowie 130 aktive

Derivate, so lautet seine

Squeeze-Bilanz.

Derzeit denke das Debian-

Projekt über eine Ausgabe mit

Long Term Support und auch

Abbildung 1: Der Aufgabenbereich von Oracles

Senior Vice President of Linux and Virtualization

Engineering, Wim Coekaerts, ist seit der Übernahme

von Sun gewachsen.

© Linuxtag


Abbildung 2: Andreas Heinrich von IBM leitet das

Projekt Linux-Umstellung der Stadtverwaltung.

über eine Rolling Release

nach, so Zacchiroli in Berlin.

Praxisbeispiel

Daniel Kirstenpfad von der

Sones GmbH, die sich der Entwicklung

der Graph DB verschrieben

hat, konnte ebenfalls

mit einer neuen Release

2.0 anreisen. Die Datenbank

von Sones ist seit Mitte 2006

unter der APGLv3 verfügbar.

Kirstenpfad konnte dem Publikum

seines Vortrags eine

praktische Demonstration

zeigen. Die Graphdatenbank

bringt einen kleinen Webserver

mit, der eine REST-

Schnittstelle sowie ein Ajax-

Terminal für den Webbrowser

zur Verfügung stellt.

Anhand des Beziehungsnetzwerks

aus der Fernsehserie

„Die Simpsons“ zeigte er,

wie einfach sein Produkt die

Frage nach dem „Freund eines

Freundes eines Freundes“

beantworten kann. Weitere

Anwendungsfälle wären beispielsweise

Berechtigungsstrukturen

oder Leitungsnetze

– auch für den semantischen

Desktop eignet sich eine Graphendatenbank.

gramme zu schädlichem

Verhalten

bringen, ist für Fedora-Entwickler

Daniel

Walsh Grund

genug, um Desktop-

Anwendungen in

eine Sandbox zu

sperren.

Bei seiner Keynote

zeigte er, wie sich

das SE Linux seines

Arbeitgebers Red

Hat dazu einsetzen

lässt. Red Hat Enterprise

Linux oder wahlweise Fedora

15 oder 16 seien dafür tauglich,

gab er an.

Walsh (Abbildung 3) meint,

dass im Desktop-Umfeld der

Gast-Anwendung zunächst

folgende Möglichkeiten zu

entziehen sind: Netzwerk,

Set-UID, Set-GID, Zugriff auf

andere Prozesse, Zugriff auf

Home- und Temporärverzeichnis,

Zugriff auf den X-

Server und Dbus. Genau dies

tue SE Linux Sandboxing, zudem

verwehre es auch noch

den Zugriff auf Proc und Self,

erklärte Daniel Walsh.

Auf seinem Fedora-Rawhide-

Notebook lief die gesamte

Präsentation in einer Libre-

Office-Sandbox. Dazu hatte er

sich ein einfaches Wrapper-

Skript geschrieben, das lediglich

eine einzige Zeile umfasst:

»/usr/bin/sandbox -w

1000x900 -X ooffice "$@"«. Es

gibt die Fenstergröße vor und

startet die Anwendung auf ei-

© Linuxtag

nem eigenen Xephyr-X-Server

mit eigener Display-Nummer.

Leider lässt sich dessen Fenstergröße

unter Fedora nicht

verändern, räumte der Referent

ein, unter RHEL 6 funktioniere

das aber. Ein weiterer

Usability-Mangel: Die Fenster

tauchen in der Fensterliste

und bei [Alt]+[Tab] nur immer

als »Xephyr« auf.

Im weiteren Verlauf seiner Demonstration

zeigte Walsh an

mehreren Xterm-Sandboxen,

wie jede Instanz ein jungfräuliches

Home- und Temporärverzeichnis

erhält sowie eine

eigene MCS-Kennung von SE

Linux zugewiesen erhält. Keines

der beschränkten Terminals

konnte einen Netzwerk-

Ping ausführen oder mit Sudo

Rootrechte erlangen.

Vorgaben umsetzen

Die Quinscape GmbH hat auf

dem Linuxtag ihr Java-Webframework

Opensaga demonstriert

und gleichzeitig Version

2.0 der Open-Source-Software

angekündigt. Der Dortmunder

Dienstleister für Webplattformen

hat unter Leitung des

Java-Fachmanns Thomas

Bis kup damit ein Framework

geschaffen, das die als SAGA

bekannten technischen Vorgaben

für Bundesbehörden

berücksichtigt.

Quinscape wird demnächst

die mit Opensaga erstellte

Seite Lebensmittelwarnung.

de des Bundesamts für Verbraucherschutz

und Lebensmittelsicherheit

in Betrieb

schicken, so war in Berlin zu

hören. Derzeit steht Opensaga

in Version 1.5.1 vom Dezember

2010 zum Download bereit.

Die Entwickler arbeiten

an Version 2.0, die grafische

Editoren mitbringen soll.

Siegertypen

Der Hacking Contest ist beim

Linuxtag eine Art Publikumsmagnet.

Ob die Stimmung

dort nun gleich „wie bei einem

Championsleague-Finale

gewesen ist“, wie sich Jens

Heithecker von der Messe

Berlin berichten ließ, sei dahingestellt.

Statt Tore zu schießen galt es,

Einfallstore zu suchen. Sechs

dreiköpfige Teams tauschten

ihre zuvor jeweils präparierten

Rechner aus und mussten

die Fallen und Hintertüren

der Konkurrenten erkennen,

um anschließend das fremde

System wieder wasserdicht

zu machen. Anschließend

versuchten sie, auf ihr von

der Konkurrenz gesichertes

System über das Netzwerk

zuzugreifen. Den Legofans

(Abbildung 4) gelang diese

Übung am besten. n

Infos

[1] Linuxtag:

[http:// www. linuxtag. org]

Linuxtag 2011 07/2011

Aktuell

www.linux-magazin.de

19

Sicherer Sandkasten

Dass auch Anwendungen aus

vertrauenswürdigen Quellen

Sicherheitslücken enthalten

und es zudem böswillig manipulierte

Dateien gibt, die Pro-

Abbildung 3: Daniel Walsh startet die Anwendungen auf

seinem Fedora-Notebook in SE-Linux-Sandboxen.

Abbildung 4: Das siegreiche Team Legofan mit Jakob Lell,

Andrew Karpow und Christopher Nguyen.

© Linuxtag


1&1. DOPPELT HOSTET BESSER.

1&1 DUAL H

&DOPPELT SICHER DURCH GEO-REDUNDANZ!

Niemand kann sich Ausfallzeiten seiner Website leisten … Darum bietet 1&1

Dual Hosting jetzt die ultimative Sicherheit der Geo-Redundanz: Ihre Website

wird parallel in zwei unserer Hightech-Rechenzentren an verschiedenen Orten

gehostet. Fällt Ihre Internet-Präsenz im ersten Rechenzentrum unerwartet aus,

läuft sie automatisch im zweiten Rechenzentrum weiter. Selbstverständlich ohne

Datenverlust.


NEU!

OSTING

Kein anderer Webhoster überzeugt durch so viel

Kompetenz, Know-how und Qualität wie 1&1:

Bei 1&1 treffen über 20 Jahre Webhosting-Erfahrung auf modernste Technik in

deutschen Hochleistungs-Rechenzentren. Mehr als 1.000 IT-Profis entwickeln

unsere hochwertigen Lösungen permanent weiter. NEU: Jetzt bietet Ihnen 1&1

mit 1&1 Dual Hosting als weltweit erster Webhoster die doppelte Sicherheit der

Geo-Redundanz. Und das alles zu unschlagbar günstigen Preisen!

1&1 DUAL UNLIMITED

■ 12 Domains inklusive

■ UNLIMITED Webspace

■ UNLIMITEDTr a f fi c

■ UNLIMITED FTP-Accounts

■ UNLIMITED MySQL Datenbanken (je 1 GB)

■ UNLIMITED E-Mail Postfächer (je 2 GB)

■ UNLIMITED 1&1 Click & Build Apps

(freie Wahl aus 65 Applikationen)

■ 1&1 WebAnalytics

■ 1&1 Online Office

■ PHP5, PHP Dev, Zend Framework,

Ruby, SSI, SSH-Zugang,

git Versionsmanagement

■ NEU: 99,99% Verfügbarkeit

■ NEU: Geo-redundante Infrastruktur

Doppelt sicher:

Redundante Rechenzentren!

Top-Performance:

High-End Server!

Superschnell:

210 GBit/s Anbindung!

Umweltschonend:

Grüner Strom!

1&1 DUAL

UNLIMITED

14, 99

€/Monat*

50% Rabatt nur bis 30. Juni!

29, 99

€/Monat

6 Monate 14,99 €/Monat,

danach 29,99 €/Monat*

Weitere Pakete auf der nächsten Seite.

Alle Hosting-Lösungen im Überblick

sowie viele weitere Sparangebote unter:

Zukunftssicher:

1.000 eigene Entwickler!

0 26 02 / 96 91 0800 / 100 668 www.1und1.info

* Mindestvertragslaufzeit 12 Monate. Einrichtungsgebühr 14,90 €.

Preise inkl. MwSt.


Aktuell

www.linux-magazin.de Kernel-News 07/2011

22

Zacks Kernel-News

Mehr Sicherheit für den Memory Heap

Der Security-Spezialist Dan

Rosenberg möchte die Berechtigungen

für die Datei »/ proc/

slabinfo« gern auf »0400« setzen.

Damit wäre die Datei nur

noch für ihren Eigentümer

Root lesbar, für andere User

aber nicht. Laut Dan würde

diese Einstellung es jenen

Angreifern schwerer machen,

die auf Kernelbugs setzen, die

den Heap beschädigen. Das

hindere normale Benutzer

zwar daran, den laufenden

Kernel zu untersuchen, der

Administrator könnte die Dateiberechtigung

aber bei Bedarf

für sie ändern.

Das gefiel Dave Hansen von

IBM gar nicht. Seiner Meinung

nach mache es Linux-

Systeme sogar weniger sicher,

weil Debugging dann oft mit

Rootrechten stattfinden müsste.

Wer wolle, könne ja die

Leseberechtigung auf seinen

Systemen manuell einschränken.

Dem hielt Dan entgegen,

dass die meisten Anwender

ohnehin keine Debugging-

Möglichkeiten bräuchten.

Der Consultant Matt MacKall

sah sich einige Heap-Exploits

an, um Dans Argument zu

bewerten. Er kam zu dem

Schluss, dass ein Angreifer

nicht unbedingt auf »/proc/

slabinfo« zugreifen müsse,

auch wenn ihm das seine

Sache etwas leichter machen

würde. Dan Rosenberg merkte

an, immerhin steigerten

die fehlenden Leserechte den

Aufwand für einen solchen

Angriff. Theodore Ts’o schaltete

sich in die Diskussion

ein, indem er eine Geschichte

aus seiner Praxis zum Besten

gab: „Leserechte für »/proc/

slabinfo« sind bei allerhand

Kernelproblemen nützlich.

Man kann Probleme wie

beispielsweise Speicherlecks

aufspüren. So habe ich einmal

die Linux-Strategie einer

Schule gerettet. Die Linux-

Server dort stürzten ungefähr

einmal in der Woche ab und

liefen vor den Crashes immer

Die Slabinfo-Datei ist unter Linux für alle User lesbar und enthält wichtige Hinweise

über den Speicherverbrauch.

unzuverlässiger. Die Schulleitung

wollte dem Projekt

schon den Hahn abdrehen“,

berichtete Ted.

Er fuhr fort: „Es stellte sich

heraus, dass der so genannte

Virusscanner ein Haufen

Mist war, der zunehmend den

Speicher füllte. Die proprietäre

Software wurde als Kernelmodul

geladen, und so konnte

ich in »/proc/slabinfo« sehen,

was passierte. Ohne Leseberechtigungen

für normale User

hätte ich kaum etwas machen

können.“ Ted meinte, es gäbe

Möglichkeiten, den Slab Allocator

sicherer zu machen, ohne

den Zugang zur Slabinfo-

Datei einzuschränken.

Linus Torvalds findet, Dan

Rosenberg habe immerhin

ein interessantes Problem angesprochen.

Er schlägt vor, in

der »/proc/slabinfo« ein wenig

andere Inhalte sichtbar zu

machen – Informationen, die

für Anwender wertvoll sind,

aber nicht für Angreifer. n

Widmung

Nachrichtensystem für Embedded Linux

Diese Ausgabe der „Kernel-

News“ ist dem jüngst verstorbenen

Kernelentwickler David

Brow nell gewidmet. Für viele

Linux-Programmierer war er

Inspiration und Motivation.

David hat deutliche Spuren im

Kernel-Quelltext hinterlassen,

die die Community lange an

ihn erinnern werden. n

Der britische Entwickler

Tony Ibbs hat ein Kernelbasiertes

Kommunikationssystem

namens KBUS [http://​

​kbus‐messaging.​org] vorgestellt.

Mit dessen Hilfe sollen sich

Anwendungen auf Mobiltelefonen

und Embedded-Systemen

verständigen. Ziel ist es,

Nachrichten stets zuverlässig

und in vorhersehbarer Reihenfolge

zuzustellen.

Der IT-Journalist Jonathan

Corbet sah sich den Code an

und fragte, warum Tony zu

diesem Zweck ein Kernelmodul

einsetze und nicht einfach

einen Userspace-Daemon.

Tony antwortete, es gehe

hauptsächlich um die Zuverlässigkeit:

Stürze bei KBUS

ein Prozess ab, bevor er eine

erwartete Antwort auf eine

Nachricht abschicken kann,

bemerke das Kernelmodul

dies und könne wartenden

Prozessen eine Ersatzantwort

übermitteln. Jonathan

bezweifelt dennoch, dass es

einen Bedarf für KBUS gibt. n


1&1 HOSTING

Copyright-Verstoß im Kernel

Der Kryptographie-Fachmann

David Johnston hat sich an

die Mailingliste gewandt, weil

sein Code ohne Erlaubnis in

den Kernelquellen aufgetaucht

sei. Er schrieb dazu:

„Jemand hat die Kopfzeilen

mit meinem Namen und

Copyright-Hinweis entfernt.

Nun steht ein anderer Name

im Quelltext, und ohne mein

Wissen ist die Datei plötzlich

GPL-lizenziert.“

David fügte aber hinzu, er sei

ein „glücklicher Linux-Benutzer“

und wolle keine Schwierigkeiten

machen: „Ich würde

mich geehrt fühlen, Code von

mir im Kernel zu sehen.“ Deshalb

verlangte er auch nicht

die sofortige Entfernung des

Code. Er bot stattdessen an,

seinen Quelltext unter GPL zu

Der Kernelprogrammierer

Pekka Enberg hat ein natives

Linux-Werkzeug vorgestellt,

das KVM-Images booten und

verwalten soll. Er wolle ein

schlankes, sauberes KVM-

Host-Tool von Grund auf neu

programmieren, so schreibt

er in seiner Nachricht an die

Mailingliste. Derzeit existiert

seine Software in Form von

rund 5000 Zeilen C-Code und

kann bereits ein Linux-Image

starten. Pekka fügt hinzu:

„Das mache ich aber nur als

Hobby, es soll nichts Großes,

Professionelles wie etwa Qemu

werden.“

Steven Rostedt von Red Hat

las die Ironie heraus, die sich

zwischen den letzten Zeilen

versteckt: Er erinnerte an jene

Nachricht an [comp.​os​.minix]

aus dem Jahr 1991, in der ein

stellen, wenn die Namensnennung

korrigiert würde.

Theodore Ts’o, H. Peter Anvin

und Greg Kroah-Hartman

nahmen sich des Problems

an. Der Code war von der Firma

Ralink gekommen, die ihn

vielleicht auch anderswo veröffentlicht

hat. Sie schlugen

David also vor, das Problem

an der Wurzel zu packen und

den Hardwarehersteller direkt

zu kontaktieren.

Greg vermutete, es handle

sich um ein Missverständnis,

denn Davids Code findet

sich auf einer Webseite, die

als Public Domain lizenziert

ist. David kam den Entwicklern

entgegen und stellte den

Quelltext unter die GPLv2. Eine

Antwort von Ralink steht

allerdings noch aus. n

Neues Tool für KVM-Virtualisierung

finnischer Student ein Hobby-Betriebssystem

ankündigte

und meinte: „So groß und

professionell wie GNU soll es

aber nicht werden.“

Die Mailingliste nahm Pekkas

Nachricht mit Begeisterung

auf, wünschte sich allerdings

einen griffigeren Namen

für das neue Tool. Daneben

schickten die Diskussionsteilnehmer

Links zu ähnlichen

Softwareprojekten ein.

Pekka plant übrigens auch eine

grafische Benutzeroberfläche,

zudem könnte das Tool

in einer späteren Ausbaustufe

auch andere Betriebssysteme

als Linux als Gäste aufnehmen.

Der Quellcode des KVM-

Tools ist in einem Git-Repository

unter [https://​github.​com/​

​penberg/​linux‐kvm] zu finden.

(Zack Brown/ mhu) n

SO GUT &

GÜNSTIG!

1&1 DUAL BASIC

■ 4 Domains inklusive

■ 4 GB Webspace

■ UNLIMITEDTr a f fi c

■ 5 FTP-Accounts

■ NEU: 5 MySQL Datenbanken

(je 1 GB)

■ PHP5, PHP Dev, SSI

■ u. v. m.

1&1 SMART WEB S

■ 1 .de Domain inklusive

■ 200 MB Webspace

■ 1 FTP-Account

■ Blog oder Fotoalbum

■ u. v. m.

1&1 DOMAINS

.de

.biz

Alle Pakete im Überblick

sowie viele

weitere Sparangebote

unter 1und1.info

2, 99

€/Monat*

50% Rabatt nur bis 30. Juni!

6, 99

€/Monat

6 Monate 3,49 €/Monat,

danach 6,99 €/Monat*

1, 99

€/Monat*

0,

Domains schon ab

29

€/Monat*

Ohne

Einrichtungsgebühr!

Angebot nur bis 30. Juni!

www.1und1.info

* .de-Domain und .biz -Domain 12 Monate 0,29 €/Monat, danach .de 0,49 €/Monat

und .biz 1,99 €/Monat. Einmalige Einrichtungsgebühr 9,60 € (entfällt bei .de und .biz).

12 Monate Mindestvertragslaufzeit. Preise inkl. MwSt.


Aktuell

www.linux-magazin.de Attachmate 07/2011

24

Attachmate: Vier Business Units, neues Führungspersonal für Suse und Novell

Neue Chefs

Attachmate hat nach der Übernahme von Novell und Suse seine Holding in vier Business Units neu geordnet.

Vor allem Net IQ, Novell und Suse sind davon betroffen. Der frischgebackene Besitzer teilt die Novell-Produkte

auf und setzt personell auf Führungsfiguren mit Attachmate-Stallgeruch. Markus Feilner

Abbildung 1: 40 Jahre IT-Erfahrung: Bob Flynn ist

neuer Präsident bei Novell.

Nach dem sehr günstigen Erwerb von

Novell und Suse, an dem indirekt auch

Softwareriese Microsoft durch den Kauf

von 800 Patenten beteiligt war [1], macht

Attachmate jetzt erstmals Nägel mit Köpfen.

Die neue Holding wird aus vier Business

Units bestehen: Attachmate, Net

IQ, Novell und Suse. In einer dreiteiligen

Pressemitteilung benennt das Unternehmen

neue Führungsteams für Net IQ,

Novell und Suse und organisiert deren

Produkte neu.

Net IQ und Novell

Dabei steht vor allem die Konsolidierung

ähnlicher Produkte im Vordergrund: Der

Systemmanagement-Spezialist Net IQ

wird künftig die kompletten Identity-,

Security- und Datacenter-Produkte von

Novell übernehmen, darunter den Novell

Identity Manager, die Novell Access

Governance Suite, den Cloud Manager,

das Data Center Management, die Platespin-Produkte

sowie das Security- und

Compliance-Management. Net-IQ-Chef

Abbildung 2: Der Deutsche Nils Brauckmann wird

Präsident und General Manager bei Suse.

Jay Gardner erhält dabei Unterstützung

von sechs Ex-Novell-Mitarbeitern.

Novell selbst darf sich auf wenige, aber

erfolgreiche Produkte konzentrieren. Zu

diesem Kern zählen nach Meinung Attachmates

der Open Enterprise Server,

Groupwise, Zenworks, die File Management

Suite und Novell Vibe. Bob Flynn,

neuer Präsident und General Manager

von Novell, freut sich darauf, „die große

Diversität an Produkten auch für die Kunden

übersichtlicher zu gestalten und den

Novell-Brand zu stärken“.

Im Gespräch mit Linux-Magazin Online

verspricht er Kontinuität und verteidigt

die Aufteilung: „Die Novell-Identity-Management-Produkte

passen zum Net-IQ-

Brand, wir konsolidieren unsere Produktfamilie

so, dass jede Business Unit den

größtmöglichen Fokus erhält. Kunden

werden davon kaum etwas spüren“, verspricht

Flynn.

Jede Business Unit sei eigenverantwortlich

für ihr Geschäftsmodell und könne

so einen deutlich spezialisierteren Ansatz

bieten als dies vorher der Fall war. Die

Frage, ob das einem „Back to the Roots“

für Novell gleichkomme und ob damit

auch zu erwarten sei, dass zum Beispiel

die von vielen Kunden als unübersichtlich

wahrgenommene Webseite einfacher

und klarer strukturiert werden solle, beantwortet

Flynn kurz mit „Exactly!“, gibt

aber gleich zu bedenken, das dies kein

schneller Prozess werde.

Flynn (Abbildung 1) selbst ist seit über 40

Jahren im IT-Geschäft und nennt Verkauf

und Vertrieb als seine wichtigste Expertise.

Nach 18 Jahren IBM ist er seit 1998

bei Attachmate und soll jetzt die beiden

Business Units Attachmate und Novell

leiten. „Attachmate und Novell haben

viel gemeinsam, vom Legacy-Modell über

die Firmengeschichte bis hin zu den typischen

Kunden.“ Deshalb biete es sich

an, die beiden Firmen durch eine gemeinsame

Führungsposition zu leiten. Und:

„Novell ist jetzt erstmals in Privatbesitz,

was in vielen Fällen schnellere Reaktionen

und eine agilere Produktpolitik möglich

macht“, verspricht Flynn.

Suse

Etwas anders sieht die Sache bei Suse

aus. Deren Mitarbeiter hatten nicht selten

unverhohlene Freude über die Trennung

von Novell gezeigt. Viele Stimmen meinen,

die beiden Firmen hätten nie zueinandergepasst.

Zu unterschiedlich sei die

Philosophie von Novell-Management und

Suse-Community gewesen. Jetzt winkt

mehr Eigenständigkeit. Im neuen Geschäftsbereich,

der „Suse Business Unit“,

finden sich nun auch keine Novell-Produkte

mehr. Die Nürnberger sollen sich

voll auf ihre Linux-Enterprise-Produkte

konzentrieren, die für den Großteil ihres

Umsatzes sorgen.


Tel. 0 64 32 / 91 39-749

Fax 0 64 32 / 91 39-711

vertrieb@ico.de

www.ico.de/linux

SEIT 1982

Hauptquartier bleibt Nürnberg, auch

die Entwicklungsstandorte in Prag und

Asien bleiben bestehen. „Development,

Vertrieb, Marketing, Standorte und Roadmaps

bleiben unverändert“, sagt der

neue Suse-Chef Nils Brauckmann (Abbildung

2). Der „President and General

Manager“ kam über WRQ zu Attachmate,

war auch mal drei Jahre bei Novell und

hat seinen Schwerpunkt ebenfalls im Bereich

Vertrieb und Marketing. Vor allem

der „multinationale Kontext“, den er als

Erfahrung nennt, dürfte ihn Attachmate

für diesen Posten empfohlen haben: Suse

soll vor allem auf dem internationalen

Markt stärker werden.

Brauckmann sieht Suse als ein deutsches

Unternehmen mit starker Verwurzelung

in Nürnberg („Da kommt Suse her, da

sitzt ein Großteil der Expertise.“) und

freut sich auf die Konzentration aufs

Linux-Geschäft. „Viele Menschen, vor

allem in der Community, haben Novell

als eine Art Makel an Suse empfunden.

Wir wollen die Marke Suse stärken und

unsere Tätigkeiten vor allem in Amerika

und den Emerging Markets Asiens intensivieren“,

so Brauckmann.

Auch für die Community gibt es gute

Signale vom neuen Chef: Die Open Suse

Conference steht [2] und werde von

Suse gesponsert. Brauckmann dazu:

„Das ist eine sehr gute Gelegenheit, für

Innovationen und Austausch zu sorgen

Lange Jahre war Novell der Übernahmekandidat

Nummer eins – und nichts ist passiert.

Nun hat Attachmate den Softwareriesen aus

Massachusetts übernommen und aufgeteilt. Da

stellt sich für viele Kunden die Frage, wie es

denn nun weitergeht. Während für Suse wohl

alles so bleibt, wie es war, sieht es bei den klassischen

Produktbereichen von Novell anders

aus. Die neue Aufteilung der Produkte macht

klar, dass der Hersteller zumindest bisher die

bestehenden Synergiepotenziale zwischen

dem Service-, System-, Identity- und Sicherheitsmanagement

nicht zufriedenstellend zu

nutzen wusste.

Für Net IQ dagegen sind die Identity-Management-

und Security-Funktionen sicher eine

Stärkung. Richtig gemacht, könnte Attachmate

Net IQ zu einem potenten Anbieter im Markt

formen, der weit über den Markt der Administrationswerkzeuge

hinaus wächst. Ob Novell

allerdings den zu beobachtenden personellen

Aderlass verkraftet, erscheint offen. Panik

und sich gegenseitig zu helfen.“ Suse

wird weiterhin sehr eigenständig bleiben,

sagt er. Es gäbe insgesamt nur etwa fünf

Mitarbeiter mit Attachmate-Hintergrund

bei Suse, sowohl Team und Development

als auch Support und Produkte bleiben

„klassisches Suse“. Dazu meint auch Attachmate-Boss

Jeff Hawn: „Wir statten

Suse gezielt mit Ressourcen aus […], die

es braucht, um den stetig wachsenden

Linux-Markt zu unterstützen.“

Unrentabel: Mono

Eine Ausnahme – was Suse angeht – sind

die Entlassungen rund um Mono, räumt

Brauckmann ein. Hier habe man schlicht

und einfach Aufwand und Ertrag verglichen

und dann die Entscheidung getroffen,

Mono nicht weiterzuverfolgen.

„Es hat sich nicht in dem Maße rentiert,

wie man sich das von dem Konzept erhofft

hatte“, so Brauckmann. Der Mono-

Support bleibe aber ein Produkt der Suse

Business Unit, auch hier wolle man den

Kunden Kontinuität signalisieren. n

Infos

[1] Markus Feilner, „Patente im Körbchen“:

Linux-Magazin 05/ 11, S. 26

[2] Open Suse Conference 2011: [http:// www.

linux-magazin. de/ NEWS/ Opensuse-Conference-2011-Read-Write-Execute]

Kommentar: Net IQ, Novell und Suse – wie geht es weiter?

ist für Novell-Kunden zwar nicht angebracht,

durchaus aber das kritische Beobachten, ob

Net IQ wieder mehr aus dem macht, was Novell

zu bieten hat.

Die Devise kann nur lauten: Abwarten, sich

Gedanken über Alternativen machen und dann

in ein paar Monaten über die weitere Roadmap

entscheiden, wenn wirklich absehbar ist, ob

Net IQ und Novell das zweifelsohne bestehende

Potenzial nutzen oder nicht. Klar ist aber: Net

IQ muss jetzt aktiv und sehr engagiert handeln,

um die Novell-Kunden bei der Stange zu halten,

denn die Verunsicherung ist groß.

Grundsätzlich wäre es in jedem Fall besser,

wenn Attachmate eine Gesamtstrategie für

alle Unternehmensbereiche umsetzt und die

Chancen der Integration nutzt. Derzeit sieht es

so aus, als ob das Ergebnis viele Tools sind. Die

aber machen noch keine Lösung. Schon Novell

hat die möglichen Synergien nicht genutzt, und

Attachmate erscheint derzeit davon weiter entfernt,

als Novell je war. (Martin Kuppinger)

Alle Preise in Euro

Innovative Computer • Zuckmayerstr. 15 • 65582 Diez

BALIOS 251 2HE SERVER

Extrem leistungsstarke 2HE Serverlösung

mit Intel ® Xeon ® Prozessor.

• Intel ® Xeon ® L3426 Prozessor

mit 1,86 GHz

• 8 GB (2x 4 GB) DDR3 RAM

• 6 TB (6x 1 TB) WD 24x7 HDDs

• Adaptec RAID-Controller

6805 inkl.

NAND BBU

BALIOS 553 5HE STORAGE SERVER

Leistungsstarke Storage-Lösung mit Intel ® Xeon ®

Prozessor und redundantem Netzteil.

• Intel ® Xeon ® L3426 Prozessor

mit 1,86 GHz

• 16 GB (4x 4 GB) DDR3 RAM

• 24 TB (24x 1TB) WD 24x7 HDDs

• Adaptec RAID-Controller 52445

inkl. Kabel BBU

• Slimline DVD-

Brenner

GmbH

• LG DVDRW Laufwerk

• 400 W EPS Green Netzteil

• Systemtest mit Ubuntu Linux

64bit

www.ico.de/linux

inkl. Mwst

2378, 81 exkl. Mwst

1999,-

Extrem leistungsstarke 4HE Storage-Lösung mit Intel ®

Xeon ® Prozessor und 16 Festplatten im Wechselrahmen.

• 2x Intel ® Xeon ® L5630 Prozessor

mit 2,13 GHz, 5,86 GT

12MB Quad-Core

• 12 GB (6x 2 GB) DDR3 RAM

• 16 TB (16x 1 TB) WD 24x7 HDDs

Art.Nr. BTO-256709-23

Art.Nr. BTO-256710-23

XANTHOS 453 4HE STORAGE SERVER

• Adaptec RAID-Controller 51645

inkl. Kabel BBU

• Systemtest mit Ubuntu Linux

64bit

• LG DVD-RW Laufwerk

• 500 W Netzteil

www.ico.de/linux

EPS/PS2 Green

inkl. Mwst

80+

4996, 81 exkl. Mwst

4199,-

Art.Nr. BTO-256711-23

• Intel ® Remote Management

Modul 3

• 1350 W + 450 W red. Netzteil 5U

• Systemtest mit Ubuntu Linux

64bit

www.ico.de/linux

inkl. Mwst

6900, 81 exkl. Mwst

5799,-

Intel, das Intel Logo, Xeon, und Xeon Inside sind Marken der

Intel Corporation in den USA und anderen Ländern.

wir liefern auch

nach Österreich

u. in die Schweiz


Titelthema

www.linux-magazin.de Erfahrungen 07/2011

26

Ein Trend mit Startschwierigkeiten

Flieg hoch!

Clouddienstleister und Virtualisierungsspezialisten schieben Angebot um Angebot in den IT-Himmel – allein

die adressierten Firmen üben sich in seltsamer Zurückhaltung. Die wenigen Ausnahmen jedoch zeigen sich

überaus zufrieden. Jan Kleinert

© ::HARRY POPPINS::, photocase.com

Cloudverweigerer rangieren Ängste zur

Datensicherheit.

Genaueres Hinschauen zeigt, dass große

Logistikunternehmen und Dienstleister

Clouddienste deutlich häufiger einsetzen

als Handelsunternehmen und Investitionsgüterhersteller

(Abbildung 2). Die

Studie mutmaßt, dies liege daran, dass

die Prozesse von Logistikfirmen enger

mit der IT verknüpft sind als bei gewöhnlichen

Gewerben. Eine Erhebung des

Fraunhofer-Instituts stützt diese These

[2]. Darin zeigten sich 60 Prozent der befragten

Entscheider offen dafür, Logistik-

IT-Dienste aus der Cloud zu nutzen.

Dieser Artikel war eigentlich als Stimmungs-

und Erfahrungsumfrage unter

Linux-Magazin-Lesern und -Autoren geplant,

die als Admins und IT-Manager

arbeiten. Rund zehn von ihnen sollten

berichten, welche Cloudlösungen sie in

ihren Firmen und Institutionen professionell

einsetzen und welche Erfahrungen

sie gesammelt haben.

Überraschung: Keiner von ihnen benutzt

kommerzielle Cloudangebote. Stattdessen

kamen Aussagen wie: „Wir setzen nur

verstärkt auf Virtualisierung“ oder „Unser

neuer Chef meint, wir sollten uns das

mal ansehen“ oder „Wegen der unklaren

Datensicherheit traut sich niemand den

Kopf zu weit rauszustecken.“

Theoretisch könnte es nun so sein, dass

Linux-Anwender besonders konservativ

handeln und darum gegen das Trommeln

von Clouddienstleistern und Softwarelieferanten

immun sind. Quantitative Studien

belegen jedoch: Cloud Computing

ist in der Praxis kaum angekommen. So

gesehen bestätigen die Linux-Magazin-

Leser nur einen allgemein gültigen Trend.

Inoffiziell geben auch Cloudanbieter zu,

dass sie mit dem Durchbruch erst in einigen

Jahren rechnen.

Besonders erhellend ist die gerade erschienene

Studie „Cloud Computing im

Mittelstand“, die ein Wirtschaftsprüfungsund

ein Marktforschungsunternehmen

erstellt haben [1]. Die Befragung Mitte

Februar unter 351 IT-Verantwortlichen

von in Deutschland tätigen mittelständischen

Unternehmen ergibt, dass nur

12 Prozent Cloud Computing nutzen: 18

Prozent der großen Firmen (500 bis 2000

Mitarbeiter) und 9 Prozent der kleinen

(50 bis 200 Mitarbeiter).

Die Befragung der bisherigen Cloudverweigerer

nach ihren Vorbehalten gibt

Abbildung 1 wieder. Drei von vier vermögen

keinen Vorteil in den Cloudangeboten

zu erkennen und jeder Zweite hat

sich mit dem Thema noch nicht auseinandergesetzt

– hier haben die Dienstleister

reichlich Aufklärung zu leisten.

(Die Verwirrung bei dem Thema ist so

groß, dass rund 40 Prozent der IT-Verantwortlichen

den Begriff Cloud Computing

nur lückenhaft oder gar nicht erklären

konnten.) Auf Platz zwei der Gründe für

Anwender surfen auf der

SaaS-Welle

Die Unternehmen, die bei der jüngsten

Studie angaben Clouddienste in Anspruch

zu nehmen, nutzen zu zwei Dritteln SaaS-

Angebote, IaaS und PaaS sind ebenfalls

recht verbreitet (Software, Infrastructure,

Platform as a Service). Knapp ein Drittel

nutzt Beratungsleistungen rund ums

Cloud Computing. Business Process as a

Service (BPaaS) dagegen führt ein Exotendasein

(Abbildung 3).

Die am häufigsten bezogenen SaaS-Leistungen

sind E-Mail, Webkonferenzen,

Collaboration (etwa das gemeinsame Editieren

von Dokumenten) und Securitydienste

wie Antivirus oder Antispam.

Beliebt scheinen auch Contentmanagement-Systeme,

Supply-Chain-Management,

Personalverwaltung, ERP, Finanzbuchhaltung,

CRM, Online-Office-Suiten

und Kreditkarten-Bezahlsysteme.

Die beschriebene Zurückhaltung gegenüber

Clouddiensten scheint angesichts

der Erfahrungen der befragten Tatsächlich-Anwender

wenig begründet: Nahezu


Daniel Bäurer

Systems Engineer

bei inovex

Meine Top-Prio’s:

1. Spannende Technologie-Projekte

mit Open-Source-Lösungen.

2. Ein starkes, kompetentes und

sympathisches Team.

3. Klare Perspektiven für die Zukunft.

Abbildung 1: Die große Mehrheit der Befragten steht Cloud Computing skeptisch gegenüber: Drei Viertel

sehen keine Vorteile in der Nutzung, fast genauso viele plagen Datenschutzbedenken. (Quelle [1])

Wir suchen Leute

mit den gleichen Prioritäten.

alle sehen ihre Erwartungen als erfüllt an.

Gerade mal drei der 41 Nutzer zeigten

sich enttäuscht.

Eine lösbare Aufgabe

Das allgegenwärtige Thema Cloud Computing

hat die IT-Anwender in Firmen

und Institutionen bei Weitem nicht in

dem erwarteten Maß erreicht. Der erste

empirische – und überraschende – Eindruck

einer Befragung unter Linux-Magazin-Lesern

lässt sich mit wissenschaftlich

durchgeführten Studien festigen: Cloudangebote

ernsthaft nutzende Mittelständler

sind absolut in der Minderheit.

Systems Engineer

Linux (m/w)

Standorte: Pforzheim, München, Köln

Sie sind technologiebegeistert,

haben mindestens 2 Jahre Erfah rung

als Systems Engineer (GNU/Linux in

Verbindung mit Hochverfügbarkeit,

Data Center Management, Automatisierung,

Virtualisierung etc.)

und Spaß daran, Engineering-Projekte

von A bis Z umzusetzen. Wir arbeiten

u. a. für: 1&1, buch.de, Daimler,

EnBW, GMX, maxdome, Porsche und

WEB.DE

Interessiert? Dann möchten wir

Sie kennenlernen. Wir freuen uns

auf Ihre Bewerbung per E-Mail

an jobs@inovex.de

Ihre Ansprechpartnerin ist Slavka

Stofikova, Tel. 089 451 51 95 401.

Mehr über uns: www.inovex.de

Abbildung 2: In der Dienstleistungsbranche und unter den Logistikunternehmen setzt sich Cloud Computing

leichter durch als innerhalb anderer Wirtschaftszweige. (Quelle [1])


Titelthema

www.linux-magazin.de Erfahrungen 07/2011

28

Die Cloudanbieter haben es offensichtlich

nicht geschafft, den Blick potenzieller

Kunden auf ihre Wolkenformationen

zu lenken. Bei denen herrschen Zweifel

am Nutzen, Desinteresse am Thema und

Bedenken um den Datenschutz vor. Hier

hat die Branche noch harte Aufklärungsarbeit

zu leisten und glaubwürdige Datenschutzmaßnahmen

zu ergreifen.

Die Aufgabe scheint lösbar, denn die

Firmen, die Cloud Computing aktuell in

nennenswertem Umfang produktiv einsetzen,

sind zufrieden. Das unterscheidet

den Wolken-Trend von früheren Hypes,

deren heiße Luft sich als Zwischenhoch

entpuppte. Der stabilen Vorhersage

folgend schickt dieses Linux-Magazin

seinen Schwerpunkt als Messballon in

höhere Schichten – mit ständigem Funkkontakt

zum Linux-Boden natürlich. n

1&1 MOBILE

1&1

Infos

[1] Pricewaterhouse Coopers, „Cloud Com puting

im Mittelstand – Erfahrungen, Nutzen

und Herausforderungen“, Mai 2011:

[http://www. pwc. de/ de/ cloud­computing]

[2] Dr. Bernhard Holtkamp, „Cloud Computing

für den Mittelstand am Beispiel der Logistikbranche“:

Fraunhofer­Institut für Software­

und Systemtechnik ISST, 2010:

[http:// www. cebit­studio­mittelstand. de/

dlf/ 0f257de50b0601551cefbbaa604c8c23]

TOPAKTUELLE

SMARTPHONES

0,–

€ *

Aktion nur

bis 30.06.2011:

LG Optimus Black

für 0,– € dazu! *

Ausgabe 08/2011

Abbildung 3: Die Unternehmen, die Clouddienste

tatsächlich nutzen, mieten zu zwei Dritteln bei

SaaS-Anbietern. (Quelle [1])

* Angebot gilt bis 30.06.2011: 24 Monate Mindestvertragslaufzeit. Einmalige Bereitstellungsgebühr 29,90 €, keine Versandkosten.


ALL-NET-FLAT

✓ FLAT FESTNETZ

✓ FLAT

ALLE

HANDY-NETZE

✓ FLAT INTERNET

29, 99

39, 99

39

€/Monat*

In bester D-Netz-Qualität unbegrenzt ins gesamte deutsche Festnetz und in alle deutschen

Handy-Netze telefonieren und mobil surfen. 24 Monate lang mit Ihrem Handy für 29,99 € anstatt

39,99 €/Monat. Oder mit einem kostenlosen Smartphone von 1&1 für 39,99 €/Monat.

Jetzt i nformieren u nd bestellen: 0 26 02 / 96 96

www.1und1.de


Titelthema

www.linux-magazin.de Strategie 07/2011

30

Cloud-Strategieplaner

Himmelfahrt planen

Wer die Roadmap seines Unternehmens aufs Cloud Computing ausrichten will, steht vor komplexen Abwägungen.

Dieser Artikel zeigt, wie Unternehmensgröße, Cloud-Angebote und -Formen zueinander passen und wie

eine Firma sicher und gradlinig in die Wolken vordringt. Holger Gantikow, Markus Feilner

© Paul Prescott, 123RF.com

Private Anwender nutzen Clouddienste

bereits seit Langem. Diverse Mailer wie

Hotmail bieten seit knapp 15 Jahren Webbasierte

E-Mail-Infrastrukturen an, treten

also seit IT-Ewigkeiten als Anbieter des

Service-basierten Clouddienstes auf. Privat

ebenfalls sehr populär sind Storage-

Services wie Dropbox (siehe Artikel zur

Desktop-Cloud in diesem Schwer punkt),

die sich nahtlos in alle gängigen Betriebssysteme

integrieren und auch auf mobilen

Geräten einfachen Zugriff auf dort

abgelegte Daten bieten. Dropbox nimmt

dabei sowohl die Rolle eines Cloudanbieters

als auch die eines Cloudnutzers ein,

da es seinen Speicherplatzbedarf aus der

Wolke speist.

Private Gepflogenheiten, die in der Regel

weniger scharfe Sicherheitsanforderungen

stellen, bringen im Unternehmenseinsatz

aber neue Anforderungen.

Klassische Dienste zum Datei-Austausch

gelten zunehmend als antiquiert und

unkomfortabel, immer mehr Mitarbeiter

nutzen Dienste wie Drop box auch

zum Austausch von Unternehmensdaten.

Meist erfolgt das trotz anders lautender

Vereinbarungen und lässt IT-Leitern und

Datenschutzbeauftragten angesichts beunruhigender

Meldungen über Privatsphäre

und Sicherheit bei Dropbox die

Haare zu Berge stehen.

Ein für alle Unternehmenstypen gültiges

Cloudkonzept ist jedoch unmöglich.

So unterscheiden sich die Unternehmen

sowohl in den IT-Fertigkeiten und der

Ausprägung der zugrunde liegenden Service-Orientierung

als auch generell darin,

welche Dienste sie überhaupt einsetzen.

Kleine Unternehmen

Bei kleinen Unternehmen, typischerweise

aus dem Handwerksbereich, spielt die

IT eine stark unterrepräsentierte Rolle,

gerade personell. Administrative Tätig-

keiten erledigt nur selten ein Mitarbeiter

in Vollzeit, in der Regel macht das ein

kundiger Power-User zusätzlich zu seiner

Haupttätigkeit nebenbei.

Sicherheits-Updates oder gar Servicelevel-Zusagen

sind für das Management

wenig relevant und werden häufig eher

als lästige Pflicht, bisweilen gar als potenzielle

Fehlerquelle angesehen. Kommt

es zu einem temporären Stillstand der IT,

hat dies meist auch nur geringe Auswirkungen

auf das Kerngeschäft. In einem

solchen Umfeld führt das Umstellen auf

Cloud-basierte Dienste in der Regel zu

einer Verbesserung des Status quo. Daten

fallen meist nur in geringem Umfang

an, oft verwalten die Unternehmen nur

Kunden-Datensätze oder Daten zu Abrechnungszwecken.

Die Verfügbarkeit von Serverdiensten, sofern

sie in signifikantem Umfang vorhanden

sind, lässt sich durch Clouddienste

deutlich verbessern, da lokale, durch

Hardware verursachte Serverausfälle bei

Services aus dem Web einfacher zu verkraften

sind. Vor allem Start-ups setzen

hier verstärkt auf Dienste aus der Wolke,

nicht selten sogar bis hin zu virtuellen

Desktops in der Cloud als ersten Ansätzen

von IaaS (Infrastructure as a Service,

Abbildung 1).

Das Thema Datenschutz spielt in solchen

kleinen Unternehmen eine Nebenrolle,

oft erledigen sie geschäftliche Mails über

kostenfreie Webmailer mit Outlook, auch

genügen hier häufig die Webfrontends

der Provider. Auf regelmäßige Datensicherungen

verzichten sie aus Gründen

der Komplexität ebenfalls oft – trotz aller

Vorschriften.

Den schnellsten Nutzen verspricht in

kleinen Unternehmen der zusätzliche

Einsatz von Software beziehungsweise


SUPERGÜNSTIG

MOBIL

SURFEN

SaaS

Software as a Service

Einzelne Anwendungen

Salesforce.com, Webex, Google Apps, ...

PaaS

Platform as a Service

Entwicklung und Betrieb eigener SaaS-Lösungen

Google Appengine, Microsoft Windows Azure, Red Hat Open Shift, ...

IaaS

Infrastructure as a Service

Bezug von Speicherressourcen und virtuellen Server-Instanzen, Desktop-Virtualisierung

Amazon-Webservices, ...

Abbildung 1: Die Cloudkonzepte IaaS, PaaS und SaaS eignen sich in unterschiedlichem Maße für Unternehmen

und Dienste. IaaS schließt in der Regel PaaS und SaaS ein, die letzteren sind aber auch allein möglich.

Platform as a Service (SaaS, PaaS, Abbildung

1), weniger der Bezug von virtueller

Infrastruktur. Durch den Einsatz einer

Komplettlösung lässt sich auch das lästige

Patchmanagement auf den Dienstanbieter

abwälzen, der lokale Admin muss

sich nicht um die Konfiguration einzelner

Systeme sorgen – gerade für kleine Unternehmen

ohne viel IT-Know-how stellt

dies ein attraktives Angebot dar.

Beim Umstellen auf Webdienste wird der

Browser, unabhängig vom zugrunde liegenden

Betriebssystem, zur eigentlichen

Plattform – ganz ähnlich, wie es Google

mit Chrome OS vormacht [1]. Dies ebnet

den Weg für freie Alternativen, wartungsarme

Thin Clients und einfacheres

Einbinden mobiler Endgeräte.

Bei konsequentem Minimieren der eigenen

IT und dem Einsatz externer Ressourcen

bleiben im Unternehmen praktisch

nur noch die essenziellen Netzwerk-

Basis dienste WAN-Anbindung, DHCP,

Routing, Firewall, dazu vielleicht noch

die Pflege eines Browsers und der Clientsoftware

des Terminalservers. Doch der

Aufwand für dieses Szenario ist beträchtlich,

oft sind externe Dienstleister mit

branchenspezifischem Know-how nötig.

Als Lohn für den Aufwand reicht dann

meist billige Hardware von der Stange.

Mittelstand

Mittelständische Unternehmen dagegen

weisen eine andere IT-Struktur auf. IT ist

dort nicht nur ein notwendiges Übel, sondern

für die Geschäftsprozesse zwingend

notwendig. Dediziertes Fachpersonal

betreibt die fürs mittelständische Unternehmen

meist existenziell wichtigen IT-

Strukturen. Das Ziel darf hier nicht lauten,

blindlings alle Dienste in die Wolke

auszulagern, sondern bedarfsorientiert

und weitsichtig zu handeln.

Cloudangebote lohnen auch dann eine

Prüfung, wenn zum Beispiel eine Investition

in Hardware ansteht. Zwar fallen

einerseits Hardwarekosten weg, dem

stehen jedoch Integrationsaufwände

und Schulungskosten gegenüber – wie

bei jeder Migration. Damit eine sinnvolle

Abschätzung der Kosten überhaupt möglich

ist, muss die interne IT idealerweise

bereits Service-orientiert arbeiten und

Bewertungsgrundlagen liefern.

Erster Schritt: Private Cloud

Im KMU ist der erste Schritt meist die

Etablierung einer Private Cloud (Abbildung

2), also die Umstellung des internen

Rechenzentrums gemäß den Cloudprinzipien.

Konsequente Virtualisierung

sowohl der Server als auch des Storage

dient zum Entkoppeln der angebotenen

Services von der Hardware. Nicht selten

stellen hier bereits Terminalserver Arbeitsplätze

remote zur Verfügung. Viele

Anwendungen finden sich auch in Unternehmen

mittlerer Größe schon als Webdienst,

zum Beispiel die Groupware oder

das CRM. Derlei Dienste können zuerst

in der privaten Wolken landen – meist

so transparent, dass der Anwender kaum

etwas davon merkt.

1&1 Surf-

Stick 0,– €!*

9,

1&1 NOTEBOOK-FLAT

99

€/Monat*




Internet-Flatrate

per HSDPA/UMTS!

1&1 Surf-Stick oder Micro-

SIM-Karte für 0,– €!*

Beste D-Netz-Qualität!

Jetzt informieren und

bestellen: 0 26 02 / 96 96

www.1und1.de

* 1&1 Notebook-Flat mit bis zu 3.600 kBit/s. Ab einem Datenvolumen von

1 GB steht eine Bandbreite von max. 64 kBit/s zur Verfügung. 24 Monate

Mindestvertragslaufzeit. Keine Bereitstellungsgebühr, keine Versandkosten.


Titelthema

www.linux-magazin.de Strategie 07/2011

32

Intern

Private Cloud

intern

Sonstige Virtualisierungen

und (Web-)Dienste

Hybrid Cloud

Firma

Abbildung 2: Private, Hybrid und Public Cloud in der Übersicht.

Als Nächstes erarbeitet sich das Unternehmen

im Idealfall ein Abrechnungsmodell

für die pauschale oder zeitabhängige

Leistungsverrechnung bei intern

erbrachten Dienste, ganz ähnlich wie

bei einem Cloudanbieter. Das hilft nicht

nur dabei, Kosten zu erkennen und zu

sparen, sondern macht auch eine etwaige

Auslagerung in Hybrid oder Public

Clouds planbar.

Hierbei gilt es – vor allem auch hinsichtlich

rechtlicher Rahmenbedingungen – zu

untersuchen, welche Dienste und Daten

besser in der internen Wolke verbleiben.

Gesetze, Kosteneffizienz und Aspekte

des Datenschutzes verbieten häufig die

Auslagerung ganz pauschal. Trotz aller

Sicherheitsvorkehrungen ist manches

besser im eigenen Rechenzentrum aufgehoben,

da die Firmen-IT nur dort die

absolute Hoheit über die Daten und die

Durchsetzung eigener Sicherheitskonzepte

erzwingen kann.

Heutige Cloudanbieter erkennen dieses

Thema verstärkt als wesentliches Hemmnis

beim Verkauf ihrer Dienste. Im stark

von Vorschriften und Gesetzen geprägten

Markt Europas und vor allem in Deutschland

schrecken überdurchschnittlich viele

Unternehmer vor dem Gang in die Wolke

zurück, während in den eher dynamisch

geprägten USA schon heute externe

Cloudservices häufiger in Firmen zum

Einsatz kommen.

Hat der Mittelständler ermittelt, welche

Services er auslagern kann, fängt er mit

dem Aufbau seiner Hybrid Cloud an, also

einer Kombination der internen privaten

Wolke mit externen, bedarfsabhängigen

Services. Die lassen sich entweder

Public Cloud

extern

Extern

dauerhaft oder zum Abfangen von Lastspitzen

einsetzen, wie das Beispiel des

Chat-Hosters Spinchat.de zeigt [2]. Auch

Notfallszenarien, zum Beispiel beim Ausfall

eines Rechenzentrums, lassen sich so

zumindest teilweise abdecken. Hybrid-

Lösungen setzen zwar einiges an Planung

voraus, schaffen aber vielerorts erst

die Grundlage für die in Marketingunterlagen

oft versprochene „Dynamisierung“

des IT-Betriebs.

Das Auslagern ganzer Infrastrukturen

(IaaS) stellt wegen des hohen planerischen

Aufwands auch eher einen mittelfristigen

Weg dar. Generell sollten mittelständische

Unternehmen, die einen

schnellen Nutzen aus der Wolke ziehen

wollen, eher nur sporadisch genutzte

oder branchenspezifische Dienste auslagern.

Ein typisches Beispiel dafür sind

nicht dauerhaft benötigte High-Performance-Computing-Systeme

(siehe Kasten

„Sonderfall HPC“).

Großunternehmen

Internet

Großunternehmen dagegen haben ihre

IT-Abteilungen in der Regel bereits

Service-orientiert organisiert und so

für die Vergleichbarkeit interner und

externer Services gesorgt. Die meisten

von ihnen nutzen bereits umfangreiche

Virtualisierungs -Setups mit Hunderten

oder gar Tausenden von Servern in einer

privaten Wolke.

Dank kontinuierlicher Prozessoptimierung,

insbesondere mit Blick auf die

laufenden Kosten, herrscht in großen

Unternehmen traditionell weniger Berührungsangst

mit externen Dienstleistern.

Häufig ist der komplette IT-Betrieb an

einen solchen ausgelagert, der anfallende

Aufgaben günstiger als die internen Kräfte

erbringt. Die verbleibenden internen IT-

Ansprechpartner agieren als Vermittler

zwischen den internen Fachabteilungen

und den Dienstleistern.

Große Unternehmen lockt am Cloud

Computing (vor allem bei Public und

Hybrid Clouds) vor allem das Einsparpotenzial,

das durch die Umstellung von

Investitionskosten hin zu Betriebskosten

entsteht. Nur die tatsächlich benötigten

Kosten sind zu bezahlen – das klingt

verführerisch.

Marktmacht

Gerade Großunternehmen mit Compliance-Richtlinien

können sich der rechtlichen

Verantwortung nicht entziehen,

wenn sie Services in die Wolke verlagern.

Sie bleiben als Auftraggeber beispielsweise

für die Einhaltung des Bundesdatenschutzgesetzes

(BDSG, [3])

verantwortlich und sehen sich daher

auch entsprechenden Bußgeldern oder

kostenpflichtigen Abmahnungen durch

Mitbewerber ausgesetzt.

Allerdings verfügen sie bereits über vielfältige

Erfahrungen, wenn es um das

Einbinden von Drittanbietern geht, und

können beim Aushandeln von Verträgen

und entsprechenden Service Level Agree-

Sonderfall HPC

Die Auslagerung selten benötigter Systeme

für sporadische, aber umfangreiche Berechnungen

scheint ideal: Signifikante Investitionskosten

in eigene Cluster entfallen, nur

der Rechenaufwand schlägt zu Buche, die

Konfiguration ist sowieso meist Sache eines

externen Partners mit entsprechendem Applikationsverständnis.

Eine Umsetzung mit gewöhnlichen Serverinstanzen

von der Stange ist dabei aber meist

nicht möglich, da Erfordernisse wie leistungsfähige

Interconnects mit geringen Latenzen

oder notwendig hohe I/ O­Durchsätze zum

Tragen kommen. Auch unterstützen viele

Applikationen in diesem Umfeld Berechnungen

auf Grafikprozessoren, die in virtuellen

Maschinen nicht zur Verfügung stehen.

Auf diese besonderen Anforderungen hat sich

eine Reihe von Anbietern spezialisiert, sie

bieten HPCaaS an. Das Steinbuch Forschungsinstitut

des KIT (SCC, [4]) gilt dabei als

wissenschaftlicher Vorreiter.


ments (SLA) mit einem anderen Gewicht

auftreten, als dies für einen kleinen Auftraggeber

möglich ist.

Zu den besonderen Herausforderungen

zählen Integrationsfragen in bestehende

Managementkonzepte und Werkzeuge.

Den meisten Nutzen verspricht es, Infrastruktur

auszulagern, die nur selten,

dann aber in großer Stückzahl nötig ist

und sich durch geringen Individualisierungsgrad

auszeichnet.

Ein Beispiel dafür ist eine Erweiterung

der Webserverkapazitäten im Zuge der

Markteinführung eines neuen Produkts,

für das sich der Hersteller einen großen

Erfolg seiner Marketingkampagne erhofft.

Für branchenspezifische Dienste existieren

in den meisten Fällen langfristige

Partnerschaften mit externen Partnern

und Vendor-Lock-in. Deren Umstellung

würde meist hohe Migrationskosten nach

sich ziehen.

Als Beispiel für solche Dienste aus der

Wolke kann das umfangreiche SaaS-Angebot

der Datev ASP [5] gelten, die über

Terminalservices SaaS rund um Steuerund

Wirtschaftssoftware anbietet.

Rechtliche Aspekte

Die derzeit größten Hemmnisse für den

umfassenden Einsatz von Cloudservices

speziell bei mittelständischen Unternehmen

bereiten Datenschutzbedenken, das

generelle Misstrauen gegen den schwammigen

Cloud-Begriff, vor allem aber die

regulierenden Vorschriften seitens des

Gesetzgebers. So muss ein Unternehmen

hohe Hürden nehmen, wenn es personenbezogene

Daten, zum Beispiel aus

einem CRM-System, durch Dritte verarbeiten

lässt.

Der Gesetzgeber in Deutschland ist hier

recht explizit: Im Allgemeinen kommt der

Begriff der „Auftragsdatenverarbeitung“

(§11 BDSG) zum Tragen – so bedarf es

einer Einverständniserklärung von jeder

betroffenen Person zur Verarbeitung der

Daten durch Dritte. Selbst bei einer entsprechenden

Freigabe bleibt aber nach

wie vor der Auftraggeber der Verarbeitung

uneingeschränkt für den Datenschutz

verantwortlich.

Der Gesetzgeber formuliert dies im §11

BDSG eindeutig: „Werden personenbezogene

Daten im Auftrag durch andere

Stellen erhoben, verarbeitet oder genutzt,

Abbildung 3: Da helfen auch SLAs nicht mehr weiter. Bricht die Wolke auseinander, bleibt der schwarze Peter

fast immer beim Kunden der Cloud.

ist der Auftraggeber für die Einhaltung

der Vorschriften dieses Gesetzes und des

Datenschutzes verantwortlich.“ [3]

Für Dienste innerhalb der EU gehen die

meisten Juristen davon aus, dass dort an

die Verarbeiter ähnlich hohe Maßstäbe

anzusetzen sind wie in Deutschland. Die

gefürchtete Transparenz der Datenhaltung,

also dass zu keinem Zeitpunkt konkret

angegeben werden kann, wo sich die

Daten physisch befinden, tritt in diesem

Fall in den Hintergrund. Wandern die

Daten aber in Drittstaaten, auch die USA,

besteht die latente Gefahr von Zugriffen

durch staatliche Behörden.

Vor diesem Hintergrund muss sich der IT-

Leiter klarmachen, ob er mit einem US-

Unternehmen Verträge eingeht. Er muss

genau prüfen, mit wem er den Vertrag

schließt und welches Recht gilt.

Die Standortfrage

Aus diesem Grund gehört es bei US-Anbietern

inzwischen zum guten Ton, auch

Services ausschließlich aus europäischen

Rechenzentren im Angebot zu haben. Es

obliegt aber der Prüfungspflicht des Kunden,

ob dem wirklich so ist und ob zu

Stoßzeiten nicht doch eine transparente

Migration in ein anderes, weniger ausgelastetes

Rechenzentrum erfolgt.

Des Weiteren sollte er sich bewusst sein,

dass er sich nicht nur auf die US-amerikanische

Rechtsauffassung, sondern auch

auf dortige Moralvorstellungen einlässt.

So machte das Beispiel eines Fotografen

die Runde, dessen – nach seiner Auffassung

– „künstlerische Akte“ ein Clouddienst

kurzerhand entfernt hatte [6].

Das Beispiel zeigt, dass zum einen nicht

nur die Inhalte ohne explizites Einverständnis

gelöscht wurden, sondern andererseits

auch, dass vorab eine Prüfung

durch den Anbieter stattgefunden hatte.

Als privat angesehenen Daten hatten

Dritte eingesehen – ohne Rückfrage.

Vertragswerk

Deshalb muss das Vertragswerk auch

zwingend definieren, welche Rechte und

Fristen zum Sperren oder gar Löschen

von Daten der Anbieter hat, beispielsweise

bei Urheberrechtsverstößen, im

Falle von offenen Rechnungen und besonders

nach Vertragsende. Keinem Kunden

dürfte an einer lukrativen Zweitverwertung

der Daten durch den ehemaligen

Anbieter gelegen sein.

Eine zum Beispiel in Deutschland rechtskonforme

Nutzung von Clouddiensten

erfordert umfangreiche vertragliche Regelungen,

die sich bei weltweit agierenden

Anbietern meist nur von Großunternehmen,

bedingt durch ihre Marktmacht,

durchsetzen lassen. Anfragen von kleinen

Nutzern zu individuellen Absprachen

ignorieren große Anbietern meist,

es gibt nur Standardverträge nach dem

Motto „Friss oder stirb“.

Vor solchen Hürden bleibt dem Unternehmen

prinzipiell nur der Rat, sich an einen

kleineren, nach hiesigem Recht agierenden

Partner zu wenden – dessen individualisierte

Lösungen aber oft nicht den

© Denis Tevekov, 123RF.com

Strategie 07/2011

Titelthema

www.linux-magazin.de

33


Titelthema

www.linux-magazin.de Strategie 07/2011

34

Charme und die Konditionen der großen

Anbieter aufweisen. Der Kunde kann dort

aber eher seinen (regelmäßigen) Prüfungspflichten

der getroffenen „technisch

organisatorischen Maßnahmen“ zum

Schutz der Daten nachkommen, wie sie

der Gesetzgeber in § 9 BDSG vorschreibt.

Ein Besuch in einem Rechenzentrum von

Amazon oder Google mag zwar reizvoll

erscheinen, wird aber meist auf Seite des

Anbieters dankend abgelehnt.

Fein raus beim Wolkenbruch

lability in dieser Ausgabe). Die aus den

SLA-Verletzungen bei Leistungsstörung

resultierenden finanziellen Kompensationen

helfen bei einer langen Dienstunterbrechung

nur wenig weiter, da die

Anbieter meist das Vertragswerk zu ihren

Gunsten gestalten.

Eine Art IT-Gewitter in der Cloud sorgte

Ende April bei einer Reihe von Web-2.0-

Diensten zu stark eingeschränkter Verfügbarkeit.

Der gemeinsame Infrastruktur-Anbieter

Amazon hatte in einem Rechenzentrum

einen größeren Ausfall zu

verzeichnen. Einen Überblick über die

damaligen Ereignisse und die Schlussfolgerungen

gibt [7].

Ein besonders drastisches Beispiel dokumentiert

[8]. Dabei bleibt zu hoffen,

dass es sich um einen schlechten Scherz

handelt: Ein Unternehmen, das die Heimüberwachung

von Herzpatienten über

Cloudsysteme abwickelt, schildert, wie es

48 Stunden lang nicht auf diese Systeme

zugreifen konnte, sein Dienst stillstand

und der Support „toter Mann“ spielte.

Österliche Überraschung

Amazons Infrastrukturausfälle und die

damit verbundenen Beeinträchtigungen

der Dienstqualität hielten vom Donnerstag

vor Ostern bis zum Dienstag danach

an und brachten vor allem zahlreiche

Start-ups in den USA in Verlegenheit. Die

Doch ganz abgesehen vom Datenschutz

fällt ein Ausfall der Wolke immer auf

den Dienstnutzer zurück, der Anbieter

selbst hat nur selten größeren Schaden

zu befürchten. So kann es für ein Unternehmen

große Einbußen bedeuten – mit

Blick auf Einnahmeausfälle als auch auf

verlorene Reputation –, wenn es zu einem

Ausfall der genutzten Cloudservices

kommt und das Unternehmen keinen

Notfallplan hat.

PR-Profis wissen: Einen einmal zerstörten

Ruf wiederherzustellen, ist teurer als

jede Investition in Ausfallsysteme. Wer

bei einem zweiten Cloudprovider oder

in seiner Private Cloud Backupsysteme

vorhalten will, muss das allerdings schon

beim Konzipieren der eigenen Architektur

berücksichtigen (vergleiche den Artikel

über Cloudprodukte und High Avaihatten

bei der Bereitstellung ihrer Dienste

vor allem wegen der Skalierbarkeit auf

bei Amazon Web Services bezogene Infrastrukturen

gesetzt. Primär kleine und

junge Unternehmen scheinen vom Ausfall

betroffen gewesen zu sein. Alteingesessene

Firmen wie der Pharmariese

Pfizer oder auch der Online-Videoverleih

Netflix hatten weniger Probleme.

Fehlertolerantes Design

Dabei ist – nüchtern betrachtet – eigentlich

nichts Besonderes passiert. Für

Dienste gleich welcher Art braucht es

in letzter Konsequenz Hardware, sowohl

Server als auch Infrastruktur wie Switches,

Router und nicht zuletzt eine gute

Stromversorgung und entsprechende

Klimatisierung. All diese Komponenten

können ausfallen, weshalb sie möglichst

ausfallsicher ausgelegt sein müssen, auch

und gerade in einer Wolke, egal ob Private,

Hybrid oder Public.

Cloudanbieter leisten sich aufgrund ihrer

Größe aber deutlich aufwändigere Ausfallsicherheitskonzepte

als ein kleines

Unternehmen. Welches Kleinunternehmen

kann für die von seiner IT angebotenen

Dienste eine Verfügbarkeit von 99,95

Prozent zusichern, so wie dies Amazon

verspricht? [9]

George Reese beschreibt in [10], dass

der Ausfall nicht einen grundsätzlichen

Tabelle 1: Strategieplaner Cloud Computing

Dienst Beispiel Downtime verkraftbar

(bis 1 h)

Stückzahl

Vertraulichkeit

Standardisierungsgrad

Bandbreitenanforderung

Sinnvollste Bezugsart

E­Mail SMTP/ IMAP, Exchange, Webmail schlecht hoch hoch gering mittel IaaS, SaaS

Webauftritt HTTPD, Skriptsprache, DB schlecht mittel hoch gering mittel IaaS, PaaS, SaaS

Unternehmenssoftware ERP/ CRM meist hoch hoch gering gering SaaS

Fileservices NFS, CIFS schlecht hoch mittel mittel hoch IaaS, SaaS

Interne Applikationen Wiki, Mitarbeiterportal meist hoch mittel gering mittel IaaS, PaaS, SaaS

Verzeichnisdienste LDAP, AD, NIS schlecht hoch mittel gering gering IaaS

Datenaustausch mit FTP meist hoch mittel gering mittel IaaS, SaaS

Kunden

Messaging, zum Beispiel

Jabber, Novell Vibe, Google meist hoch hoch gering gering SaaS

Chatdienste Wave

Versionsverwaltung CVS, SVN, Git meist hoch hoch gering gering IaaS, SaaS

Remote Desktops NX, RDP, Red Hat Spice, Citrix schlecht hoch mittel hoch hoch IaaS, SaaS

Xen Desktop, VMware View

Datenbanken MySQL, PostgreSQL schlecht hoch hoch hoch mittel SaaS

Videokonferenzen Webex, Skype meist hoch hoch gering mittel SaaS

Entwicklungs­ und – meist mittel mittel hoch mittel IaaS, PaaS

Testsysteme

HPC Strömungssimulation meist hoch hoch hoch hoch IaaS, HPCaaS


Designfehler im Cloudkonzept entlarvt,

sondern einen Architekturfehler auf der

Nutzerseite, also beim Einsatz von Clouddiensten.

So sollte wie bei allen verteilten

Systemen Verständnis dafür vorhanden

sein, dass Ausfälle einfach dazugehören.

Ein fehlertolerantes Design (Design for

Failure) ist Pflicht.

Das ist teilweise auch schon bei einem

einzelnen Anbieter wie Amazon möglich,

wenn der Kunde Systeme an mehreren

Standorten bucht. Amazon bietet

beispielsweise fünf Standorte in über

den Globus verteilten Zonen an. Aber

hier beginnt schon die Verantwortung

der Cloudnutzer: Sie müssen die Redundanz

in der Wolke schaffen, indem sie in

ihrer IT-Architektur Clouddienste als unsicher

klassifizieren und entsprechende

Ausweichmöglichkeiten im Fehlerfalle

einplanen.

Ebenfalls eine verbreitete Ursache für derart

fehleranfällige Architekturen ist der so

genannte Vendor-Lock-in. Nicht nur aus

Kostendruck, sondern auch durch vom

Hersteller gewollt inkompatible Technologien

sehen sich viele Unternehmen

gezwungen, nur einen Cloudanbieter zu

nutzen. Das liegt beispielsweise an Management-Tools,

die nur für einen Dienst

ausgelegt sind, und reicht bis zu Dateiformaten.

Vor allem bei einem Anbieterwechsel,

aber auch beim Zurück auf

eigene Systeme, stellen sich hier große

Hindernisse in den Weg.

Schritt für Schritt in die

eigene Cloud

Die Auswahl eines Cloudpartners – beziehungsweise

sinnvollerweise mehrerer

– muss deshalb mit der Ermittlung

der unternehmenskritischen Daten und

Dienste und einer entsprechenden Risikoabschätzung

beginnen. Meist verdienen

hier die rechtlichen Rahmenbedingungen

ein besonderes Augenmerk.

Die Klassifikation in Tabelle 1 hilft bei der

Auswahl der Dienste, die für die Wolke

– ob Private oder Public – in Frage kommen.

Im nächsten Schritt ist zu prüfen,

welche Anbieter sich eignen. Dabei spielt

vor allem dessen Standort und der seiner

genutzten Systeme eine Rolle, wobei

Reputation und Zertifizierungen die Vorauswahl

erleichtern. Danach sind entsprechende

Verträge auszuarbeiten, die

SLAs auszuwählen, Zuständigkeiten und

Rechte des Anbieters widerspruchsfrei zu

definieren.

Eine längere Testphase, sinnvollerweise

mit Dummydaten, untersucht die Qualität

der erbrachten Leistungen, die getroffenen

Zusagen, die generelle Akzeptanz

der Lösung und die Umsetzbarkeit von

Notfallkonzepten. Erst nach eingehender

Prüfung sollten Produktivdaten in der

externen Wolke landen.

Gesetze, Markt und Dienste

Der Gesetzgeber fordert übrigens auch

eine regelmäßige, fortlaufende Überprüfung

des Dienstleisters. Sinnvoll ist es,

den Marktüberblick zu behalten und das

Vendor-Lock-in nachhaltig zu vermeiden,

denn auch Cloudanbieter können

in Insolvenz gehen. Schwieriger als die

Vorgehensweise erweist sich jedoch die

Abwägung, welche Dienste sich aus welcher

Cloudform beziehen lassen, ohne

Einschränkungen bei Verfügbarkeit, Sicherheit

und Dienstqualität befürchten

zu müssen.

Die Sorge um die Vertraulichkeit der Daten

beeinflusst die Entscheidung, ob der

Dienst in einer internen oder externen

Wolke landen soll, stärker als die simple

technische Machbarkeit. Eine Datenbank,

ein Webserver oder auch ein CMS lassen

sich intern und extern hosten, Downtime,

Bandbreite und Standardisierungsgrad

spielen dabei eine geringere Rolle als der

Rechtsrahmen.

Hinzu kommt die Tatsache, dass sich

IaaS, PaaS und SaaS sowohl in Private

und Hybrid als auch Public Clouds einsetzen

lassen. Hilfreiche Denkanstöße

finden sich in Tabelle 1 „Strategieplaner

Cloud Computing“.

World Wide Computer

In seinem Bestseller „The Big Switch“

[11] zeichnet Nicholas Carr ein Bild der

Zukunft, in der IT-Ressourcen aus dem

„World Wide Computer“ kommen, analog

zum Bezug von Strom heutzutage,

sodass Anwender nur noch eine Art Notstromversorgung

im Haus behalten und

der Rest einfach aus der Dose vom günstigsten

Anbieter stammt.

Das ist noch Zukunftsmusik, klar hingegen

ist bereits heute, dass es sich beim

Einsatz von Services aus der Cloud um

eine weiterentwickelte Spielart des seit

Langem praktizierten Outsourcing-Konzepts

handelt, das unkritische Ressourcen

an externe Kräfte auslagert – mit

allen damit verbundenen Vor- und Nachteilen

sowie Risiken.

Die gestiegene Rechenleistung und

schnelle Internetanbindungen erlauben

solche IT-Strukturen und bieten unabhängig

von der Unternehmensgröße vielfältige

Möglichkeiten – sofern man Mittel

und Wege findet, die rechtlichen Vorgaben

einzuhalten und seine Architektur

fehlertolerant zu gestalten.

n

Infos

[1] Kay Uwe Königsmann, „Reduzierter

Glanz“: Linux­Magazin 03/11, S. 46

[2] Markus Feilner „Lack ab?“: Linux­Magazin

01/ 10, S. 28

[3] Bundesdatenschutzgesetz:

[http://www. gesetze­im­internet.de/

bdsg_1990/ index. html]

[4] Steinbuch Centre for Computing SCC am

KIT: [http://www.scc.kit.edu

[5] Datev: [http://www.datev.de/datevasp/]

[6] Marc Heckert, „Wie ein Handy­Fan von

Wolke Sieben fiel“: [http://www.az­web.de/

news/topnews­detail­az/1533902]

[7] Rich Miller, „The Aftermath of Amazon’s

Cloud Outage“:

[http://www. datacenterknowledge.com/

archives/ 2011/ 04/ 25/the­aftermath­of­ama

zons­cloud­outage/]

[8] „Life of our patients is at stake“:

[https://forums. aws.amazon.com/thread.

jspa?threadID=65649&tstart=0]

[9] Amazons SLA:

[http://aws. amazon.com/ec2­sla/]

[10] George Reese, „The AWS Outage: The

Cloud’s Shining Moment“: [http://

broadcast. oreilly. com/2011/04/the­aws

­outage­the­clouds­shining­moment.html]

[11] Nicholas Carr, „The Big Switch“:

[http:// www. nicholasgcarr. com/ bigswitch/]

Der Autor

Holger Gantikow hat an der Hochschule Furtwangen

Informatik studiert und ist seit 2009 bei der

Science + Computing AG in

Tübingen als System Engineer

tätig. Dort beschäftigt

er sich mit der Komplexität

heterogener Systeme im

CAE­Berechnungsumfeld.

Strategie 07/2011

Titelthema

www.linux-magazin.de

35


Titelthema

www.linux-magazin.de Cloud-Empfehlungen 07/2011

36

Wie Verbände und Firmen sich für die Cloud wappnen

Wetterbericht

Sehr wolkig soll es werden: Analysten überschlagen sich in Prognosen, Firmen kaufen Cloudspezialisten auf.

IT-Verbände, die zuständigen Ministerien und Ämter versuchen Ordnung in den deutschen Markt zu bringen.

Lokalmatadore wie die Deutsche Wolke positionieren sich. Ulrich Bantle

© mch67, 123RF.com

Flexibilität, Skalierbarkeit, Verfügbarkeit

– aus diesem Bermudadreieck aus

Schlagworten taucht derzeit fast täglich

ein Cloudanbieter am Markt auf. Davon

sollten sich Kunden aber nicht blenden

lassen. „Besonders kleineren Unternehmen

und dem Mittelstand fehlen für die

nötige Recherchen die Ressourcen“, sagt

Andreas Weiss, Direktor der vom Branchenverband

ECO für den deutschen

Raum getragenen Initiative Eurocloud

[1], die kostenpflichtige Audits [2] und

Zertifikate für Cloudservices anbietet.

Soll und Ist

Vom wirtschaftlichen Standpunkt aus

gesehen ist die Public Cloud verlockend:

Unternehmen binden weniger Kapital in

die – auch noch zu wartende – Ausstattung

mit Serverhardware. Für den

Businessplan bedeutet Cloud Computing

eine Verschiebung von festen und oft

hohen Investitionskosten in die besser

dem tatsächlichen Bedarf anpassbaren

operativen Betriebskosten. So entsteht

eine Win-win-Situation für Anbieter und

Kunde (Abbildung 1). Und: Statt sich um

die IT kümmern zu müssen, darf sich

der Unternehmer auf sein Kerngeschäft

konzentrieren.

So die Theorie, in der Praxis sieht es für

Mittelständler anders aus. Das Bundeswirtschaftsministerium

in Berlin nennt

unter anderem die Komplexität einer Abwanderung

in die Cloud und die ungenügende

Standardisierung als Bremsklötze.

Das eher ernüchternde Fazit des Ministeriums:

„Bei Mittelständlern und im öffentlichen

Sektor ist Cloud Computing

noch weitgehend unbekannt“ (siehe

auch Artikel ab Seite 26).

Vertrauensfragen

Das Ministerium reagiert auf den in

Deutschland vorherrschenden Mangel an

spezifischen Lösungen und Best-Practice-

Vorlagen mit dem Einsatz von Fördermitteln

und dem Wettbewerb „Sicheres

Cloud Computing für Mittelstand und

öffentlichen Sektor – Trusted Cloud“ [3].

Ende 2010 gestartet und auf drei Jahre

ausgelegt, sind 50 Millionen Euro vorgesehen.

Die anderen Partner schießen eine

nämliche Summe noch hinzu.

Aus der Förderung sollen Beispiellösungen

für die drei definierten Cloudbereiche

Infrastructure as a Service (IaaS), Platform

as a Service (PaaS) und Software

as a Service (SaaS) erwachsen. Trusted

Cloud teilt sich in die mit Ergebnissen

zu füllenden Cluster: Basistechnologien,

Industrie, Gesundheit und öffentlicher

Sektor. Patrick Lay vom Ministerium

spricht von reger Beteiligung und 116

eingereichten Projektskizzen für die Trusted

Cloud.

Die 16 von einer Jury ausgewählten Projekte

stehen nicht für einen Solo-Auftritt.

Insgesamt sind daran rund 70 Firmen

und Einrichtungen beteiligt, die nun mit

der Umsetzung beginnen. 50 Prozent davon

seien kleine und mittlere Unternhemen,

so Lay.

Und die Beteiligten arbeiten nicht im stillen

Kämmerchen: Ab September nehme

die das Förderprojekt Trusted Cloud begleitende

Forschung ihre Arbeit auf. Sie

soll helfen Redundanzen zu vermeiden,

aber auch Handlungsempfehlungen erarbeiten

und zwischen den Teilnehmern ein

Kompetenznetzwerk bilden, in dem sich

gemeinsame Fragen erörtern lassen.

Verwaltungssache

Auf die Ergebnisse wartet nicht nur der

potenzielle Cloudkunde aus der Privatwirtschaft.

Zurückhaltung vor dem

Schritt in die Cloud ist auch bei Behörden


stark ausgeprägt. Von den bei der Trusted

Cloud Beteiligten sollen auch die Verwaltungen

profitieren. Geplant dafür ist

etwa eine Open-Source-Plattform namens

Cloud Cycle [4], die den gesamten Lebenszyklus

von Clouddiensten abbildet.

Probanden dafür sind Schulverwaltungen

und Bürgerportale.

Verbandstätigkeiten

Der ECO-Verband bemüht sich mit der

Eurocloud-Initiative [1] um Rechtssicherheit

für europäische (und deutsche) Kunden.

Datenschutz und Compliance bilden

die Grundpfeiler, auf denen Eurocloud

ruhen will. Ein – nach deutschem Recht

– sicherer Service und Datenzentren auf

bundesdeutschem Boden gehört zu den

Anforderungen. Ende des Jahres will der

Verband ein Kompendium für Rechtsthemen

auflegen.

Wie Trusted Cloud hat auch Eurocloud

einen Wettbewerb ausgerufen und im Mai

Anbieter ausgezeichnet. Das Thema Onlinespeicher

etwa besetzt der zertifizierte

Anbieter Cloudsafe [5], der unter anderem

mit dem Merkmal in Deutschland

gehosteter Daten punkten kann. Die Eurocloud-Initiative

ist aber nicht auf Deutschland

beschränkt. Insgesamt gibt es 25

Eurocloud-Organisationen in der EU.

Sichtflug

Das täglich wachsende Angebot an einfach

zu nutzenden Cloud-Dienstleistungen

verschleiert jedoch den Blick auf die

Komplexität. Dem Bundesamt für Sicherheit

in der Informationstechnoloie (BSI)

ist per se daran gelegen, dass der deutsche

Mittelstand keinen Blindflug in die Cloud

macht. Mit dem im Mai fertiggestellten

Eckpunktepapier Cloud Computing [6]

will das BSI die Grundlage für die Zusammenarbeit

von Cloud-Anbietern und

-Anwendern schaffen. Unternehmen und

Behörden sollen damit auch Empfehlungen

zur Absicherung von Cloudservices

erarbeiten können.

Schnittstellen

Abbildung 1: Der Bitkom erwartet steigende Umsätze bei den Cloudanbietern durch Firmenkunden.

Abbildung 2: Andreas Weiss von Eurocloud sieht

freie Standards als Motor für die Cloud.

Dokumentierte Schnittstellen, das Verbleiben

der in die Cloud geschickten Daten

in eigenem Besitz und keine Hindernisse

beim Ausstieg aus dem Cloudbetrieb

rechnet Andreas Weiss (Abbildung 2) zu

den Basics: „Wenn erst bei Vertragsende

auffällt, dass für die Rückübertragung der

Daten einige Zehntausend Euro anfallen,

ist das für manche kleine Firma schon

existenzbedrohend.“

Dass bei diesen Fragen der eine oder

andere Mittelständler zurückzuckt, ist für

Weiss nachvollziehbar. Wer einen Service

betreibt, der laufen muss, der fühle sich

eventuell sicherer, wenn er bei Problemen

am Wochenende den eigenen Admin

alarmieren kann und nicht dem Servicevertrag

mit Dritten unterliegt.

Die auch durch das deutsche Recht bedingten

Fragen beim Cloud Computing

(siehe Strategien-Artikel auf Seite 30) rufen

auch Anbieter auf den Plan, die dafür

dem lokalen Markt gerecht werdende

Lösungen anbieten.

Deutsche Wolke

Die Deutsche Wolke [7] ist ein gemeinsames

Projekt von Unternehmen wie Boston

Server & Storage Solutions Group, Equinix,

Tarent, SEP und der Linux Solutions

Group (Lisog). Die Betreiber garantieren,

dass die Server der Cloud alle im Bundesgebiet

stehen sowie deutsche Datenschutzrichtlinien

und Gesetze befolgen.

Georg Klauser, Projektleiter bei Deutsche

Wolke (Abbildung 4) beschreibt die Situation:

„Viele Unternehmen setzen derzeit

auf Lösungen des amerikanischen Marktes

und des Auslands und gehen somit

teilweise hohe Risiken bei der Datensicherheit

und -verfügbarkeit ein.“

Es gelte jetzt, in Deutschland Umgebungen

in Form von Cloudinfrastruktur zu

schaffen, die die hierzulande geltenden

strengen Datenschutzrichtlinen, aber

auch Standortvorteile nutzen und umsetzen.

Für prädestiniert zum Einsatz in der

Cloud hält Klauser CRM, ERP, Groupware

und Filesharing-Anwendungen, DMS sowie

Archivierungslösungen.

Für Georg Klauser gilt das Vermeiden von

proprietären Schnittstellen und Technologien

als obligat. Die Deutsche Wolke

verspricht deshalb neben dem Standort

in Deutschland auch die Unterstützung

von offenern Standards und Schnittstellen

sowie den ausschließlichen Einsatz

von freier Software. Nicht zuletzt wirbt

die Wolke bei ihren Kunden mit deutsch-

Cloud-Empfehlungen 07/2011

Titelthema

www.linux-magazin.de

37


Titelthema

www.linux-magazin.de Cloud-Empfehlungen 07/2011

38

IST-Zustand (alles on-premise)

Proc 1 Proc 2 Proc 3

Dat 1 Dat 2 Dat 3

App 1 App 2 App 3

Platform 1 Platform 2

Prozesse

Daten

Applikationen

Plattformen

Zielbild (inkl. Cloud)

Proc 1 Proc 2 Proc 3

Dat 1 Dat 2 Dat 3

App 1 App 2 App 3

Platform 1 Platform 2

Srv 1 Srv 2 Srv 3

Infrastruktur

Srv 1 Srv 2 Srv 3

On-premise Mix Cloud

Abbildung 3: Mögliche Cloudstrategie nach Prüfung des Ist-Zustands. (Quelle: Bitkom)

sprachigen Ansprechpartnern in den daran

beteiligten Firmen.

Das Dokumentenmanagement-System

Agorum Core [8] soll als erste Anwendung

auf dem Cloudangebot Deutsche

Wolke laufen. Als zufriedenen Kunden

nennt der Anbieter die IT der Stadt

Schwäbisch Hall. Das Sync-Modul von

Agorum kümmert sich um das Replizieren

der Daten in der Cloud, wodurch

der Anbieter Datenverlust ausschließen

möchte.

Weisungsgemäß

Der Branchenverband Bitkom gibt in

seinen Strategie-Anweisungen [9] zu

bedenken, dass, wer die eigene Hardund

Software in den vergangenen Jahren

schon konsolidiert hat, diese Bemühungen

durch den Cloudeinstieg ad absurdum

führt. Wer in die Cloud will, sollte

Bilanz ziehen, was bestehende, eventuell

auszulagernden Prozesse, Daten, Anwendungen,

Plattformen und Infrastruktur

betrifft (Abbildung 3).

Auf der Kostenseite lauern weitere Unwägbarkeiten.

Kunden, die mit dem tatsächlichen

Bedarf skalierende Kosten als

Vorteil sehen, sind nicht unbedingt auf

dem günstigsten Weg. Besonders bei Services

zur Infrastruktur und zu Plattformen

sind die Kosten durch Komponenten

wie CPU, Speicher und Datenverkehr oft

deutlich komplexer als anfänglich vermutet.

Werkzeuge zum Monitoring und

Reporting können dabei helfen, Einsparpotenziale

zu erkennen.

Die weiteren Aussichten

Standards zählen nach übereinstimmender

Meinung der Experten zu den wichtigen

Themen beim Cloud Computing für

Unternehmen, und genau dort besteht

der größte Handlungsbedarf. Nur die

möglichst standardisierte Cloud öffnet die

wichtige Option eines Anbieterwechsels

ohne unkalkulierbare Migrationskosten.

Open-Source-Software habe dafür schon

wertvolle Beiträge geleistet, so Weiss,

etwa die bei der Virtualisierung eingesetzten

freien Lösungen.

Zusammenschlüsse wie die Deutsche

Wolke und das für Entwickler wichtige

Abbildung 4: Georg Klauser und die Deutsche Wolke

versprechen 100 Prozent Open-Source-Software.

Framework Openstack sowie die von

freier Software gesetzten Standards versprechen

ein solides Fundament auch für

Entwickler. Wer als Kunde darauf bauen

will, tut gut daran, die eigene Situation

zu analysieren. Ein schneller Sprung in

die Cloud, je nach Bedarf, ist dennoch

nicht ausgeschlossen. Angebote wie der

Open-Shift-Service [10] von Red Hat, der

verschiedene Entwicklerplattformen vorhält,

sind Beispiele dafür.

n

Infos

[1] Eurocloud: [http:// www. eurocloud. de]

[2] Eurocloud, SaaS-Audit:

[http:// www. saas-audit. de]

[3] Trusted Cloud:

[http:// www. trusted-cloud. de]

[4] Cloud Cycle:

[http://www.cloudcycle.org]

[5] Cloudsafe: [https:// secure. cloudsafe. com/

pages/ index. html]

[6] BSI-Eckpunktepapier:

[https://www.bsi.bund.de/DE/Themen/

CloudComputing/CloudComputing_node.

html]

[7] Deutsche Wolke:

[http:// www. deutsche-wolke. de/]

[8] Agorum: [http://www.agorum.com]

[9] Bitkom-Leitfaden:

[http:// www. bitkom. org/ files/ documents/

BITKOM_Leitfaden_Cloud_Computing-Was_

Entscheider_wissen_muessen. pdf]

[10] Open Shift:

[https:// www. redhat. com/ openshift/]


Der perfekte Auftritt

macht unseren Erfolg:

auf dem Laufsteg

und im Web.

Stefan Klos mit Model Janina

www.famepr.de

Erstellt mit dem PowerPlus-Paket

Stefan Klos

STRATO

Hosting

Für Anwender mit hohen Ansprüchen

Hosting PowerPlus L

statt

*

Ihre Website mit echten Profi-Features:

8 Domains und 5 GB Speicher inklusive

10 MySQL-Datenbanken und unlimited Traffic

Unterstützung von CMS (Joomla!, WordPress etc.)

Profi-Features: PHP, Perl, Python, Ruby u.v.m.

6 Monate für

Aktionsangebot nur

bis zum 30.06.2011

*

€/Mon.

Jetzt bestellen unter: s trato.de / hosting

Servicetelefon: 0 18 05 - 055 055

(0,14 €/Min. aus dem dt. Festnetz, Mobilfunk max. 0,42 €/Min.)

* 6 Monate 0 €/mtl., danach 14,90 €/mtl. Einrichtungsgebühr 14,90 €. Mindestvertragslaufzeit 12 Monate. Preis inkl. MwSt.


Titelthema

www.linux-magazin.de Cloud-HA 07/2011

40

Ausfallsicherheit in der Wolke

Zuverlässiger Antrieb

Wer seine virtuellen Infrastrukturen in der Wolke kreisen lässt, muss sich darauf verlassen, dass die Triebwerke

nicht versagen. Ob Public, Private oder Hybrid Cloud, es gibt immer Möglichkeiten, hohe Verfügbarkeit

zu erreichen – aber in den Details unterscheiden sich die Angebote doch sehr. Christian Baumann, André Nähring, Markus Feilner

© Michael Likavec, 123RF.com

Ostern 2011: Es kracht im Web: Weite

Teile von Amazons wichtigstem Cloudangebot,

die Webservices AWS, fallen

aus. Vor allem amerikanische Start-ups

trifft das hart, während Großunternehmen

scheinbar weniger Probleme mit der

Outage haben. Deren Admins hatten sich

offenbar mehr Gedanken über Verfügbarkeit,

Ausfallsicherheit und Failover-Konzepte

rund ums Cloudangebot des Marktführers

gemacht und auf leistungsfähige

Motore in den eigenen Wolken gesetzt.

Dieser Artikel zeigt, welche Möglichkeiten

Cloudanwender haben, mit Amazon,

VMware, Eucalyptus und Open Stack

ausfallsichere Wolken aufzubauen.

E Amazon Web Services

Seit 2006 bietet Amazon mit der Elastic

Compute Cloud (EC2) virtuelle Maschinen

als Service an [1], die Kunden

über die Weboberfläche (Abbildung 1)

oder das API erstellen und nutzen. Die

Abrechnung erfolgt anhand der Anzahl

und Zeit der genutzten Ressourcen, als

VM lädt der Benutzer entweder ein eigenes

Amazon Machine Image (AMI) hoch

oder verwendete eines aus dem Amazon-Marktplatz.

Die Authentifizierung

gegenüber dem API erfolgt per Public-

Key-Verfahren.

Die Instanzen erhalten neben einer öffentlichen

IP-Adresse auch eine private

IP, die nur innerhalb der EC2-Cloud erreichbar

ist. Security Groups definieren

den Zugriff von EC2-Instanzen untereinander

und von außen: So erlaubt der

Admin bei Webservern nur Port 80 oder

betreibt einen Host nur innerhalb der

EC2-Wolke.

Eine solche virtuelle Maschine ist allerdings

nicht persistent. Beim Beenden entfernt

der Hypervisor ihren Zustand und

instanziert die virtuelle Maschine beim

nächsten Start vom ursprünglichen Image

neu. Wer über das Herunterfahren hinaus

Daten persistent speichern will, dem

bleiben nur Amazons Storagedienste: der

Simple Storage Service (S3, [2]) oder der

Elastic Block Storage (EBS, [3]).

S3 ist ein Storagedienst, der Daten per API

annimmt, speichert und sie innerhalb der

VMs zur Verfügung stellt. S3 kennt aber

nur Objekte, die per API-Aufruf erreichbar

sind. Wer Daten im Betriebssystem

als Blockspeicher schreiben und dauerhaft

speichern will, nutzt den EBS.

Auch an die regionale Verteilung in Rechenzentren

ist gedacht: Amazon stellt

seine Ressourcen in Availability Zones

[4] zur Verfügung. Fünf über die Welt

verteilte Standorte (USA-West, USA-Ost,

Irland-Europa, Singapur, Tokio) sollen

Kunden Ausfallsicherheit gewährleisten.

Fällt eine Zone oder eine ganze Region

aus, ist nicht die gesamte Amazon-Infrastruktur

betroffen.

Für Redundanz und Verteilung der belegten

Ressourcen über Zonen und Regionen

hinweg sind aber die Kunden selbst verantwortlich

(vergleiche den Artikel zur

Cloudstrategie in dieser Ausgabe).

99,99 Prozent

Verfügbarkeit

Fürs Monitoring der Auslastung und das

automatische Skalieren bietet Amazon

Amazon Web Services

‚ Abrechnung nach Nutzung

‚ Autoskalierung

‚ Hohe Verfügbarkeitsgarantien

‚ Regionale Verteilung (Zones)

„ Vendor-Lock-in

„ Betriebskosten

„ Keine Private Cloud möglich


STRATO

Hosting

Für Anwender mit

hohen Ansprüchen

Abbildung 1: Die Managementkonsole der Elastic Compute Cloud von Amazon. Für persistente Systeme

braucht es hier ein Zusammenspiel mit Amazons Storagediensten S3 oder EBS.

mit Cloud Watch und Auto Scaling flexibel

konfigurierbare Dienste an, die im

Idealfall die Skalierung regelbasiert und

vollautomatisch übernehmen.

Das Angebot enthält neben den Grunddiensten

im IaaS-Bereich (Infrastucture

as a Service) eine wachsende Produktpalette,

die von Datenbanken über Monitoring-

und Netzwerk- bis hin zu E-

Commerce-Diensten reicht. Mit den von

Amazon bereitgestellten APIs lassen sich

auch eigene Lösungen mit der Amazon-

Cloud kombinieren.

Der Versandhändler sichert bei seinem

Angebot feste Verfügbarkeit der Dienste

zu, die Zahlen liegen hier zwischen 99,95

Prozent für EC2 und 99,99 Prozent für

S3. Viele Dienste wie EC2 und EBS sind

allerdings auf einzelne Availability Zones

beschränkt und bei einem Ausfall einer

kompletten Zone dennoch betroffen.

Dann helfen wirklich nur Cloud Watch

und Auto Scaling weiter.

Es ist mit genügend Planung durchaus

möglich, eine redundante, günstige und

performante Cloudinfrastruktur mit den

Amazon Web Services aufzubauen. Das

ändert aber nichts am Vendor-Lock-in:

Eine spätere Migration aus Amazon heraus

wird mit jedem genutzen Dienst

aufwändiger.

Kosten für Amazons Cloud

Die Grundkosten richten sich zunächst

nach dem Instanztyp, dabei unterscheidet

der Anbieter nach Linux oder Windows.

Der Preis der Amazon-EC2-VMs

berechnet sich nach deren Laufzeit. Das

fängt bei 8,5 US-Cent pro Stunde an und

reicht bei extremen Konfigurationen bis

zu 2,10 Dollar pro Stunde und VM.

Für EBS-Volumina fallen Kosten je nach

Speicherbelegung und Datendurchsatz

an. Pro GByte macht das 10 Cent, jeweils

eine Million I/ O-Zugriffe kosten ebenfalls

10 Cent. Im Objektspeicher S3 kosten

neben Speicherplatz und Durchsatz auch

die Zugriffe extra. Die Kosten sind gestaffelt

und beginnen bei 3,7 US-Cent pro

GByte Speichervolumen und 8 Cent pro

GByte Transfervolumen. Dazu addieren

sich die Zugriffskosten: 1 Cent pro 100

Requests wie »PUT«, »COPY«, »POST«

und 1 Cent pro 10 000 »GET«-Requests.

»DELETE«-Requests sind kostenfrei.

E VMware

VMwares Vsphere-Familie [5] gilt, spätestens

seit in Version 4 die lastabhängige

Migration von Maschinen Einzug hielt, als

erstes Cloud-Betriebssystem. Die Sphäre

schaltet dynamisch Hosts aus oder an

und verteilt die gesamte Last automatisch

nach Adminvorgaben auf mehrere

physische Maschinen. Gerade Admins in

Umgebungen mit stark schwankenden

Auslastungen schätzen dies.

VMware setzt mit ESXi voll auf den eigenen

Hypervisor, der in einer Basisversion

kostenfrei ist. Wer mehrere ESXi-Server

VMware

‚ Umfangreiche Erweiterungen

‚ 3rd-Party-Tools

‚ Automigration und Autoskalierung

‚ Fehlertoleranz mit Hot-Standby

‚ Hoher Verbreitungsgrad

„ Vendor-Lock-in

„ Anschaffungskosten

„ Features stark preisabhängig

„ Keine Public-Cloud-Anbindung

www.famepr.de

Erstellt mit dem PowerPlus-Paket

Hosting

PowerPlus L

6 Monate

für

Aktionsangebot nur

bis zum 30.06.2011

*

€/Mon.

Jetzt bestellen unter:

strato.de

Servicetelefon: 0 18 05 - 055 055

(0,14 €/Min. aus dem dt. Festnetz, Mobilfunk max. 0,42 €/Min.)

* 6 Monate 0 €/mtl., danach 14,90 €/mtl. Einrichtungsgebühr 14,90 €.

Mindestvertragslaufzeit 12 Monate. Preis inkl. MwSt.


Titelthema

www.linux-magazin.de Cloud-HA 07/2011

42

Abbildung 2: In VMwares Cloud Director steuert der Admin seine private Vsphere-Cloud.

Weil unter dem Vcloud Service Director

eine komplette Vsphere steckt, sind Lisinnvoll

betreiben will, braucht allerdings

eine Vcenter-Verwaltungsinstanz und

eine Oracle- oder MS-SQL-Datenbank.

Kunden bauen mit dem Vcenter große

virtuelle Infrastrukturen auf, inklusive

Netzwerk- und Storage-Management und

hohem Funktionsumfang.

Mit VMware gebaute virtuelle Maschinen

sind persistent. Sie erhalten ein Festplattenimage,

das erst beim Löschen der VM

entfernt wird. Nach dem Beenden einer

virtuellen Maschine bleibt diese erhalten,

bis der Admin sie löscht.

Die Authentifizierung an Vcenter erfolgt

entweder durch lokal gepflegte Benutzer

und Gruppen oder über die Verbindung

mit einer Windows-Domäne. Sollte der

Vcenter-Server ausfallen, funktionieren

die virtuellen Maschinen auf den ESXi-

Servern wie gewohnt weiter, nur lassen

sie sich nicht mehr zentral verwalten und

erweiterte Funktionen wie das lastabhängige

automatische Migrieren von Host zu

Host führt die Sphäre nicht mehr aus. Ein

Vcenter sollte daher immer redundant

vorhanden sein.

Vcloud

eine Testumgebung erhält so beispielsweise

eine niedrigere I/O-Priorisierung

als die Live-Umgebung, obwohl beide

auf demselben NFS-Share liegen. Dabei

arbeitet der Cloud Director (Abbildung

2) eine Ebene über dem Vcenter.

Erweiterte Funktionen, die die Vsphere-

Produkte von VMware beherrschen,

muss der Admin aber weiterhin im Vcenter

administrieren, so zum Beispiel das

HA-Feature, das VMs eines ausgefallenen

ESXi automatisch auf einem anderen

hochfährt und so Ausfallzeiten minimiert.

Die Verschachtelungen, die der

Vcloud Director anlegt, darf der Admin

dabei nicht modifizieren, sonst funktioniert

das Namen-basierte Mapping von

Vsphere zu Vcloud nicht mehr und muss

manuell gepflegt werden.

Erweiterungen und HA

Für Vsphere und für den Vcloud Director

sind einige Erweiterungen von VMware

selbst sowie von Partnern verfügbar.

So lässt sich das Vsphere-Netzwerk mit

virtuellen Cisco-Nexus-Switches in die

von Netzwerkadmins geschätzten Cisco-

Workflows einbinden. Alternativ geben

sie im Vcloud Request Manager Abläufe

und Regeln vor und prüfen Maschinenanfragen

im Webfrontend.

Hochverfügbarkeit virtueller Maschinen

lässt sich in VMware durch einen HA-

Verbund mehrerer ESXi-Hypervisoren

realisieren. Die ESXi-Maschinen überwachen

sich dann gegenseitig. Fällt eine

aus, fahren die gestoppten VMs auf den

restlichen ESXi-Maschinen automatisch

wieder hoch.

Zudem gibt es die Fault-Tolerance-Funktion,

bei der eine VM auf zwei ESXis

gleichzeitig läuft und den Arbeitsspeicher

fortlaufend zwischen beiden Hypervisoren

synchronisiert. Fällt der ESXi mit der

aktiven VM aus, übernimmt der andere

sofort die virtuellen Netzwerkinterfaces

und der Server ist ohne Datenverlust weiter

im Netzwerk verfügbar. Beide Funktionen

zählen aber nicht zum Umfang der

im Vcloud Service Director administrierbaren

Funktionen, der Admin muss sie

direkt in Vcenter konfigurieren.

Alles in allem ist VMware mit Vcloud

SD ein Werkzeug gelungen, das es Firmen

erlaubt, eine komplette interne

IaaS-Cloud aufzubauen und sehr einfach

via Selbstbedienung per Webfrontend

den Nutzern bereitzustellen. Historisch

basiert das Ganze auf der bekannten

Vsphe re-Infrastruktur [6] und ist somit

der einfachste Weg für Kunden, die bereits

VMware einsetzen und nun ihre

Infrastruktur stärker automatisieren und

teilweise oder vollständig in eine IaaS-

Wolke überführen möchten.

Kosten der Vcloud

Mit dem Produkt Vcloud Service Director

(Vcloud SD) hat VMware 2010 eine

Erweiterung vorgestellt, die es einem

Verbund aus ESXi-Servern und Vcenter

erlaubt, Ressourcen im Pool anzubieten.

Per Webfrontend erzeugt der Admin neue

Maschinen nach Vorlagen, bildet Pools

und pflegt Ressourcen wie IP-Pools oder

Storage-Medien ein und partitioniert

diese. Für die Pools kann der Admin verschiedene

Zugriffsprioritäten festlegen,

Abbildung 3: Hinter Ubuntus Enterprise Cloud steckt noch Eucalyptus. Ab 11.10 soll hier Open Stack werkeln.


zenzen für das ganze Backend erforderlich.

Der ESXi kostet pro CPU-Socket ab

etwa 1300 Euro in der kleinen Standard-

Variante mit weniger Features und über

4000 Euro für die Enterprise-Plus-Version

mit allen Features, etwa lastabhängiger

Migration und Distributed Vswitches für

Host-übergreifende Netzwerkadministration.

Dazu kommt mindestens eine

Instanz des Vcenter-Servers zur Verwaltung

in der Foundation-Version ab etwa

2000 Euro oder in der Standard-Version

ab (zirka 6000 Euro).

Der bringt dann aber schon Features wie

den Link Mode zum Betreiben mehrerer

geclusterter Vcenter-Server oder ein

Webfrontend für den Zugriff per Browser

mit. Dazu addieren sich knapp 4000 Euro

für jedes 25er-Pack VM-Lizenzen für die

Verwaltung per Vcloud SD [7].

Da in elastischen Cloudumgebungen Firmen

in der Regel recht dynamisch neue

Maschinen instanzieren und wieder

zerstören, zieht VMware für die Lizenzierung

des Vcloud Service Director die

Durchschnittszahlen der VMs über ein

Jahr heran. Zusätzlich zu den Kosten für

die Infrastruktur fallen allerdings noch

die Lizenzen für Clients sowie für eventuelle

Zusatzprodukte des Vcloud SD an.

E Eucalyptus

Die Cloudverwaltungs-Software Eucalyptus

unterliegt einem Open-Core-Lizenzmodell.

Neben einer Open-Source-

Version [8] gibt es Eucalyptus auch als

Enterprise-Variante [9], die die Möglichkeiten

der Open-Source-Version ergänzt.

Doch schon wer Unterstützung für I-SCSI,

SAN und NAS braucht, kommt nicht an

der kommerziellen Version vorbei. Die

Investition hält sich jedoch in Grenzen,

schon mit wenigen Tausend Euro (zirka

200 pro Core) lässt sich eine kleine Infrastruktur

aufbauen.

Eucalyptus

‚ Open-Source-Variante

‚ Xen- und KVM-Unterstützung

‚ Umfangreiche Eucatools

‚ Public, Hybrid und Private Cloud möglich

„ Vendor-Lock-in

„ Anschaffungskosten (Enterprise-Version )

„ I-SCSI, SAN, NAS nur in Enterprise-Version

„ Keine Autoskalierung

Abbildung 4: Am Dashboard von Open Stack verwaltet der Admin Images und Server.

Ursprünglich als Forschungsprojekt an

der University of California Santa Barbara

entwickelt [10], implementiert die

Software eine IaaS-Lösung zunächst als

private Cloud, deren API aber Amazonkompatibel

ist. Die erste offizielle Release

vom Mai 2008 besaß sogar nur ein EC2-

Interface, kurz danach kam Support für

S3, wenig später die Ubuntu-Integration

als Ubuntu Enterprise Cloud (Abbildung

3). Letztere macht Eucalyptus besonders

fürs eigene Rechenzentrum interessant,

Admins können Images für virtuelle Maschinen

erstellen und diese dann in der

eigenen Cloud nutzen.

Maßgeschneiderte Abbilder gibt’s auf

der Projektseite, als Hypervisor kommt

Xen oder KVM zum Einsatz, via Libvirt

angesprochen. Die Benutzerauthentifizierung

funktioniert auch hier mit einem

Public-Key-Verfahren, vorausgesetzt die

vom Projekt bereitgestellten Eucatools

sind installiert. Diese orientieren sich

stark an Amazons EC2-API-Tools. Auch

bei Eucalyptus kann der Admin Security

Groups erstellen, ganze Netzwerke beim

Starten einer virtuellen Maschine zuweisen

und Ports für den Zugriff von außen

freischalten.

Wie das große Vorbild speichert auch Eucalyptus

die Daten einer virtuellen Maschine

nicht persistent. Dafür bedarf es

eines Storagevolume, wozu wiederum ein

Amazons EBS ähnelndes Verfahren zum

Einsatz kommt. Immerhin erlaubt Eucalyptus

Volume-Snapshots, was Backups

deutlich vereinfacht. Auf den FAQ-Seiten

des Projekts findet sich auch eine Beschreibung

[11], wie Admins Eucalyptus

die Autoskalierung mit Linux-Werkzeugen

wie Sar und den Eucatools beibringen,

derzeit ist dazu aber noch eigene

Programmierarbeit notwendig.

Kostenpflichtiges Management der Eucalyptus-Cloud

gibt es von Rightscale

[12]. Eucalyptus besitzt von Haus aus

ein Clusterkonzept, um die Ressourcen

zu verteilen. Ähnlich wie bei Amazon

lassen sich die Ressourcen auch über

mehrere Verfügbarkeitszonen verteilen,

damit der Ausfall einer Location keinen

Schaden anrichtet.

E Open Stack

2010 taten sich der große amerikanische

Provider Rackspace und die Nasa zum

Open-Stack-Projekt [13] zusammen. Den

Releases Austin und Bexar folgte schon

im April 2011 die aktuelle Version Cactus

[14]. Da war die Mitgliederzahl bereits

auf knapp 50 Unternehmen angewachsen,

darunter auch Canonical.

Open Stack (Abbildung 4) besteht aus

mehreren Komponenten: Nova übernimmt

die Kontrolle der virtuellen Maschinen,

Swift stellt den Object-Storage

Open Stack

‚ Vollständige freie Lösung

‚ Keine Lizenzkosten

‚ Viele Hypervisoren

‚ Public, Hybrid und private Cloud möglich

„ Automigration nur im Eigenbau

„ Keine Autoskalierung

Cloud-HA 07/2011

Titelthema

www.linux-magazin.de

43


Titelthema

www.linux-magazin.de Cloud-HA 07/2011

44

Open Stack

Eucalyptus

Red Hat RHEV

Kamp Virtual Core

Amazon AWS

Andere Hoster, zum

Beispiel Rackspace

VMware Vcloud

Eigene Virtualisierung

bereit und Glance einen einfachen Dienst,

der Images für virtuelle Maschinen registriert.

Viel Freiheit hat der Nutzer bei der

Planung seiner Wolke: Als Hypervisoren

kommen Xen, KVM, Hyper-V, ESXi und

kommerzielle Xen-Server in Frage, aber

auch Amazons EC2 ist möglich.

Eigene Images, ein API (Zugriff ebenfalls

über Public Keys), die Eucatools und

Role-based Access Control (RBAC) für

Enduser gehören zum recht stattlichen

Funktionsumfang von Open Stack. So definiert

ein Admin unterschiedliche Rollen

pro Projekt, zum Beispiel darf nur ein der

Rolle »network-admins« angehörender

Benutzer die Netzwerkeinstellungen des

entsprechenden Projekts verwalten.

(Geplant, mit Cloud Forms, Open Shift und Delta API)

(Geplant, Q4/2011)

Public Hybrid Private

Abbildung 5: Nur Open Stack und Eucalyptus bieten die ganze Bandbreite von Public, Hybrid und Private

Cloud, bedienen sich dafür aber bei Amazon. HA-Vorbild VMware hat bei privaten Clouds die Nase vorn.

Außerdem unterstützt Open Stack (durch

das EC2-kompatible API) Quotas für Projekte.

Damit begrenzen Admins die Anzahl

der genutzten CPUs, virtuellen Maschinen,

der Floating IPs und Volumes.

Security Groups beschränken die Zugriffe

laufender Instanzen auf einzelne Ports.

Auch bei Open Stack sind gestartete Instanzen

nicht beständig, persistente Volumes

sind nötig. Die basieren aktuell auf

der I-SCSI-Implementierung, alternativ

sind auch SMB oder NFS möglich.

Die Hypervisoren KVM und Xen erlauben

Livemigrationen laufender Instanzen auf

andere Server, wobei die entsprechende

Unterstützung in Open Stack für Xen

aber noch aussteht. Auch klappt das nur

mit einem Shared Storage im Netz. Sowohl

für HA als auch fürs Backup ist der

Admin bei Open Stack selbst zuständig.

Letzteres gestaltet sich mit persistenten

Images recht einfach.

Aktuell gibt es keine Möglichkeit der

automatischen Skalierung virtueller Maschinen

in Open Stack. Vermutlich wird

Scalr [15] dies für Open Stack integrieren,

zumindest steht ein solcher Eintrag in

der Roadmap. Natürlich kann der Admin

auch im Eigenbau, unterstützt von Konfigurationsmanagements

wie Chef oder

Puppet, neue Nodes hinzufügen.

Da es sich bei Open Stack um eine vollständig

freie Implementierung handelt,

fallen keine Kosten für die Software an.

Lediglich die Nutzung externer Dienste

(Amazon) oder diverser Erweiterungen

(Scalr, Rightscale) verursacht Kosten.

Durch die freie Lizenz, gute Dokumentation

und eine kommunikationsfreudige

Community ist eine aktive Entwicklergemeinschaft

entstanden. Die einfache Bedienung

von Launchpad für den Sourcecode

macht die Teilnahme am Projekt

offenbar attraktiv.

Open Stack ist modular aufgebaut, setzt

auf bereits bestehende freie Komponenten

auf und erstreckt sich von der lokalen

bis zur Public Cloud. Die Gefahr eines

Vendor Lock-in scheint überschaubar.

Fazit

Die drei existierenden IaaS-Lösungen

decken eine denkbar große Bandbreite

ab. Abbildung 5 zeigt als Entscheidungs-

Alternativen: Red Hat, Deutsche Wolke und Kamp Virtual Core

Dass die Angst vor dem Vendor-

Lock-in eine Ursache für die Zurückhaltung

in Sachen Cloud ist,

hat auch Red Hat erkannt und arbeitet

hart an seinen Produkten.

Im Sommer 2011 wird RHEV 3 erwartet,

Open Shift, das Delta-API

und das scheinbar alles umfassende

Cloud Forms sollen helfen,

die eigenen Produkte zentral zu

platzieren [16].

Deutsche Alternativen

Gegen die Angst vor Rechtsunsicherheiten

mit ausländischen

Cloudanbietern treten mehr und

mehr Hersteller mit dediziert

Abbildung 6: Derzeit nur als Hosted-Edition erhältlich, soll die Eigenentwicklung Virtual

Core vom Hoster Kamp bald ein Open-Source-Projekt werden. Ende 2011 will der

Hersteller neben den abgebildeten Monitoring- auch HA-Funktionen bieten.

deutschen Standorten an.

Neben dem Projekt „Deutsche

Wolke“ [17] kommt dafür Ende

2011 auch die Open-Source-

Software Virtual Core des

Hosters Kamp auf den Markt

(Abbildung 6, [18]).

Hosted Cloud

Die Eigenentwicklung (einst

in Typo3 gestrickt) soll bald

Auto-Skalierung und -Migration

beherrschen, steht aber

derzeit nur mit vom Hoster

gemieteter Hardware (ab etwa

1400 Euro pro Monat und Rack)

zur Auswahl. (Markus Feilner)


hilfe, welches der vorgestellten Projekte

für welche Form des Cloud Computing

zum Einsatz kommen kann, im Kasten

„Alternativen“ findet sich ein Ausblick

auf drei kommende Produkte.

Für die private IaaS-Wolke ist meist die

bisher im Unternehmen genutzte Virtualisierungssoftware

entscheidend. Wer

bereits eine gewachsene VMware-Umgebung

betreut, wird vielleicht die Lizenzkosten

nicht scheuen, die für Vclou d anfallen.

Für einen nennenswerten Betrag

bekommt er dann ein Produkt, das vor

Die Autoren

Christian Baumann und Andre Nähring sind als

Linux- und Open-Source-Consultants und -Trainer

bei der B1 Systems GmbH tätig. Beide haben

langjährige Erfahrung mit der Administration und

Integration von Linux-Umgebungen. Ihre Stärken

liegen bei Projekten mit den Schwerpunkten

Virtualisierung, Hochverfügbarkeit und Cloud

Computing, zum Beispiel Open Stack.

allem in Sachen High Availability und

automatische Skalierung viel zu bieten

hat, deutlich mehr als die Konkurrenz

auf dem Markt.

Eine breite Installationsbasis erweist sich

als wichtig, wenn im Problemfall eine

möglichst große Entwicklergemeinde mit

Erfahrung und technischem Verständnis

helfen kann. Wer heute eine freie Lösung

sucht, kommt nicht an Open Stack

vorbei. Das Projekt ist sehr aktiv und

gewinnt mehr und mehr Unterstützer. n

Infos

[1] EC2: [http:// aws.amazon.com/de/ec2/]

[2] S3: [http:// aws.amazon.com/de/s3/]

[3] EBS: [http:// aws.amazon.com/ebs/]

[4] Amazon Zones: [http://docs.

amazonwebservices.com/AWSEC2/latest/

UserGuide/ index. html?FAQ_Regions_

Availability_Zones. html]

[5] Vsphere: [http://www.vmware.com/files/

de/pdf/vsphere_datasheet_de.pdf]

[6] C. Kühnast, M. Schynowski, M. Feilner

und N. Graf, „Wählerischer Platzhirsch“:

Linux-Magazin 08/ 10, S. 70

[7] Vsphere-Preise und -Lizenzen:

[http://www. vmware.com/de/products/

vsphere/buy/ overview.html]

[8] Eucalyptus: [http://www.eucalyptus.com]

[9] Eucalyptus Enterprise: [http://www.

eucalyptus. com/ products/eee]

[10] Tim Schürmann, „Pflanzenzucht im

Serverraum“: ADMIN-Magazin 03/ 10, S. 20

[11] Eucalyptus-Auto-Skalierung: [http:// open.

eucalyptus. com/ participate/ wiki/ autoscaling

-behalf-monitoring-virtual-machines]

[12] Rightscale: [http://www.rightscale.com]

[13] Open Stack: [http://www.openstack.org]

[14] S. Seyfried, C. Berendt, „Cactus im Anmarsch“:

Linux-Magazin 05/ 11, S. 72

[15] Scalr: [http://www.scalr.net]

[16] Red Hats Delta-Cloud-API:

[http://incubator. apache.org/deltacloud/]

[17] Deutsche Wolke:

[http://www. deutsche-wolke.de]

[18] Virtual Core: [http://www.virtual-core.de]

Cloud-HA 07/2011

Titelthema

www.linux-magazin.de

45

1. Lernen Sie!

Ja, ã training-on-the-jobÒ , oft praktiziert, aber nicht

Ÿ berzeugend. Denn die Kollegen haben nie Zeit

fŸ r echte ErklŠ rungen, au§ erdem werden ã NeueÒ

sofort von dem vereinnahmt, was im Unternehmen

schon seit Ewigkeiten tradiert wird. Warum gibt's

seit 2000 Jahren Schulen und UniversitŠ ten?

ã LERNENÒ ist eine vollwertige TŠ tigkeit, auf die

man sich konzentrieren mu§ , die man nicht 'mal

eben so nebenbei tun kann, und die immer auch

eine Prise ã ErneuerungÒ beinhalten sollte!

2. Ineffiziente Arbeit nicht akzeptieren!

Je spezialisierter Sie arbeiten, desto weniger

echte, fachliche Kollegen haben Sie in Ihrem eigenen

Unternehmen. Wir stellen deshalb Gruppen

zusammen, in denen Sie neben hilfsbereiten

Kollegen mit Š hnlichen Kenntnissen an IHREM

Projekt arbeiten. Und stŠ ndig ist ein fachlicher Berater

anwesend.

ã Guided CoworkingÒ nennen wir das, und es

kš nnte DIE Lš sung fŸ r so manches Projekt sein,

das in Ihrer Firma ã haktÒ .

3. Hintergrund

Wer den riesigen OpenSource-Baukasten schnell

beherrschen mu§ , geht zu einer unserer Ÿ ber 100

Schulungen. Wer das bereits kann, aber schneller

mit seinen Projekten vorankommen will, der

kommt mit seiner Arbeit zum Guided Coworking.

Wir sind eine der erfolgreichsten Schulungseinrichtungen

im gesamten Bereich ã OpenSourceÒ

- sowohl fŸ r Admins, als auch fŸ r Entwickler.

Siehe www.linuxhotel.de


Titelthema

www.linux-magazin.de Desktop-Cloud 07/2011

46

Cloud-Tools für den Desktop

In der Wolke zu Hause

Viele Dienste, für die früher typischerweise der heimische Desktoprechner unerlässlich war, lassen sich heute

in die Datenwolke auslagern: Vom Officepaket über die Unternehmenskommunikation bis zu Entwicklertools

und synchronisiertem Datenspeicher versprechen Hoster und OSS-Projekte, alle Wünsche zu erfüllen. Peter Kreußel

© Richard Nelson, 123RF.com

Die Cloud-Computing-Welle schwemmt

auch eine große Auswahl an Helfern zu

den Anwendern, die sie am Desktop

genauso nutzen können wie an jedem

anderen Ort, wo es Internet gibt. Wer

die richtigen Angebote kennt, spart sich

das Aufsetzen eines eigenen Servers und

arbeitet ab sofort online.

Problem Datenschutz

Das Konzept hat aber auch Haken: Da

die eigenen Daten auf der Cloud in einem

fremden Einflussbereich liegen, ist

vorab ein Studium der AGBs unverzichtbar.

Zum Beispiel behält es sich mancher

kostenlose Dienst vor, die Daten nach

längerer Inaktivität zu löschen. Anzuraten

ist es auch, abzuwägen, wie viel

Schaden ein Missbrauch schlimmstenfalls

anrichten könnte. Geht es um Daten mit

niedriger Geheimhaltungsstufe, spricht

nichts dagegen, die teilweise kostenlosen

Annehmlichkeiten der vielen wolkigen

Angebote zu nutzen.

Texte, Tabellen, Wellen:

Googles Wolken

Wenn Google Cloudsoftware vorstellt,

dann handelt es sich oft um innovative

Ajax-Webanwendungen, die bisher Desktop-Programmen

vorbehaltene Funktionen

übernehmen. Paradebeispiel dafür

ist Google Text und Tabellen [1].

Als das Unternehmen aus Mountain

View 2009 Wave vorstellte [2], schien

der Internetgigant möglichst viele Web-

2.0-Techniken in einer Anwendung kombinieren

zu wollen. Es gab persönliche

Profile und Kontakte wie bei Facebook

oder Myspace. Die primären Objekte in

Googles Dienst hießen schlicht „Waves“

und ließen sich als eine Art ad hoc er-

zeugter Foren beschreiben, zu denen

Nutzer aus der Kontaktliste neue Kommentare

hinzufügen.

Das Revolutionäre daran war die Verschmelzung

von Forum und Chatroom:

Öffnen zwei oder mehr Benutzer einen

Kommentar zum Editieren, erschien

der eingetippte Text in Echtzeit auf dem

Schirm aller anderen. Die Änderungen

ließen sich hinterher wie in einem Video

abspielen und kontrollieren. Texte formatierte

Waves ähnlich wie Google Text

und Tabellen. Widgets banden Karten,

Datei-Attachments und vieles mehr ein

(Abbildung 1).

Ob es daran lag, dass sich die wenigsten

gerne beim Tippen zusehen lassen,

oder ob Wave seine Nutzer mit zu vielen

Features überforderte: Der Dienst geriet

zum Flop, schon Ende 2010 war Schluss

mit der aktiven Entwicklung. Google hat

aber die Software mittlerweile als Open-

Source-Projekt freigegeben [3].

Vibe Cloud

Novell springt jetzt in die Bresche und

versucht dem Wave-Konzept neues Leben

einzuhauchen. Im April endete die

Betaphase der Vibe-Cloud-Plattform [4],

auf der Novell eine Waves-ähnliche Kollaborationsplattform

als Software as a

Service (SaaS) anbietet.

Es existieren ein kostenloses Basisangebot

und ein Abonnement für 84 Dollar

pro Jahr, das Gruppen mit mehr als acht

Mitgliedern erlaubt und das Speicherplatz-Limit

von 250 MByte auf 5 GByte

erhöht. Außerdem gibt es Support für die

kostenpflichtige Version. Als Zielgruppe

sieht Novell jedoch – anders als Google

– nicht mehr private Internetnutzer, sondern

Firmenkunden.


Planungs- und Brainstorming-Sessions

für Open-Source-Projekte sind ein Einsatzbereich

für Vibe, an den das gewinnorientierte

Novell wohl nicht gedacht

hat, den es aber mit seinem kostenlosen

Basisangebot ermöglicht. Anders als Führungskräften

finanzstarker Unternehmen

stehen diesen schließlich nur selten große

Plasmaschirme für Videokonferenzen zur

Verfügung.

Gerade im Vergleich mit dem guten alten

IRC bietet Vibe aber einige Vorteile: Es ist

ebenso interaktiv wie ein Chat, doch die

Software fixiert den Meinungsaustausch

ohne zusätzlichen Aufwand. Anders als

Chat-Mitschnitte, die hinterher niemand

gerne liest, transportiert es die Inhalte optisch

ansprechend und gut strukturiert.

Desktop-Cloud 07/2011

Titelthema

www.linux-magazin.de

47

Abbildung 1: Eine Web-2.0-Anwendung par excellence: Das inzwischen eingestellte Google Waves verknüpfte

eine Textverarbeitung mit der Interaktivität eines Chatrooms.

Novells Software übernimmt viele Features

aus Wave: Es handelt sich auch hier

um ein Echtzeitforum mit kollaborativ

editierbaren Einträgen. Wie bei Waves

existieren Widgets, die zum Beispiel Videos

oder Tabellen einbinden, jedoch

längst nicht so viele.

Ins Identity-Management

integriert

Eine wichtige Erweiterung gegenüber

Waves sind die Benutzergruppen (Abbildung

2), denen Anwender auf Einladung

beitreten. Ihrem Namen entsprechend bilden

sie Arbeitsgruppen im Unternehmen

ab, ein wohl typisches Novell-Feature.

Da wenige Mausklicks zur Einrichtung

genügen, taugen sie auch für kurzfristige

Treffen wie virtuellen Meetings und Konferenzen.

Vibe Cloud zeichnet außerdem

Messages mit Tags aus und bringt eine

leistungsfähige Suchfunktion. Eine »Big

List« genannte Übersichtsseite fasst Einträge

und Veränderungen aller abonnierten

Gruppen zusammen.

Ohne Zweifel ist Novell Vibe ein mächtiges

Werkzeug für die Kommunikation

und Dokumentation in Unternehmen.

Wer den Supportbereich [vibe.novell.

com] durchkämmt, stößt aber noch auf

etliche Ungereimtheiten. Doch diese

Startschwierigkeiten werden kaum den

Ausschlag für Erfolg oder Misserfolg des

Wave-Recast geben. Die Frage ist, wie viel

konkreten Nutzen eine Software einfährt,

die mit einer Fusion aus statischen Wikis

(Schriftlichkeit) und Videokonferenzen

(Echtzeit-Dynamik) eine Art Quadratur

des Kreises anstrebt.

Projekt Brainstorm

Wolkige Code-Schmieden

Vor der Jahrtausendwende gab es nur

eine bedeutende Software-Hostingplattform:

Sourceforge [5] stellte schon damals

CVS-Repositories kostenlos zur Verfügung.

Mit den Performanzproblemen

und über Monate nicht behobenen Bugs

in der Serversoftware mussten sich die

Benutzer zähneknirschend abfinden, wegen

fehlender Alternativen.

Heute herrscht auch in dieser Branche

kein Mangel an attraktiven Cloudangeboten.

Bei der Suche nach einer Hostingplattform

sind ganz am Anfang drei

Fragen zu klären: Welche Versionsverwaltung

soll zum Einsatz kommen? Kommen

Abbildung 2: Google Wave plus ordnende Rahmenfunktionen wie Gruppen und Tags: So lässt sich Novells

Cloud-Dienst Vibes in wenigen Worten umschreiben.


Titelthema

www.linux-magazin.de Desktop-Cloud 07/2011

48

Abbildung 3: Mit seiner Codereview-Funktion, die ausführliche, Wiki-formatierte Kommentare direkt in der

Quellcode-Ansicht ermöglicht, gibt sich Github sehr agil.

kostenpflichtige Angebote in Frage? Besteht

Bedarf für private, auf angemeldete

Nutzer beschränkte Repositories?

Für die breite Öffentlichkeit

Unter den vielen Hostingplattformen für

Git und Mercurial sind Github [6] und

Google Code [7] die bekanntesten und

mitgliederstärksten. Das ist ein handfester

Vorteil für alle, die eine Open-Source-

Software der Öffentlichkeit vorstellen

möchten.

Kostenlos gibt es auf Github unbeschränkt

viele öffentliche Repositories,

jedoch keine Privatsphäre. Fünf nicht öffentliche

Repositories, allerdings mit nur

einem einzigen Benutzeraccount, kosten

7 Dollar pro Monat, 20 Repositories und

zehn Accounts 22 Dollar. Bei den Business-Tarifen

sind grundsätzlich beliebig

viele Team-Mitglieder erlaubt. Die Preisspanne

reicht dabei von 25 Dollar pro

Monat für zehn private Repositories bis

zu 200 Dollar für 125.

Dafür bietet Github seinen Kunden leistungsfähige

Entwicklerwerkzeuge: ein

mit Git versioniertes Wiki, das mehrere

Markup-Sprachen beherrscht, sowie

einen Bugtracker, der ebenfalls Wiki-

Formatierungen zulässt. Die Wiki-Syntax

erlaubt eine Verlinkung von Wiki,

Bug tracker und Coderepository und beherrscht

Syntax Highlighting für viele

Programmiersprachen.

Anhängern der agilen Programmierung

wird die Codereview-Funktion gefallen,

die ebenfalls Wiki-Formatierungen und

-Links kennt (Abbildung 3). Die Versi-

onsverwaltung ist dem Namen des Dienstes

entsprechend auf Git beschränkt. Als

kleinen Bonus legt Github eine Textschnipsel-Verwaltung

obendrauf, die

anders als das bekannte Pastebin [8]

werbefrei und mit Versionshistorie und

Kommentarfunktion ausgestattet ist.

Open Source ist Pflicht

Wer lieber Mercurial einsetzt, findet in

Google Code eine Plattform mit ähnlichem

Leistungsumfang: Es gibt ein

Wiki, einen Bugtracker und ebenfalls

eine Code review-Funktion. Besonders

gut umgesetzt bei Google Code ist das

Editieren direkt in der Quellcode-Ansicht

(Abbildung 4). Den Komfort einer IDE

darf der Anwender von der Webanwendung

allerdings nicht erwarten, doch es

gibt immerhin ein gut funktionierendes

Syntax Highlighting.

Nimmt ein Benutzer ohne Schreibrechte

im Repository Änderungen vor, so landen

diese als Patch im Ticketsystem. Die Edit-

Funktion dient also in erster Linie als

Ersatz für die Pull-Requests, die auf verteilten

Versionskontrollsystemen wie Git

oder Mercurial spezialisierte Plattformen

anbieten. Projekte auf Google Code sind

stets für alle Internetbesucher sichtbar

und lesbar. Google verlangt außerdem

explizit eine Open-Source-Lizenzierung

für alle gehosteten Projekte.

Manchen mögen’s privat

Die beiden Softwarehoster Gitorius (Abbildung

5, [9]) und Bitbucket (Abbildung

6, [10]) können beim Leistungsumfang

der Plattform mit den beiden

Großen nicht ganz mithalten: Gitorius

bietet Entwicklern lediglich ein Wiki und

öffentliche Git-Repositories samt Sourcecode-Browser.

Dafür steht die Gitorius-

Software selbst unter der AGPL 3.

Anleitungen für die Installation unter Red

Hat, Gentoo, Debian und Ubuntu stehen

Abbildung 4: Keine vollwertige IDE, aber praktisch für unterwegs: Google-Code-Nutzer editieren Quellcode

direkt im Webfrontend.


Abbildung 5: Gitorius und Bitbucket können beim Leistungsumfang nicht mit

Github und Google mithalten. Dafür ist die Gitorius-Software quelloffen.

bereit [11]. Bitbucket bietet kostenlose,

nicht öffentliche Mercurial-Repositories

für bis zu fünf Anwender an. Bei Open-

Source-Projekten fällt die Beschränkung

der Anwenderzahl weg.

Ein Upgrade auf zehn User kostet 10

Dollar pro Monat, für 80 Dollar gibt es

private Repositories für beliebig viele

Anwender. Besonders positiv: Bereits für

die kostenlosen Angebote gelten auf Bitbucket.org

keine Speicherplatzbeschränkungen

mehr.

Es gibt einen leistungsfähigen Bugtracker,

ein Wiki und einen Quellcode-Browser,

der auch die Revsionshistorie grafisch

aufbereitet. Erwähnenswert ist noch, dass

Bitbucket die von vielen Usern geschätzte

Mercurial Patch Queue unterstützt.

Online-Speicherplatz für

jeden Desktop

frei Haus mitliefert.

Besser als Vertrauen

ist bei Online-Speicherplatz

stets eine

Verschlüsselung mit

Truecrypt [15] oder

Encfs [16].

Da beide mit Dateien

auf nahezu beliebigen

Dateisystemen

zurechtkommen

[17], funktionieren

sie auch mit

allen Onlinestorage-

Diensten. Doch bergen

Auswahl und

Konfiguration der

Cryptosoftware einige

Tücken: Die

Rechner ohne Truecrypt-Software

und

vor allem das von

den Diensten angebotene

Webfrontend bleiben draußen –

aus dem Internetcafé wird’s schwierig.

Strato Hidrive

Anders als Dropbox und Ubuntu One

gibt es bei Strato Hidrive [12] keinen

kostenlosen Basistarif. Bereits 20 GByte

schlagen mit monatlich 2 Euro zu Buche.

100 GByte kosten knapp 5 Euro, 500

GByte um die 10 Euro. Das Maximum

liegt derzeit bei 5 TByte für rund 150

Euro pro Monat. Einsteiger können das

Angebot 30 Tage lang kostenlos ausprobieren.

Wer sich gegen die weitere Nutzung

entscheidet, sollte die rechtzeitige

Kündigung nicht verpassen.

Dafür bietet Strato als einziger Anbieter

Netzlaufwerke, die ohne proprietäre Software

über Samba/ CIFS, SSH, Webdav

oder Rsync erreichbar sind (Abbildung

7). Samba-Verbindungen für den Zugriff

vom Windows-Rechner darf der Nutzer

über Open VPN absichern. SSH-Verbindungen,

etwa für per Cron angestoßene

Synchronisierungen, kann er mit einer

Schlüsseldatei sichern.

Zugriffe über FTP oder ungetunnelte

Samba-Verbindungen sind möglich, lassen

sich aber für bessere Sicherheit im

Web-basierten Kontrollzentrum deaktivieren.

Einen Browser-basierten Dateimanager

für den Notfall gibt es ebenfalls.

Hier kann der Nutzer auch öffentliche

Download-Links erzeugen, die für einige

Tage öffentlichen Zugang auf einzelne

Dateien gewähren. Einmal gültige Upload-Links

für Dateien bis 2 TByte große

Dateien sind ebenfalls möglich.

Für Datensicherheit sorgen in konfigurierbaren

Zeitabständen oder manuell

angestoßene Backups. Im Webfrontend

kann der Anwender einzelne Dateien

zurückspielen. Bereits die 20-GByte-

Basisversion bietet damit sechs Wochen

lang Sicherheit vor unabsichtlichem

Überschreiben. Bei der 30 Euro teuren

2-TByte-Variante hält der Anbieter Backups

18 Monate vor.

Desktop-Cloud 07/2011

Titelthema

www.linux-magazin.de

49

Wer viel unterwegs ist, vergisst es schnell

mal, eine auf der Reise benötigte Datei

aufs Notebook zu kopieren. Praktischer

ist es daher, die Dateien gleich auf einem

Cloudstorage zu speichern.

Weltweiten Zugriff auf Dateien bieten die

Clouddienste Strato Hidrive [12], der unter

Linux, Mac OS X und Windows ohne

proprietäre Software nutzbar ist, Dropbox

[13], das bis zu 2 GByte Plattenplatz

kostenlos bereitstellt, sowie Ubuntu One

[14], dessen maximal 2 GByte Ubuntu

Abbildung 6: Bitbucket gewährt kostenlos nicht öffentliche Repositories.


Titelthema

www.linux-magazin.de Desktop-Cloud 07/2011

50

Abbildung 7: So sollte Onlinestorage für Linux aussehen: Per SSH gelingt der Zugriff auf Strato Hidrive mit

den gängigen Dateimanagern oder der Konsole ganz ohne Installation oder Einrichtung.

bildung 8). Zumindest Gnome-Anwender

werden an der Dropbox-Software wenig

auszusetzen haben. Der Dienst lief im

Test zuverlässig und fordert vom Nutzer

keine Aufmerksamkeit. Mehr Details zu

Bedienung und Features von Dropbox

enthält [18]. Für Rechner ohne installierte

Dropbox-Software gibt es einen

komfortablen Ajax-Client, der auch die

Freigabe der Dateien regelt.

Dropbox bietet einen kostenlosen Basisaccount

mit 2 GByte Speicherplatz an.

Upgrades auf 50 GByte kosten knapp 10

Euro pro Monat, 100 GByte 20 Euro. Wie

jeder Synchronisationsdienst spart Dropbox

in keinem Fall Festplattenplatz ein,

da die Daten immer auch auf der lokalen

Festplatte liegen.

Problemfall Sicherheit

Strato behält sich ausdrücklich die Kündigung

bei glaubhaft geltend gemachten

Rechtsverletzungen oder Zahlungsverzug

vor. Die Haftung schränkt der Dienstleister

auf die Gebühren zweier Jahre ein.

Strato wirbt mit eigenen Rechenzentren

in Deutschland und ist damit nicht wie

das Gros der Onlinestorage-Dienste von

Amazon abhängig.

Dropbox

Voraussetzung für die Nutzung von Dropbox

[13] ist – anders als bei Hidrive – die

Installation der für Linux, Mac OS X und

Windows sowie Android, I-OS und Blackberry

verfügbaren Software. Ubuntu ab

7.10 und Fedora ab 9 versorgt Dropbox

mit Paketen, Anwender anderer Distributionen

müssen die Software aus den

Quellen kompilieren. Auch für Android-,

iPhone- oder Blackberry-Anwender ist

gesorgt. Die Nautilus-Integration ist

quelloffen, nicht jedoch der eigentliche

Sync-Daemon.

Der Gnome-Dateimanager Nautilus zeigt

nach der Installation den Synchronisationsstatus

für Dateien und Folder an (Ab-

Der Sicherheitsexperte Derek Newton

kritisiert, dass Dropbox nur beim ersten

Login nach dem Passwort fragt [19].

Nach seiner Analyse basiert die Authentifizierung

allein auf einem Hash in einer

unverschlüsselten SQLite-Datei, der

wie ein SSH-Schlüssel ohne Passphrase

unbeschränkten Zugang zum Dropbox-

Account gewährt (Abbildung 9).

Unter Linux bestätigte ein Test: Das Kopieren

von ».dropbox/config.db« genügt,

um den Zugriff von einem weiteren Rechner

aus freizuschalten. Dass ein für die

Nutzung auf mobilen Geräten prädesti-

Abbildung 8: Für Gnome-Anwender optimal: Die Dropbox-Software gleicht den

»Dropbox«-Folder im Homeverzeichnis automatisch mit dem Server ab und

zeigt in Nautilus den Synchronisationsstatus für Dateien und Ordner an.

Abbildung 9: Unnötig unsicher: Der Dropbox-Client authentifiziert sich nach dem

Aufbau einer Geräteverknüpfung nur noch mit einem Hash aus einer von Gerät zu

Gerät übertragbaren SQLite-Datenbank und fragt nie mehr nach dem Passwort.


nierter Dienst dem Anwender keine Möglichkeit

bietet, den Zugriff durch regelmäßige

Passwortabfrage einzuschränken, ist

für sicherheitsbewusste Anwender nicht

akzeptabel.

Bleibt noch ein Blick in die AGBs: Nutzer

der kostenlosen, auf 2 GByte beschränkten

Variante müssen demnach

berücksichtigen, dass sich Dropbox die

Löschung der Daten nach 90 Tagen Inaktivität

ohne Ankündigung vorbehält.

Die Haftung bei freien Accounts ist auf

20 Dollar beschränkt. Die Firma Dropbox

hat ihren Sitz in San Francisco, unterliegt

also der amerikanischen Rechtspraxis.

Desktop-Cloud 07/2011

Titelthema

www.linux-magazin.de

51

Ubuntu One

Wie Dropbox bietet auch Ubuntu One

2 GByte freien Plattenplatz, den es ebenfalls

mit Hilfe eines Hintergrund-Daemon

mit lokalen Geräten synchronisiert (Abbildung

10). Leider erweist sich Ubuntus

Dienst in der Praxis als sehr unzuverlässig:

So schläft der Sync-Daemon oft

ein, bevor die Arbeit getan ist (vergleiche

[18]). Gelegentlich legen Serverupgrades

Teile des Dienstes lahm.

Punkte sammelt Ubuntu One mit der Synchronisation

von Evolution-Kontakten

und Firefox-Bookmarks sowie der Tomboy-Notizen.

Ein attraktives Gesamtpaket,

das allerdings auf Gnome-Software

beschränkt bleibt. Beliebig summierbare

20-GByte-Upgrades kosten je 3 Dollar im

Monat. Für Android-Geräte und iPhones

gibt es für knapp 4 Dollar eine Streamingfunktion

für Musikdateien, gekoppelt mit

dem Ubuntu Music Store.

Unzuverlässige

Synchronisation

Auch die enthaltene Synchronisation der

mobilen Kontakte funktionierte im Test

unter Ubuntu 10.10 nicht zufriedenstellend:

Das Löschen von Kontakten in Evolution

schlug fehl, und es dauerte rund 30

Minuten, bis ein angelegter Kontakt im

Webfrontend auftauchte. Das ist für nur

zeitweise mit dem Internet verbundene

Mobilgeräte viel zu langsam, zumal es

keinerlei Feedback über den Synchronisationsstatus

gibt. Schade, denn Ubuntu-

Nutzer würden offizielle Pakete einer

quelloffenen Software sicherlich der proprietären

Dropbox-Lösung vorziehen.

Abbildung 10: Ubuntu One schnürt mit der Datei-, Kontakt- und Tomboy-Notes-Synchronisation ein vom

Umfang her attraktives Paket. Leider hakt es in der Praxis noch immer an mehreren Stellen, obwohl der

Dienst seit Ubuntu 9.10 offiziell als stabil gilt.

Wie Dropbox behält sich Canonical bei

freien Accounts die Datenlöschung nach

90 Tagen Inaktivität vor, verspricht jedoch

wenigstens vorher per E-Mail darüber

zu informieren. Die Firma gewährt

keinerlei Haftung für die in der Cloud

gespeicherten Daten.

Wolkenteppich

Strato Hidrive [12] unterstützt eine breite

Palette nativer Linux-Technologien für

den Datentausch, zum Beispiel SSH

und Rsync, und ist außerdem bei großem

Platzbedarf bis 5 TByte günstig. Ein

zuverlässiges, kostenloses Basisangebot

bietet Dropbox [13]. Manko für den Einsatz

auf Mobilgeräten ist aber, dass sich

der Loginschlüssel nicht durch eine Passphrase

schützen lässt.

Die Angebote von Github [6] und Google

Code [7] glänzen dagegen mit leistungsfähigen

agilen Online-Entwicklungsplattformen

für Git- oder Mercurial-Anwender.

Gitorius [9] gibt seine Plattformsoftware

unter der GPL frei, Bitbucket [10] bietet

bereits im kostenlosen Basisaccount private

Repositories.

Ob sich die Kommunikationsplattform

Novell Vibe [4] im Firmenumfeld durchsetzen

kann, bleibt abzuwarten. Gerade

weil sie viele innovative Features kombiniert,

schreckt sie möglicherweise wie

ihr Vorgänger Google Waves viele potenzielle

Anwender ab. Die Anwendung mit

dem kostenlosen Basisaccount einfach

einmal auszuprobieren dürfte aber allen

an Ajax-Technologien Interessierten Spaß

machen. (mfe)

n

Infos

[1] Google Text und Tabellen: [http:// www.

google. com/ google‐d‐s/ intl/ de/ tour1. html]

[2] Google Wave: [http:// wave. google. com]

[3] Apache Wave:

[http:// incubator. apache. org/ wave/]

[4] Novell Vibe Cloud: [http:// www. novell.

com/ products/ vibe‐cloud/]

[5] Sourceforge: [http:// sourceforge. net]

[6] Github: [https:// github. com]

[7] Google Code: [http:// code. google. com ]

[8] Pastebin: [http:// pastebin. com]

[9] Gitorius: [https:// gitorious. org]

[10] Bitbucket: [https:// bitbucket. org]

[11] Installation der Gitorius‐Software:

[https:// gitorious. org/ gitorious/ pages/

Installation]

[12] Strato Hidrive:

[http:// www. strato. de/ online‐speicher/]

[13] Dropbox: [https:// www. dropbox. com]

[14] Ubuntu One: [https:// one. ubuntu. com]

[15] Truecrypt: [http:// www. truecrypt. org]

[16] Encfs: [http:// www. admin‐magazin. de/

content/ verschluesselte‐dateien‐mit‐encfs]

[17] Markus Feilner, Norbert Graf, „Sicher weggeschlossen“:

LinuxMagazin 06/ 11, S. 50

[18] Mela Eckenfels, Heike Jurzik, „Magic

Discs“: LinuxMagazin 03/ 2011, S. 56

[19] Kritik an der Dropbox‐Sicherheit:

[http:// dereknewton. com/ 2011/ 04/ dropbox

‐authentication‐static‐host‐ids/]


Admin-mAGAZin

im JAhres-Abo

Jede Ausgabe des Admin-Magazins bietet praktisch anwendbares Wissen

von ausgewiesenen Experten und ausführliche Hintergrundberichte für alle

Systemverwalter von Linux, Unix und Windows. Die Schwerpunkte reichen von

Storage und Backup bis hin zu Netzwerk-Themen und Security.

Ein Sonderteil hilft Admins heterogener Welten.

JetZt Auch

als pdF und/oder

als online-Archiv

erhältlich!

(ohne Prämie)

mehr inFormAtionen unter

www.Admin-mAGAZin.de

sichern sie sich ihren

GrAtis crypto-key!

15 % sparen

Jetz bestellen unter:

www.admin-magazin.de/abo

• Telefon 07131 / 2707 274 • Fax 07131 / 2707 78 601 • E-Mail: abo@admin-magazin.de

Mit dem Jahres-Abo erhalten Sie 6 Ausgaben des Admin-Magazins zum Vorzugspreis

von E 49,90 * statt E 58,80 * (Lieferung frei Haus).

* Preise gelten für Deutschland. Schweiz: SFr 99,90; Österreich: E 54,90; anderes Europa: E 59,90

Abovorteile

• Preisvorteil gegenüber Kioskkauf

• kostenlose & sichere Zustellung

• Zustellung vor dem offiziellen

Verkaufstermin


In eigener Sache: DELUG-DVD

Backtrack, E-Book und Videos

Einführung 12/2010 07/2011

Software

In diesem Monat bekommen die DELUG-Käufer eine randvolle DVD: Als virtuelle Appliance finden sie Version

2.0 der No-SQL-Datenbank Graph DB, von der DVD bootet die Security-Distribution Backtrack. Dazu gibt’s gratis

ein E-Book von O’Reilly über sichere Linux-Server, Re:publica-Videos und jede Menge Software. Markus Feilner

www.linux-magazin.de

53

Inhalt

54 Ubuntu 11.04

Was bringt die neueste Ausgabe mit dem

Unity‐Desktop?

58 Bitparade

Profi‐Tools für Autoren: Celtx, Scrivener,

Storybook und Writer’s Café.

66 Simple Defects

Der verteilte Bugtracker erledigt für

Bugs das, was Git für den Programmiercode

macht.

68 Tooltipps

Agentsmith, CVE Checker, Duff, HDT,

Movgrab und Treeline.

Neben einem normalen Linux-Magazin

ohne Datenträger gibt es die DELUG-

Ausgabe mit Monats-DVD, bei der die

Redaktion den Silberling mit einem speziellen

Konzept zusammenstellt: In einer

Art modularem System enthält er Programme

und Tools, die in der jeweiligen

Magazin-Ausgabe getestet und besprochen

sind. Zudem gibt es nicht im Heft

abgehandelte Software, die die Redaktion

besonders empfiehlt, alles gebündelt unter

einer HTML-Oberfläche.

Backtrack 5.0

Wer die DVD bootet, landet schnurstracks

auf dem Desktop der Version 5.0 der

Backtrack-Distribution. Die Entwickler

des Pen-Testing-Linux [1] haben für ihre

neueste Ausgabe einiges an aktueller

Software integriert: Das Security-Framework

Metasploit 3.7, Armitage, ein Stealth

Mode und eine komplette Überarbeitung

der grafischen Oberfläche stehen jetzt

bereit. Backtrack 5.0 basiert auf Ubuntu

LTS und startet mit Kernel 2.6.38.

Sones Graph DB 2.0

Ein Punkt im HTML-Menü der eingelegten

DVD führt direkt zur virtuellen

Appliance mit der No-SQL-Datenbank

Graph DB aus dem Hause Sones. Wer

sich ein Bild über die Stärken der nicht-

relationalen Datenbank machen will, ist

hier richtig: Graph DB gestattet mehrere

Abfragesprachen gleichzeitig und bringt

vor allem in Web-2.0-Szenarien laut Herstellerangaben

bis zu 10 000-mal höhere

Performance als vergleichbare klassische

Datenbanken.

Re:publica-Videos, O’Reilly

E-Book, Software

Neben den vielen Tools aus der Bitparade

und den Tooltipps findet sich auf der

DVD auch ein komplettes E-Book vom

O’Reilly-Verlag: „Linux Server-Sicherheit“

von Michael Bauer (Abbildung 1). Dazu

Videos von der Blogger-Messe Re:publica

mit Daniel Domscheit-Berg (Abbildung

2), Sascha Lobo, Mitchell Baker und

Gunter Dueck. Admins, denen das immer

noch nicht reicht, brennen sich die

Installations-CD aus dem ISO-Image von

Ubuntu 11.04 Server auf der DVD. n

[1] Backtrack: [http:// www. backtrack‐linux. org]

Abbildung 1: Auf der DELUG-DVD: Michael Bauers

Standardwerk zur Serversicherheit.

Abbildung 2: Daniel Domscheit-Berg beim Vortrag über Openleaks. Auf der DVD als Video von der Re:publica.


Software

www.linux-magazin.de Ubuntu 11.04 07/2011

54

Ubuntu 11.04 mit Unity

Griff nach den Sternen

Mark Shuttleworth hat eine Vision: 200 Millionen Nutzer sollen binnen vier Jahren Ubuntu einsetzen. Ausgabe

11.04 mit dem eigenwilligen Unity-Desktop gilt als Startschuss für die ambitionierte Akquise. Der Entwicklergemeinschaft

verordnet er Disziplin. Kristian Kißling, Ulrich Bantle

tanz, dass gestandene Fachleute Entscheidungen

fällen. Ubuntu sei kein Spielplatz,

schickt der Südafrikaner hinterher.

© Igor Goncharenko, 123RF.com

Ubuntu-Gründer Mark Shuttleworth will

bei der Entwicklung freier Software nicht

länger nur auf innere architektonische

Werte und Leistungsfähigkeit setzen,

sondern den Nutzer mit Usability und

Design ködern [1]. Immerhin bedarf es

auch einer schwer zu beziffernden Schar

von weit über 100 Millionen Windows-

Wechslern, um die 200 Millionen vollzumachen.

Fundierte Usability-Tests, ein offenes Ohr

für Nutzerfeedback und besonders ein

diszipliniertes Design bestimmen das

von Shuttleworth als zukunftsfähig betrachtete

Entwicklungsmodell. Der Einsatz

des sichtbaren Elements der neuen

Linie, des Unity-Desktops, der Konvergenz

verspricht, und die Tauglichkeit in

diversen Geräteklassen von Tablet über

Netbook bis Workstation zeichnen ihn

als mutigen Strategen aus. Als Mann der

Community eher weniger. Mit der Abfuhr

für die Gnome-Shell zugunsten des Eigengewächses

Unity hat er wohl die meisten

Gnome-Entwickler vergrätzt.

Beim Ubuntu Developer Summit in Budapest

bedankte sich Shuttleworth deshalb

kurz nach den Start von Ubuntu 11.04

nach allen Entwickler-Seiten hin, aber

nicht ohne in seiner Keynote [2] sein Regelwerk

für den Griff

nach den Sternen noch

einmal in die Köpfe

einzubrennen.

Der Fokus liege klar

auf dem Benutzer, so

Shuttleworth. Beteiligung

sei erwünscht,

aber nur von Leuten,

die den Canonical-/

Ubuntu-Codex schätzen.

Kompetente Entscheidungen

zählen

dazu und die Akzep-

Rückfall

Mit Anleihen von Windows hier und

Apples Mac OS X dort und der ungebremsten

Schaffenskraft der Community

befährt Ubuntu 11.04 neue Gewässer –

mit Gnome und einer Unity-2-D-Version

als Rettungsanker an Bord. Die Rückzugsmöglichkeit

– wie Unity selbst – basiert

übrigens auf Gnome 2.32, weil es nicht

ohne Weiteres möglich war, Gnomes

Unterbau vom Desktop zu trennen. Von

Unity zum klassischen Gnome-Desktop

führt der Weg über die Abmeldung vom

Desktop und die Auswahl von Gnome

im Login-Manager. Erst in der nächsten

Ubuntu-Version soll Gnome 3 folgen,

dann aber ohne die grafische Oberfläche

Gnome Shell.

Wer einen unverfänglichen Eindruck von

Gnome 3 unter Natty Narwhal bekommen

will, findet in Virtualbox 4.0.8 [3]

einen Helfer, der die anfänglichen 3-D-

Holperer inzwischen in den Griff bekommen

hat. Das Gnome-Team stellt Pakete

Abbildung 1: Im grünen Bereich: Das Programm »/usr/lib/nux/unity_support

_test ‐p« gibt aus, ob Unity lauffähig ist.


Abbildung 2: Im Compizconfig Settings Manager ist die Größenänderung der

Icons eine nützliche Einstellungssache.

bereit, mit denen sich Gnome 3 unter

Ubuntu 11.04 virtualisiert testen lässt,

wohlgemerkt nur Ubuntu 11.04.

Zu den aus Zeitmangel verbliebenen Baustellen

zählt das Multitouch-Framework,

das noch nicht auf dem geplanten Stand

ist. Im X-Server, der in Ubuntu 11.04 in

Version 1.10 vorliegt, gibt es jedoch rudimentäre

Unterstützung für die X-Erweiterung

Xinput 2.1.

Harte Zeiten

Unity setzt zum reibungslosen Betrieb

eine funktionierende 3-D-Beschleunigung

voraus und läuft den von den Entwicklern

formulierten Hardware-Anforderungen

[4] gemäß auf Rechnern, die ATIoder

Nvidia-Grafikkarten aus den letzten

fünf Jahren verwenden. Bei integrierten

Grafikchips von Intel (ab GMA 950) gilt

grob das gleiche Verfallsdatum. Open GL

1.4 oder höher ist Pflicht.

Als Live-CD eingesetzt prüft Natty, ob

ein System die Unity-Anforderungen erfüllt.

Dazu ruft Ubuntu 11.04 schon beim

Booten das Hilfsprogramm »/usr/lib/

nux/unity_support_test -p« auf, und der

Nutzer landet – abhängig vom Ergebnis

– auf dem passenden Desktop. Das Skript

erleuchtet auch Anwender, die Ubuntu

11.04 auf dem Desktoprechner installiert

haben, wie es mit der Unterstützung aussieht

(Abbildung 1).

Mit dem Ziel, Unity künftig mit Features

von Open GL 2.0 aufzuhübschen, gerät

die Frage nach passenden Treibern in den

akuten Bereich. Für die anvisierten Umsteiger

gilt es bei diesem Thema, Hand

anzulegen oder über das verstärkte Angebot

von proprietären Treibern mit

Open-Source-Prinzipien zu brechen.

Viele Windows-Nutzer

sind sowieso

ohne größeres Murren

mit zum Neukauf

zwingenden Hardware-Anforderungen

vertraut, leben aber

im Treiber-Schlaraffenland.

Antriebsfrage

Damit die 3-D-Beschleunigung

klappt

und Unity läuft, nennen

die Ubuntu-Entwickler für AMD-/

ATI-Grafiklösungen die Fglrx-Treiber als

passende Lösung (Abbildung 3). Einige

Features wie das Kernel Mode Setting

funktionieren damit aber noch nicht. Der

Open-Source-Radeon-Treiber sei ungeeignet,

Unity unterliege damit ernsthaften

Rendering-Problemen. Bei Nvidia-Karten

halten die Entwickler den proprietären

Herstellertreiber für ebenso tauglich wie

die Nouveau-Treiber. Für Intel-GPUs ist

der freie Intel-Treiber erste Wahl.

Einmal installiert wirkt das neue Unity

mit seiner links sitzenden Starterleiste, in

denen die Anwendungen aufgereiht sind,

aufgeräumt und reagiert flott. Der Starter

beharrt allerdings auf seiner Position

als Linksaußen, weil Shuttleworth ihn

nahe beim Ubuntu-Logo sehen will. Entwicklern,

die diese Sperre lösen, will der

Ubuntu-Gründer aber keine Vorschriften

machen, er wollte nur selbst

keine Ressourcen dafür verschwenden.

Gestaltungsspielraum

Ubuntu bietet ansonsten über

den Compizconfig Settings Manager

(CCSM) Konfigurationsmöglichkeiten

(Abbildung 2).

Der Manager ist aber über das

Softwarecenter unter dem Stichwort

»ccsm« nachzuinstallieren.

Damit passt der Nutzer die

bekannten Effekte von Compiz

an. Für Unity wichtiger: Dort

lässt sich – unter dem Menüpunkt

»Arbeitsfläche« und dem

Eintrag »Ubuntu Unity Plugin«

in den Reitern »Behaviour«

und »Experimental« unter anderem

die Größe der Icons des Launchers

ändern (Abbildung 2). Das schafft auch

Platz für neue Icons.

Der Eintrag »Hide Launcher« legt das

Verhalten des Starters fest: Ob er sich

automatisch (»Autohide«), gar nicht

(»Never«) oder nur bei Berührung eines

aktiven Fensters (»Dodge Active Window«)

zurückziehen soll.

Nützlich sind auch die per Maus ausführbaren

Funktionen: Zieht man ein

Programmfenster oben an das Panel,

erscheint es im Vollbildmodus. Ein Doppelklick

rechts neben dem globalen Menü

verkleinert es wieder. Wer mit der mittleren

Maustaste oder dem Mausrad dorthin

klickt, wechselt zwischen den laufenden

Anwendungen.

Ein Programmfenster mit der Maus gegen

den rechten oder linken Bildschirmrand

ziehen, das sorgt dafür, dass es den halben

Bildschirm einnimmt, was es dem

Nutzer mit zwei schnellen Links-rechts-

Wischern ermöglicht, Fenster nebeneinander

anzuordnen.

Tastendruck

Die Arbeit mit Unity profitiert maßgeblich

von den nützlichen Shortcuts. Schon die

sonst oft brachliegende Windows-Taste,

bei Ubuntu der Unix-Diktion folgend [Super]

genannt, findet regen Einsatz. Kurz

gedrückt zeigt sie das Dashboard an, länger

gehalten öffnet sie den Launcher, wie

das auch die Kombination [Alt]+[F2]

Abbildung 3: Ubuntu schlägt vor, einen proprietären Treiber für

AMD‐Chips zu installieren.

Ubuntu 11.04 07/2011

Software

www.linux-magazin.de

55


Software

www.linux-magazin.de Ubuntu 11.04 07/2011

56

zustande bringt. Die Kombination

[Super]+[W] ordnet alle

geöffneten Fenster in Exposé-

Ansicht. [Super]+[S] ermöglicht

die Sicht auf alle Arbeitsplätze.

[Super]+[D] zeigt den

Desktop an, das Ubuntu-Wiki

[5] listet alle Shortcuts (Abbildung

4).

Die Trennung der Menüleiste

vom eigentlichen Programmfenster

hat das Zeug zum

Stolperstein für Neuanwender,

spart aber Platz. Was beim

Vollbildmodus noch nebeneinanderliegt,

wirkt bei verkleinerten

Anwendungsfenstern

nicht mehr zusammenhängend

(Abbildung 5).

Allerdings gehört der Vollbildmodus

mit möglichst vielen

verschwindenden Elementen

auch zum Konzept von Unity. Schließlich

sollen kleine Bildschirme ebenfalls

möglichst viel anzeigen. Ein Rechtsklick

auf die Icons des Starters zeigt übrigens

das jeweils dazu passende Anwendungsmenü

an.

Server‐seitig

Die Serverversion der 11.04 bietet mit

Eucalyptus 2.02 und – als Technologievorschau

– der Cactus-Release

von Openstack Verwaltungen

fürs Cloud Computing. Libvirt

0.8.8 und die KVM des Linux-

Kernels machen den Ubuntu-

Server möglichst skalierbar.

Powernap 2.0 soll stromsparend

wirken. Der Server profitiert

zudem von den Features

des Kernels 2.6.38 mit Support

für Apparmor und Intels Intelligent

Power Sharing.

Abbildung 4: Tastensteuerung: Die lange gedrückte Windows‐Taste nummeriert die Anwendungen im Starterpanel. Tastenkürzel

als Desktophintergrund erleichtern die Eingewöhnung.

Kanten, deren Schliff laut Shuttleworth

nun ansteht, sind zu verschmerzen. Für

den Einsatz auf Firmenrechnern vorgesehen,

muss erst die kommende Version

12.04 zeigen, dass diese Nacharbeiten

erledigt sind.

n

Infos

[1] Shuttleworth zu Unity: [http:// www.

markshuttleworth. com/ archives/ 671]

[2] Shuttleworth-Keynote UDS: [http:// blip. tv/

ubuntu-developers/ ubuntu-uds-o-mark

-shuttleworth-keynote-5140539]

[3] Virtualbox: [http:// www. virtualbox. org]

[4] Hardware-Anforderungen:

[https:// wiki. ubuntu. com/ Demystifying

UnityGraphicsHardwareRequirements]

[5] Unity-Shortcuts:

https:// help. ubuntu. com/ 11. 04/

ubuntu-help/ shell-keyboard-shortcuts.

html]

Fazit

Das neue Ubuntu ist eine der

experimentellen Versionen,

die Canonical jeweils ohne

den Long-Term-Support-Status

zwischen den Releases einschiebt.

An dieser Latte gemessen

ist die erste Unity-

Ausgabe gelungen. Die jetzt

noch vorhandenen Ecken und

Abbildung 5: Sind die Programmfenster verkleinert, liegt das zugehörige Menü oben am Desktop weit entfernt.


Server

Linux

Server

Windows

Server

Managed

STRATO PRO

Drei Systeme, ein Preis!

Linux

Server

Windows

Server

Managed

Server

Dedicated Server Quad-Core

Server

e

aged Managed

Dedicated dS

Server Hexa-Core

AMD Opteron TM 1381 Prozessor

4 x 2,5 GHz CPU-Leistung

4 GB RAM

2 x 500 GB Festplatte (RAID 1)

3 Monate nur

29 €

Mon.*

danach ab 59 €/Mon.

AMD Opteron TM 4180 Prozessor

Bis zu 2 x 6 x 2,6 GHz CPU-Leistung

16 GB RAM

2 x 1.000 GB Festplatte (RAID 1)

3 Monate nur

99 €

Mon.*

danach ab 129 €/Mon.

* * * Keine Einrichtungsgebühr! * * * Aktion bis 30.06.2011 * * *

Telefon: 0 18 05 - 00 76 77

(0,14 €/Min. aus dem dt. Festnetz, Mobilfunk max. 0,42 €/Min.)

strato-pro.de

* Mindestvertragslaufzeit 12 Monate (alternative Vertragslaufzeiten unter

www.strato-pro.de). Preise inkl. MwSt.


Software

www.linux-magazin.de Bitparade 07/2011

58

Vier Schreibumgebungen im Praxistest

Die Hamlet-Maschinen

Um die Gunst der Sachbuch- und Romanautoren, Spielemacher oder Drehbuchschreiber wetteifern Celtx,

Scrivener, Storybook und Writer’s Café. Sie helfen Geschichten zu entwickeln und zu ordnen, den Überblick

über verwobene Erzählstränge zu behalten und Struktur ins Recherchematerial zu bringen. Mela Eckenfels

© Petr Vaclavek, 123RF

Gestandene Linuxer verfassen ihre Diplom-

und Bachelor-Arbeiten im Texteditor,

formatieren diese mit Latex und halten

Open Office & Co. für Schnickschnack.

Wozu braucht es also spezialisierte Umgebungen,

wenn doch die Distribution

schon alle Schreibtools bietet? Ganz einfach

– wer sich voll und ganz auf seinen

Text konzentriert, schreibt besser. Außerdem

helfen die vier Testkandidaten

dabei, Struktur in größere Schreibprojekte

zu bringen und auch komplizierte

Handlungsstränge zu sortieren. Mit Celtx

[1], Scrivener [2], Storybook [3] oder

Writer’s Café [4] entfällt also ein Misserfolgsfaktor

für jede Autorenkarriere.

E Celtx

Die Anfänge des ersten Testkandidaten

Celtx reichen bis 2002 zurück, spätestens

seit 2005 und mit Erscheinen der

Version 0.8 ist der Name vielen Drehbuch-

und Theater-Autoren ein Begriff.

Diese Schreib umgebung basiert auf dem

Mozilla Application

Framework [5], sie

läuft also auf allen

Plattformen, auf

denen auch die übrige

Mozilla-Familie

heimisch ist. Inzwischen

liegt Celtx in

Version 2.9.1 vor;

Pakete für Windows,

Mac OS X und Linux

stehen ebenso wie

der Sourcecode für

den Download bereit.

Celtx selbst ist freie

Software und kostenlos

erhältlich. Lediglich

der Onlinedienst Celtx Studio [6],

der gleichzeitiges Arbeiten mehrerer Autoren

und eine Versionskontrolle erlaubt,

kostet eine monatliche oder eine Jahresgebühr.

Der günstigste Tarif gilt für bis zu

fünf Anwender und schlägt mit 5 US-

Dollar monatlich oder 50 US-Dollar pro

Jahr zu Buche; der teuerste (45 Nutzer

und mehr) kostet 45 US-Dollar pro Monat

und 450 US-Dollar pro Jahr.

Celtx stellt in diesem Zusammenhang

eine erfreuliche Ausnahme dar und nervt

nicht mit ständigen Aufforderungen, die

Studio-Variante zu kaufen. Nutzer der

kostenlosen Variante können mit Addons

den Funktionsumfang für wenig Geld um

Sketch Images, eine Plot View und den

Vollbildmodus erweitern.

Nach dem Start bietet Celtx dem Benutzer

verschiedene Projektumgebungen

und hat auch fertige Beispiele dabei,

anhand derer sich die Features schnell

offenbaren (siehe Abbildung 1). Hat sich

der Autor für eine Projektumgebung entschieden,

öffnet sich das Herzstück des

Tools – der Editor. Dieser soll möglichst

unterbrechungsfreies Schreiben ermöglichen.

Dass dies klappt, merkt der Nutzer

schon nach wenigen Sätzen. Beim Druck

auf die Eingabetaste wählt der Editor

das nächste, wahrscheinlich gesuchte

Element selbstständig aus.

Bei einem Theaterstück erscheint beispielsweise

zuerst die »Regieanweisung«,

zweimaliges Drücken von [Eingabe]

öffnet dann die »Rolle« und der Nutzer

kann den Namen der Figur eintippen. Ein

weiteres Betätigen von [Eingabe] bringt

ihn zum Element »Dialog«, der nächste

Druck öffnet wiederum »Rolle« und damit

die nächste Figur.

Celtx rückt die einzelnen Elemente richtig

ein und formatiert auch korrekt. So

stellt der Editor etwa Regieanweisungen

kursiv, Rollennamen in Großbuchstaben

und Anweisungen in Klammern dar. Auf

diese Weise bleibt ein Skript übersichtlich,

ohne dass der Autor Formatvorlagen

von Hand zuweisen muss.

Auch in anderen Projektumgebungen

verhält sich der Editor ähnlich. Schreibt

der Nutzer etwa einen Comic, wechselt

die Eingabetaste zwischen den Elementen

»Bildnummer«, »Unterschrift«,

»Sprechblase« und »Rolle«. Lediglich die

Umgebungen »Storyboard« und »Roman«

bilden Ausnahmen: Storyboards bestehen

vor allem aus Skizzen plus kurzen

Beschreibungen, und in Roman-Manuskripten

ist eine Formatierung im Fließtext

eher unüblich.

Schreibumgebungen

DELUG-DVD

Auf der Delug-DVD dieses Magazins

befinden sich die in diesem Artikel

beschriebenen Programme Celtx, Scrivener,

Storybook und Writer’s Café.


Abbildung 1: Celtx bietet fertige Umgebungen für die unterschiedlichsten

Schreibprojekte und auch Beispiele zum Üben.

Einen einfachen Überarbeitungsmodus

gibt es nur im Projekttyp »Drehbuch«.

Jede Fassung erhält eine eigene Textfarbe,

was Veränderungen sofort hervorhebt.

Um eine echte Versionskontrolle handelt

es sich dabei aber nicht.

Schreibutensilien für Profis

Celtx bietet viele hilfreiche Zusatztools,

etwa einen Umwandler, der aus einem

Theaterstück ein Radiofeature oder einen

Film macht, oder die Notizfunktion in

der rechten Seitenleiste. In der Medienfunktion

helfen Bilder- oder Audiodateien

dabei, Szenen, Kulissen oder Requisiten

besser zu erläutern. Ein besonders wertvoller

Helfer steckt hinter dem Reiter

»Aufgliederung«. Hier markiert der Autor

Wörter oder Abschnitte im Text und

weist diese einer Kategorie zu. Celtx führt

Anzahl und Art der benötigten Ausstattungsteile

nicht nur in der Seitenleiste

auf, sondern fügt sie auch dem so genannten

Hauptkatalog hinzu.

Dieser enthält alle Elemente, die im Laufe

der Entwicklung oder im Ablauf eines

Films, Theater- oder Radiostücks Bedeutung

erlangen. Auch jeder Name, der im

Element »Rolle« steht, erscheint automatisch

als Registerkarte im Hauptkatalog.

Beschreibt ein Autor eine solche Karteikarte

genauer, kann er seinen Schauspielern

eine bessere Vorstellung von ihren

Rollen und dem Bühnenbildner von der

benötigten Kulisse geben.

Über die Reiter unterhalb des Editorfensters

konvertiert der Autor sein Projekt in

andere Formate und erstellt beispielsweise

PDF-Dateien, Karteikarten oder ein Titelblatt.

Der Reiter »Berichte« erlaubt es, nur

die Dialoge ausgewählter

Rollen

auszugeben und

zu drucken.

Als wirklich praktisch

erweisen sich

die Karteikarten

bei größeren Wartungsarbeiten,

da

Cel tx jede Szene

auf einer Karte

darstellt, der Autor

kann diese dann

nach Belieben per

Drag & Drop neu

sortieren.

Auch die Bibliothek in der linken Seitenleiste

(siehe Abbildung 2) bietet mehr,

als der erste Blick offenbart. Wie in verschiedenen

Verzeichnissen legen Nutzer

hier alle Zusatzinformationen eines Projekts

ab, zum Beispiel eine Linksammlung,

Musik oder anderes. Ein Drehbuch

kann sogar einen weiteren Projekttyp wie

etwa ein Storyboard enthalten.

Celtx bietet eine Funktion namens »Adaptieren

zu«, die im Handumdrehen ein

Drehbuch aus einem Theaterstück und

umgekehrt erstellt. Ganz fehlerfrei läuft

eine solche Verwandlung allerdings niemals

ab; daher sollte der Autor immer

noch einmal nacharbeiten.

Auch die Im- und Exportfunktionen sind

eher rudimentär. Celtx liest ausschließlich

reinen Text ein und exportiert Text

und HTML. Wer gemeinsam mit anderen

Autoren an einem komplexen Projekt arbeiten

möchte, muss sich mit allen Beteiligten

auf eine Schreibumgebung einigen,

um den Text samt eingebetteter Notizen

und Medien weiterzugeben. Bei den Dateien

mit der Endung ».celtx« handelt es

sich um Zip-Archive, die alle Medien im

Original, einige XML-Projektdateien und

eine SQLite-Datenbank enthalten.

E Scrivener

Roman- und Drehbuchautoren, Akademiker,

Anwälte, Journalisten und Übersetzer

greifen unter Mac OS X gern zu Scrivener.

Seit Ende letzten Jahres ist das beliebte

Schreibprogramm in einer Betaversion

für Linux erhältlich, die zwar noch nicht

alle Funktionen des Originals bietet, aber

auf einem guten Weg ist.

Scrivener steht unter einer nicht freien

Lizenz und soll zumindest nach derzeitigem

Kenntnisstand für Linux kostenlos

sein. Laut Readme-Datei ist noch

nicht klar, ob es wirklich eine stabile

Linux-Version geben wird, die auch alle

Features der Mac-OS-X- und Windows-

Variante enthält. Geplant ist Version 1.0.0

jedenfalls für Juni dieses Jahres.

Etwas versteckt steht die Linux-Beta als

Tar.gz-Archiv auf der Seite »Scrivener for

Windows« [7] zum Download bereit.

Abbildung 2: Die Bibliothek in der linken Seitenleiste enthält allerlei zusätzliche Dateien für ein Schreibprojekt.

Unter dem Editorfenster bietet Celtx verschiedene Reiter zur Umwandlung in andere Formate an.

Bitparade 07/2011

Software

www.linux-magazin.de

59


Software

www.linux-magazin.de Bitparade 07/2011

60

Abbildung 3: Vor das Schreiben hat Scrivener die Auswahl der Vorlage gesetzt.

Im Angebot sind Romane, Sachbücher, Drehbücher und ein leeres Template.

Abbildung 4: Um auf dem Corkboard mehrere Karteikarten mit Textstellen vorzufinden,

teilt der Anwender den Text von Hand in Abschnitte auf.

Das Supportforum [8] enthält zusätzlich

Links zu selbst gebauten Debian-Paketen

und bietet auch sonst allerlei gute Anleitungen

und Ratschläge bei Problemen.

Version 0.2.3 erwies sich im Test nicht als

sonderlich stabil und eignet sich daher

nicht für reale Textprojekte – auch wenn

Scrivener automatisch im Hintergrund

speichert und somit einen Rettungsanker

wirft. Die nächste Beta soll am 30.

Mai kurz vor Erscheinen dieses Artikels

erscheinen und erweist sich möglicherweise

als zuverlässiger.

Nach dem Start entscheidet sich der Anwender

für ein Template aus verschiedenen

Kategorien (siehe Abbildung 3). Um

Scrivener kennenzulernen, eignet sich

»Blank« am besten. Auch diese Schreibumgebung

platziert ihren eigenen Editor

mittig; links davon befindet sich der so

genannte »Binder« (ähnelt der Celtx-Bibliothek),

rechts der »Inspector«.

Scrivener ist nicht ganz so selbsterklärend

wie Celtx. Daher lohnt sich ein Blick in

das unter »Help« verlinkte Videotutorial.

Das Handbuch öffnet sich in der Linux-

Beta nicht; eine englische Version ist aber

im Supportbereich der Website verlinkt.

Ordnung ins kreative Chaos

Anders als Celtx auf seiner Pinnwand

zeigt Scrivener auf dem Corkboard nur

eine einzige Karte und gliedert längere

Texte nicht automatisch auf. Um ein

Schriftwerk in Abschnitte einzuteilen,

fügt der Anwender im Ordner »Drafts«

auf der linken Seite über »New Text« ein

Subdokument hinzu. Alternativ zerlegt

»Split at Selection« aus dem Kontextmenü

der rechten Maustaste ein Dokument in

zwei Texte.

Ebenfalls nicht ganz so bequem wie bei

Celtx verhält sich der Editor im Drehbuchmodus.

Zwar wechselt er theoretisch

mit der Tabulatortaste von der Szenenbeschreibung

zum Character, dann zum

Dialog und wieder zur Szenenbeschreibung,

aber manchmal hakt es. Gelegentlich

ist daher ein beherzter Druck der

Eingabetaste nötig, die ein Kontextmenü

öffnet und weitere Szenenformatierungen

zur Auswahl bietet.

Alle im Ordner »Drafts« abgelegten Texthäppchen

sortiert der Anwender bequem

per Drag & Drop im Corkboard (siehe Abbildung

4) oder im Binder selbst. Drei

Icons in der Mitte der Menüleiste bieten

schnellen Zugriff auf die einzelnen Ansichtsoptionen.

Ist ein Entwurf so weit

druckreif, hängt Scrivener alle Subdokumente

in der vorgegebenen Reihenfolge

aneinander und überführt sie in

ein vorher ausgewähltes Ausgabeformat.

Einzelne Textbausteine schließt der Autor

aus, indem er in der Inspector-Leiste das

zugehörige Häkchen entfernt.

Beim Export haben Nutzer die Wahl zwischen

PDF, Postscript, Word, RTF, Plaintext,

Open Office und HTML – eine beachtliche

Vielfalt, die nur die Windowsund

Mac-OS-X-Versionen noch toppen.

Beim Import bietet Scrivener an, RTF,

Text und HTML einzulesen.

Die meisten Killerfeatures, mit denen Scrivener

den Weg zum fertigen Text versüßt,

sind in der Linux-Betaversion (noch)

nicht enthalten oder unvollständig implementiert.

Zwar bietet »Snapshots« aus

dem Menü »Documents« eine Art Versionierung

und die Möglichkeit, frühere

Versionen des Texts wiederherzustellen,

aber der farbige Hervorhebungsmodus

des Mac-Originals fehlt.

Eine Backup-Funktion ist in der Beta

schon enthalten, dafür fehlt leider das

sonst sehr nützliche Feature »Sync to Folder«,

über das Autoren kleine Änderungen

mit dem Texteditor über SSH einflicken.

Der fantastische Überarbeitungsmodus

der Mac-Version, der jede Änderung und

Anmerkung – etwa eines mitarbeitenden

Lektors – nachvollziehbar macht, fehlt

ganz. Immerhin ist es möglich, sich zwei

Versionen des gleichen Textes im Split

Screen nebeneinanderzulegen und von

Hand farbig zu markieren.

E Storybook

Der dritte Testkandidat hat deutlich weniger

Funktionen zu bieten als die anderen

Programme. Dennoch ist Storybook

ein kleines, aber feines Tool mit

Alleinstellungsmerkmalen. Es beschränkt

sich von vornherein auf die Plot- und

Character-Entwicklung – und ist gut darin.

Das macht diese Schreibumgebung

hauptsächlich für Autoren von fiktionaler

Literatur interessant, vor allem für jene

Anwender, deren Wohnzimmerfußboden

nicht groß genug ist, um womöglich

Dutzende von Karteikarten übersichtlich

auszubreiten und anzuordnen.


Bitparade 07/2011

Software

www.linux-magazin.de

61

Abbildung 5: Gleichzeitig ablaufende Handlungselemente zeigt Storybook in der

chronologischen Ansicht nebeneinander an.

Abbildung 6: Dank verschiedener Diagramme behalten Autoren bei der Figuren-

Entwicklung die Übersicht und vertun sich damit weder beim Alter noch beim

Aufenthaltsort ihrer Personen.

Die Software ist derzeit in Version 2.1.15

für Linux und Windows erhältlich und im

Prinzip kostenfrei. Ständige Donate-Hinweise

verschwinden aber erst nach einer

Spende von mindestens 10 US-Dollar. Bei

der Installationsdatei aus dem Downloadbereich

handelt es sich um ein Skript, das

der Nutzer zunächst ausführbar macht

und dann auf der Shell aufruft. Nach dem

Start entscheidet er sich für einen Projektnamen

und legt den Speicherort fest.

Storybook setzt bei der Datenablage auf

eine H2-Datenbank [9] und exportiert in

die Formate Plaintext, HTML, PDF, RTF,

ODF und CSV.

Storybook zeigt sich an vielen Stellen

besonders benutzerfreundlich. So kann

der Autor beispielsweise aus der Szenenmaske

heraus neue Charaktere und

Handlungsorte anlegen, ohne die Maske

verlassen zu müssen. Praktisch sind auch

die drei Ansichtsmodi. In der chronologischen

Ansicht (siehe Abbildung 5)

erscheinen alle Handlungsstränge nebeneinander,

die Buchansicht stellt sie

hintereinander dar (wie es auch später

im gedruckten Werk ist), und im Bearbeitungsmodus

verschiebt der Autor Szenen

und sortiert sie um.

Praktische Helfer

Storybook erlaubt in der Szenenmaske

mehr als nur eine reine Szenenbeschreibung.

Der Autor verknüpft hier zusätzlich

Charaktere und Schauplätze mit Szenen.

Die Diagrammfunktion »Auftreten

von Figuren nach Szenen« stellt sicher,

dass eine Figur nicht gleichzeitig an zwei

Orten im Text auftaucht – praktisch,

wenn sich die Deadline nähert und der

Vorstadt-Shakespeare betriebsblind durch

Hunderte von Szenen stolpert.

Einen allgemeineren Überblick verschafft

das Diagramm »Wer ist wann wo?«, und

das Gantt-Diagramm zum Alter der Personen

hilft rechenfaulen Autoren dabei,

die Lebensabschnitte auf Basis des eingegebenen

Geburtsdatums auszuwerten

(siehe Abbildung 6).

Auch dieses Schreibtool hat ein Beispielprojekt

dabei (Menü »Datei« | »Open the

Demo«), das neue Autoren an die Arbeit

mit der Software heranführt. Abgesehen

von der sehr nützlichen Diagrammfunktion

und dem Aufbau der Benutzeroberfläche

ähnelt Storybook dem Werkzeug

»Storylines« aus Writer’s Café, dem

nächsten Testkandidaten.

E Writer’s Café

Die „Fiction Writing Software“ verfolgt

einen ganz anderen Ansatz als die ersten

drei Schreibtools. Sie eignet sich hauptsächlich

als Entwicklungstool für Storys

oder für jene Autoren, die einen Desktop

für ihre Schreibprojekte schätzen, der sie

nicht von der Arbeit ablenkt. Writer’s

Café ist für Windows, Mac OS X, Linux,

Solaris, Free BSD und als portable Variante

auch für USB-Sticks erhältlich.

Für Linuxer stehen neben den Quellen

Debian- und RPM-Pakete sowie Buildskripte

für Gentoo und Arch Linux zum

Download bereit. Aktuell ist Version 2.30;

Updates erscheinen zirka alle drei bis

vier Monate.

Auch Writer’s Café ist keine freie Software.

Kostenlos ist nur eine eingeschränkte

Testversion. Um sinnvoll mit

dem Programm arbeiten zu können, ist

ein Kauf unumgänglich. 28 Euro kostet

die Vollversion – kostenlose Updates

inbegriffen. Den Registrierungsschlüssel

darf der Nutzer für eine beliebige Anzahl

von Installationen einsetzen, vorausgesetzt

diese sind nicht gleichzeitig

in Gebrauch.

Nach den Einstellungen für den Ablageort

der Dokumente und die Sprache

kann’s losgehen. Writer’s Café begrüßt

den Autor mit einem virtuellen Desktop

und einem Zitat oder Tipp, der ab und zu

ganz nützlich ist, um geknickte Schreiberseelen

aufzurichten. Auf der linken

Seite ist der Arbeitsbereich – das Äquivalent

zu Projekten unter Celtx –, den

der Nutzer vor dem ersten Satz einrichtet

(siehe Abbildung 7).

Nach dem Anlegen des neuen Arbeitsbereichs

fügt der Nutzer Writer’s-Café-

Tools (Projekte genannt) hinzu. Es ist

sinnvoll, für jedes Schreibprojekt ein

eigenes Notizbuch oder Ablagebuch an-


Software

www.linux-magazin.de Bitparade 07/2011

62

wählten Thema vor, um die Kreativität

in Gang zu bringen. Writer’s Café bietet

zudem einen Vollbildmodus, der Autoren

hoffentlich beim Konzentrieren auf das

Wesentliche hilft. Die Schreibumgebung

legt in diesem Modus einen aufgeräumten

Schreibprojekt-Desktop über den normalen.

Doch leider verschwinden dabei

auch nützliche Funktionen, zum Beispiel

der Timer.

Erzählkunst

Abbildung 7: Bevor ein Autor seinen ersten Satz schreiben darf, richtet er den eigenen Arbeitsbereich auf

der linken Seite ein. Dazu gehören vor allem verschiedene Ablageorte für die Projektdaten.

zulegen, um die Übersicht nicht zu verlieren.

Alternativ ist es möglich, einzelne

Projekte auf mehreren Arbeitsplätzen zu

verwenden und so zum Beispiel ein einziges

Journal als projektübergreifendes

Schreibtagebuch zu nutzen. Gewöhnen

muss man sich allerdings an die Rauchkringel

draußen vor dem Fenster. Das

sind Benutzerfreundlichkeit und intuitive

Bedienung, die gemeinsam ausgedehnte

Raucherpausen machen.

Der Ablauf „Tool starten, Tool mit einem

passenden Dateinamen speichern, Datei

über den Dateibrowser im jeweiligen Feld

der Arbeitsbereichskonfiguration öffnen“

erinnert an Software der 90er. Die Tatsache,

dass der Anwender ab und zu

die richtige Datei-Endung von Hand zusammen

mit dem Dateinamen eingeben

muss, ist lediglich ein bisschen lästig;

richtig hässlich ist dagegen, dass der Dateibrowser

nicht im bei der Installation

konfigurierten Dokumentenverzeichnis

startet, sondern im Installationsverzeichnis

des Programms.

Kernkompetenzen

Schnell fällt auf, dass dem Tool ein wichtiges

Feature einer Schreibumgebung fehlt,

nämlich ein vernünftiger Editor. Sowohl

das Notizbuch als auch das Journal sowie

das Projekt-Tool Storylines besitzen

zwar einen Schmalspureditor mit einer

Handvoll Formatierungsmöglichkeiten.

Für längere Texte ist der aber kaum geeignet.

Abhilfe schafft Writer’s Café durch

eine Desktop-Verknüpfung zu Open Office

Writer. Damit ist klar: Bei diesem

Programm steht nicht im Vordergrund,

einen produktionsfertig formatierten Text

niederzuschreiben.

Writer’s Café punktet an anderer Stelle,

etwa wenn es darum geht, ein größeres

Schreibprojekt vorzubereiten oder täglich

zu trainieren. Celtx und Scrivener haben

die Latte hier aber sehr hoch gelegt und

Writer’s Café kommt leider nicht ganz

an die Konkurrenten heran. So eignet

sich das Ablagebuch zwar dazu, Hintergrundinformationen

eines Projekts

(Bilder, Skizzen, Texte oder Links) zu

organisieren. Celtx und Scrivener gestatten

es an dieser Stelle jedoch sogar, alle

möglichen externen Dateien dem Projekt

hinzuzufügen. Auch das Journal ist nicht

mehr als ein spezialisiertes Notizbuch

und die Merkzettel-Funktion ist eher für

Autoren gedacht, die gerne mit echten

und virtuellen Postits arbeiten und noch

eine zusätzliche, rein projektbezogene

Pinnwand suchen.

Praktisch sind hingegen der Timer, der zu

fokussierten Schreibetappen auffordert,

oder der »Writing Prompt« (etwas unglücklich

mit „Schreib-Kick“ übersetzt).

Letzterer setzt dem Anwender eine kurze

Schreibübung zu einem zufällig ausge-

Zugegeben, so wahnsinnig überzeugend

klingt das alles bis jetzt nicht. Writer’s

Café könnte man eigentlich getrost in

die Kiste der etwas angestaubten Software

stecken und vergessen – wären da

nicht die Storylines. Das Feature ähnelt

dem kostenpflichtigen Celtx-Addon beziehungsweise

dem Scrivener-Corkboard,

setzt allerdings noch einen drauf. Writer’s

Café ist hier einfach eine Idee übersichtlicher

als die Konkurrenz.

So gibt es Karteikarten mit Hintergrundinformationen

zu Personen oder Schauplätzen,

vor allem aber eine vertikale

Übersicht über die verschiedenen Handlungslinien

einer Geschichte (siehe Abbildung

8). Storylines erinnern von der

Optik her an die analoge Karteikarten-

Schieberei, mit der Autoren ihre Plots

entwickelten, bevor es PCs gab.

Eine Storylines-Karte besteht aus den Elementen

»Zusammenfassung«, »Inhalt«,

»Anmerkungen/Notizen« und »Eigenschaften«.

In der Übersicht sieht der Benutzer

immer nur die Zusammenfassung

und kleine Icons, die auf Notizen (eine

gelbe Ecke) und andere Eigenschaften

hinweisen. Der Editorbereich zum Bearbeiten

der Karteikarten ist ein bisschen

fummelig auf kleinen Bildschirmen. Besser

ist es, über [F8] den frei stehenden

Karteneditor zu starten. Autoren ordnen

ihre Karten wie bei den anderen Schreibtools

per Drag & Drop an.

Die wichtigsten Eigenschaften einer Karte

sind neben den Notizen die Merkmale

und Verknüpfungen. Letztere kennzeichnen

Überschneidungen zweier Handlungsebenen,

also wenn beispielsweise

die beiden Hauptdarsteller zum ersten

Mal aufeinander treffen. Merkmale hingegen

sind etwa Wendepunkte in der

Geschichte oder ganz einfach Aussagen

wie „Hier muss ich noch recherchieren“.


Wissbegierig?

Eine Suchfunktion fischt die Baustellen

im Handumdrehen aus einem dreistelligen

Kartenwust heraus.

Da Writer’s Café sich nicht als Schreibeditor,

sondern als Story-Entwicklungsumgebung

versteht, bietet es auch keine

Exportformate an. Nur in Storylines kann

der Autor eingeben, dass es sich um ein

Drehbuch handelt, und dadurch das Format

auf ein gängiges für Skripte (Text,

HTML und Open Document) anpassen.

Das Tool importiert reinen Text.

Writer’s Café speichert in einem proprietären

Dateiformat, beim Austausch mit

anderen Schreiberlingen reicht es nicht,

einfach die Datei weiterzugeben. Zu den

Projekt-Tools Journal, Notizbuch und

Ablagebuch gehört je ein Verzeichnis,

das verknüpfte Dateien im Originalformat,

teils proprietäre und teils Dateien

im XML-Format enthält.

Des Pudels Kern

Wer eine gute Idee hat und ohne lange

Vorbereitung einfach nur losschreiben

möchte, ist mit Celtx gut bedient. Intuitiv

und übersichtlich stellt diese Schreibumgebung

die wichtigsten Ingredienzien

für angehende Autoren bereit und steht

zudem noch unter einer freien Lizenz

und ist weitgehend kostenlos. Aber auch

die anderen Tools haben ihre Vorzüge

und das eine oder andere Schmankerl zu

bieten – abhängig vom Schreibprojekt

und den eigenen Vorlieben.

Autoren, die hauptsächlich Abläufe von

Geschichten entwickeln möchten, greifen

am besten zu Storybook oder Writer’s

Café, wobei Letzteres dafür allein sicherlich

überdimensioniert ist. Für formal

strukturierte Texte wie Drehbücher oder

Hörspielvorlagen empfiehlt sich wiederum

Celtx.

Hobbyautoren, Schreiber für Laientheatergruppen

oder Podcaster finden auch

ohne kostenpflichtige Erweiterungen eine

zuverlässige Schreibumgebung in Celtx.

Professionelle Texter sollten sich hingegen

Scrivener anschauen und hoffen,

dass die nächste Betaversion stabiler als

die getestete Variante ist. Bietet Scrivener

weitere Funktionen des Originals dann

auch unter Linux an, ist für ein Happy

End gesorgt. (hej)

n

Infos

[1] Celtx: [http://celtx.com]

[2] Scrivener: [http://www.literatureandlatte.

com/scrivener. php]

[3] Storybook: [http://storybook.intertec.ch]

[4] Writer’s Café:

[http://www. writerscafe.co.uk]

[5] Mozilla Application Framework:

[https://developer.mozilla.org/en/Mozilla_

Application_Framework_in_Detail]

[6] Celtx Studio: [https://studio.celtx.com]

[7] Scrivener-Beta für Windows und Linux:

[http://www. literatureandlatte.com/

scrivenerforwindows]

[8] Scrivener-Linux-Forum:

[http://www. literatureandlatte.com/

forum/viewforum. php?f=33]

[9] H2 Database Engine:

[http://www. h2database.com]

Schulungen von Profis für Profis

NEUER KURS:

SUSE MANAGER

http://www.heinlein-support.de/akademie

Abbildung 8: Die Handlung des Filmdramas „Bitparade“ in einer Storyline: Übersichtlich zeigt Writer’s Café

die einzelnen Handlungslinien einer Geschichte.


Software

www.linux-magazin.de Simple Defects 07/2011

66

Simple Defects – ein verteilter Bugtracker

Geteilte Bugs

Simple Defects macht für Bugs, was Git für Programmecode tut: Die Entwickler können sich eigene Kopien der

Bugdatenbank ziehen, sie bearbeiten und mit anderen synchronisieren. Doch leider dümpelt die vielversprechende

Software im Betastadium vor sich hin. Mathias Huber

© Diego Cervo, 123RF.com

Dank verteilter Versionskontrollsysteme

wie Git, Darcs oder Mercurial gehen Software­Entwickler

flexibel mit Programmcode

um: Sie spalten Zweige ab, arbeiten

unterwegs mit einer lokalen Kopie auf

dem Notebook und gleichen sie regelmäßig

mit dem Repository des Maintainers

ab. Ein anderes wichtiges Werkzeug des

Software­Entwicklers benötigt dagegen

immer noch eine zentrale Server­Instanz:

der Bugtracker, etwa verkörpert durch

Bugzilla oder Trac.

Dezentrales Zeitalter

Das freie Softwarepaket Simple Defects

(SD) möchte dem ein Ende bereiten und

das verteilte Modell auf die Bugdatenbank

ausweiten. Die ursprüngliche Idee

dazu stammt von Jesse Vincent und

Chia­Liang Kao, Geschäftspartnern bei

der US­Firma Best Practial, die den freien

Request Tracker RT entwickelt hat. Die

derzeitige Maintainerin ist die amerikanische

MIT­Absolventin Christine Spang,

die ihren Einstieg in die SD­Entwicklung

während eines Praktikums fand.

SD [1] ist in Perl umgesetzt und fußt auf

der verteilten Datenbank Prophet [2].

Die Macher empfehlen die Installation

der beiden Komponenten aus dem aktuellen

Git­Master [3]. SD verlangt eine

Menge Perl­Module, denn die Entwickler

haben im Code des Bugtrackers eine

große Anzahl von Features angelegt,

auch wenn diese derzeit nur rudimentär

ausgeführt sind.

Alternativ lässt sich der Bugtracker aus

einem Debian­/ Ubuntu­Paket oder aus

dem CPAN als Modul App::SD installieren.

Dabei erhält der Anwender allerdings

die Ausgabe 0.74 vom Januar 2010, die

viele Nachbesserungen der Git­Version

noch nicht enthält. Die Software steht

unter MIT­Lizenz.

SD verwendet eine Kommandozeilen­

Schnittstelle, die mit ihren einprägsamen

Befehlen stark an Git und Konsor­

ten erinnert. Hat der Anwender mit der

Umgebungsvariablen »SD_REPO« den

Speicherort für die Datenbank konfiguriert,

legt er mit »sd init« seine Bugdatenbank

an. Mit den »sd config«­ und

»sd settings«­Befehlen kann er zahlreiche

Einstellungen vornehmen. Konfigurierbar

sind unter anderem die Komponenten,

Meilensteine und Bearbeitungszustände

für das Projekt sowie Standardvorgaben

für neu angelegte Tickets.

Das Kommando »sd ticket create« legt

einen neuen Eintrag an, »sd ticket update

Ticket‐ID« ist für Änderungen zuständig,

»sd ticket list« zeigt eine Übersicht der

Bugs, »sd ticket show Ticket‐ID« ein einzelnes

Ticket inklusive seiner Historie

(Abbildung 1). Zum Bearbeiten der Einträge

kommt das in der Umgebungsvariablen

»EDITOR« eingestellte Programm,

etwa Vi oder Emacs, zum Einsatz. Daneben

gibt es Take­ und Give­Aktionen,

um Bugs zuzuweisen, sowie weitere Operationen

wie Schließen. Das eingebaute

Hilfekommando »sd help Stichwort« gibt

über alle Befehle Auskunft.

Publizieren und Replizieren

Möchte ein Anwender seine Bugdatenbank

anderen zugänglich machen, bietet

SD ihm zwei Möglichkeiten: Bei der ersten

kann er einen Schnappschuss seiner

Tickets per »sd publish ­­to User@

Host:Pfad« publizieren, wobei SD auf

Rsync und SSH setzt. Damit andere darauf

zugreifen können, muss allerdings ein

Web­ oder FTP­Server die so kopierten

Dateien anbieten oder sie müssen über

das Dateisystem erreichbar sein. Liegt

die Kopie auf einem Webserver, lässt sie

sich mit »sd clone ­­from http://Host/

Pfad/replica« klonen, Aktualisierungen


Simple Defects 07/2011

Software

www.linux-magazin.de

67

Abbildung 1: Die Befehle des SD-Kommandozeilen-Clients zum Auflisten und

Anzeigen der Tickets erinnern an die Versionsverwaltung Git. Zum Bearbeiten

der Einträge verwendet der Benutzer seinen Lieblingseditor.

Abbildung 2: Zum Publizieren der Bugdatenbank kann der Anwender den integrierten

SD-Server starten. Dieser bietet die Ticketdaten per HTTP zum Synchronisieren

an und zeigt eine Weboberfläche mit Eingabemöglichkeiten.

holt der Benutzer mit dem Befehl »sd pull

­­from http://Host/Pfad/replica« in seine

lokale Instanz.

Glücklicherweise merkt sich SD die Adressen

der einmal verwendeten Quell­

Repositories, zudem kann der Anwender

Kurznamen vergeben, sodass sich

die Tipparbeit in Grenzen hält. Auch für

ganze Kommandozeilen lassen sich Aliase

anlegen, etwa um maßgeschneiderte

Reports abzurufen. Konflikte legt das

Tool in einem interaktiven Dialog zur

Entscheidung vor. Ein Push­Kommando

wie beispielsweise bei Git gibt es nicht,

die SD­Benutzer sind auf das Pull­Verfahren

eingeschränkt.

Bei der zweiten Veröffentlichungsmethode

stellt die SD­Software die Daten

über ihren eingebauten HTTP­Server zur

Verfügung. Der Befehl »sd server ­­port

Portnummer« startet den Server, bei

Portnummern über 1024 sind dazu keine

Linux­Rootrechte erforderlich. Klon­ und

Pull­Kommandos erfolgen wie oben,

aber zuzüglich der Portnummer. Der SD­

Server macht seine Dienste per Zeroconf

Networking (bei Apple Bonjour genannt,

[4]) im lokalen Netzwerk bekannt. Der

Befehl »sd pull ­­local« findet diese Server­Instanzen

und versucht deren Daten

per Pull abzuholen.

Neben der Möglichkeit zum Synchronisieren

bietet der SD­Server auch eine

Weboberfläche für die Ticketdatenbank

(Abbildung 2). Sie besitzt einen etwas

kleineren Funktionsumfang als das Kommandozeilenprogramm

und weist noch

einige Bugs auf. SD erlaubt es zudem, die

Bugs mit Kommentaren und Attachments

zu versehen. Die Funktion zum Anhängen

scheint aber vorrangig für Patches,

Logs und andere Dateien im Plaintext­

Format gedacht zu sein – der Test der

Redaktion mit einem PDF­Dokument

scheiterte jedenfalls.

Noch nicht reif

Hier endet der Kern der Bugtracker­Software,

dessen Reifegrad Christine Spang

als Beta bezeichnet: „Wir bemühen uns,

beim Core­Modul die Rückwärtskompatibilität

zu gewährleisten. Die Synchronisation

zwischen SD und SD dürfte in beide

Richtungen zuverlässig sein.“

Für den Weg zu einer stabilen Version

1.0 gibt es derzeit weder Roadmap noch

Termin. Vor allem fehle den Projektmitarbeitern

Zeit, so Spang. Sie selbst arbeitet

als Entwicklerin beim Startup Ksplice,

das Software und Dienstleistungen rund

um das gleichnamige Tool zum Patchen

des Linux­Kernels anbietet.

Die Simple­Defects­Homepage listet einige

unfertige Features auf, die die Software

erst richtig interessant machen würden,

darunter die Synchronisation mit

anderen Issue­Trackern. Laut der Maintainerin

befinden sich diese Schnittstellen

derzeit im Alphastadium, wobei der

Abgleich mit Best Practicals RT und mit

Hiveminder am weitesten gediehen ist.

Hier gibt es übrigens auch die ansonsten

bei SD fehlende Push­Methode.

In Arbeit sind daneben noch Anbindungen

an die Ticketsysteme von Trac,

Github, Google Code und Redmine. Im

aktuellen Zustand sind sie noch nicht zu

gebrauchen, es gibt sogar unangenehme

Überraschungen: Beim Import der Bugdatenbank

aus einer passwortgeschützten

Trac­Instanz beispielsweise speichert

SD die Zugangsdaten im Klartext auf dem

lokalen Rechner.

Reizvolle Ansätze

Für die Versionskontrollsysteme Git und

Darcs existieren SD­Wrapper. Bei Projekten,

die mit diesen Systemen verwaltet

werden, sollen die Skripte die Bugdatenbank

gleich dazupacken. Eine hervorragende

Idee, die vielen Software­Entwicklern

entgegenkommen dürfte. Tatsächlich

steckt ein Aufruf von »git­sd« die Ticketdatenbank

in das Verzeichnis ».git/sd/«,

doch eine Funktion zum gemeinsamen

Klonen von Code und Bugs hat offenbar

noch niemand geschrieben.

Auch die Dokumentation fällt mit einer

einzigen Wiki­Seite [5] noch recht dürftig

aus. Die spärlichen Nachrichten auf

der SD­Mailingliste unterstreichen, dass

es dem Projekt an Manpower fehlt. n

Infos

[1] Simple Defects: [http:// syncwith. us/ sd]

[2] Prophet: [http:// syncwith. us]

[3] Git-Repository für SD und Prophet:

[http:// gitorious. org/ prophet/]

[4] Lennart Poettering, „Null Arbeit: Zeroconf-

Netzwerktechniken unter Linux mit Avahi

nutzen“: [http:// www. linux-magazin. de/

Heft-Abo/ Ausgaben/ 2006/ 03/ Null-Arbeit]

[5] SD-Kommandoübersicht:

[http:// syncwith. us/ sd/ using/]


Software

www.linux-magazin.de Tooltipps 07/2011

68

Werkzeuge im Kurztest

Tooltipps

CVE Checker 3.1

Schwachstellen im System finden

Quelle: [http:// cvechecker.sourceforge.net]

Lizenz: GPLv3

Alternativen: CVE Browser

Duff 0.5

Doppelte Dateien aufspüren

Quelle: [http:// duff. sourceforge.net]

Lizenz: Zlib

Alternativen: Find_duplicates, Duper

HDT 0.5.0-beta2

Hardware des Rechners untersuchen

Quelle: [http:// hdt‐project.org]

Lizenz: GPLv2

Alternativen: Hardware Lister

Die Common-Vulnerabilities-and-Exposures-Datenbank

(CVE) sammelt Informationen

zu allen bekannten Schwachstellen

und Sicherheitslücken. CVE Checker

greift auf diese Auskünfte zurück und

hilft dem Anwender dabei, sein eigenes

System zu untersuchen.

Dazu legt das Programm eine lokale Kopie

der Datenbank an, die der Anwender

vor dem ersten Einsatz mit »-i« initialisiert

und über »pullcves pull« mit CVE-

Einträgen füllt. Das Tool lädt dazu mehrere

XML-Dateien von der Mitre-Website

herunter, die alle bekannten Schwachstellen

von 2003 bis heute enthalten.

Zusätzlich benötigt CVE Checker eine

Liste der auf dem Zielsystem installierten

Programme. Mit »-b« liest das Tool

diese Datei dann ein und überprüft mit

»-r« die Verwundbarkeit des Systems.

Als Ergebnis präsentiert CVE Checker

eine Liste mit Schwachstellen, den Programmnamen

und der CVE-Nummer. Zur

Weiterverarbeitung exportiert das Tool

sie ins CSV-Format. Außerdem generiert

»cvereport« einen HTML-Bericht.

★★★★★ Dank CVE Checker behält der

Anwender potenzielle Schwachstellen des

Systems im Auge. Um immer up to date

zu sein, sollte er die Datenbank und die

Anwendungsliste regelmäßig aktualisieren.

Die Dokumentation auf der Projektseite

empfiehlt dazu einen Cronjob unter

eigener »cve«-Benutzerkennung. n

Der Duplicate File Finder (Duff) spürt

Dateiduplikate auf, indem er die Hashwerte

vergleicht, als Algorithmus dient

SHA1. Das klassische Kommandozeilenprogramm

benötigt keine Konfigurationsdatei;

alle Parameter übergibt der

Anwender beim Aufruf.

Ohne weitere Optionen gestartet, gruppiert

Duff alle identischen Dateien und

fasst sie unter einer Kopfzeile zusammen.

Darunter gibt das Tool zeilenweise

die Namen identischer Dateien inklusive

Pfad aus. Um ganze Verzeichnisbäume

zu durchforsten, bringt es den Parameter

»-r« mit. Symbolische Links sowie

versteckte Dateien und Verzeichnisse

berücksichtigt es erst, wenn der Nutzer

dies explizit mit »-L« beziehungsweise

»-a« vorgibt.

Der so genannte Excess-Modus von Duff

erlaubt die Weiterverarbeitung gefundener

Dubletten. Der Anwender aktiviert

diese Betriebsart mit »-e«. Duff verzichtet

dann auf die Kopfzeile und listet aus

jeder Gruppe alle Duplikate bis auf eines

auf. Die Ausgabe reicht der Anwender

zum Beispiel direkt an »rm« weiter und

löscht doppelte Daten automatisch. Die

Manpage enthält ein entsprechendes Beispiel

für dieses Szenario.

★★★★★ Duff spürt mehrfach vorkommende

Dateien zuverlässig auf. Als Kommandozeilentool

interagiert es hervorragend

mit den restlichen GNU-Tools. n

Wer mehr über das Innenleben seines

Rechners herausfinden möchte, ohne den

Schraubenzieher anzusetzen, greift zum

Hardware Detection Tool. Es handelt sich

um eine Programmsammlung, welche die

Entwickler als fertige Disketten- und CD-

Images anbieten.

Nach dem Start des Computers vom HDT-

Bootmedium hat der Anwender die Wahl

zwischen einer Konsolenversion, dem

so genannten Client-Modus, und einer

Ncurses-Oberfläche, die alle verfügbaren

Checks inklusive der erfassten Informationen

übersichtlich auflistet. So gelangt

der Anwender schnell an Auskünfte zur

eingebauten CPU, der verwendeten Bios-

Version, dem Motherboard, den PCI-Devices,

Festplatten oder dem Arbeitsspeicher.

Informationen zu den ACPI- und

PXE-Funktionen sowie eine Liste der von

der Grafikkarte unterstützten VESA-Auflösungen

runden die Übersicht ab.

Eine Onlinehilfe fehlt in der Ncurses-Variante,

auch im Client-Modus bietet der

»help«-Befehl nur eine Befehlsübersicht.

Im Wiki auf der Projekt-Website veröffentlichen

die Entwickler jedoch Hintergründe

zu den mitgelieferten Checks.

★★★★★ HDT ermittelt schnell und unabhängig

vom Betriebssystem, was im

Rechner steckt. Wer gebrauchte Hardware

kaufen möchte, hat somit ein zuverlässiges

Livesystem an der Hand, das den

Computer auf Herz und Nieren testet. n


WEBHOSTING · SCHULUNGEN · SUPPORT

Webhosting 5.0

Professionelle Hostinglösungen

für maximale Leistung und Sicherheit

Optimiert für TYPO3, Magento, Joomla!, ...

Ihre Vorteile bei Mittwald CM Service:

Unterstützung zahlreicher CMS- und E-Commerce-Lösungen

Versionsupdates Ihrer Anwendungen per Mausklick

Umfangreicher Sicherheitsservice für Ihre Webprojekte

Nahtlose Skalierbarkeit Ihres Hostingtarifs

Jetzt

kostenlos

30 Tage

testen!

Schnelle, freundliche und kompetente Unterstützung

Business Hosting 5.0 Profi Hosting 5.0

Managed Server 5.0

Der kostengünstige Einstieg:

ideal geeignet für kleine und

mittlere Webseiten

Bis zu 10 GB Speicherplatz

und 100 GB Transfervolumen

Einfache Installation und Updates

Ihrer Webseiten und Onlineshops

Über 20 Content Management

Systeme, Onlineshops und

Webanwendungen verfügbar

Tägliche Datensicherung:

bis zu 1 Woche verfügbar

Garantierte Hostingleistung für

professionelle Webprojekte:

optimal für Unternehmen,

Institutionen und Vereine

Bis zu 4 Prozessorkerne

und 2 GB Arbeitsspeicher

Bis zu 100 GB Speicherplatz

und 500 GB Transfervolumen

Höchste Sicherheit durch eigene

IP-Adresse und SSL-Zertifikat

Tägliche Datensicherung:

bis zu 4 Wochen verfügbar

NEU: Jetzt mit 300%

Magento

Performance für Ihr E-Commerce

Maximale Leistung durch

dedizierte Markenhardware

von Hewlett Packard und Intel

Bis zu 16 Prozessorkerne

und 128 GB Arbeitsspeicher

Umfangreiche Managed-Services:

Monitoring, Administration,

Optimierung, Sicherheitsupdates

Tägliche Datensicherung:

bis zu 4 Wochen verfügbar

bereits ab 4,99 € netto pro Monat* bereits ab 34,99 € netto pro Monat* bereits ab 129,- € netto pro Monat*

Alle Angebote richten sich ausschließlich an Gewerbetreibende.

*Die einmalige Einrichtungsgebühr für die Business und Profi Hostingpakete 5.0 beträgt 29,- € zzgl. MwSt., für die Managed Server 5.0 149,- € zzgl. MwSt. Die Vertragslaufzeiten und Abrechnungszeiträume betragen für

die Business Hostingpakete 5.0 zwischen 6 und 12 Monate, für die Profi Hostingpakete 5.0 zwischen 3 und 6 Monate und für die Managed Server 5.0 zwischen 12 und 36 Monate. Automatische Vertragsverlängerung um die

jeweilige Vertragslaufzeit, wenn der Vertrag nicht mit einer Frist von 30 Tagen zum Ende der jeweiligen Vertragslaufzeit gekündigt wird. Alle Angebote richten sich ausschließlich an Gewerbetreibende. Alle genannten Preise

verstehen sich monatlich zzgl. MwSt.

Wir beraten Sie gerne! Rufen Sie uns an.

✆ 0800 / 440 3000 oder besuchen Sie uns im Internet: www.mittwald.de


Software

www.linux-magazin.de Tooltipps 07/2011

70

Agentsmith 0.2 Movgrab 1.0.9 Treeline 1.4.0

Eindringlinge in Logdateien aufspüren

Quelle: [http:// www.guengel.ch/myapps/

agentsmith]

Lizenz: GPLv3

Alternativen: Daemon Shield, Fail2ban

Beiträge aus Videoportalen lokal sichern

Quelle: [http:// sites.google.com/site/

columscode/ home/movgrab]

Lizenz: GPLv3

Alternativen: Youtube‐dl

Struktur für den Notizzettel‐Dschungel

Quelle: [http:// treeline.bellz.org]

Lizenz: GPLv2

Alternativen: Zim, Gjots

„The Matrix“ lässt grüßen – wer bei diesem

Tool an den Film-Character denkt,

liegt nicht falsch. Das Programm überwacht

die Logdateien des Systems, immer

auf der Suche nach Eindringlingen.

Agentsmith agiert dabei als Dienst dezent

im Hintergrund, läuft mit »-d« aber auch

zu Test- und Konfigurationszwecken im

Vordergrund.

Welche Dateien die Spürnase überwacht,

definiert der Nutzer in »/etc/agentsmith.

conf«. Hier legt er auch fest, wie oft ein

Eindringling auffallen darf, bevor Agentsmith

ihn sperrt. In der Voreinstellung reichen

drei Versuche pro Minute, die Sperre

dauert eine Stunde. Optional schließt der

Admin in der Einrichtungsdatei auch bestimmte

IP-Adressen oder Hosts von der

Überwachung aus.

Eindringlinge erkennt Agentsmith anhand

regulärer Ausdrücke, die der Anwender

selbst definiert. Passt das Muster

wiederholt auf einen Logeintrag, ruft das

Programm das vordefinierte Action-Skript

auf. Das Tool liefert fertige Skripte mit,

die IPtables- oder Sendmail-Aktionen

ausführen, aber auch selbst geschriebene

Shellskripte sind möglich.

Wer das Tool in größeren Infrastrukturen

einsetzt, hat die Möglichkeit, Agentsmith-

Instanzen auf verschiedenen Rechnern

miteinander zu verbinden. Die Kommunikation

zwischen diesen läuft optional

SSL-verschlüsselt ab. Fällt ein Eindringling

auf einem Computer auf, übermittelt

der Agent die Informationen an die

restlichen Systeme.

★★★★★ Agentsmith überwacht Logdateien

und reagiert auf verdächtige Einträge.

Da mehrere Instanzen des Tools

auf verschiedenen Rechnern miteinander

kommunizieren können, ist Agentsmith

besonders für größere Rechnerverbünde

interessant.

n

Online-Videoportale erfreuen sich nach

wie vor großer Beliebtheit. Nutzer, die

Filme offline anschauen oder auf der eigenen

Platte archivieren möchten, greifen

beispielsweise zu Movgrab. Das Tool lädt

Videos aus über 25 verschiedenen Portalen

herunter, unterstützt viele Videoformate

und bringt optional auch mehrere Filme in

einem Rutsch auf den Rechner.

Beim Aufruf gibt der Nutzer die entsprechende

URL an, Movgrab ermittelt den

Streaming-Link und beginnt den Download.

Steht das Video in mehreren Formaten

bereit, wählt das Tool automatisch

das erste ihm bekannte aus. Da dies nicht

zwangsläufig die Variante mit der besten

Auflösung ist, kann der Anwender über

»-f« selbst entscheiden, was auf die Platte

wandert. Größere Portale bieten oft mehrere

Filme auf einer Seite an. Über »-n«

lädt man einen bestimmten Beitrag oder

alles herunter. Die Funktionalität ist vom

Aufbau des jeweiligen Portals abhängig

– ändern sich dort Design oder Layout,

hat Movgrab eventuell Probleme bis zur

nächsten Programmversion.

Als zusätzlichen Augenschmaus stellt

Movgrab zwei Streaming-Modi bereit,

die auch mit anderen Playern wie etwa

Mplayer und VLC zusammenarbeiten. Im

einfachen Modus (»-s«) holt Movgrab das

Video auf den lokalen Rechner und reicht

es gleichzeitig an ein anderes Programm

weiter. Danach löscht es die lokale Kopie.

Im erweiterten Streaming-Modus (»-sc«)

bleibt das Duplikat erhalten.

★★★★★ Movgrab ist eine einfach zu

handhabende Download-Lösung für alle,

die ihre Lieblingsstreifen gerne offline betrachten

oder archivieren.

n

Treeline verwaltet Texte aller Art in einer

übersichtlichen Baumstruktur und ist

damit laut Aussage der Entwickler ein

vollwertiger Ersatz für gängige Sticky-

Note-Tools. Das Python-Programm enthält

zahlreiche Vorlagen zur Verwaltung

von Adressen, Buchlisten oder Aufgaben

und erfasst auch einfache Text- und

HTML-Dokumente. Zusätzlich hat der

Nutzer die Möglichkeit, eigene Vorlagen

zu erstellen oder vorhandene an eigene

Wünsche anzupassen.

Im Editor-Modus erfasst der Anwender

neue Daten. Jeder Eintrag besteht aus

einer Überschrift und einem Textblock.

In der HTML-Vorlage kann der Nutzer

entsprechende Tags zur Strukturierung

verwenden. Nach dem Texten kann er

im Ansichtsmodus bequem in der Baumstruktur

durch seine Einträge navigieren.

Einzelne Elemente oder ganze Teilbäume

verschiebt er bequem per Drag & Drop.

Dank einer Undo-Redo-Funktion revidiert

er jederzeit die Entscheidung.

Treeline speichert XML-Dateien. Zum

Austausch mit anderen Programmen exportiert

es in ein generisches XML- oder

HTML-Format und erfasst wahlweise die

gesamte Baumstruktur oder einzelne Teilbäume.

Auch für den Import ist gesorgt:

Treeline versteht das Bookmark-Format

von Mozilla und empfiehlt sich damit als

externe Lesezeichenverwaltung.

★★★★★ Treeline verwaltet kurze Notizen

ebenso effizient wie ganze Lesezeichen-Sammlungen

oder Adressenlisten.

Die Bedienung ist intuitiv, dank der Exportfunktion

bearbeiten Anwender ihre

Einträge auch mit anderen Programmen.

(U. Vollbracht/ hej)

n


Aus dem Alltag eines Sysadmin: Ip statt Ifconfig, Dig statt Nslookup

Hört die Signierten

Einführung 07/2011

Sysadmin

Viele Linux-Tools, deren Ableben längst beschlossene Sache ist, fließen den Admins fast zwanghaft trotzdem

aus den Fingern. Was hilft gegen die Macht der Gewohnheit? Äußerer Zwang. Charly Kühnast

Inhalt

72 Atop

Ein Server arbeitet zu langsam – liegt es

an der CPU, am Hauptspeicher, Storage

oder der Netzlast? Ein System- und

Prozess-Monitor hilft bei der Analyse.

76 Apache 2.4

Der wichtigste Webserver der Welt schaltet

seine Major-Versionsnummer nur alle

Jubeljahre hoch. Umso wichtiger ist es,

genau hinzusehen, wenn es so weit ist.

Die meisten Admins wissen, die Tage

von »ifconfig« sind gezählt, denn das

»ip«-Kommando ist deutlich mächtiger

– und kürzer zu tippen! Auch mir ist

das klar und ich ertappe mich trotzdem

oft dabei, den Vorgänger zu bemühen.

Kaum anders läuft es mit dem guten alten

»nslookup«: Sein Thronfolger »dig« ist

gesprächiger und als Diagnosewerkzeug

bei Nameserver-Wehwehchen viel nützlicher.

Trotzdem tut er sich schwer gegen

seinen Urahn.

Der normativen Kraft des Faktischen wegen

kommt nun Bewegung in die Sache:

Im Domain Name System ereignet sich

nämlich gerade die umfangreichste Protokollerweiterung

seiner langen Geschichte:

DNSSEC. Diese „Security Extensions“

ermöglichen es, Zoneninformationen zu

signieren und so dem DNS-Spoofing den

Garaus zu machen. DNSSEC schmiedet

eine Vertrauenskette (Chain of Trust),

die bei der Root-Zone beginnt und sich

über die generischen (».com«, ».net«, …)

und Länderdomains (».fr«, ».de«, …) fortpflanzt

und der hierarchischen Struktur

des DNS folgt [1].

Die Root-Zone, die DNS-Nomenklatur

symbolisiert sie durch einen Punkt (».«),

ist seit der Mitte 2010 mit den nötigen Signaturen

versehen. Bei Erscheinen dieses

Magazins soll auch die ».de«-Zone welche

besitzen – die Testphase

war bis zum

31. Mai angesetzt.

Dig haben

Wenn ich nun herausfinden

will, ob

eine bestimmte Domain

bereits signiert

ist oder nicht, lässt

»nslookup« mich

im Stich, weil der

Vete ran nicht mit

DNSSEC umgehen

kann. Anders Dig:

dig NS ns1.nic.fr U

+dnssec

Die Ausgabe gibt

nicht nur wie gewohnt

die korres pondierende

IP-Adresse

DNS schon rasselt.

zurück, sondern dank »+dnssec« zusätzlich

die neuen »RRSIG«-Records, in denen

die Signaturdaten gespeichert sind. Auch

die öffentlichen Schlüssel zur Validierung

sind nun direkt in der Zone abgelegt.

Dafür gibt es den »DNSKEY«-Record. Um

den öffentlichen Schlüssel der Root-Zone

auszulesen und in die Datei »root.key« zu

schreiben, gebe ich ein:

dig DNSKEY . +dnssec > ./root.key

So bewaffnet kann ich mit einem weiteren

nützlichen Tool, »drill« aus dem

Ldns-Utils-Paket [2], die gesamte Chain

of Trust zurückverfolgen bis zur Root-

Zone. Im folgenden Beispiel mache ich

das für die schwedische Webseite [www.

dnssec.se]:

drill ‐D ‐S ‐k ./root.key www.dnssec.se

Abbildung 1 zeigt die Vertrauenskette in

übersichtlicher Ascii-Grafik. Was lehrt

Abbildung 1: Mit Drill schaut Charly, ob die Vertrauenskette des schwedischen

das Beispiel? Manchmal bedarf es eines

äußeren Anstoßes, um loslassen können.

Leicht melancholisch rufe ich: Ruhe

sanft, Nslookup! (jk)

n

Infos

[1] Thomas Bader, „DNSSEC – Prinzip und Praxis“:

Linux-Magazin 12/ 10, S. 44

[2] Ldns:

[http://www. nlnetlabs.nl/projects/ldns/]

Der Autor

Charly Kühnast administriert Unix-Syste me im

Rechenzentrum Niederrhein in Kamp-Lintfort.

Zu seinen Aufgaben gehören die Sicherheit und

Verfügbarkeit der Firewalls

und der DMZ. Im heißen Teil

seiner Freizeit frönt er dem

Ko chen, im feuchten Teil der

Süßwasseraquaristik und im

östlichen lernt er Japanisch.

www.linux-magazin.de

71


Sysadmin

www.linux-magazin.de Realtime-Monitoring 07/2011

72

Der System- und Prozess-Monitor Atop

Engpässe aufspüren

Ein Server erledigt Aufgaben langsam, zu langsam. Liegt es an der CPU, am Hauptspeicher, Storage oder der

Netzlast? Der System- und Prozess-Monitor Atop hilft bei der Analyse. Martin Steigerwald

© quintanilla, 123RF.com

Atop

Auf der DELUG-DVD dieses Magazins

findet sich Atop in mehreren aktuellen

DELUG-DVD

Versionen als RPM und als Tarball. Dazu gibt

es die im Artikel erwähnten Kernelpatches

inklusive Dokumentation.

Gute Monitoringsoftware erkennt Engpässe

automatisch, hebt die entdeckten

Probleme für den Admin hervor und erstellt

Berichte über den Verlauf von Performance-Messwerten

– so sollte es sein.

Dass es für derlei Echtzeitmonitoring und

glaubwürdige Vorhersagen keiner komplexen

Softwareprodukte bedarf, zeigt

der AT Computing’s System & Process

Monitor [1].

Atop besteht aus zwei Teilen: Dem eigentlichen

Programm »atop« sowie einem

Paket mit zwei optionalen Kernelpatches,

die Informationen zum Disk-

I/ O und zum Netzwerkverkehr pro Prozess

ermitteln. Gängige Distributionen

liefern Atop als Paket mit – Debian aller-

dings nur in der veralteten Version 1.23.

Für SLES und Suse stellt das Monitoring-

Repository Pakete bereit [2]. Aktuell ist

die Version 1.26, die unter anderem breitere

Fenster besser nutzt sowie Softraid

und LVM unterstützt.

Vorbereitung

Die beiden dafür notwendigen Kernelpatches

(auf der DELUG-DVD) sind jedoch

standardmäßig nicht installiert. Wer diese

nutzen möchte, kommt nicht darum herum,

einen Kernel selbst zu kompilieren

und zu verteilen. Im Test funktionierte

das neueste Patch für die Kernelversion

2.6.33 auch mit der Version 2.6.38 [3],

auch für ältere Kernel bis zurück zur

2.6.16 stehen Patches bereit.

Sehr empfehlenswert vorab ist zudem die

Lektüre einer Fallstudie zu einem speicherfressenden

Prozess, die einen tiefen

Einblick in die Arbeitsweise der Speicherverwaltung

des Kernels gewährt und in

Atop einführt [4]. Dazu passt ein Bash-

Skript, das hilft Prozesse mit Memory

Leaks zu erkennen [5].

Nach dem Start zeigt das Programm eine

Ansicht mit allgemeinen Werten. Wie bei

»top« besteht die Anzeige aus einem globalen

Bereich und der Prozessliste. Im

Kopfbereich zeigt Atop Informationen zu

Prozessen, Prozessor, Load, Speicher inklusive

Swap sowie zu Massenspeichergeräten

und dem Netzwerk. Dabei denkt

Atop mit: Das Programm färbt Ressourcen,

die ausgelastet sind, türkis oder rot

ein. So sieht der Systemadministrator auf

einen Blick, wo der Engpass steckt. Die in

der Datei »~/.atoprc« konfigurierbaren

Grenzwerte erläutert die Manpage unter

»COLORS«.

Informationsfülle

Die Top-Alternative zeigt viele Informationen

zusätzlich. So gibt die Zeile Paging

Frequency (»PAG«) Auskunft darüber, wie

stark der Kernel gerade nach freien Pages

sucht oder auslagert. Auch die Angaben

zum Disk-I/ O und Netzwerktraffic kennt

Top nicht. Zudem berücksichtigt Atop

über das Process Accounting des Kernels

die Ressourcen-Nutzung von Prozessen,

die sich während eines Messintervalls

beenden. Dabei schreibt der Kernel in

eine Datei namens »/tmp/atop.d/atop.

acct«. Der Benutzer sollte Atop daher

nicht mit »SIGKILL« beenden, da es

dann das Process Accounting nicht stoppen

kann. Das Defaultverzeichnis unter

»/tmp« birgt allerdings ein gewisses Sicherheitsrisiko

[6].

Die Prozessliste umfasst in der mit der

Taste [G] erreichbaren allgemeinen Ansicht

Informationen wie die PID, System-

und User-CPU-Auslastung, den

physischen und virtuellen Adressraum,


aber auch über gelesene oder geschriebene

Daten (Abbildung 1). Dabei geben

»VGROW« und »RGROW« an, wie viel

zusätzlichen Adressraum der Prozess angefordert

hat. Diese Information erweist

sich in vielen Fällen als deutlich interessanter

als die absoluten Werte.

Automatisch messen

Gewöhnlich sortiert Atop die Prozesse

nach prozentualer CPU-Auslastung.

Zudem zeigt es nur jene Prozesse, die

wirklich gerade Ressourcen brauchen.

Threads, die nur warten und daher in

der Regel für die Performance-Analyse

uninteressant sind, lässt das Programm

außen vor. Die Taste [A] überredet Atop

jedoch, alle Prozesse zu zeigen.

[Strg]+[F] und [Strg]+[B] blättern in

der Prozessliste vorwärts und rückwärts.

Mit [Shift]+[P] oder [Shift]+[U] nimmt

Atop einen regulären Ausdruck entgegen,

mit dem es entweder nach Prozess- oder

Benutzernamen filtert. Per Default zeigt

Atop alle 10 Sekunden die akkumulierten

Messwerte seit der letzten Anzeige, ein

anderes Intervall (0 für keine automatischen

Updates) setzt [I].

Die Taste [T] löst eine sofortige Messung

aus und [Z] pausiert automatische Updates.

Werte, die nicht in eine Spalte passen,

zeigt Atop in Exponential-Schreibweise.

Mit [1] zeigt Atop, wie oft ein

Vorgang passierte als Durchschnittswert

pro Sekunde. Tabelle 1 zeigt einige der

wichtigsten Tastenkürzel.

Ansichten

Daneben kennt Atop weitere Ansichten:

So zeigt [M] die Hauptspeichernutzung

mit Minor und Major Page Faults, absolutem

physischen und virtuellen Adressraum

sowie prozentualer Speichernutzung.

Die Anzeige des Disk-I/ O mit der Taste

[D] funktioniert jedoch erst ab Kernel

E-Mails

sorgenfrei

Server von Heinlein Elements

DIE ARBEITEN HAND IN HAND

Die modulare Appliance-Familie aus einem

Guß, verfügbar in Hardware oder virtuell

http://www.heinlein-support.de/elements

MAIL-ARCHIV

Gesetzeskonform

und revisionssicher

ANTI-SPAM

Blocken statt

verwalten

IMAP-SERVER

Es muss nicht immer

Groupware sein

MAILTRACE

E-Mail-Recherche

für Helpdesks

Abbildung 1: Die Desktopsuche in KDE und das Kompilieren eines Kernels beschäftigen ein Fujitsu Lifebook

S751 mit Intels I-7-2620M-Quadcore-Prozessor und Toshiba-SSD.


Sysadmin

www.linux-magazin.de Realtime-Monitoring 07/2011

74

Abbildung 2: Atop zeigt die Disk-I/ O-Werte beim Dist-Upgrade auf einem Thinkpad T42. Detailliertere Informationen

gibt es mit Kernelpatch, einfacher installiert ist Atop jedoch ohne.

Das Debian-Paket richtet

automatisch ein

Init-Skript ein, das

Atop auch in Abwesenheit

Messwerte

aufzeichnen und in einem

Bi närlog speichern

lässt. Unkonfiguriert speichert

Atop alle 10 Minuten akkumulierte Messwerte.

Wer dies ändern möchte, passt im

Init-Skript die folgende Zeile an:

DARGS="‐a ‐w /var/log/atop.log 600"

Atopsar misst wahlweise in Realtime oder

berichtet über gespeicherte Performance-

Daten. So erstellt »atopsar -d 1 10« zehn

Messungen der Diskauslastung, eine pro

Sekunde.

Auch listet Atop nur genutzte Ressourcen

– hilfreich bei vielen Laufwerken, CPUs

oder Netzwerkkarten. Mit den entsprechenden,

in der Manpage gut zusammengefassten

Optionen zeigt Atopsar Berichte

zu Prozessor, Hauptspeicher und

zu Netzwerk-Werten.

Berichte erstellen

2.6.20 mit der Option »CONFIG_TASK_IO

_ACCOUNTING« (Standard bei vielen Distributionen)

oder mit einem zusätzlichen

Patch. Mit einem Standardkernel zeigt

Atop das gelesene und das geschriebene

Datenvolumen sowie unter »WRDSK_

CANCEL« zu schreibende Daten, die der

Prozess gelöscht hatte, bevor der Kernel

sie schrieb (Abbildung 2).

Mitunter löscht ein Prozess Daten, die ein

anderer geschrieben hat. In Atop tauchen

dann das geschriebene Datenvolumen

»WRDSK« und »WRDSK_CANCEL« in

verschiedenen Zeilen auf. Mit Kernelpatch

zeigt Atop die Anzahl der Leseund

Schreib-Requests sowie deren durchschnittliche

und gesamte Größe.

Die Anzeige des Netzwerktraffic pro Prozess

(Abbildung 3) gelingt indes nur mit

dem Kernelpatch »cnt«. Dann aber zeigt

Atop auch die Anzahl der empfangenen

und gesendeten TCP- und UDP-Pakete

sowie deren Größe. Details zum Scheduling

liefert [S]. So sieht der Admin genau,

wie viele Threads eines Prozesses liefen

(»TRUN«) oder unterbrechbar (»TSLPI«)

oder ununterbrechbar (»TSLPU«) warteten.

Zudem fasst Atop Prozesse mit [P]

nach Programmen zusammen, mit [U]

nach Benutzern.

Sortieren

Je nach Ansicht sortiert Atop die Prozessliste

nach prozentualer Prozessor-,

Hauptspeicher-, Massenspeicher- oder

Netzwerkauslastung. Tastenkombinationen

steuern die Sortierung auch unabhängig

von der Ansicht. Besonders interessant

erscheint das Sortieren nach am

Gibt man mit »-b« und »-e« eine Anfangsund

Endzeit an, so schaut Atopsar in das

Binärlog »/var/log/atop.log«. Eine andere

Datei lässt sich mit »-r« angeben. Die

meisten gebrauchten

Ressourcen mit [Shift]

+[A]. So zeigt Atop

auf einen Blick, welche

Tabelle 1: Tastenkombinationen

Funktion

Allgemeine Ansicht

Taste

[G]

Prozesse den Engpass,

Ansicht

also die am meisten in

Hauptspeicher

[M]

Anspruch genommene

Massenspeicher

[D]

Ressource, wie stark

Netzwerk

[N]

auslasten.

Scheduler

[S]

So interessant diese

Nach Programm

[P]

Möglichkeiten für die

Nach Benutzer

[U]

Realtime-Performance-

Ana lyse auch sind –

Nach Befehlszeile

[C]

wer möchte schon

Sortieren

während der ganzen

Zeit vor der Bildschirmanzeige

sitzen und den

Nach CPU-Auslastung

Nach Speicherauslastung

Nach Massenspeicherauslastung

[Shift]+[C]

[Shift]+[M]

[Shift]+[D]

Server beobachten? Nach Netzwerkauslastung

[Shift]+[N]

Hier kommt die Möglichkeit,

mit Atopsar

Berichte zu erstellen,

gerade recht.

Nach meistgenutzter Ressource

Prozessliste

Alle/ aktive Prozesse

Vorwärts blättern

[Shift]+[A]

[A]

[Strg]+[F]

Rückwärts blättern

[Strg]+[B]

Filtern nach Prozessname

[Shift]+[P]

Atopsar

Filtern nach Benutzername

[Shift]+[U]

Intervall

Ändern

[I]

Manuell Messung auslösen

[T]

Pause

[Z]

Anzeige

Zähler als Durchschnitt pro Sekunde [1]


Abbildung 3: Nur mit gepatchtem Kernel zeigt Atop den Netzwerktraffic pro Prozess.

Logrotate-Konfiguration in Debian hebt

14 Dateien auf, die jeweils einen Tag umfassen.

Mit »-R« fasst Atop mehrere Werte

zusammen, indem es deren Durchschnitt

ausrechnet.

Auch Atopsar erstellt Berichte nach Prozessen:

So zeigen »-O«, »-G«, »-D« und bei

gepatchtem Kernel »-N« jeweils die drei

Prozesse, die am meisten Prozessorzeit,

residenten Speicher, Disk-I/ O oder IPv4/

IPv6-Netzwerktraffic verursachten (Abbildung

4). Bei Live-Messungen stehen

diese Berichte nicht zur Verfügung.

Parseable Output –

maschinenlesbare Ausgaben

Wer Informationen zu allen Prozessen

oder anderen Werten möchte, dem stellt

Atop mit der Option »-P« maschinenlesbare

Ausgaben zusammen. Näheres

dazu, zum Beispiel zur Reihenfolge der

ausgegebenen Felder, erläutert die Atop-

Manpage unter »PARSEABLE OUTPUT«.

Zum Beispiel schreibt

die Binärlogs von Atop auch im interaktiven

Modus betrachten. Dabei funktionieren

alle üblichen Tastenkombinationen.

Die Taste [T] springt einen Messpunkt

nach vorne, die Kombination [Shift]+[T]

einen zurück. Zusätzlich mit der Option

»-P« erstellt Atop aus einem Binärlog maschinenlesbare

Textausgaben.

Fazit

Atop überzeugt bei der Realtime-Analyse,

indem es Engpässe im System unmittelbar

sichtbar macht. Die Integration einer

Hauptspeicher- und Massenspeicher-

Ansicht verschafft dem Admin einen Gesamtüberblick

über das System. Denn oft

liegt es eher am Storage als an der CPU,

wenn ein Dienst langsam läuft.

Schade ist lediglich, dass die Netzwerk-

Ansicht pro Prozess nur mit einem gepatchten

Kernel funktioniert. Die Berichtsfunktionen

eignen sich eher für die

nähere Vergangenheit. Für Langzeit-Aufzeichnungen

ergibt eine RRD-basierte Alternative

wie Collectd mitunter deutlich

mehr Sinn. (mfe)

n

Infos

[1] Atop: [http:// www.atoptool.nl]

[2] Servermonitoring-Projekt für Suse:

[http://download. opensuse.org/

repositories/ server:/monitoring/]

[3] Atop-Kernelpatches:

[http://atoptool. nl/ downloadpatch.php]

[4] Gerlof Langeveld, Jan Christiaan van

Winkel, „Case study with atop, May 2010:

memory leakage“: [http://atoptool.nl/

download/ case_leakage.pdf]

[5] Findleak im Archiv: [http://atoptool.nl/

download/ atopscripts-1.1.tgz]

[6] Teodor, Debian-Fehlerbericht 622794,

„Atop: vulnerable to symlink attack via

insecure /tmp directory or file“:

[http://bugs. debian.org/bug=622794]

Der Autor

Martin Steigerwald arbeitet als Trainer, Consultant

und Systemadministrator bei der Team(ix)

GmbH in Nürnberg. Schwerpunkte seiner Tätigkeit

sind Linux-Schulungen sowie die Konzeption,

Installation und Wartung solider IT-Infrastruktur

auf Basis von Debian Linux. Er hält bei mehreren

Schulungsanbietern Trainings zum Thema

Performance-Analyse und Tuning.

Realtime-Monitoring 07/2011

Sysadmin

www.linux-magazin.de

75

atop ‐i 2 ‐P CPU,PRC,MEM,PRM,DSK,PRD >U

/tmp/Uprozesse.log

alle 5 Sekunden die CPU-, Speicher- und

Diskauslastung allgemein sowie nach

Prozessen aufgeschlüsselt in eine Textdatei.

Zudem lassen sich beispielsweise

mit

atop ‐r /var/log/atop.log.1 ‐b 14:00 ‐e U

18:00

Abbildung 4: Atopsar zeigt dem Anwender in einem Ausschnitt, womit das Thinkpad T42 des Autors beschäftigt

war, hier beim Schreiben dieses Artikels.


Sysadmin

www.linux-magazin.de Apache 2.4 07/2011

76

Apache 2.4

Indigener Ausblick

Er ist schon in Sichtweite, der neue Apache-Webserver 2.4. Der letzte Antrittsbesuch eines Häuptlings,

Apache 2.2 sein Name, liegt bereits über fünf Jahre zurück. Der Neue soll ein schneller Läufer sein, erzählt

man sich am Lagerfeuer. Jan Kleinert

© Francisco Javier Quintana Galván, 123RF.com

Als außerordentlich wichtige Infrastrukturkomponente,

die allerorten als

geschäftskritische Applikation läuft,

neigt der Apache-Webserver [1] nicht zu

überraschenden Innovationen. Das ist

kein Manko, ganz im Gegenteil: Admins

mögen stabile APIs und eine konstante

Struktur der Konfigurationsdateien. Ein

Webserver ist nunmal kein Videoplayer,

bei dem sich der Anwender nach dem

morgendlichen Update über ein paar

neue Knöpfe freut.

Umso bedeutsamer ist es, wenn Apache

ein Major-Update ankündigt. Zuletzt

war das im Dezember 2005 mit Version

2.2.0 der Fall. Die technisch größte Umstellung

fand bislang im Jahr 2000 statt

mit dem Übergang von Version 1.3 auf

2.0 [2]. Um es vorweg zu nehmen: So

revolutionär wird der Übergang von 2.2

zu 2.4 nicht – aber umfangreich genug

[3]. Langjährige Beobachter meinen,

dass Menge und Qualität der Änderungen

zumindest größer ausfallen als bei

Upgrade 2.0 zu 2.2. Denn die Konkurrenz

schläft nicht. Neben dem ewigen Zweiten

Microsoft IIE drängen den Platzhirschen

auch funktional schwachbrüstige, aber

geschwindigkeitsoptimierte Verfolger

(siehe Abbildung 1).

Die Entwickler liegen offensichtlich deutlich

hinter ihrem ursprünglichen Zeitplan:

Vor einem Jahr prognostizierten sie

noch Ende 2010 als Releasezeitpunkt der

Version 2.4.0. Zum Redaktionsschluss lag

Entwicklerversion 2.3.12-beta vor, die bereits

alle neuen Komponenten enthält.

Dynamische Module

Neben neuen Versionen haben die Programmierer

viel an der Geschwindigkeit

gearbeitet. Die meisten Änderungen betreffen

die MPM-Architektur (Multi Processing

Modul). In solche Spezialmodulen

lagert Apache den Code aus, der die

Prozesse und Threads verwaltet. MPMs

nehmen eingehende HTTP-Anfragen

möglichst schnell und ressourcenschonend

an und verarbeiten sie.

Jedes MPM implementiert eine andere

Strategie, mit der der Webserver die anfallenden

HTTP-Anfragen abarbeiten soll.

Ein Webmaster bekommt so die Möglichkeit,

die für seine jeweilige Anwendung

geeignetste Variante auszusuchen

(siehe Kasten „Vorgefertigte Apache-

MPMs“). Die Apache-Entwickler erlauben

es in MPMs übrigens schon länger

ausdrücklich, betriebssystemspezifischen

Code zu benutzen. Solche MPMs lassen

sich nur auf diesem einen Betriebssystem

übersetzen, laufen dann dort aber Performance-optimiert

– ein Effekt, der insbesondere

auf Nicht-Unix-Betriebssystemen

zu beobachten ist.

Die mit Apache 2.0 eingeführten MPM-

Architektur sah ursprünglich vor, das

gewählte MPM in das Apache-Binary

einzukompilieren. Apache 2.4 kann nun

mehrere Module passend zum Core-Binary

kompilieren und sie dynamisch zur

Laufzeit konfigurierbar machen. So erhält

der Webmaster von Servern mit langen

Uptimes die Chance, den laufenden Httpd

auf sich ändernde Useraktivitäten hin

umzukonfigureren. Zudem versprechen

die Entwickler eine bessere Unterstützung

für asynchrone Lese- und Schreiboperationen

im Event-MPM (Async Write

Completion, die Threads freigibt, sobald

der Inhalt übertragen ist, das Netz beim

Zurückschreiben aber blockiert).

Feinfühliges Loggen

Der Admin kann in Apache 2.4 das Loglevel

für Verzeichnisse und Module unterschiedlich

einstellen (»TRACE1« bis

»TRACE8«) und auch in extra Logfiles

auflösen. Zudem führen die Entwickler


THE 6TH CONFERENCE ON NAGIOS

62 Mio.

Apache

Microsoft

Sun

Nginx

Googlev

31 Mio.

NCSA

Lighttpd

Andere

0

2000 2006 2011

Abbildung 1: Die absolute Verbreitung von aktiven Webservern von 2000 bis heute zeigt Apache als Erstplatzierten.

Damit das so bleibt, legen die Entwickler alle paar Jahre eine neue Version auf (Quelle: Netcraft)

beim Error-Logging ein neues Format ein,

das mit Subsekunden-Zeitstempeln (in

Mikrosekunden) hantiert.

Zudem bekommt Apache 2.4 neue Module

mit auf den Weg: Mit Mod_lua findet

die Skriptsprache Lua für Konfiguration

und Logik ihren Weg ins Indianerdorf,

Mod_proxy_fcgi sorgt für Fast CGI und

Mod_ratelimit beschränkt wenn nötig die

Bandbreiten für die Clients.

Als Fazit lässt sich sagen, dass Webmaster

mit einiger Freunde und ohne Bedenken

der neuen Version entgegensehen dürfen.

Vorgefertigte Apache-MPMs

Prefork: bei diesem Unix-typischen Single-

Threaded-Veteranen erzeugt ein Eltern-Prozess

immer einen Vorrat von Kind-Prozessen für

die eingehenden HTTP-Anfragen. Die Optionen

»MinSpareServers« und »MaxSpareServers«

legen den Mindest- und den Maximal-Vorrat

an Kindprozessen fest. Sinkt die Anzahl der

freien Prozesse unter die Anzahl »MinSpare-

Servers«, werden neue erzeugt, steigt sie über

»MaxSpareServers«, entfernt Apache sie aus

dem Speicher. Da jeder Prozess genau eine

Anfrage gleichzeitig bearbeitet, kann durch

einen Fehler in einem solchen Prozess auch

nur eine Verbindung mit dem Server verloren

gehen, ein Vorteil vor allem bei dynamisch generierten

Seiten.

Worker: Im Unterschied zu Prefork können hier

in jedem Apache-Prozess mehrere Threads laufen;

wie viele, das legt die Konfigurationsoption

»ThreadsPerChild« fest. Der Httpd achtet

auf die verbliebene Anzahl der unbeschäftigten

Threads. Die Direktiven »MinSpareThreads«

und »MaxSpareThreads« geben an, wie viele

Threads unbeschäftigt sein dürfen, bevor

Ob sich der von den Entwickler vermutete

Geschwindigkeitsvorteil gegenüber

dem noch amtierenden Häuptling einstellt,

muss die Praxis zeigen.

Infos

[1] Apache Httpd: [http:// httpd. apache. org]

[2] Thomas Grahammer, „Apache 2.0“, Linux-

Magazin 10/ 02, S. 44

[3] „New features in Apache HTTP Server 2.4“:

[http:// httpd. apache. org/ docs/ trunk/

new_features_2_4. html]

neue Prozesse erzeugt oder aus dem Speicher

entfernt werden. Worker sieht ein Thread

pro TCP-Verbindung vor. Threads verbrauchen

unter Linux weniger Ressourcen als Prozesse.

Andererseits kann ein fehlerhafter Thread seinen

Prozess mitreißen.

Event: Das in Apache 2.2 noch als experimentell

markierte Event-MPM ist mit Version 2.4

produktiv einsetzbar – möglicherweise wird

es gar das Default-Modul. Event sorgt für eine

Lastverteilung unter den gestarteten Threads,

indem ein Listener-Thread Events auf Verbindungen

überwacht und den Worker-Threads zuteilt.

Ziel ist es, die Haupt-Threads dynamisch

zu entlasten, indem der Algorithmus Aufgaben

an untergeordnete Threads delegiert. Tests

zeigen, dass davon vor allem Multicore-Maschinen

profitieren.

Simple: Neues experimentelles MPM, das den

Code und die Konfiguration zu vereinfachen

trachtet. Wie Event arbeitet es multi-threaded

und Event-basiert. Simple skaliert mittels zusätzlicher

Prozesse; pro Prozess kommt eine

feste Anzahl von Threads dazu.

www.netways.de/osmc

CALL

FOR

PAPERS

BIS 30.7

Die OSMC on Nagios

(früher “Nagios Konferenz”) findet

in diesem Jahr zum 6. Mal statt.

Die Veranstaltung bildet eine

Plattform, zum Austausch und zur

Weiterbildung rund um das Thema

Open Source Monitoring mit Nagios.

NÜRNBERG

29.-30. November 2011

WWW.NETWAYS.DE/OSMC


Forum

www.linux-magazin.de 15 Jahre Tux 07/2011

80

Linux-Stilikone Tux feiert 15. Geburtstag

Pinguin in Flegeljahren

Kein anderes Symbol steht so sehr für das Betriebssystem Linux wie Tux, der zufrieden dreinblickende und

fröhliche Pinguin. Jetzt feiert das Maskottchen seinen 15. Geburtstag. Rückblick auf eine ungewöhnliche

Kampagne. Text und Fotos: Nils Magnus

Linus’ Plan: Der neue Kernel sollte per

symmetrischem Multiprocessing (SMP)

erstmals auf mehr als nur einer CPU

gleichzeitig laufen, sich von der X86-

Archtektur emanzipieren (neu war DECs

Alpha-Prozessor) und auch Dateisystemzugriffe

zwischenspeichern – eine frühe

Vorversion des heutigen Virtual Filesystem

Switch (VFS).

Im Mai 1996 war der Linux-Kernel mit

der Version 2.0 fast fertig, nur eins fehlte

noch: Ein Logo oder ein Maskottchen,

das das damals noch sehr jugendliche,

aber immer selbstbewusster auftretende

Linux versinnbildlichen sollte.

Im Zuge der Veröffentlichung von Linux

2.0 am 9. Juni 1996 [1] diskutierten die

Kernelentwickler in ihrem Zentralorgan,

der Linux Kernel Mailinglist (LKML), unter

der Überschrift „Linux Logo“ eine

Reihe von Vorschlägen, die Tiere, offene

Rechnungen mit anderen Betriebssystemen

(besonders Windows und Free BSD)

und Textarrangements einschlossen.

Wilde Attacken bei 160 km/ h

Wie es letztlich zum Pinguin als Wappentier

kam, unterstreicht einmal mehr die

Führung von Linus Torvalds als Primus

inter Pares im Kernelprojekt: Nachdem

schon viele Vorschläge präsentiert waren,

schrieb Torvalds eine Reihe von Anekdoten,

nach denen ein Pinguin ihn 1993 bei

einem gemeinsamen Besuch mit Samba-

Entwickler Andrew Tridgell im Zoo von

Canberra in Australien gezwickt habe.

Seither litte er unter „Penguinitis“, die für

schlaflose Nächte am Computer verantwortlich

sei. Einwänden, der Vogel wirke

zu behäbig und wenig dynamisch,

konterte Torvalds mit

dem Hinweis, dass die Kritiker

vermutlich noch nie einen

Pinguin mit über 160 Sachen

auf sich zukommen gesehen

hätten – nach der eindrucksvollen

Anekdote fand die Suche

nach dem Logo für die

LKML ein rasches Ende.

Nun ging es noch um die Ausgestaltung,

zu der Torvalds

einige Vorstellungen hatte:

Satt und zufrieden solle der

flugunfähige Seevogel der Südhalbkugel

aussehen, forderte er.

Es ginge mehr darum, ein pathisches, gerne auch etwas

sym-

albernes Symbol zu finden, das seinen

Spaß am Coden ausdrücke, weniger um

einLinux Corporate Image“.

Ruhige Hand

Ideen, wie das umzusetzen wäre, hatten

viele, aber letztlich bewies Gimp-Entwickler

Larry Ewing eine ruhige Hand

und zeichnete mit Hilfe des von ihm

mitentwickelten Grafikprogramms den

klassischen Ewing-Tux [2], den die Entwickler

dann ohne Gegenstimmen sogar

als Grafikdatei mit dem Kernel 2.0 veröffentlichten.

Bis heute zeigt die Anzahl

der Pinguin-Portaits die Zahl der laufenden

Linux-Kerne beim Booten an.

Torvalds verabschiedete sich mit der Ankündigung

der runden Release erst einmal

in den Urlaub und machte damit die

Bühne frei, um einen Namen für den zufriedenen

Fischliebhaber zu finden. Die

smokingähnliche Zeichnung seines Federkleids,

im englischen Sprachraum als

Tuxedo bezeichnet, war sicherlich eine


© François Schnell

15 Jahre Tux 07/2011

Forum

Inspiration, aber Kernelentwickler

James Hughes schlug die Bezeichnung

Tux als Kurzform für

„Torvolds Unix“ (sic!) vor. Die Bezeichnung

hat sich seither durchgesetzt [3].

Skepsis gegenüber PR

Hughes stand für eine anfangs kleine

Zahl von Linux-Anhängern, die auf die

Bedeutung von Public Relations für die

Verbreitung des Betriebssystems hinwiesen.

Vielen Entwicklern waren Begriffe

wie Marketing und öffentliche Wahrnehmung

suspekt. Umso erfolgreicher bewerten

heute viele die Wahl des Pinguins: In

unzähligen Zeichnungen, Plüschtieren,

Quietsche-Spielzeugen oder Kostümen

abgewandelt, bleibt der Ewing-Pinguin

der Fixpunkt, den eine große Öffentlichkeit

auch über Systemverwalter und Kernelhacker

hinaus kennt.

Heute hat die Linux-Gemeinde etwas ihrer

naiven, rein technikzentrierten Unschuld

verloren: Viele Projekte ernennen

eigene Marketingbeauftragte, entwerfen

Releasepläne und organisieren publikumswirksame

Auftritte auf Messen und

Kongressen ganz bewusst. Das Ergebnis

kann sich sehen lassen: Tux fühlt sich

überall zu Hause, wie die Fotos aus seinem

Reisealbum auf diesen Seiten belegen.

Kaum eine öffentliche Verwaltung,

pathieträger eine Chance gab (oder dies

auch wieder verwarf).

Die Marke als Sinnbild für Linux ist sogar

so stark, dass sie sich eine Auszeit gönnen

darf: Im März 2009 schickte Torvalds

Tux für drei Monate in Urlaub und ließ

ihn von Tuz, dem tasmanischen Teufel,

einer bedrohten Tierart in Tasmanien,

vertreten. Das machte Tux nichts aus,

denn er ist – im Gegensatz zu Linux an

sich – wesentlich weniger erklärungsbedürftig

und taugt so auch als Wiedererkennungsmerkmal

für Freunde, Partner

und Verwandte.

Liberale Lizenz

Dazu tragen vermutlich auch die liberalen

Nutzungsbedingungen bei, die Ewing

seiner Kreation gab und die eigentlich

nicht einmal eine Lizenz sind: Er erlaubt

nämlich sowohl die Nutzung als auch die

Veränderung des Pinguins und fordert

Namensnennung nur dann, falls tatsächlich

einmal jemand nachfragen sollte.

Markenschutzanwälte rollen bei so viel

Freigiebigkeit mit den Augen, aber bislang

hat es noch kein einiges Unternehmen

geschafft, die Ikone für sich allein zu

vereinnahmen – für einen Fünfzehnjährigen

eine reife Leistung!

n

Infos

[1] Linus Torvalds, „Linux v2.0 released“:

[http:// groups. google. com/ group/ comp. os.

linux. announce/ browse_thread/ thread/

c8b308464add2522]

[2] Larry Ewing, „Linux 2.0 Penguins“:

[http:// www. isc. tamu. edu/ ~lewing/ linux/]

[3] Steve Baker, „The History of Tux the Linux

Penguin“:

[http:// www. sjbaker. org/ wiki/ index. php?

title=The_History_of_Tux_the_Linux_Penguin]

www.linux-magazin.de

81

die nicht mit einem Projekt dem Sym-

© François Schnell


Forum

www.linux-magazin.de Recht 07/2011

82

EU-Gerichtshof entscheidet zum elektronischen Vertrieb

Völlig erschöpft

Der Weiterverkauf von CDs und DVDs ist üblich, der von Downloads sollte doch genauso funktionieren – oder?

Das darf nicht sein, fordern die einen, dass es dafür höchste Zeit ist, meinen die anderen. Wer Recht hat, entscheidet

schon bald der Europäische Gerichtshof. Fred Andresen

© Vitaly Titov, 123RF.com

Derzeit liegt eine Vorlage beim EuGH,

der über die Zukunft des elektronischen

Vertriebs über das Internet entscheiden

wird. Es geht ums Urheberrecht und den

Erschöpfungsgrundsatz. Erwartet wird

eine Antwort auf die Frage, ob ein Nutzer,

der eine Dateikopie aus dem Internet

lädt, egal ob Text-PDF, Video- oder

Musikdatei, diese künftig auch ohne urheberrechtliche

Zustimmung weiterveräußern

darf.

Warum das so wichtig ist? Wegen der

Kontrolle. Weil in Deutschland der Urheber

bestimmen darf, was mit seinen

Werken passiert – grundsätzlich. Die

Ausnahme ist hier der Erschöpfungsgrundsatz.

Der besagt, dass sich die

Verwertungs- und Verbreitungsrechte an

einem Werkstück erschöpfen, sobald es

rechtmäßig, also mit Willen des Urhebers,

in den Verkehr kommt, also sobald

es erstmalig verkauft wird. Danach kann

sich der Urheber auf den Kopf stellen, jedenfalls

was das weitere Wohl und Wehe

dieses einen Werkstücks betrifft. Gemeint

ist dabei die übliche Massenverwertung

von Werken, wie sie bei einzelnen Werkkopien,

einzelnen Büchern, Musik-CDs

oder Film-DVDs erfolgt.

Der Erschöpfungsgrundsatz ist hier eine

Ausnahme, eine Einschränkung der ansonsten

recht weit reichenden Urheberrechte.

Und Ausnahmen sind gewöhnlich

eng ausgelegt, daher war den meisten

Betroffenen bisher immer klar, dass,

wenn das Gesetz von einem „Vervielfältigungsstück“

spricht, damit nur ein körperlicher

Gegenstand gemeint sein kann

– etwas, das sich in die Hand nehmen

lässt. Das Trägermedium des eigentlich

wichtigen Inhalts eben.

Abstraktionsprinzip für Gutgläubige

Das deutsche Recht unterscheidet bei einem

Kaufvertrag streng zwischen den einzelnen Geschäften:

Der eigentliche Vertrag ist das Verpflichtungsgeschäft,

mit dem sich etwa der Verkäufer

dazu verpflichtet, das Eigentum an einer

Sache zu verschaffen und diese zu übergeben.

Der Käufer verpflichtet sich im Gegenzug, diese

Sache zu bezahlen. Beides erfolgt wiederum in

zwei weiteren Geschäften, den Verfügungsgeschäften:

Eines betrifft die Übergabe der Sache,

das andere die Übergabe des Geldes.

Jedes dieser Geschäfte lässt sich rechtlich

unabhängig betrachten, auch wenn sie zusammengehören.

So kann etwa der Vertrag selbst

unwirksam sein, wenn dem Verkäufer die

übertragenen Rechte (das Eigentum) gar nicht

zustehen. Das muss nicht automatisch dazu

führen, dass die anderen Geschäfte unwirksam

sind. Zum Beispiel beim gutgläubigen Erwerb

[1]: Unter bestimmten Voraussetzungen ist

die Eigentumsübertragung (eines der Verfügungsgeschäfte)

beim Kauf einer beweglichen

Sache, deren Verkäufer gar nicht Eigentümer

war, rechtswirksam. Dabei kommt es unter anderem

darauf an, ob der Käufer wusste oder

wissen musste, dass das Kaufobjekt gar nicht

dem Verkäufer gehört.

Der gutgläubige Erwerb, bei dem die Eigentumsübertragung

wirksam ist, der Käufer die

Sache also behalten darf, gilt laut Gesetz bei

beweglichen Sachen, nicht aber bei bloßen

Rechten. Nach dem deutschen Rechtssystem

gilt nämlich für bewegliche Sachen die gesetzliche

Vermutung, dass diese dem Besitzer auch

gehören. Besitz und Eigentum können jedoch

auseinanderfallen, wie jeder weiß, der zur

Miete wohnt. Der Käufer einer beweglichen

Sache darf davon ausgehen, dass dem Besitzer

eines Gegenstands dieser auch gehört.

Das gilt aber nicht für Rechte, weil hier keine

wirkliche „Sachherrschaft“ eine Eigentumsvermutung

zulässt. Daher kann man keine Rechte

gutgläubig erwerben. Und da gelangt man wieder

zum Urheberrecht, weil es hier um die Nutzungsrechte

an geschützten Werken geht.


Abbildung 1: Sobald der elektronische Vertrieb beginnt, enden die rechtlichen Gemeinsamkeiten.

Aber Datenträger sind out: Sie sind langsam,

sie brauchen Platz, sie sind anfällig

und das ganze Vertriebswesen macht

sie teuer. Wo es möglich ist, werden die

Daten heute elektronisch übers Internet

verschickt, statt sie in Kartons und auf

Paletten durch die halbe Welt zu karren,

bevor sie irgendwo verstauben.

Aus dem Regal ins Netz

Die Evolution lief bislang zweistufig:

Zuerst wurde die Form der Werke platzsparend

durch die digitale ersetzt, aus

Büchern wurden PDFs, aus Schallplatten

CDs, aus dem Kinosessel die DVD. Dann

ging es zeit- und kostensparend in den

Vertrieb, der nun ebenfalls dem digitalen

Pendant weichen muss: Statt Läden

gibt’s Webshops, statt Güterfernverkehr

die Datenautobahn.

Und alle freuen sich: Der Kunde hat die

Daten in null Komma nichts auf dem

Rechner und darf konsumieren – vorausgesetzt

die Kreditkarte ist gedeckt.

Der Verkäufer freut sich, weil er den Gewinn

nicht mehr mit irgendwelchen Vertriebspartnern

teilen muss, sondern zusätzlich

seine Ware sofort an den Mann

und oft noch dessen (Kontakt-)Daten in

seinen Besitz gebracht hat. Eine Winwin-Situation,

wie Wirtschaftskundige

wissen.

Dazu kommt noch der Bonus des Urheberrechts,

den jeder rechtskundig beratene

Unternehmer schätzt: Digital verkaufte

und vertriebene Daten sind keine

„Werkstücke“, sie sind körperlos. Die

Folge: Der Kunde darf sie auf Flohmärkten

und Auktionsplattformen nicht weiterverkaufen.

Noch besser: Sie können

als nicht bewegliche Sachen gar nicht

dort landen (siehe Kasten „Abstraktionsprinzip

für Gutgläubige“).

Digitale Gleichbehandlung

Es ist eine ganz andere Sache, ob ich

mein gekauftes Buch wieder weiterverkaufen

darf, wenn ich es ausgelesen

habe, oder ob der Marktwert meiner Datei

futsch ist, weil die Handelskette bei

mir endet. Gerade wenn ich für Buch und

Datei den gleichen Preis bezahle. Wegen

dieser Ungleichbehandlung kam es in

den letzten Jahren zu einer Vielzahl von

Gerichtsentscheidungen, manche stärken

den Erschöpfungsgrundsatz, andere weichen

ihn auf.

Dass DVDs als körperliche Datenträger

als Werkstück gelten, ist verständlich,

dass die Notebook-Festplatte mit dem

vorinstallierten Windows das auch sei,

war für einige schon schwerer nachvollziehbar.

Dass zuletzt auch – Not macht

erfinderisch – ein Datenstrom dem Werkstück

untergeschoben wurde, offenbarte,

dass die Juristen Hilfe brauchen. Dass

der Käufer einer CD anders dastehen soll

als der eines Musik-Downloads, ist kaum

verständlich, da beides im Prinzip das

Gleiche ist.

Allerdings auch nur im Prinzip gleich

und dann auch nur auf einer Seite des

Geschäfts, nämlich beim Erwerber. Entscheidend

ist: Beim Verkauf einer CD ist

diese auf einer Seite weg, beim früheren

Eigentümer nämlich. Bei der Weitergabe

digitaler Daten, bei der es sich technisch

bedingt stets um einen Kopiervorgang

handelt, ist dies nicht der Fall. Hier ist

das „Werkstück“ auch nach dem Weitergeben

noch beim Verkäufer vorhanden.

Und wer wirklich glaubt, dass jeder brav

all seine Kopien löscht, wenn er einen

Download-Erwerb weiterveräußert, dem

ist nicht mehr zu helfen.

Legitime Interessen herrschen also auf

beiden Seiten, bei den Befürwortern der

strengen Auslegung des Erschöpfungsgrundsatzes

ebenso wie bei denen, die

ihn auch auf digitale Downloads erstreckt

sehen wollen.

Gehört mein Download mir?

Ein oft verbreiteter Irrtum in diesem Zusammenhang:

Das Recht am Download

ist nur ein Nutzungsrecht, kein Eigentum.

So wie beim Buch nur Eigentum

am Werkstück besteht, an den einzelnen

Seiten, am Rücken, am Einband,

am Umschlag – nicht aber am Inhalt, an

der Geschichte selbst, so besteht beim

Download alles nur im Nutzungsrecht.

Abbildung 2: Digitale Daten sind körperlos und haben auf Flohmärkten nichts zu suchen.

© Vitaly Titov, 123RF.com

© Martina Berg, Fotolia.com

Recht 07/2011

Forum

www.linux-magazin.de

83


Forum

www.linux-magazin.de Recht 07/2011

84

Abbildung 3: Ob die Musik von der CD kommt oder von einem digitalen Download, bewirkt derzeit einen für

Käufer bislang schwer nachvollziehbaren Unterschied.

An den Daten ohne Werkstück gibt es

kein Eigentum. Der Satz „Das gehört mir,

daher darf ich damit tun, was ich will!“

ist schlichtweg falsch.

Nun ist der Europäische Gerichtshof

am Zuge: Bei einem Rechtsstreit um die

Zulässigkeit „gebrauchter Softwarelizenzen“

hat der mit der Sache zuletzt

befasste Bundesgerichtshof die Frage

aufgeworfen, ob sich das urheberrechtliche

Verbreitungsrecht erschöpft, wenn

der Ersterwerber einer Softwarelizenz mit

Zustimmung des Rechte-Inhabers (des

Verkäufers) eine Kopie durch Herunterladen

erstellt.

Für die Beantwortung dieser Frage

kommt es darauf an, wie die einschlägigen

Bestimmungen des Urheberrechts,

die Paragrafen 69c und 69d UrhG, auszulegen

sind. Weil diese Vorschriften nur

die EU-Software-Richtline [2] umsetzen,

ist für deren gemeinschaftsübergreifende

Auslegung der Europäische Gerichtshof

zuständig, den der BGH daher um eine

Vorentscheidung angerufen hat [3]. Das

BGH-Verfahren ist so lange ausgesetzt.

Warten auf den EuGH

Wie wird es ausgehen? Der Erschöpfungsgrundsatz

ist nicht typisch urheberrechtlich.

Es gibt die Erschöpfung auch bei

Marken und bei Patenten. Gerade Patente

waren in den letzten Jahrzehnten

häufig Gegenstand internationaler und

europäischer Auseinandersetzungen und

Rechtsstreite. Von im Ausland kopierten

Arzneimitteln und den etwa in Afrika dadurch

entstehenden Gewinnausfällen der

Pharmakonzerne bis zu PKW-Parallelimporten

(den so genannten Grauimporten)

in der EU und der dadurch unwirksamen

Preis- und Absatzpolitik der Automobilkonzerne.

© Arvind Balaraman, 123RF

© bowie15, 123RF

Entsprechend wandelte sich der einzig

logische, allumfassende (international

wirksame) Erschöpfungsgedanke, der

sich am Werkstück orientiert, zu einer

Art differenziertem Lizenzmodell des

Rechte-Inhabers, der mehr oder weniger

bestimmen kann, inwieweit sich seine

Verbreitungsrechte erschöpfen – national,

international und nach jüngeren Diskussionen

auch regional (EU-weit).

Der EuGH wägt die Interessen ab und

vermittelt. Zuletzt mit einer Tendenz zugunsten

der Rechte-Inhaber, etwa in den

Parfumtester- [4] und Dior-Entscheidungen

[5], die willkürliche (Kennzeichnung

von Testzerstäubern als „unverkäuflich“)

oder selektive Beschränkungen (kein Verkauf

von „Luxusmiederwaren“ über Discounter)

erlauben.

Dass der EuGH den Erschöpfungsgrundsatz

auf Downloads ausdehnt, ist unwahrscheinlich.

Bestenfalls kommt etwas

wie eine selektive, beschränkte Erschöpfung

heraus, die doch wieder keine ist.

Vermutlich bleibt alles beim Alten und

die bisherige Auslegung gilt weiter: keine

Erschöpfung beim Download. (uba) n

Infos

[1] Paragraf 932 BGB: [http://www.

gesetze‐im‐internet.de/bgb/]

[2] Richtlinie zum Rechtsschutz von Computerprogrammen,

EU‐RL 2009/ 24/ EG:

[http://eur‐lex. europa.eu/LexUriServ/

LexUriServ. do? uri=OJ:L:2009:111:0016:

0022:DE:PDF]

[3] Pressemitteilung des BGH, Beschluss vom

3. Februar 2011, Az. I ZR 129/ 08: [http://

juris.bundesgerichtshof.de/cgi‐bin/

rechtsprechung/ document.py? Gericht

=bgh&Art=en& Datum=Aktuell& nr=54948&

linked=pm]

[4] EuGH, C 127/ 09 vom 3.6.2010:

[http://lexetius. com/2010,1346]

[5] EuGH, C 59/ 08 vom 23.04.2009: [http://

www.markenmagazin.de/eugh‐c‐5908

‐verkauf‐von‐luxuswaren‐an‐discounter

‐ohne‐zustimmung‐des‐markeinhabers/]

Abbildung 4: Erschöpfungsgrundsätze treiben seltsame Blüten, etwa beim Grauimport von Automobilen.

Der Autor

RA Fred Andresen ist Mitglied

der Rechtsanwaltskammer

München und der Arbeitsgemeinschaft

Informationstechnologie

im Deutschen

Anwaltverein (DAVIT).


DIE THOMAS KRENN

SILENT-FAMILIE

JETZT NEU:

Redundantes Netzteil als Lownoise erhältlich!

DIE HIGHLIGHTS DES SR108 UND SR105:

• Neueste Intel Westmere - CPUs, bis zu 3.33GHz und 6 Kerne pro CPU

• Hochwertige, energieeffiziente Speichermodule, bis zu 192 GB möglich

• Energiesparendes „High-Efficiency“ Netzteil (80plus Standard (> 80%))

• Geräuscharm durch Silent-Kit (optional)

NUR BEI UNS

509,-

AB EUR

Server individuell konfi gurieren:

www.thomas-krenn.com/lownoise_neu

Flächendeckendes Händler- und

Servicenetz in der Schweiz:

www.thomas-krenn.com/ch

www.thomas-krenn.com

EU: +49 (0) 8551 9150-0 · AT: +43 (0) 7282 20797-3600 · CH: +41 (0) 848 207970

Made in Germany!

Verkauf erfolgt ausschließlich an Gewerbetreibende, Firmen, Freiberufler (Ärzte, Rechtsanwälte etc.), staatliche Institutionen und Behörden. Druckfehler, Irrtümer und Änderungen in Preis und Ausstattung vorbehalten.

Unsere Versandkosten richten sich nach Gewicht und Versandart. Genaue Preisangaben finden Sie unter: www.thomas-krenn.com/versandkosten. Thomas-Krenn.AG, Speltenbach-Steinäcker 1, D-94078 Freyung


Forum

www.linux-magazin.de Bücher 07/2011

86

Bücher über Continuous Integration und Wireshark

Tux​liest

Das Linux-Magazin bespricht ein Buch über Continuous Integration, das den Einsatz des Tools Hudson (mittlerweile

in Jenkins umbenannt) behandelt. Der zweite Band ist dick und englischsprachig und behandelt die

Netzwerkanalyse mit Wireshark. Carsten Zerbst, Udo Seidel

Continuous Integration (CI) bedeutet,

Software nach jeder Änderung automatisch

zu bauen und zu testen. Derzeit

befindet sich diese Methode auf dem Weg

vom Hype-Thema in den normalen Entwickleralltag.

Bei der Einführung kann

das Buch „Continuous Integration mit

Hudson“ von Simon Wiest ein guter Begleiter

sein.

Bauen und Testen

Info

Simon Wiest:

Continuous Integration

mit Hudson

Dpunkt 2010

310 Seiten

40 Euro

ISBN 978-3-89864-690-1

Auf rund 300 Seiten beleuchtet der Autor

den ganzen Komplex CI, angefangen bei

den zugrunde liegenden Ideen bis hin zur

praktischen Umsetzung. Die ersten vier

Kapitel präsentieren Konzepte und Methoden

hinter CI, beschreiben die daraus

erwachsenden Praktiken und erörtern,

welches Verbesserungspotenzial sie der

Software-Entwicklung bringen.

Nach diesem Werkzeug-neutralen Teil

stellt der Verfasser die CI-Software Hudson

vor. Nach dem Vergleich mit anderen

verfügbaren Lösungen zeigt er, wie sich

Projekte mittels Hudson automatisieren

lassen. Vom einfachen Projekt zu immer

komplexeren Aufgaben demonstriert Simon

Wiest, wie sich Automatisierung mit

Hilfe der verschiedenen Jobtypen und

Plugins umsetzen lässt.

Neben typischen Aufgaben wie Auschecken,

Kompilieren und Testen behandelt

das Buch auch wichtige Themen wie

Backup, Bauen und Testen auf verschiedenen

Plattformen sowie Lastverteilung.

Selbst der Anschluss der beliebten Lavaoder

Bärchen-Lampen zur Statusanzeige

wird erklärt. Wer für ein spezifisches Problem

keine fertige Lösung findet, erhält

in einem weiteren Kapitel eine Anleitung

zum Schreiben eigener Plugins.

Die nächsten zwei Kapitel des Buchs konzentrieren

sich wieder auf die Methoden:

Es geht um Einführungsstrategien und

die entstehenden Aufwände.

Insgesamt versteht es der Autor, dem Leser

das Thema in einem lockeren Stil

nahezubringen, ohne technische Details

auszusparen oder Fallstricke zu verschweigen.

Dass „Hudson“ inzwischen

im Zuge des Sun-Aufkaufs durch Oracle

einen viel beachteten Fork zum freien

Bruder „Jenkins“ vollzogen hat, tut der

Relevanz des Buches keinen Abbruch.

Wireshark

Der Netzwerk-Sniffer Wireshark gehört

schon lange zur Werkzeugkiste vieler

Admins. Die Vielfalt der Anwendungsmöglichkeiten

kann man inzwischen

sogar in einem offiziellen Trainingsprogramm

erfahren. Das Buch von Laura

Chappell basiert auf diesem Lehrgang

und soll dem Leser unter anderem helfen

ein „Wireshark Certified Network Analyst“

zu werden.

Mit rund 800 Seiten wirkt das Buch zunächst

etwas abschreckend, aber schon

ein erstes Durchblättern zeigt, dass der

Umfang durch viele Screenshots zustande

kommt. Dies lässt sich bei einem

grafischem Tool auch kaum vermeiden.

Positiv fällt auf, dass die Autorin die Details

in den Screenshots beschriftet hat.

Eine ernst zu nehmende Beschreibung

eines Netzwerkanalyse-Werkzeugs muss

zumindest den TCP/ IP-Stack behandeln,

besser noch wäre das ISO-OSI-Schichtenmodell.

Laura Chappell behandelt dieses

Thema leider erst nach rund 40 Prozent

des Buches, was zu spät ist. Dieser Kritikpunkt

wiegt im weiteren Verlauf aber

weniger schwer, weil die Autorin den

wichtigsten Netzwerkprotokollen wie

DNS, DHCP, HTTP(S), FTP, SMTP, POP,

WLAN und VoIP jeweils ein Kapitel widmet.

Am Schluss jedes Abschnitts stehen

Fragen, mit denen der Leser seinen Wissenszuwachs

überprüfen kann.

Das im Buch vermittelte Wissen ist keineswegs

akademisch – die Praxisrelevanz

zeigt sich in vielen Beispiele aus dem Admin-Alltag,

und zu jedem Fall bekommt

der Leser einen Arbeitsplan in die Hand.

An manchen Stellen ist diese Auflistung

aber zu umfangreich und wirkt dann

unübersichtlich. Das volle Potenzial des

Werks erschließt sich dem Leser erst per

Online-Zugabe: Begleitend zum Buch finden

sich auf der Webseite [http://​www.​

​wiresharkbook.​com] über 200 MByte an

Netzwerk-Traces.

Laura Chappell bietet dem Leser eine

Fülle an Informationen. Der Band eignet

sich allerdings eher zum Lernen als zum

Nachschlagen. Mit 70 Euro ist sein Preis

recht stattlich. (mhu)

n

Info

Laura Chappell:

Wireshark Network

Analysis

University, 2010

800 Seiten

70 Euro

ISBN 978-1-893939-99-8


IT-NEWS AUS DER HAUPTSTADT

SEIT MAI 2011 IM NEUEN LOOK


Forum

www.linux-magazin.de Leserbriefe 07/2011

88

Auf den Punkt gebracht

Leserbriefe

Haben Sie Anregungen, Statements oder Kommentare? Dann schreiben Sie an [redaktion@linux-­magazin.­de].

Die Redaktion behält es sich vor, die Zuschriften und Leserbriefe zu kürzen. Sie veröffentlicht alle Beiträge mit

Namen, sofern der Autor nicht ausdrücklich Anonymität wünscht.

Langsames Ecryptfs

06/ 11, S. 50: Zum Artikel über verschlüsselte

Dateisysteme: Meine eigenen Messungen

von Verschlüsselungsverfahren

(DM-Crypt und Ecryptfs) und Dateisystemen

(Ext 4 und Btrfs mit/ ohne Komprimierung)

auf einer C300-SSD von Crucial

kommen zu anderen Ergebnissen. Vor

allem der Vergleich von Ecryptfs und DM-

Crypt fällt gegenteilig aus: Bei meinen

Tests war Ecryptfs häufig langsamer als

DM-Crypt (Abbildung­1).

Die Ergebnisse meiner Messungen beim

Kompilieren des Kernels und beim Benchmark

Bonnie++ sind in [http://­www.­

­mayrhofer.­e u .­o rg /­ssd -linux-benchmark]

zu finden, inklusive der vollen Ausgaben

von Bonnie++. Es würde mich interessieren,

ob die Autoren eine Erklärung für

die Diskrepanz haben und wie ich vielleicht

mit Ecryptfs bessere Performance

erzielen könnte.

Rene Mayrhofer, per E-Mail

Das ist interessant, ich habe die im Artikel

beschriebenen Messungen selbst

vorgenommen und mehrfach kontrolliert.

Mir ist die erheblich bessere Performance

von Ecryptfs aufgefallen. Zu den Unterschieden

habe ich eine Vermutung: Kann

es sein, dass Ihnen bei Ihren Tar-Befehlen

Errata

06/ 11, S. 94: Im Haskell-Artikel fehlt im Abschnitt

zur List Comprehension das mathematische

Zeichen für „ist Element von“. Korrekt

müsste der Ausdruck lauten:

{ n*n | n ∈ N , n mod 2 != 0 }

Daneben hat sich in Listing 3 ein Fehler eingeschlichen.

Richtig ist die Zeile:

fak n = n * fak(n ‐ 1)

Abbildung 1: In den Tests von Rene Mayrhofer fällt Ecryptfs durch Langsamkeit auf (rote Felder).

(die ja recht CPU-lastig sind) die Systemauslastung

des Crypto-FS in die Quere

kam? Diese differierte bei meinen Messreihen

stark und war bei Ecryptfs mit

um 90 Prozent sogar sehr hoch. Die hohe

CPU-Last sei bei Ecryptfs häufig ein Showstopper,

meint auch ein anderer von mir

befragter Spezialist. (mfe)

RTFM

06/ 11, S. 3: Mit großer Freude habe ich

Ihr Editorial zur immer spärlicher werdenden

Dokumentation gelesen. Ein weiteres

wunderbares Beispiel ist Grub 2.

Der Bootloader nähert sich immer mehr

einer fertigen Release (aktuell 1.99rc2),

aber die Dokumentation bewegt sich auf

einer sehr rudimentären Ebene.

Bernhard Treutwein, per E-Mail

Cron-Sonntag

06/ 11, S. 59: In Charlys Sysadmin-Artikel

zu Cron lese ich, dass „die Wochentage

in der Crontab von 0 bis 6 und nicht von

1 bis 7 durchnummeriert“ seien. Genau

genommen erlaubt der Vixie Cron für

das Feld »day of week« die numerischen

Werte 0 bis 7. Den Sonntag kann man

wahlweise als 0 oder als 7 schreiben

(siehe auch »man 5 crontab«). Somit ist

allen gedient: Wer den Montag als ersten

Tag der Woche betrachtet, nimmt 1 bis 7,

wer die Woche mit dem Sonntag beginnt,

verwendet 0 bis 6.

Harald Geiger, per E-Mail

As Time Goes By

06/ 11, S. 59: Auch Charly wird älter!

Danke für die tollen Kolumnen der letzten

Jahre – und für das aktuelle Foto!

André Kunde, per E-Mail

Alle zehn Jahre ist ein neues Foto angebracht.

Ich habe gerade das Linux-Magazin

02/ 02 gefunden, in der meine erste Kolumne

erschienen ist (Abbildung­2). Die

Zeit rennt! (Charly Kühnast) n

Abbildung 2: Charly Kühnast ist Admin, Autor und

Familienvater. Im Linux-Magazin 02/ 02 erschien

seine erste Kolumne zum Tool Ngrep.


Linux-Magazin

ACADEMY

Hybrid-Admin

Linux & Windows

Erfolgreich in heterogenen IT-Umgebungen

mit der LPIC-1- und MCITP-Zertifizierung

✔ Original: Profitieren Sie von den originalen

Linux-Magazin Academy- und Microsoft-

Schulungsvideos.

✔ Kompetent: Unsere Trainer und Dozenten

sind ausgewiesene Profis mit langjähriger

Schulungserfahrung.

✔ Optimal: Durch die Kombination von Onlinetrainings

und Präsenzseminaren verbinden Sie die

Vorteile beider Lernmethoden.

✔ Übersichtlich: Die komfortable Web-Ober fläche

der Onlinetrainings zeigt gleichzeitig den Trainer

und dessen Arbeitsfläche.

✔ Flexibel: Sie lernen, wann, wo und wie oft Sie

möchten

Trainingsumfang

• Microsoft MCITP Server Administrator bzw. Linux

LPIC-1 in nur 12 Wochen

• Onlinetrainings + 10 Tage Präsenztrainings

(immer samstags, berufsbegleitend)

• Original Microsoft E-Learning-Kurse und Linux-Magazin

Academy LPIC-1 Onlinetrainings

Was Teilnehmer über uns sagen:

„Mit den Videos haben Sie ins Schwarze

getroffen. Es gibt nichts Vergleichbares.“

Dirk P. aus Hannover

Präsentiert von

Online-Schulung: wann, wo und so oft Sie

möchten + vertiefende Präsenzseminare

In Zusammenarbeit mit

Menschen - Bildung - Erfolg

www.gfn.de

www.linuxnewmedia.de

www.lpi.org

www.linuxhotel.de

Weitere Informationen und Anmeldung: www.gfn.de/hybrid-admin


Programmieren

www.linux-magazin.de Bash Bashing 07/2011

92

Shellskripte aus der Stümper-Liga – Folge 15: Debugging und Konfigurationen

Bash Bashing

Auch jahrelang erprobte Konfigurationen kommen ins Schleudern, wenn Sonderfälle eintreten und sich etwa

alle Anwender gleichzeitig von derselben IP-Adresse aus melden. Erfahrene Admins und Bash-Kenner aktivieren

dann Debuggingfunktionen und suchen systematisch den Konfigurationsfehler. Nils Magnus

Kommunikationsalarm beim Linuxtag

in Berlin: Je mehr Vereinsmitglieder zum

jährlichen Event in die bundesdeutsche

Hauptstadt anreisen, desto schwieriger

gestaltet es sich für sie, ihre E­Mail­

Nachrichten per IMAP abzuholen. Dabei

war die Netzanbindung vor Ort diesmal

mehr als üppig dimensioniert, das System

wohlgetestet, der Server wies eine

Uptime von über 500 Tagen bei einer

Load unterhalb von 0,4

auf. Trotzdem ließ sich

keine Post abholen.

Massenandrang

Neu in diesem Jahr war,

dass die Note books der

Organisatoren vor Ort

eine per NAT umgesetzte

Adresse erhielten.

In den Vorjahren –

vermutlich noch nicht

durch grassierende IP­

Knappheit geplagt –

wiesen die DHCP­Server

des Linuxtag­Netzwerkteams

ihren Kollegen

noch öffentliche

Adressen zu.

Hinter einem NAT­Gateway versteckt,

scheint jedoch aus Sicht des IMAP­

Servers jeder Anwender von derselben

IP­Adresse aus zu kommunizieren. Manche

Courier­Implementation des »imapd«

beschränkt als Vorsichtsmaßnahme jedoch

die Zahl der Verbindungen von einer

IP. Eine solche Massenansammlung

von Clients in einem privaten Netz hatte

offenbar niemand vorgesehen.

Das Problem an sich erkannte die Technik

ab tei lung der Veranstalter zwar bald,

sah sich aber mit der Herausforderung

konfrontiert, schnell die richtige Stelle

zur Konfigurationsänderung zu lokalisieren.

Die Entwickler des Courier­IMAP­

Servers haben die Funktionalität nämlich

auf ein halbes Dutzend Einzelprogramme

aufgeteilt: Über einen »courierlogger« gestartet

nimmt der »courier tcpd« zunächst

alle Verbindungen auf TCP­Port 993 für

SSL­verschlüsselte IMAP­Anfragen entgegen.

Er entscheidet mittels eines Regelwerks,

ob er von einem Host überhaupt

Verbindungen akzeptiert.

Anschließend übergibt er an »couriertls«,

einen weiteren Wrapper, der sich um den

Aufbau der SSL­Verbindung kümmert. Er

ruft schließlich über den weiteren Zwischenschritt

»imaplogin« den eigentlichen

»imapd« auf, der dem Client die

gewünschten Nachrichten übermittelt.

Von Pontius …

Für jeden Systemverwalter gilt es mitunter

herauszufinden, wie Programme

sich gegenseitig aufrufen. Das ist insbesondere

dann der Fall, wenn es darum

geht, den kompletten Dienst mit seinen

Listing 1: »ober.sh«

01 #!/bin/sh

02

03 # Auskommentieren, um mehr zu sehen!

04 # set -x

05

06 echo "ich bin ober.sh"

07

08 echo "setze apfel auf rot, APFEL auf ROT"

09

10 apfel=rot

11 APFEL=ROT

12

13 echo "rufe unter.sh auf"

14

15 ./unter.sh

16

17 echo "exportiere nun APFEL"

18 export APFEL

19

20 ./unter.sh

21

22 echo "Wert von exportiertem APFEL"

23 echo "nach Rueckkehr aus Subshell: >$APFEL$apfel$apfel


Abbildung 1: Das Skript »ober.sh« ruft die Datei

»unter.sh« auf, die beispielsweise Konfigurationsparameter

setzen könnte. Dabei müssen Systemverwalter

zwischen einem einfachen Aufruf, dem

Export von Umgebungsvariablen und dem Sourcen

von Skripten unterscheiden.

Programmen herunterzufahren, einen Parameter

der Konfiguration zu ändern und

anschließend wieder alles neu zu starten.

So lässt sich etwa die Obergrenze der

Clients pro IP neu justieren.

Ein vom Runlevel abhängiges Skript in

»/etc/init.d« steuert diese Vorgänge. Im

Zuge der voranschreitenden Modularisierung

und Konfigurierbarkeit entwickelte

sich aus einer einzelnen großen Datei

»/etc/rc.local« aus alten BSD­Zeiten ein

Konglomerat von Skipten und Parameterfestlegungen

mit vielfältigen Konventionen.

(Viele Admins beäugen die aktuell

diskutierten designierten Nachfolger wie

Upstart, Systemd und Konsorten gegenwärtig

noch mit etwas Skepsis).

… zu Pilatus

Dem Systemadministrator hilft die Shelloption

»­x«, um systematisch die Aufrufreihenfolge

sichtbar zu machen. Fügt er

mit einem Editor unterhalb der einleitenden

Shebang­Zeile in »/etc/init.d/

courier­imapd« die Anweisung

set -x

ein, schaltet diese die Bash in den Protokollmodus.

Fortan tut die Shell nicht

nur das, was man ihr sagt, sie spricht

auch auf der Standardausgabe darüber.

So erfährt der Admin mehr über eingelesene

Konfigurationsdateien, gesetzte

Parameter, angelegte Lockfiles und gestartete

Subprozesse. In ganz schwierigen

Fällen zeigt die Option »­e« ihren

Nutzen: Sie sorgt nämlich dafür, dass das

Skript sofort abbricht, falls auch nur ein

Aufruf einen Fehlercode erzeugt. Wer im

Normalfall das Skript

#!/bin/bash

ls

xy

id

mit den korrekten Aufrufen in der zweiten

und vierten Zeile ablaufen lässt, erhält

zwar eine Meldung über das fehlende

Tool »xy« in Zeile 3, dann führt die

Bash »id« aber trotzdem aus. Doch wer

nach der Shellskript­Einleitungszeile die

Option »set ­e« setzt, sorgt dafür, dass das

Skript nach »xy« abbricht.

Die beiden Flags bleiben übrigens für alle

späteren Aufrufe dieser Shell aktiv, daher

deaktiviert sie der Admin später durch

»set +x« beziehungsweise »set +e« oder

entfernt für künftige Aufrufe den Eintrag

wieder aus dem Quelltext.

Saubere Trennung

Es gilt als vorbildliches Vorgehen, Code

und Daten zu trennen, also insbesondere

Konfigurationen nicht direkt in den

Quelltext hineinzuschreiben, der die

Einstellungen letztlich vornimmt. Von

XML­Dateien über Whitespace­separierte

Listen bis zu eigenen Konfigurationssprachen

reicht das Spektrum der Formate

für diesen Zweck. In der Bash bedienen

sich Entwickler meist eines einfachen, da

bereits eingebauten Mechanismus – der

Zuweisung von Shellvariablen wie

maxconnections=30

PORT=993

in einer separaten Datei. Statt sie aufwändig

manuell zu parsen, reicht es, sie als

eigenes Skript auszuführen. Das gelingt

scheinbar bereits durch das Angeben

ihres Namens, etwa durch »./ konfiguration.sh«.

Als Problem stellt sich heraus,

dass dadurch eine neue Shell entsteht,

die ihre eigenen Variablen verwaltet. Das

aufrufende Skript bekommt davon nichts

mit (Abbildung 1).

Die Großschreibung von Variablen ändert

daran entgegen einem verbreiteten

Missverständnis übrigens nichts, wie

das Verhalten von »APFEL« in Listing 1

und Listing 2 zeigt. Das Verwenden von

Versalien ist nur eine Konvention, um

Umgebungsvariablen zu kennzeichnen.

Erst das Schlüsselwort »export« befördert

Shellvariablen in diesen Rang.

Aber auch dieser Kniff hilft nicht beim

Einlesen von Konfigurationseinstellungen,

wie die Ausgabe der Testskripte

zeigt: So lassen sich zwar Daten in ein

Unterprogramm hineinsenden, aber nicht

wieder herausholen. Dazu ist das Schlüsselwort

»source« notwendig, das auch

unter dem Kürzel eines allein stehenden

».« firmiert (Zeile 29 in Listing 1). In

diesem Fall behandelt die Bash das untergeordnete

Skript so, als hätte es dessen

Quelltext in das aufrufende kopiert.

Wirre Wendungen

Die Wege manches Start­ oder Konfigurationsskripts

sind verworren, aber nicht

unergründlich. Die Shelloptionen »­x«

oder »­e« helfen dem Admin beim systematischen

Suchen. Genaues Hinsehen

ist beim Einbinden von Konfigurationsdateien

gefragt, denn ein einzelner Punkt ».«

als Abkürzung für das Shellkommando

»source« [1] bewirkt große Unterschiede

zur normal aufgerufenen Subshell.

Mit diesem Handwerkszeug lokalisierten

die Linuxtag­Admins dann auch den Parameter

»MAXPERIP« und erhöhten ihn

so weit, dass die Organisatoren der Linux­Großveranstaltung

wie erwartet ihre

Tore öffnen konnten.

n

Infos

[1] Mendel Cooper, „Subshells“, Advanced

Bash Scripting Guide: [http:// www.tldp.

org/ LDP/ abs/ html/ subshells. html]

Listing 2: »unter.sh«

01 #!/bin/sh

02

03 echo "dies ist unter.sh"

04

05 echo "apfel hat jetzt den Wert >$apfel$APFEL


Programmieren

www.linux-magazin.de Objekterkennung 07/2011

94

Python-Skript erkennt Gesichter, Haut und Texte

Objekt erkannt

Wie soll man nur in einer Unmenge von Bilddateien gerade jene finden, die Gesichter oder Nackedeis oder

Texte enthalten? Mit ein paar Python-Skripten, Programmierbibliotheken wie Open CV und der OCR-Software

Tesseract geht das automatisch. Anton Moser, Kerstin Ramer, Matthias Schrattenholzer, Rainer Poisel

© pixpack, 123RF.com

Die auf aktuellen Computern speicherbare

Datenmenge nimmt kontinuierlich

zu, so ist beispielsweise die Forensik

mit Mengen von Multimedia‐Dateien

konfrontiert, die sich von Hand nicht

mehr bewältigen lassen. Wie dieser Artikel

aber zeigt, lässt sich zumindest die

Verarbeitung von Bilddateien mit wenigen

Zeilen Python‐Code automatisieren.

Kurze Beispiele erklären die Erkennung

von Hautpartien, Gesichtern und Text.

Python aufrüsten

Die Installation der erforderlichen Programmierbibliotheken

und Programme

erfolgt auf Debian‐basierten Distributionen

mittels Paketmanager:

aptitude install python‐imagingU

python‐opencv tesseract‐ocrU

tesseract‐ocr‐deu

Auf diesem Weg ist sichergestellt, dass

das System die von den Python‐Bindings

geforderten Voraussetzungen erkennt und

mit installiert. Aufgrund der verwendeten

Bibliotheken kommt Python 2 für das

Programm zum Einsatz (siehe Kasten

„Versions-Wirrwar“).

Beim Paket »python‐imaging« handelt es

sich um die Python Imaging Library (PIL,

[1]), sie liest in der eingesetzten Version

1.1.17 eine Vielzahl von Bildformaten.

Daneben bietet sie diverse Bildbearbeitungsoperationen

sowie Zugriff auf die

Farbwerte einzelner Pixel. Beides zusammen

eignet sich gut, um die Hautanteile

in einem Bild zu bestimmen.

Die Bibliothek »python‐opencv« (hier in

der Version 2.1.0, [2]) ist eine ursprünglich

von Intel veröffentlichte Bibliothek,

die Algorithmen für maschinelles Sehen

(Computer Vision) implementiert. Sie ist

in C und C++ programmiert und steht

unter der BSD‐Lizenz.

Um Texte in Bildern mit Hilfe von OCR

(Optical Character Recognition) zu erkennen,

verwendet dieser Artikel die Pakete

»tesseract‐ocr« und »tesseract‐ocr‐deu«

in den Versionen 2.04 und 2.00. Dabei

handelt es um das Kommandozeilen‐Programm

der ursprünglich von Hewlett‐

Packard entwickelten Software Tesseract.

Mittlerweile verwaltet Google das Programm

und entwickelt es weiter ([3],

[4]). Der von Samuel Hofstaetter entwickelte

Wrapper Python‐Tesseract [5]

wandelt zu verarbeitende Bilder in das

einzige von Tesseract verstandene Format

Tiff um, ruft das Programm auf und

reicht dessen Ausgaben an den Python‐

Interpreter weiter.

Python‐Tesseract liegt derzeit nicht als

Debian‐Paket vor. Zur Verwendung mit

den Python‐Skripten dieses Artikels genügt

es, das auf der Projekthomepage

verfügbare Skript »tesseract.py« in deren

Verzeichnis zu kopieren.

Hauptprogramm

Das Hauptprogramm »main.py« ruft die

einzelnen Unterfunktionen und damit die

Erkennung der jeweils gesuchten Objekte

auf. Zu Beginn importiert es die nötigen

Funktionen, wie in Listing 1 zu sehen

ist. Das Programm lässt sich dann wie

in Zeile 11 beschrieben aufrufen. Je nach

Versions-Wirrwarr

Während für den Python-Interpreter in der

Version 1 geschriebener Code auch auf Version

2 lauffähig war, ist dies beim Wechsel

von Version 2 auf die im Dezember 2008

erschienene Version 3 nicht mehr ohne Weiteres

möglich. Für einige der in diesem Artikel

verwendeten Bibliotheken, zum Beispiel

»python-openvc«, stehen oft nur Distributionspakete

für Python 2, genauer gesagt 2.6,

zur Verfügung. Daher verwenden die gezeigten

Codebeispiele Python-2-Syntax.


Aufruf kommt eine andere Unterfunktion

zum Zuge (Zeilen 14 bis 22). Den

eingegebenen Pfad nimmt in Zeile 24

die Funktion »os.walk()« entgegen. Die

»os«‐Bibliothek bietet viele Betriebssystemfunktionen,

»walk« durchsucht einen

Verzeichnisbaum rekursiv und gibt ein

Dreier‐Tupel zurück. Aus diesem Tupel

greift sich die folgende Zeile den Dateinamen

heraus. Zeile 28 ruft die eigentliche

Funktion auf.

Ein Besonderheit von Python ist, dass

eine Funktion mehrere Rückgabewerte

besitzen kann. In diesem Fall ist das neben

0 oder 1(je nach Erfolg) zusätzlich

der Pfad der Datei (Zeilen 29 bis 34).

Die Catch‐Blöcke fangen die verschiedenen

möglichen Fehler ab: Es handelt

sich entweder nicht um eine Bilddatei,

die Datei wird nicht unterstützt oder das

Programm wird mit [Strg]+[C] beendet.

Die Zeilen 42 und 43 machen das Skript

zu einem ausführbaren Programm.

Hautfarben-Erkennung

Die Funktion »detectSkin()« in Listing

2 liest die einzelnen Pixel eines Bildes

aus und vergleicht sie mit Richtwerten.

Die globale Variable in Zeile 3 ist der

Schwellenwert. Wird dieser Wert überschritten,

im Beispiel um 10 Prozent, gibt

die Funktion eine positive Rückmeldung,

Haar Feature-based Cascade Classifiers

Bei der Implementierung von Objektklassifizierungs-Algorithmen

gibt es mehrere Ansätze.

Open CV bedient sich so genannter „Haar Feature-based

Cascade Classifiers“, die auf dem

von Paul Viola und Michael Jones entwickelten

Viola-Jones-Detektor beruhen und die „Haarlike

Features“ ausmachen.

Damit so ein Detektor funktioniert, muss er im

Vorfeld sowohl durch Positiv- als auch Negativ-

Beispiele trainiert werden. Im ersten Fall enthält

ein Beispiel das zu erkennende Objekt, im

letzteren Fall nicht. Open CV verwaltet diese

Trainingsdaten in einem XML-Format, das mit

denn das aktuelle Bild zeigt mehr Haut,

als erwünscht ist. Nach dem Öffnen des

Bildes ermittelt das Skript dessen Breite

und Höhe. Beide Werte benötigt es für die

folgenden For‐Schleifen. In diesen spricht

die Funktion »getpixel()« das jeweilige

Pixel an und wertet es aus (Zeilen 14 und

15). Der Rückgabewert ist ein Tupel mit

drei Werten, in diesem Fall den Farbwerten

für Rot, Grün und Blau.

Jedes der ausgelesenen Pixel durchläuft

anschließend die Zeilen 19 bis 36. Die If‐

Abfrage erhöht eine Zählervariable, wenn

alle drei Werte in einen bestimmten Bereich

passen. Die Autoren haben die Farbwerte

aus diversen Listen übernommen

und angepasst. Sie haben die Werte eher

großzügig ausgewählt, damit sich Haut

dem des Jviolajones-Projekts [6] kompatibel

ist, und profitiert so von dessen Daten.

Nachdem der Klassifizierer trainiert wurde,

lässt er sich auf beliebige Bereiche eines

Bildes anwenden. Das Suchfenster kann bei

diesem inkrementellen Prozess zwischen den

Durchläufen vergrößert werden. Diesen Faktor

legt »ScaleFactor« fest. Außerdem besteht

ein solcher Klassifizierer aus mehreren einfacheren

Subklassifizierern, die der Reihe nach

anzuwenden sind – der so genannten Kaskade.

Die Anzahl der Subklassifizierer definiert der

Parameter »MinNeighbors«.

auch bei schlechteren Lichtverhältnissen

erkennen lässt.

Nach dem Durchlaufen der If‐Abfragen

errechnet der Code aus dem Zähler einen

Prozentsatz und vergleicht ihn mit dem

Schwellenwert. Liegt das Ergebnis darüber,

gibt die Funktion 1 und den entsprechenden

Pfad zurück (Zeile 40).

Face Detection

Ein Aufruf der Funktion »detectFaces()«

startet die Gesichtserkennung. Listing 3

zeigt die darin enthaltene Logik: Zeile 13

lädt das zu untersuchende Bild durch den

Aufruf der Funktion »cv.LoadImage()«.

Diese erhält den Pfad zum Bild und gibt

ein Objekt zurück, das die geladene Bild‐

Objekterkennung 07/2011

Programmieren

www.linux-magazin.de

95

Listing 1: Hauptprogramm »main.py«

01 #!/usr/bin/python

02 import os, sys

03

04 from faces import detectFaces

05 from skin import detectSkin

06 from ocr import extractText

07

08 def main():

09

10 if len(sys.argv) != 3:

11 print("Wrong number of arguments. Usage: python %s

" % sys.argv[0])

12 sys.exit(‐1)

13

14 if (sys.argv[1] == "faces"):

15 processFunc = detectFaces

16 elif (sys.argv[1] == "skin"):

17 processFunc = detectSkin

18 elif (sys.argv[1] == "text"):

19 processFunc = extractText

20 else:

21 print('Wrong parameter! Usage: python %s

' % sys.argv[0])

22 sys.exit(‐2)

23

24 for lRoot, lDirs, lFiles in os.walk(sys.argv[2]):

25 for lName in lFiles:

26 try:

27 pPath = lRoot + os.sep + lName

28 lResult = processFunc(pPath)

29 if lResult[0] == 0:

30 print("""Negative result for: %s

31 ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐""" % pPath)

32 else:

33 print("""Positive result for: %s

34 ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐""" % pPath)

35 except KeyboardInterrupt:

36 print("Cleaning up ...")

37 sys.exit(‐1)

38 except IOError:

39 print("File \'"+ pPath + """\' is not supported or not a

picture!

40 ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐""")

41

42 if __name__ == "__main__":

43 main()


Programmieren

www.linux-magazin.de Objekterkennung 07/2011

96

datei repräsentiert. Zeile 15 generiert ein

Bildobjekt und fordert dessen Speicherbereich

an. Um Merkmale aus dem Gesicht

zu extrahieren, konvertiert Zeile 16

das Bild in Graustufen.

Zur späteren Weiterbearbeitung reserviert

der Code Speicher, den die eigentliche

Gesichtserkennung benötigt. Dabei

bedeutet der Parameter 0 des Aufrufs

»CreateMemStorage(0)«, dass die Blockgröße

dem Standardwert von 64 KByte

entspricht. Zeile 18 überschreibt das

Histo gramm des Grau‐skalierten Bildes

und das bereits vorhandene Objekt mit

dem neuen Inhalt.

Trainingsdaten

Die für den Haar‐Classifier benötigte

Datei »haarcascade_frontalface_default.

xml« lädt das Python‐Programm aus

Optimierungsgründen außerhalb der

Funktion »detectFaces()« in das Objekt

3

1 2 6 4 5

Abbildung 1: Die Versuchsbilder »1.jpg« bis »6.jpg« in der Übersicht: Fotos mit viel Haut, ein Schimpanse, die Gesichter der Autoren sowie Texte.

»sCascade« (Zeile 4). Die XML‐Datei befindet

sich im selben Verzeichnis wie die

Python‐Quelltextdateien und enthält die

Trainingsdaten des Haar‐Klassifizierers.

Sie stammt aus dem Downloadbereich

des Jviolajones‐Projekts [6].

Der Kasten „Haar Feature-based Cascade

Classifiers“ beschreibt im Schnelldurchlauf

die Rolle der Klassifizierer bei

der Gesichtserkennung. Der Aufruf der

eigentlichen Gesichtserkennung erfolgt

in Zeile 20. Die Funktion »HaarDetectObjects()«

erhält neben dem Graustufenbild,

den Trainingsdaten und dem zugewiesenen

Speicherbereich für die Berechnungen

den Wert »1.15« als »ScaleFactor«

und »5« für »MinNeighbors« [7].

Damit werden die zu untersuchenden

Bereiche während der Durchläufe um jeweils

15 Prozent skaliert und die Anzahl

der Nachbar‐Rechtecke, die ein Objekt

ausmachen, auf 5 festgelegt. Die Zeilen

Tabelle 1: Ergebnisse des Testlaufs

Bild Skin Faces Text

1.jpg ja 1 (kein verständlicher Text)

2.jpg nein 1 (kein verständlicher Text)

3.jpg nein 0 §Wtflmix®

PREMIUM BLENDING EQUIPMENT

4.jpg ja 0 (kein verständlicher Text)

5.jpg ja 3 (kein verständlicher Text)

6.jpg nein 0 THEATER

an dc1·W1e11

DAS News 0pERNHAus

Listing 2: Hautfarben-Erkennung »skin.py«

01 from PIL import Image

02

03 gSkinThreshold = 10

04

05 def detectSkin(pPath):

06

07 lIm = Image.open(pPath)

08

09 lImageW = lIm.size[0]

10 lImageH = lIm.size[1]

11 lIndication = 0

12

13 if (lIm.mode == "RGB"):

14 for lY in range(0, lImageH):

15 for lX in range(0, lImageW):

16 lXY = (lX, lY)

17 lRGB = lIm.getpixel(lXY)

18

19 if ( ((lRGB[0] > 225) and (lRGB[0] < 255)) and ((lRGB[1] > 170)

and (lRGB[1] < 230)) and ((lRGB[2] > 180) and (lRGB[2] < 235))):

20 #light caucasian

21 lIndication += 1

22 elif ( ((lRGB[0] > 220) and (lRGB[0] < 255)) and ((lRGB[1] >

150) and (lRGB[1] < 210)) and ((lRGB[2] > 145) and (lRGB[2] < 200))):

23 #caucasian

24 lIndication += 1

25 elif ( ((lRGB[0] > 190) and (lRGB[0] < 235)) and ((lRGB[1] >

100) and (lRGB[1] < 150)) and ((lRGB[2] > 90) and (lRGB[2] < 125))):

26 #dark caucasian

27 lIndication += 1

28 elif ( ((lRGB[0] > 215) and (lRGB[0] < 255)) and ((lRGB[1] >

150) and (lRGB[1] < 200)) and ((lRGB[2] > 110) and (lRGB[2] < 155))):

29 #asian

30 lIndication += 1

31 elif ( ((lRGB[0] > 170) and (lRGB[0] < 220)) and ((lRGB[1] >

85) and (lRGB[1] < 135)) and ((lRGB[2] > 50) and (lRGB[2] < 100))):

32 #light african

33 lIndication += 1

34 elif ( ((lRGB[0] > 45) and (lRGB[0] < 95)) and ((lRGB[1] > 20)

and (lRGB[1] < 65)) and ((lRGB[2] > 5) and (lRGB[2] < 60))):

35 #dark african

36 lIndication += 1

37

38 lResult = (((lIndication*100)/(lImageW*lImageH)))

39 if (lResult > gSkinThreshold):

40 return 1, pPath

41 else:

42 return 0, pPath


28 und 31 geben je nach Vorgabe des

Hauptprogramms den Erfolgsfall sowie

den Pfad zum Bild zurück.

Die auskommentierten Zeilen 24 bis 27

zeigen eine mögliche Erweiterung des

Skripts zum Anzeigen der Bildobjekte. In

den Zeilen 6 bis 10 ist die Anzeigefunktion

»displayObject()« mit Hilfe der Open‐

CV‐Bibliothek ausprogrammiert.

Bevor Tesseract Bilder analysieren kann,

müssen sie in einer Form vorliegen, die

die OCR‐Engine versteht. Das erledigt der

Wrapper Python‐Tesseract. Damit das

Python‐Skript (Listing 4) aus dem übergebenen

Pfad ein Objekt erstellen kann,

importiert es die Pyt