31.12.2014 Aufrufe

Analyse von Werkzeugen zur konzeptionellen Modellierung ...

Analyse von Werkzeugen zur konzeptionellen Modellierung ...

Analyse von Werkzeugen zur konzeptionellen Modellierung ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Technische Universität München<br />

Fakultät für Informatik<br />

Diplomarbeit in Informatik<br />

<strong>Analyse</strong> <strong>von</strong> <strong>Werkzeugen</strong> <strong>zur</strong><br />

<strong>konzeptionellen</strong> <strong>Modellierung</strong>:<br />

Konzepte und Bewertungsmethoden<br />

Thomas Frowein<br />

Aufgabensteller: Prof. Bernd Brügge, Ph.D.<br />

Betreuer: Dipl.-Inf. Michael Nagel<br />

Abgabedatum: 15. Juli 2006


Erklärung:<br />

Ich versichere, dass ich diese Diplomarbeit selbständig verfasst und nur die angegebenen<br />

Quellen und Hilfsmittel verwendet habe.<br />

Unterschleißheim, den 15. Juli 2006<br />

Thomas Frowein<br />

II


Inhaltsverzeichnis<br />

I. Einleitung 3<br />

1. Einführung 4<br />

2. Problemstellung 5<br />

II. Methodik 7<br />

3. Einführung in die Softwaretechnik 8<br />

3.1. Softwaretechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

3.2. Unified Modeling Language (UML) . . . . . . . . . . . . . . . . . . . . . . . 12<br />

3.3. Entwurfsmuster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

3.4. Konzeptionelle <strong>Modellierung</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

3.5. Computer Aided Software Engineering (CASE) . . . . . . . . . . . . . . . . 20<br />

3.6. Grafik-Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

3.7. Tablet PC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

4. Einführung in die empirische Sozialforschung 23<br />

4.1. Ablauf empirischer Sozialforschung . . . . . . . . . . . . . . . . . . . . . . . 24<br />

4.2. Wissenschaftstheorie und empirische Sozialforschung . . . . . . . . . . . . . 25<br />

4.3. Konzeptspezifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

4.3.1. Gütekriterien der Messung . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

4.3.2. Indexbildung und Skalierungsverfahren . . . . . . . . . . . . . . . . . 33<br />

4.4. Forschungsdesign und Untersuchungsformen . . . . . . . . . . . . . . . . . . 36<br />

4.4.1. Störfaktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

4.4.2. Forschungsdesigns . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

4.5. Auswahlverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

4.5.1. Zufallsstichproben . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

4.5.2. Willkürliche und bewusste Auswahlen . . . . . . . . . . . . . . . . . 44<br />

4.6. Datenerhebungstechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

4.6.1. Befragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

4.6.2. Beobachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

4.6.3. Inhaltsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

4.6.4. Nicht-reaktive Messverfahren . . . . . . . . . . . . . . . . . . . . . . 59<br />

4.7. Datenaufbereitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

4.8. Datenanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

III


5. Einführung in die empirische Softwaretechnik 65<br />

5.1. Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />

5.2. Untersuchungsformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

5.2.1. Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67<br />

5.2.2. Fallstudie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69<br />

5.2.3. Umfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />

5.2.4. Metastudie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />

5.3. Methoden <strong>zur</strong> Evaluation <strong>von</strong> Software . . . . . . . . . . . . . . . . . . . . . 72<br />

III. Anwendung der Methodik 75<br />

6. Evaluation <strong>von</strong> <strong>Werkzeugen</strong> <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> 76<br />

6.1. Ziel der Untersuchung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />

6.1.1. Kontext der Studie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />

6.1.2. Hypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />

6.2. Design . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78<br />

6.2.1. Untersuchungsform . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78<br />

6.2.2. unabhängige und abhängige Variablen . . . . . . . . . . . . . . . . . 79<br />

6.2.3. Auswahl der Untersuchungsobjekte . . . . . . . . . . . . . . . . . . . 80<br />

6.2.4. Störeffekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />

6.3. Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />

6.3.1. Exkurs: Evaluation <strong>von</strong> Lehre . . . . . . . . . . . . . . . . . . . . . . 82<br />

6.3.2. Exkurs: Motivation <strong>zur</strong> Teilnahme . . . . . . . . . . . . . . . . . . . 83<br />

6.3.3. Exkurs: Datenschutzrecht . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

6.3.4. Fragebogen <strong>zur</strong> Vorlesung . . . . . . . . . . . . . . . . . . . . . . . . 86<br />

6.3.5. Fragebogen <strong>zur</strong> Übung . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

6.3.6. <strong>Modellierung</strong>saufgabe . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

6.3.7. Pretest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88<br />

6.4. Datenerhebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89<br />

6.4.1. geplante Durchführung der Befragung . . . . . . . . . . . . . . . . . 89<br />

6.4.2. Durchführung der Befragung in der Praxis . . . . . . . . . . . . . . . 90<br />

6.5. Datenerfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91<br />

6.5.1. Codeplan und Codierung . . . . . . . . . . . . . . . . . . . . . . . . 91<br />

6.5.2. Strukturierung und Visualisierung . . . . . . . . . . . . . . . . . . . 92<br />

6.6. <strong>Analyse</strong> und Interpretation der Ergebnisse . . . . . . . . . . . . . . . . . . . 93<br />

6.6.1. Ergebnisse der Vorlesungsbefragung . . . . . . . . . . . . . . . . . . 93<br />

6.6.2. Ergebnisse der Übungsbefragung . . . . . . . . . . . . . . . . . . . . 97<br />

6.6.3. Anforderungen an Werkzeuge für die konzeptionelle <strong>Modellierung</strong> . . 104<br />

6.6.4. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105<br />

6.6.5. Verwandte Arbeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . 106<br />

IV


IV. Schluss 107<br />

7. Fazit 108<br />

7.1. Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108<br />

7.2. Diskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109<br />

7.3. Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110<br />

V. Anhang 111<br />

A. Fragebögen 112<br />

B. <strong>Modellierung</strong>saufgabe 118<br />

C. Erhebungsdaten 122<br />

D. Verzeichnisse 130<br />

V


Abstract<br />

Empirische Methoden finden bisher wenig Anwendung in der Informatik. Gerade aber in<br />

der Softwaretechnik sind empirische Methoden eine gute Technik um verschiedene Lösungen<br />

oder Werkzeuge, hinsichtlich der Effizienz oder Benutzerfreundlichkeit beurteilen zu<br />

können. Entsprechende Methoden finden schon seit vielen Jahrzehnten in der empirischen<br />

Sozialforschung Anwendung. Eine Übertragung auf die Softwaretechnik erscheint also sinnvoll.<br />

Die konzeptionelle <strong>Modellierung</strong> ist die skizzenartige Entwicklung <strong>von</strong> Modellen, also der<br />

erste Schritt auf dem Weg zu einem Modell. Dieses Gebiet wird bisher kaum durch Werkzeuge<br />

unterstützt, die auch adäquat für die Lehre sind. In dieser Arbeit werden die aus der empirischen<br />

Sozialforschung bekannten Konzepte <strong>zur</strong> Bewertung <strong>von</strong> <strong>Werkzeugen</strong> der <strong>konzeptionellen</strong><br />

<strong>Modellierung</strong> genutzt. Dies geschieht in der Form eines Experiments mit anschließender<br />

Befragung. Dabei werden Studenten in Gruppen eingeteilt, die eine <strong>Modellierung</strong>s-<br />

Aufgabe jeweils mit einem anderen Werkzeug lösen. Im Anschluß daran werden durch<br />

eine Befragung die Vor- und Nachteile der verschiedenen Werkzeuge erfragt. Aus diesen<br />

Erfahrungen wird dann ein neues Werkzeug skizziert, das die positiven Aspekte der bestehenden<br />

Werkzeuge in sich vereint. Durch weitere - bisher fehlende Funktionalitäten -<br />

werden die Anforderungen an ein “optimales” Werkzeug <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

vervollkommnt.<br />

Teil I gibt einen Überblick über die Problemstellung die dieser Arbeit zugrunde liegt.<br />

Teil II ist eine Einführung in die Softwaretechnik und die konzeptionelle <strong>Modellierung</strong>,<br />

sowie in den Aufbau <strong>von</strong> Untersuchungen in der empirischen Sozialforschung. Die Techniken<br />

dieser Untersuchungen werden dann auf die Softwaretechnik übertragen.<br />

Teil III beschreibt die Anwendung der Methodik in Form eines Evaluationsexperiments,<br />

das verschiedene Wege der <strong>konzeptionellen</strong> <strong>Modellierung</strong> untersucht. Die Ergebnisse des<br />

Experimentes werden dargestellt, interpretiert und zu der Skizzierung einer neuen Werkzeuglösung<br />

verwendet.<br />

Teil IV beinhaltet eine Zusammenfassung der gewonnenen Erkenntnisse. Der Einsatz<br />

empirischer Methoden wird kritisch betrachtet und mögliche zukünftige Entwicklungen<br />

werden angedacht.<br />

1


Teil I.<br />

Einleitung<br />

3


1. Einführung<br />

Die Entwicklung neuer Technologien wird zunehmend komplexer. Wenn es nun darum geht,<br />

bestimmte Aspekte einer neuen Technologie genau zu beurteilen, ist es notwendig, Testverfahren<br />

anzuwenden, die mit bewährten und anerkannten Methoden zuverlässige Kriterien<br />

für die Bewertung liefern.<br />

Die Ausprägungen <strong>von</strong> Tests nehmen dabei mitunter groteske Formen an. Dies war beispielsweise<br />

bei den Arbeiten des Nobelpreisträgers für Medizin im Jahr 2005 zu sehen. Der<br />

Australier Barry Marshall hatte die Hypothese, dass Magengeschwüre nicht durch Stress<br />

sondern vielmehr durch ein bestimmtes Bakterium ausgelöst würden. Um dies zu beweisen,<br />

führte er ein Selbstversuch durch und schluckte einen Cocktail mit den gefundenen Bakterien.<br />

Der bis dahin gesunde Mediziner erkrankte, vermochte aber dann, sich wieder selbst<br />

zu heilen. Durch diesen Selbstversuch war er in der Lage, seine Hypothese zu untermauern<br />

und konnte für viele an Magengeschwüren Erkrankte einen großen Durchbruch erzielen.<br />

Es ist aber nicht immer unbedingt nötig, einen ganz neuen und - siehe oben - vielleicht<br />

selbstzerstörerischen Weg zu gehen. Oft reicht es schon, wenn man über den Tellerrand<br />

einer Disziplin hinaus blickt und sich <strong>von</strong> anderen Gebieten inspirieren lässt. Durch die<br />

Kombinationen <strong>von</strong> in den jeweiligen Wissenschaften anerkannten Methoden kann man<br />

neue und bessere Techniken entwickeln.<br />

4


2. Problemstellung<br />

Ziel dieser Arbeit soll es nun sein, Konzepte <strong>zur</strong> Durchführung <strong>von</strong> Studien, die auf dem<br />

Gebiet der Informatik Anwendung finden können, zu untersuchen.<br />

Hierzu sollen Methoden betrachtet werden, wie sie beispielsweise <strong>zur</strong> Durchführung <strong>von</strong><br />

Untersuchungen in den Geisteswissenschaften genutzt werden. Genauer gesagt, wird die<br />

empirische Sozialforschung näher betrachtet. Da es bei der empirischen Sozialforschung<br />

um die Erfassung und Deutung menschlichen Verhaltens geht, ist sie dann recht gut für<br />

einen Einsatz in der Informatik geeignet, wenn es um die Interaktion zwischen Mensch<br />

und Maschine geht. In der empirischen Softwaretechnik finden diese Methoden Anwendung<br />

und dienen der Beurteilung <strong>von</strong> Prozessen, Softwarelösungen usw. Hierbei sind besonders<br />

Aspekte der Effizienz und Benutzerfreundlichkeit im Zentrum des Interesses.<br />

Diese Arbeit umfasst neben dem vorgenannten noch einen weiteren zentralen Aspekt. Die<br />

zuvor erarbeiteten Konzepte sollen in ein Experiment einfließen, das Werkzeuge <strong>zur</strong> <strong>konzeptionellen</strong><br />

<strong>Modellierung</strong> analysiert.<br />

Unter konzeptioneller <strong>Modellierung</strong> ist folgendes zu verstehen: Am Anfang der <strong>Modellierung</strong><br />

eines Softwaresystems steht eine kreative Phase, in der in rascher Folge Modelle<br />

<strong>von</strong> hohem Abstraktionsgrad skizziert, verändert und wieder verworfen werden, bis sich<br />

ein brauchbares Lösungskonzept für das Gesamtproblem herauskristallisiert. Dieser “konzeptionelle<br />

<strong>Modellierung</strong>” genannten Brainstorming-Phase stehen bisher kaum geeignete<br />

Werkzeuge <strong>zur</strong> Verfügung. Vor allem der akademische Bereich ist aber auf einfache und<br />

intuitiv benutzbare Werkzeuge angewiesen.<br />

UML (Unified Modeling Language) ist die Notation für die <strong>Modellierung</strong> <strong>von</strong> Systemen, die<br />

sich als industrieller Standard durchgesetzt hat. Um Studenten Fähigkeiten <strong>zur</strong> <strong>konzeptionellen</strong><br />

<strong>Modellierung</strong> zu vermitteln, werden im Rahmen <strong>von</strong> Softwaretechnik-Vorlesungen<br />

Aufgaben gestellt, die mit dem Computer zu lösen sind. Oft kommen dabei auch Entwurfsmuster<br />

zum Einsatz. Das sind Lösungsvorlagen, die Entwickler mit der Zeit verfeinert haben,<br />

um eine Reihe <strong>von</strong> immer wiederkehrenden Problemen zu lösen.<br />

Ziel dieser Arbeit ist es, bestehende Werkzeuglösungen hinsichtlich ihrer Vor- und Nachteile<br />

bei der <strong>konzeptionellen</strong> <strong>Modellierung</strong> zu untersuchen. Dazu werden Studenten Aufgaben<br />

zu Entwurfsmustern gestellt, die in Form eines UML-Modells gelöst werden sollen. Die<br />

Probanden werden in Gruppen eingeteilt, die je eine andere Eingabemethode <strong>zur</strong> Bearbeitung<br />

dieser Aufgabe nutzen. Verglichen werden dabei die Eingabemethoden Papier und<br />

Stift, Grafikprogramm, CASE-Tool und Tablet-PC. Die Studenten füllen nach Abschluss<br />

der Aufgabe einen Fragebogen aus, in dem sie die benutzte Eingabemethode nach verschiedenen<br />

Kriterien bewerten. Aus den Ergebnissen dieser Bewertungen sollen Anforderungen<br />

für ein Werkzeug abgeleitet werden, das sich besonders für die Lösung <strong>von</strong> Aufgaben <strong>zur</strong><br />

<strong>konzeptionellen</strong> <strong>Modellierung</strong>, gerade in der Softwaretechnik-Lehre, eignet.<br />

5


Teil II.<br />

Methodik<br />

7


3. Einführung in die Softwaretechnik<br />

Dieses Kapitel gibt eine kurze Einführung in die Teilgebiete der Informatik, die für die<br />

Durchführung dieser Untersuchung wichtig sind. Neben der Softwaretechnik und einem<br />

Überblick über UML (Unified Modeling Language), sind dies die Werkzeuge, mit denen<br />

das im Teil “Anwendung der Methodik” (Teil III) beschriebene Experiment durchgeführt<br />

wurde. Dazu werden im Einzelnen die Begriffe Computer-Aided Software Engineering,<br />

Grafik-Software sowie Tablet PC näher betrachtet.<br />

Auf die Softwaretechnik und UML soll etwas genauer eingegangen werden, um einen Eindruck<br />

da<strong>von</strong> zu vermitteln, was der Lernstoff für die Studenten ist. Außerdem soll deutlich<br />

gemacht werden, welche Art <strong>von</strong> Aufgaben sie zu lösen haben.<br />

3.1. Softwaretechnik<br />

Die Softwaretechnik ist eine Sammlung <strong>von</strong> Techniken, Methoden und <strong>Werkzeugen</strong>, welche<br />

dabei helfen, ein Softwaresystem zu erstellen. Der Begriff Softwaretechnik (engl. software<br />

engineering) geht auf das Jahr 1968 <strong>zur</strong>ück. Zu dieser Zeit war der Entwicklungsprozess<br />

<strong>von</strong> Software alles andere als gut organisiert. Es war schwierig, zuverlässige Software zu<br />

entwickeln, die den vorgegebenen Zeit- und Kostenaspekten genügte. Softwareentwickler<br />

waren nicht fähig, bei einem Projekt konkrete Ziele zu setzen, die entsprechenden Produktionsmittel<br />

zu veranschlagen und dann auch noch die Erwartungen der Kunden genau zu<br />

erfüllen.<br />

Bei der Softwaretechnik liegt die Betonung gleicherweise auf beiden Wortteilen: Software<br />

und Technik. Technik deswegen, weil bei der Entwicklung <strong>von</strong> Software ein ingenieurmäßiges<br />

Vorgehen angewendet werden soll. Ein Ingenieur kann ein qualitativ hochwertiges<br />

Produkt mit Standardkomponenten unter Beachtung bestimmter Zeit- und Kostengesichtspunkte<br />

bauen. Selbst wenn er mit schlecht definierten Problemen oder Teillösungen arbeiten<br />

muss, kann er durch die Nutzung empirischer Methoden Lösungen beurteilen. [BrDu04]<br />

Balzert definiert die Softwaretechnik als: “zielorientierte Bereitstellung und systematische<br />

Verwendung <strong>von</strong> Prinzipien, Methoden und <strong>Werkzeugen</strong> für die arbeitsteilige, ingenieurmäßige<br />

Entwicklung und Anwendung <strong>von</strong> umfangreichen Softwaresystemen.” [Balz01]<br />

Die Entwicklung eines Softwaresystems ist gemäß [BrDu04] ein Projekt und setzt sich<br />

aus mehreren Aktivitäten zusammen. Jede Aktivität besteht wiederum aus mehreren<br />

Aufgaben, und die Lösung jeder dieser Aufgaben verbraucht Ressourcen und erzeugt<br />

ein Arbeitsergebnis. Ressourcen sind Teilnehmer, Personen die an der jeweiligen Aufgabe<br />

beteiligt sind (Kunde, Entwickler, Projektmanager...), Zeit, welche die Aufgabe in<br />

Anspruch nimmt und drittens Ausrüstung, die für die Lösung der Aufgabe ge- und verbraucht<br />

wird. Man kann sie als Vermögenswerte beschreiben, “die <strong>zur</strong> Bewältigung der<br />

Aufgabe verwendet werden” [BrDu04]. Das Ergebnis einer Aufgabe kann ein System, ein<br />

Modell oder ein Dokument sein.<br />

8


Unter System ist eine Sammlung untereinander verbundener Teile zu verstehen. Der Begriff<br />

Modell wird für jede Art <strong>von</strong> Abstraktion des Systems gebraucht. Das Arbeitsergebnis<br />

ist ein Artefakt, welches während der Entwicklung erzeugt wird. Dies kann beispielsweise<br />

ein Stück Software oder auch ein Dokument sein. Es gibt sowohl Arbeitsergebnisse,<br />

die für den internen Gebrauch sind, als auch solche, die an den Kunden geliefert werden<br />

(Lieferergebnis). Eine Aufgabe ist die Repräsentation einer atomaren Arbeitseinheit, die<br />

eine Verwaltung möglich macht. Mehrere Aufgaben ergeben eine Aktivität, die zu einem<br />

bestimmten Zweck ausgeführt wird. So dient beispielsweise die Aktivität der Anforderungsermittlung<br />

der Definition der Aufgaben des Systems.<br />

Die grafische Veranschaulichung dieser Konzepte ist in UML-Notation dargestellt (siehe<br />

Abbildung 3.1). Jedes Rechteck repräsentiert eines dieser Konzepte, die Linien repräsentieren<br />

die Beziehungen der Konzepte untereinander. (Für eine genaue Erklärung der UML-<br />

Notation sei auf das Kapitel 3.2 verwiesen.)<br />

Abbildung 3.1.: Objekte aus der Softwaretechnik, in UML-Notation [BrDu04]<br />

Als nächstes soll auf die einzelnen Aktivitäten, die <strong>zur</strong> Entwicklung eines Softwaresystems<br />

notwendig sind, eingegangen werden. Die Aktivitäten sind gemäß [BrDu04] in zwei grobe<br />

Bereiche eingeteilt: die Softwareentwicklungsaktivitäten, die so genannten Kernprozesse,<br />

und die Managementaktivitäten der Softwareentwicklung, die Unterstützungsprozesse.<br />

Softwareentwicklungsaktivitäten sind technische Aktivitäten die mit der objektorientierten<br />

Softwaretechnik zusammenhängen. Diese sind:<br />

• Anforderungsermittlung<br />

• <strong>Analyse</strong><br />

9


• Systementwurf<br />

• Objektentwurf<br />

• Implementierung<br />

• Testphase<br />

“Entwicklungsaktivitäten reduzieren die Komplexität des Problems, indem sie Modelle des<br />

Anwendungsbereiches und des zu entwickelnden Systems konstruieren.” [BrDu04]<br />

Bei der Anforderungsermittlung soll der genaue Zweck des zu entwickelnden Systems<br />

definiert werden. Dies geschieht in enger Zusammenarbeit zwischen dem Kunden und dem<br />

Entwickler. Als Ergebnis geht aus dieser Aktivität eine Beschreibung des Systems mit Akteuren<br />

und Anwendungsfällen hervor. Unter einem Anwendungsfall ist einen Abfolge <strong>von</strong><br />

Ereignissen zu verstehen, die eine bestimmte Funktionalität des Systems beschreibt. Durch<br />

die Anwendungsfälle werden die möglichen Aktionen zwischen dem Nutzer und dem System<br />

beschrieben (siehe auch Kapitel 3.2). Ebenso werden nichtfunktionale Anforderungen<br />

formuliert, wie beispielsweise das Aussehen der Benutzeroberfläche oder die Antwortzeit<br />

des Systems. Diese Aspekte stehen zwar nicht direkt in Zusammenhang mit dem funktionalen<br />

Verhalten des Systems, sind aber für das System ebenso wichtig.<br />

Das Ziel der <strong>Analyse</strong> ist, aus den Anforderungen ein korrektes, vollständiges, folgerichtiges<br />

und eindeutiges Systemmodell zu erstellen. Dabei transformieren die Entwickler die<br />

Anwendungsfälle in ein Objektmodell. Dieses beschreibt die statischen Eigenschaften eines<br />

Systems. Widersprüche und Mehrdeutigkeiten, die im Laufe dieses Prozesses erkannt werden,<br />

müssen in Zusammenarbeit mit dem Kunden geklärt werden. Die Struktur und die<br />

dynamischen Eigenschaften des Systems sind im fertigen Systemmodell beschrieben, das<br />

mit Attributen, Operationen und Verbindungen versehen ist.<br />

Als nächster Schritt nach der <strong>Analyse</strong> steht der Systementwurf. Hierbei werden “die<br />

Entwurfsziele definiert und das System in kleinere Subsysteme zerlegt, die <strong>von</strong> einzelnen<br />

Arbeitsgruppen realisiert werden” [BrDu04]. Dies betrifft auch die Strategien <strong>zur</strong> Erstellung<br />

des Systems: unter anderem die Hardware-/Softwareplattform, die Zugriffskontrolle<br />

oder auch die Datenverwaltung. Der Systementwurf hat eine klare Beschreibung dieser<br />

Strategien und die Aufteilung des Systems in Subsysteme zum Ergebnis. Zusätzlich zu<br />

den mit dem Kunden definierten Komponenten umfasst dieser Schritt auch ein wesentlich<br />

verfeinertes Modell, auch mit Entitäten, die für den Kunden nicht direkt <strong>von</strong> Interesse sind.<br />

Während des Objektentwurfs werden durch die Entwickler die Lösungsbereichsobjekte<br />

definiert. Mit diesen wird die Lücke zwischen dem <strong>Analyse</strong>modell und der Hardware-<br />

/Softwareplattform geschlossen. Objekte und Systemschnittstellen werden genau beschrieben<br />

und Standardkomponenten, die kommerziell verfügbar sind und den Entwicklungsprozess<br />

vereinfachen, werden ausgewählt. Außerdem wird das gesamte Modell optimiert, um<br />

auch Entwurfszielen wie Erweiterbarkeit und Verständlichkeit zu genügen. Das Ergebnis ist<br />

somit ein ausführliches Objektentwurfsmodell, eine präzise Beschreibung jedes einzelnen<br />

Elementes des gesamten Systems.<br />

10


Abbildung 3.2.: Überblick über die objektorientierten Softwaretechnik-Entwicklungs-aktivitäten<br />

und ihre jeweiligen Ergebnisse [BrDu04]<br />

11


In der Phase der Implementierung wird das zuvor erarbeitete Modell in Quelltext übersetzt.<br />

Alle Objekte werden mit ihren Attributen und Methoden implementiert und integriert,<br />

dass sie als ein System zusammenwirken.<br />

Als letztes durchläuft ein Softwaresystem die Testphase. Hierbei wird das System mit<br />

einfachen Eingabedaten ausgeführt und auf Fehler überprüft. In Komponententests wird<br />

das Verhalten jedes einzelnen Objekts und jedes Subsystems mit dem statistischen Modell<br />

verglichen. Beim Integrationstest werden die Verknüpfungen <strong>von</strong> Subsystemen überprüft<br />

und mit dem Systementwurfsmodell verglichen. Bei Systemtests werden Anwendungsfälle<br />

wie auch Ausnahmefälle ausgeführt und mit dem funktionalen Modell verglichen. Das<br />

Ziel der Testphase ist, möglichst alle Fehler des Systems zu erkennen und noch vor der<br />

Auslieferung des fertigen Produktes zu beheben. Geplant und ausgeführt werden die Tests<br />

parallel zu anderen Entwicklungsaktivitäten. Einen Überblick über die logischen Zusammenhänge<br />

der einzelnen Aktivitäten und der Ergebnisse bietet die Abbildung 3.2. [BrDu04]<br />

3.2. Unified Modeling Language (UML)<br />

Im folgenden wird auf einige für diese Arbeit wichtige Aspekte der schon erwähnten Unified<br />

Modeling Language (UML) eingegangen. UML ist die Notation für eine Methode der<br />

<strong>Modellierung</strong> <strong>von</strong> Systemen, die sich als industrieller Standard durchgesetzt hat [BRJ98].<br />

Sie ist eine visuelle Sprache, die mit Diagrammen Softwareprozesse veranschaulicht und so<br />

die Kommunikation für alle am Entwicklungsprozess beteiligten Personen, wie Software-<br />

Architekten, Programmierern, Designern, Testern und Managern, erleichtert. [Pilo03]<br />

In den 90er Jahren entstand die erste Version <strong>von</strong> UML. Es war die Reaktion auf zahlreiche<br />

Vorschläge für <strong>Modellierung</strong>ssprachen und -methoden, welche die aufkommende objektorientierte<br />

Softwareentwicklung unterstützen sollten. Ende der 90er Jahre setzte sich die<br />

Sprache als Standard durch. [BrDu04]<br />

Bevor auf UML im Einzelnen eingegangen wird, sollen einige <strong>Modellierung</strong>skonzepte erläutert<br />

werden. Der Begriff System beschreibt einen gegliederten Satz kommunizierender<br />

Teile. Ein System kann aus Teilen bestehen, die ihrerseits wieder Systeme sind. In diesem<br />

Fall spricht man <strong>von</strong> Subsystemen. Die Komplexität solcher Systeme ist häufig durch<br />

eine Vielzahl <strong>von</strong> komplizierten Verknüpfungen so hoch, dass ein einzelner Entwickler das<br />

System nicht mehr überschauen kann. “<strong>Modellierung</strong> ist ein Mittel, um diese Komplexität<br />

in den Griff zu bekommen.” [BrDu04] Ein System wird insgesamt durch mehrere Modelle<br />

beschrieben. Jedes dieser Modelle deckt einen Teilaspekt des Systems ab oder beschreibt<br />

das System in einer anderen Genauigkeitsebene. Nur die jeweils wichtigen Aspekte werden<br />

hervorgehoben. Mit Systemmodell wird der Satz aller Modelle bezeichnet, die während der<br />

Entwicklung eines Systems erstellt werden. Werden auch die Modelle zu kompliziert, gibt es<br />

die Möglichkeit, mit Sichten zu arbeiten. Sichten betrachten immer nur einen Teilbereich<br />

eines Modells, um diesen verständlich zu machen. Überschneidungen <strong>von</strong> verschiedenen<br />

Sichten sind auch möglich. “Notationen sind grafische oder textuelle Regeln <strong>zur</strong> Darstellung<br />

<strong>von</strong> Sichten” [BrDu04]. Beispielsweise ist ein UML-Klassendiagramm eine grafische<br />

Sicht eines Objektmodells.<br />

12


Die Stärke der Sprache UML liegt in dem umfangreichen Spektrum <strong>von</strong> Notationen, mit<br />

welchen die verschiedensten Gesichtspunkte eines Systems dargestellt werden können. Bei<br />

der Entwicklung <strong>von</strong> Systemen sind drei verschiedene Systemmodelle im Zentrum des Interesses:<br />

• Das funktionale Modell: Dies wird in UML durch Anwendungsfalldiagramme dargestellt.<br />

Es beschreibt - aus Sicht des Benutzers - die Funktionalitäten des Systems.<br />

• Das statische Modell: Dies wird in UML durch Klassendiagramme dargestellt. Es<br />

beschreibt “die Struktur eines Systems hinsichtlich der Objekte, Attribute, Assoziationen<br />

und Operationen.” [BrDu04]<br />

• Das dynamische Modell: Dies wird in UML durch Interaktionsdiagramme, Zustandsdiagramme<br />

und Aktivitätsdiagramme dargestellt. Es veranschaulicht das interne<br />

Verhalten des Systems. Je nach Diagramm ist dabei das Verhalten einzelner<br />

Objekte oder die Interaktion zwischen Objekten beschrieben. [BrDu04]<br />

Im Folgenden sollen diese fünf grundlegenden UML-Notationen, also die UML-Diagramme<br />

<strong>zur</strong> Darstellung dieser Modelle, erläutert werden. Die Erklärungen basieren auf den <strong>von</strong><br />

[BrDu04] gegebenen Definitionen. Hervorgehoben sei dabei das Klassendiagramm des statischen<br />

Modells, da dies auch bei der Durchführung des Experimentes (siehe Teil III)<br />

Anwendung findet. Die anderen vier Diagramme sind der Vollständigkeit halber erwähnt.<br />

Währen der Anforderungsermittlung und der <strong>Analyse</strong> werden Anwendungsfalldiagramme<br />

benutzt, um die Funktionalitäten des Systems darzustellen. Aus externer Sicht (also aus<br />

Sicht des Benutzers) zeigen sie das Verhalten des Systems. Im Mittelpunkt eines Anwendungsfalls<br />

steht eine vom System bereitgestellte Funktion, die <strong>von</strong> einem Akteur ausgeführt<br />

werden kann und für diesen ein sichtbares Ergebnis hat.<br />

Klassendiagramme werden verwendet, um die Struktur eines Systems zu veranschaulichen<br />

(siehe Abbildung 3.3). “Klassen sind Abstraktionen, die die allgemeine Struktur und<br />

das Verhalten eines Satzes <strong>von</strong> Objekten spezifizieren. Objekte sind Instanzen <strong>von</strong> Klassen,<br />

die während der Systemausführung erzeugt, bearbeitet und gelöscht werden. Ein Objekt hat<br />

einen Zustand, der die Werte seiner Attribute und seine Verbindungen zu anderen Objekten<br />

beinhaltet.” [BrDu04] Ein System wird in Klassendigrammen mit Objekten, Klassen,<br />

Attributen und den jeweiligen Assoziationen beschrieben. Klassen werden als Rechtecke<br />

dargestellt, die bis zu drei Abschnitte haben. Diese Abschnitte beinhalten den Namen der<br />

Klasse, die zugehörigen Attribute, die in all ihren Instanzen vorhanden sind, und die Operationen,<br />

die auf ihre Instanzen angewendet werden können.<br />

Beziehungen zwischen zwei Objekten sind Objektverbindungen. Beziehungen zwischen<br />

Klassen sind Assoziationen und repräsentieren eine Gruppe <strong>von</strong> Objektverbindungen. Jedes<br />

Ende einer Assoziation kann mit einer natürlichen Zahl oder einem Bereich <strong>von</strong> natürlichen<br />

Zahlen gekennzeichnet werden. Dieses ist die Multiplizität des Assoziationsendes. In der<br />

schon erwähnten Abbildung 3.3 sind dies etwa bei einer Instanz der Klasse “Uhr” genau<br />

zwei Objekte der Klasse “Taste”, ein Objekt der Klasse “Anzeigefeld” usw. Umgekehrt sind<br />

alle “Taste”-, “Anzeigefeld”-, usw. Objekte immer genau einem “Uhr”-Objekt zugeordnet.<br />

13


Abbildung 3.3.: UML-Klassendiagramm [BrDu04]<br />

Theoretisch kann ein Assoziationsende eine beliebige Menge <strong>von</strong> natürlichen Zahlen haben.<br />

In der Praxis tritt meistens jedoch eine der drei folgenden Multiplizitäten auf (siehe auch<br />

Abbildung 3.4):<br />

• Eins-zu-Eins-Assoziation: hat an jedem Ende die Multiplizität 1<br />

• Eins-zu-Viele-Assoziation: hat die Multiplizität <strong>von</strong> 1 an einem Ende und 0..n<br />

bzw. 1..n (n kann auch durch einen Stern dargestellt werden) am anderen Ende<br />

• Viele-zu-Viele-Assoziation: hat an beiden Enden einen Multiplizität <strong>von</strong> 0..n bzw.<br />

1..n<br />

Abbildung 3.4.: Multiplizitäten [BrDu04]<br />

Assoziationen in UML können sowohl symmetrisch (Navigationspfeil in zwei Richtungen),<br />

wie auch asymmetrisch (Navigationspfeil, der nur in eine Richtung zeigt) sein. Ausserdem<br />

können sie auch als Assoziationsklasse modelliert werden. Diese hat dann ebenfalls Attribute<br />

und Operationen.<br />

Um den genauen Zweck einer Assoziation aufzuzeigen, können die Enden mit einer Zeichenkette<br />

versehen werden. Dies wird als Rolle bezeichnet und erlaubt bei mehreren <strong>von</strong><br />

einer Klasse ausgehenden Assoziationen deren Unterscheidung.<br />

14


Zur <strong>Modellierung</strong> <strong>von</strong> Hierarchien oder Teile-/Ganzesbeziehungen, bietet UML einen speziellen<br />

Assoziationstyp an, die Aggregation (siehe Abbildung 3.5). Diese wird durch eine<br />

Raute am Ende der enthaltenden Klasse gekennzeichnet. Aggregation und Eins-zu-Viele-<br />

Assoziationen sind trotz einer gewissen Ähnlichkeit nicht austauschbar, da die Aggregation<br />

den hierarchischen Aspekt einer Beziehung ausdrückt und die Assoziation eine gleichwertige<br />

Beziehung darstellt. Die stärkste Beziehung zwischen zwei Klassen stellt die Komposition<br />

dar. Hierbei wird eine ausgefüllte Raute verwendet um auszudrücken, dass eine Klasse ausschließlich<br />

dann existiert, wenn die zugehörige Klasse existiert. Am nachfolgenden Beispiel<br />

(Abbildung 3.5) verdeutlicht, bedeutet das: Nur wenn die Klasse “Buch” existiert, gibt es<br />

auch die Klasse “Seite”.<br />

Abbildung 3.5.: Komposition und Aggregation [BrDu04]<br />

Durch Generalisierung (siehe Abbildung 3.6) ist es möglich, alle Attribute und Operationen,<br />

die ein Satz <strong>von</strong> Klassen gemeinsam haben, zu beschreiben. Sie ist eine Beziehung<br />

zwischen einer allgemeinen Klasse und einer spezialisierten Klasse. Dargestellt wird diese<br />

Beziehung, auch Vererbung genannt, durch eine dreieckige Pfeilspitze, die auf die verallgemeinerte<br />

Klasse zeigt, die so genannte Superklasse. Die spezialisierten Klassen werden<br />

Subklassen genannt und erben die Attribute und Operationen <strong>von</strong> ihrer Superklasse.<br />

Abbildung 3.6.: Generalisierung [BrDu04]<br />

Mit Interaktionsdiagrammen werden die Wechselwirkungen, die zwischen Objekten eines<br />

Anwendungsfalls stattfinden, dargestellt. Diese Objekte heißen teilnehmende Objekte.<br />

“Interaktionsdiagramme werden benutzt, um das Verhalten <strong>von</strong> Systemen zu formalisieren<br />

und die Kommunikation zwischen teilnehmenden Objekten sichtbar zu machen.” [BrDu04]<br />

15


Objekte interagieren über Nachrichten miteinander. Wenn ein Objekt eine Nachricht empfängt,<br />

löst dies die Ausführung einer Methode aus, die ihrerseits wieder Nachrichten zu<br />

anderen Objekten versenden kann. Interaktionsdiagramme können in UML zwei Formen<br />

haben:<br />

• Sequenzdiagramme oder<br />

• Kommunikationsdiagramme<br />

Durch Zustandsdiagramme wird das Verhalten eines einzelnen Objektes in Form <strong>von</strong><br />

Zuständen und Übergängen zwischen diesen Zuständen beschrieben. Mit einem Zustand<br />

wird ein Satz <strong>von</strong> Werten für ein Objekt dargestellt. “Für einen gegebenen Zustand repräsentiert<br />

eine Transition einen zukünftigen Zustand, in den das Objekt übergehen kann,<br />

und die Bedingungen, die mit diesem Wechsel verbunden sind.” [BrDu04] Eine Transition<br />

repräsentiert also eine Zustandsänderung.<br />

In Aktivitätsdiagrammen wird das Verhalten eines Systems bezüglich der Aktivitäten<br />

beschrieben. “Aktivitäten sind <strong>Modellierung</strong>selemente, die die Ausführung eines Satzes<br />

<strong>von</strong> Operationen repräsentieren.” [BrDu04] Durch die Beendigung dieser Operationen wird<br />

der Übergang zu einer anderen Aktion ausgelöst. Aktivitätsdiagramme werden benutzt,<br />

um den Kontrollfluss oder auch den Datenfluss aufzuzeigen. Der Kontrollfluss veranschaulicht<br />

die Reihenfolge, in der die Operationen abgearbeitet werden. Der Datenfluss zeigt die<br />

Objekte, die zwischen den Operationen ausgetauscht werden.<br />

Für eine weiter gehende Erläuterung <strong>von</strong> UML sei auf die Quellen [BRJ98], [BrDu04] oder<br />

auch [Pilo03] verwiesen.<br />

3.3. Entwurfsmuster<br />

Entwurfsmuster sind Lösungsvorlagen oder auch Schablonen, die Entwickler mit der Zeit<br />

verfeinert haben, um eine Reihe <strong>von</strong> wiederkehrenden Problemen zu lösen [GHJ04].<br />

Sie wurden entwickelt, um Modifizierbarkeit, Erweiterbarkeit und Flexibilität zu erreichen.<br />

Ein Entwurfsmuster beschreibt eine Lösung für eine bestimmte Klasse <strong>von</strong> Entwurfsproblemen.<br />

[BrDu04]<br />

Ein Entwurfsmuster besteht aus vier Elementen:<br />

• Name: eindeutige Unterscheidung <strong>von</strong> anderen Mustern;<br />

• Problembeschreibung: Beschreibung der Situation, in der das Muster angewendet<br />

werden darf (d.h. für die Umsetzung welcher Entwurfsziele es nützlich ist);<br />

• Lösung: Beschreibung der Menge <strong>von</strong> zusammenarbeitenden Klassen und Schnittstellen;<br />

• Konsequenz: Aufzeigen der Kompromisse und Alternativen, die bezüglich der umzusetzenden<br />

Entwurfsziele berücksichtigt werden müssen;<br />

16


Eine Auswahl <strong>von</strong> Entwurfsmustern, die auch für den späteren Versuch wichtig sind, soll<br />

kurz betrachtet werden (Quelle: [BrDu04]):<br />

• Brückenmuster<br />

• Adaptermuster<br />

• Strategiemuster<br />

• Abstrakte-Fabrik-Muster<br />

• Befehlsmuster<br />

• Kompositionsmuster<br />

Mit Hilfe des Brückenmusters wird die Schnittstelle einer Klasse <strong>von</strong> ihrer Implementierung<br />

entkoppelt. Der Zweck ist derselbe wie bei dem nachfolgenden Adaptermuster, mit<br />

dem Unterschied, dass es keine Einschränkung durch eine bereits existierende Komponente<br />

gibt. Zur Veranschaulichung dient das folgende Beispiel (siehe Abbildung 3.7):<br />

Das Brückenmuster stellt über “LigaSpeicher” die Musterschnittstelle und die Funktionalitäten<br />

bereit, die (in diesem Fall für die Datenspeicherung) benötigt werden. Gleichzeitig<br />

wird über die abstrakte Schnittstelle “LigaSpeicherImplementierer” der Implementiererklasse,<br />

eine gemeinsame Schnittstelle für verschieden Implementierungen geboten. So kann<br />

bereits in einer frühen Phase das System mit Teststümpfen getestet werden, die dann im<br />

weiteren Verlauf einfach durch die richtigen Implementierungen ersetzt werden. Zwar verringert<br />

der Einsatz eines Brückenmusters die Leistung, dient dafür aber der Erweiterbarkeit<br />

des Systems.<br />

Abbildung 3.7.: Brückenmuster [BrDu04]<br />

Durch das Adaptermuster kann ein Stück Altsystem-Code gekapselt werden. So kann<br />

Code, der nicht für die Zusammenarbeit mit dem System entworfen wurde, trotzdem mit<br />

diesem zusammenarbeiten. Sowohl aufrufende Klasse wie auch Altsystem-Klasse müssen<br />

dafür nicht verändert werden. Die Adapter-Klasse übernimmt alle notwendigen Umwandlungen.<br />

Das Muster wandelt also die Schnittstelle einer Komponente in eine solche um, die<br />

<strong>von</strong> der aufrufenden Komponente erwartet wird (siehe Abbildung 3.8). Gerade in Anbetracht<br />

der Kosten für Softwareentwicklung ist die Verwendung <strong>von</strong> Standardkomponenten,<br />

die durch ein Adaptermuster in ein System integriert werden, sehr vorteilhaft.<br />

17


Abbildung 3.8.: Adaptermuster [BrDu04]<br />

Das Strategiemuster dient der Entkoppelung eines Algorithmus <strong>von</strong> seiner Implementierung.<br />

Der Zweck ist derselbe wie bei Adapter- und Brückenmuster, mit dem Unterschied,<br />

“dass dynamisches Verhalten und nicht die spezifischen Komponenten gekapselt werden.”<br />

[BrDu04]<br />

Soll beispielsweise eine mobile Anwendung je nach Standort mit verschiedenen Netzwerkprotokollen<br />

arbeiten, kann das Strategiemuster angewendet werden (siehe Abbildung 3.9).<br />

Durch die “NetzwerkSchnittstelle” wird die Strategie-Klasse realisiert. Sie stellt die gemeinsame<br />

Schnittstelle zu allen Netzwerken dar. Durch die “NetzwerkVerbindung” wird<br />

die Kontext-Klasse realisiert. Sie stellt eine Punkt-zu-Punkt-Verbindung zwischen zwei<br />

Rechnern her. Der “StandortManager” enthält nun die Regeln, die ausgehend vom aktuellen<br />

Standort, der “NetzwerkVerbindung” eine konkrete “NetzwerkSchnittstelle” zuweist.<br />

Die mobile Anwendung kann die “NetzwerkVerbindung” unabhängig <strong>von</strong> der konkreten<br />

Schnittstelle aufrufen.<br />

Abbildung 3.9.: Strategiemuster [BrDu04]<br />

Durch das Abstrakte-Fabrik-Muster wird das Erzeugen <strong>von</strong> Familien verwandter Objekte<br />

gekapselt. Der Klient wird dadurch vom Erzeugungsprozess abgeschirmt und verhindert,<br />

dass Objekte aus inkompatiblen Familien gleichzeitig eingesetzt werden.<br />

18


Befehlsmuster entkoppeln die Objekte, “die für die Befehlsverarbeitung verantwortlich<br />

sind, <strong>von</strong> den eigentlichen Befehlen.” [BrDu04] Der Kontrollfluss wird so gekapselt und “Befehlsverarbeitungsobjekte<br />

werden vor Änderungen durch neue Funktionalitäten geschützt.”<br />

[BrDu04]<br />

Mit Hilfe <strong>von</strong> Kompositionsmustern werden Hierarchien gekapselt. Dies geschieht durch<br />

die Bereitstellung einer gemeinsamen Superklasse für Gruppenobjekte (Kompositionen)<br />

und Einzelobjekte (Blätter). Hierdurch können neue Blattarten hinzugefügt werden, ohne<br />

dass der bestehende Quelltext geändert werden muss.<br />

Für die Auswahl des richtigen Entwurfsmusters können Schlüsselphrasen hilfreich sein.<br />

Nachfolgend soll eine kurze Heuristik <strong>zur</strong> Auswahl <strong>von</strong> Entwurfsmustern, Schlüsselphrasen<br />

für die zuvor erläuterten Muster, aufgeführt werden. Dem jeweiligen Muster folgen die<br />

zugehörigen Phrasen.<br />

Brückenmuster: “Muss zukünftige Protokolle unterstützen”;<br />

Adaptermuster: “Muss mit bestehenden Schnittstellen zusammenarbeiten”, “Muss existierende<br />

Altsystem-Komponenten weiterverwenden”;<br />

Strategiemuster: “Politik und Mechanismen sollen entkoppelt sein”, “Verschiedene Algorithmen<br />

müssen <strong>zur</strong> Laufzeit austauschbar sein”;<br />

Abstrakte-Fabrik-Muster: “Anbieterunabhängigkeit”, “Plattformunabhängigkeit”;<br />

Befehlsmuster: “Alle Befehle sollen <strong>zur</strong>ücknehmbar sein”, “Alle Transaktionen sollen aufgezeichnet<br />

werden”;<br />

Kompositionsmuster: “Muss zusammengesetzte Strukturen unterstützen”, “Muss Hierarchien<br />

variabler Breite und Tiefe erlauben”;[BrDu04]<br />

Für eine weiter gehende Erklärung der Entwurfsmuster sei auf die Quellen [GHJ04] und<br />

[BrDu04] verwiesen.<br />

3.4. Konzeptionelle <strong>Modellierung</strong><br />

Nach dieser Einführung in die Thematik dieser Arbeit, stellt sich nun die Frage, wie die<br />

konzeptionelle <strong>Modellierung</strong> in den Prozess der Softwareentwicklung einzuordnen ist.<br />

Hierzu soll beschrieben werden, was unter konzeptioneller <strong>Modellierung</strong> zu verstehen ist.<br />

Am Anfang der <strong>Modellierung</strong> eines Softwaresystems steht ein kreativer Prozess, in dem<br />

in schneller Folge Modelle <strong>von</strong> hohem Abstraktionsgrad skizziert, verändert und<br />

auch wieder verworfen werden, bis sich ein mögliches Lösungskonzept für das Gesamtproblem<br />

herauskristallisiert. Die in dieser Brainstorming Phase erzeugten Modelle sind nicht<br />

unbedingt konsistent, vollständig, widerspruchsfrei oder eindeutig. Die Modelle, die in dieser<br />

Phase erzeugt werden, werden “konzeptionelle Modelle” genannt. Die konzeptionelle<br />

<strong>Modellierung</strong> steht ganz am Anfang der <strong>Analyse</strong>phase des Softwareentwicklungsprozesses.<br />

19


Gerade in der Softwaretechnik-Lehre ist diese Unterscheidung zwischen Konzeption und<br />

Spezifikation <strong>von</strong> Modellen sehr wichtig, da mit diesem Prozess der Konzeption <strong>von</strong> Modellen<br />

auch das Verstehen <strong>von</strong> komplexen Systemen vermittelt werden kann. So werden in<br />

Übungen, die Softwaretechnik-Vorlesungen begleiten, häufig Aufgaben gestellt, die genau<br />

diesen Aspekt bei der Entwicklung <strong>von</strong> Systemen behandeln. Da die konzeptionelle <strong>Modellierung</strong><br />

aber bisher noch zu wenig gewichtet ist und auch die richtigen Werkzeuge <strong>zur</strong><br />

computergestützten <strong>konzeptionellen</strong> <strong>Modellierung</strong> fehlen, sollen im Rahmen dieser Arbeit<br />

die Anforderungen an ein solches Tool ermittelt werden.<br />

Studenten wird hierzu eine typische Aufgabe <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> gestellt,<br />

bei der diese ein System in Form eines UML-Klassendiagramms, unter Verwendung <strong>von</strong><br />

Entwurfsmustern, entwickeln müssen. Vier bisher übliche bzw. denkbare Eingabemethoden<br />

kommen bei dieser Untersuchung zum Einsatz: Verglichen werden die Eingabemethoden<br />

Papier und Stift, Grafikprogramm, CASE-Tool und Tablet PC.<br />

In den folgenden Abschnitten werden diese Werkzeuge näher betrachtet.<br />

3.5. Computer Aided Software Engineering (CASE)<br />

Der Begriff CASE (engl. Computer Aided Software Engineering) steht für computerunterstützte<br />

Software-Entwicklung. [McCl89] CASE-Tools oder auch CASE-Werkzeuge<br />

sind Programme, die die Planung, Entwicklung, Implementierung, Verwaltung, Dokumentation<br />

und Wartung <strong>von</strong> Softwaresystemen unterstützen. Diese Entwicklungsumgebungen<br />

können mit einer Vielzahl <strong>von</strong> Funktionalitäten, die den Entwicklungsprozess extrem erleichtern,<br />

aufwarten. Das sind beispielsweise grafische Hilfsmittel, <strong>Analyse</strong>techniken, Versionskontrolle,<br />

Integrationsunterstützung und viele, viele mehr. [ClSc03]<br />

Ein wichtiger Bestandteil ist die Sprache UML, da diese <strong>zur</strong> Visualisierung der Artefakte<br />

eines Software-Systems benutzt wird. Da sich die CASE-Tools in der Praxis durchgesetzt<br />

haben, werden sie auch für die Lehre der Softwaretechnik eingesetzt. Gerade wegen ihrer<br />

umfangreichen UML-Unterstützung sind sie zudem eines der Werkzeuge, die im Rahmen<br />

des Experimentes (siehe Teil III) untersucht wurden.<br />

3.6. Grafik-Software<br />

Unter Grafik-Software sind in erster Linie Werkzeuge zu verstehen, die das Modifizieren <strong>von</strong><br />

Grafiken ermöglichen. Hierbei kann man Anwendungen auf verschiedene Weisen klassifizieren.<br />

Beispielsweise nach der Anzahl <strong>von</strong> Dimensionen, in denen ein Objekt repräsentiert<br />

wird (2D, 3D) oder auch in der Art der Interaktion des Benutzers, also welche Freiheiten<br />

er über die Objekte des Bildes oder das Bild selbst hat. [FDF96]<br />

In der Computergrafik unterscheidet man zwei Arten <strong>von</strong> Grafiken:<br />

• Vektorgrafiken und<br />

20


• Rastergrafiken<br />

Vektorgrafiken sind aus Linien und Kurven zusammengesetzt, Rastergrafiken bestehen aus<br />

Punkten. Beispiel für eine Rastergrafik ist ein Bild, welches eine Digitalkamera geschossen<br />

hat. Programme für diese Bereiche werden im Folgenden als Vektorgrafikprogramme und<br />

Bildbearbeitungsprogramme bezeichnet.<br />

Vektorgrafikprogramme dienen der Erstellung <strong>von</strong> Zeichnungen auf der Basis <strong>von</strong> Vektoren.<br />

Eine Zeichnung besteht dabei aus geometrischen Formen, oder besser gesagt aus<br />

mathematisch errechneten Formen. Dies erlaubt eine beliebige Skalierung dieser Grafiken<br />

ohne Qualitätsverlust (Im Gegensatz zu Rastergrafiken, die bei zu starker Vergrößerung<br />

Artefakte und Bildfehler aufweisen).<br />

Bildbearbeitungsprogramme werden <strong>zur</strong> Erstellung und Manipulation <strong>von</strong> Rastergrafiken<br />

genutzt. Sie werden zum digitalen Malen eingesetzt. Je nach Funktionsumfang erlauben<br />

sie die Optimierung <strong>von</strong> Bildern, die Simulation verschiedener Maltechniken und umfangreiche<br />

Modifikationsarten <strong>von</strong> Bildern. Es gibt auch Programme, die beide Grafiken, also<br />

Raster wie auch Vektor, unterstützen.<br />

Des weitern können zum Bereich der Grafik-Software auch einen Reihe <strong>von</strong> Hilfsprogrammen<br />

gezählt werden. Dies sind beispielsweise: Bildbetrachter, die eine schnelle Betrachtung<br />

<strong>von</strong> Bildern ermöglichen und auch kleine Modifikationen erlauben; Bildverwaltungssoftware,<br />

die, wie schon der Name verrät, für die Verwaltung <strong>von</strong> Bildern und das Angeben <strong>von</strong><br />

Metainformationen zu den Bildern in der Lage ist; Bildershowsoftware, mit der man die<br />

Möglichkeit hat, Bilderpräsentationen zu erstellen und mit Texten und Musik zu versehen;<br />

Visualisierungsprogramme, die aus Daten Diagramme erstellen und viele weitere Werkzeuge<br />

aus Bereichen wie 3D-Animation, CAD oder auch Webdesign. [Wiki1]<br />

Aufgrund dieser zahlreichen Funktionen <strong>zur</strong> Modifikation <strong>von</strong> Grafikelementen sind Grafikprogramme<br />

ebenfalls für den Einsatz bei der <strong>konzeptionellen</strong> <strong>Modellierung</strong> geeignet. Sie<br />

wurden in dieser Arbeit neben den zuvor genannten CASE-<strong>Werkzeugen</strong> als zweite Eingabemethode<br />

hinsichtlich ihrer Vor- und Nachteile untersucht (siehe Teil III).<br />

3.7. Tablet PC<br />

Mit Tablet PC wird ein Computer bezeichnet, der aufgrund seiner Bauform an ein Tablett<br />

erinnert. Der Bildschirm ist berührungssensitiv, was die Eingabe mittels Stift oder auch<br />

Finger möglich macht.<br />

Die ersten Modelle gab es im Jahr 1993. Stark beteiligt an der Entwicklung hat sich die<br />

Firma Microsoft. Heutzutage wird die Stiftbewegung meist durch ein elektromagnetisches<br />

Feld erfasst. Der Stift verändert dieses Feld, wodurch seine Position ermittelt werden kann.<br />

Die Displays sind berührungsunempfindlich. Als Betriebssystem wird meist einen Variante<br />

<strong>von</strong> Windows XP verwendet (Windows XP Tablet PC Edition 2005), die über zahlreiche<br />

Features für Tablet PCs verfügt. Mit dem Notizprogramm “Windows Journal” beispielsweise,<br />

ist der Tablet PC so einfach wie ein Notizblock zu nutzen und verfügt darüber hinaus<br />

21


über zahlreiche Funktionen zum Editieren der aufgeschriebenen/gezeichneten Informationen.<br />

[Wiki2]<br />

Man unterscheidet zwei verschiedene Konzepte <strong>von</strong> Tablet PCs:<br />

• Convertibles und<br />

• Slates<br />

Bei Convertibles handelt es sich <strong>von</strong> der Bauform um “normale” Notebooks, mit dem<br />

entscheidenden Unterschied, dass man das Display um 180 Grad drehen und auf die Tastatur<br />

klappen kann. Dies hat den Vorteil, dass man auch die Tatstatur <strong>zur</strong> Eingabe nutzen<br />

kann.<br />

Slates hingegen beschränken sich auf das Display und einige Funktionstasten <strong>zur</strong> Eingabe.<br />

Laufwerke sind meist nicht eingebaut und nur über eine Dockingstation anschließbar. Dadurch<br />

sind diese Geräte kompakt und extrem leicht, was die Mobilität und auch Arbeiten<br />

im Stehen sehr erleichtert. [Micro1]<br />

Tablet PCs stellen die dritte <strong>von</strong> vier Eingabemethoden dar, die im Rahmen dieser Arbeit<br />

untersucht wurden (siehe Teil III). Die bei diesem Experiment verwendeten Tablet PCs<br />

sind der Gruppe der Convertibles zuzuordnen. Als Betriebssystem lief das zuvor schon erwähnte<br />

Windows XP Tablet PC Edition 2005.<br />

Die vierte Methode, Papier und Bleistift, bedarf keiner weiteren Erläuterung.<br />

22


4. Einführung in die empirische<br />

Sozialforschung<br />

In den heutigen Gesellschaften werden für viele unterschiedliche Problemstellungen “systematische<br />

Informationen über gesellschaftliche Zusammenhänge und das Handeln <strong>von</strong> Menschen<br />

benötigt” [SHE05], wie beispielsweise über die demografische Entwicklung, Konsumgewohnheiten<br />

oder Wahlverhalten. Diese Informationen werden mit Methoden der empirischen<br />

Sozialforschung gewonnen.<br />

Der Begriff “Empirie” ist aus dem griechischen und steht für “Erfahrung”. Empirisches<br />

beschreibt somit etwas, dass aus der Erfahrung, Beobachtung oder einem Experiment entnommen<br />

ist. [BWF04] Empirische Sozialforschung ist “als eine Sammlung <strong>von</strong> Techniken<br />

und Methoden <strong>zur</strong> korrekten Durchführung der wissenschaftlichen Untersuchung menschlichen<br />

Verhaltens und gesellschaftlicher Phänomene” [SHE05] zu verstehen. Die empirische<br />

Sozialforschung verfolgt dabei im Wesentlichen zwei Ziele. Das praktisches Ziel, durch Problemlösungen<br />

ein rationales und humaneres Leben der Menschen zu ermöglichen, und das<br />

theoretische Ziel, die Konstruktion eines objektiven und nachprüfbaren theoretischen Modells<br />

der Realität.<br />

“Nahezu jede Gesellschaft, die nur irgendeine Art <strong>von</strong> Bürokratie entwickelte, benötigte Daten,<br />

um effizient zu verwalten, um Steuern zu erheben oder auch, um genügend Bevölkerung<br />

für Kriege bereitzustellen.” [SHE05] Die ältesten Belege gehen auf China, Ägypten, Persien,<br />

sowie das römisches Reich <strong>zur</strong>ück, in denen Daten für Agrar-, Gewerbe-, Handelsstatistiken<br />

und Volkszählung gesammelt wurden. Von England gingen die stärksten Impulse <strong>zur</strong><br />

Entwicklung der empirischen Sozialforschung (um das Jahr 1085) aus. Wilhelm der Eroberer<br />

ließ in England die erste ökonomisch motivierte Untersuchung durchführen. Zum<br />

Gegenstand hatte diese: Besitzverhältnisse, Wert und Größe der Bewohnerschaft, und war<br />

im Grunde nichts anderes als eine “Staatsbeschreibung”. Im frühen 19. Jahrhundert kam<br />

der Enthüllungsjournalismus auf. Dabei wurde in Zeitungen das Elend bestimmter Klassen<br />

dargestellt. Die verwendeten Methoden zum Sammeln der Daten sind mit der heutigen<br />

“teilnehmenden Beobachtung” vergleichbar [Atte95]. Einer der ersten Versuche einer unmittelbaren<br />

Befragung <strong>von</strong> Betroffenen ging 1880 <strong>von</strong> Karl Marx mit der Veröffentlichung<br />

eines Fragebogens in der Zeitschrift “Revue Socialiste” für Arbeiter über deren konkrete<br />

Arbeits- und Lebenssituation aus. Obwohl der Fragebogen kaum beantwortet wurde und<br />

eine Auswertung deswegen nicht lohnte, war die Untersuchung kein Misserfolg, da sie die<br />

Abkehr <strong>von</strong> Expertenbefragungen einläutete. Erste methodische Durchbrüche gab es im<br />

Jahr 1915 mit der Untersuchung: “The Measurement of Social Phenomena” <strong>von</strong> Arthur<br />

L. Bowley. Neben präzise gestellte Fragen und der Definition des Gegenstandsbereiches<br />

kamen dabei Auswahlverfahren (Zufallsstichprobe) zum Einsatz.<br />

Die gegenwärtige Sozialforschung bietet kein einheitliches Bild. Die Entwicklungen in den<br />

60er bis 80er Jahren waren immer auf Auswertungsaspekte <strong>von</strong> Umfrageforschung bezogen.<br />

Die Erhebungstechniken sind auf dem Stand der 40er Jahre. [SHE05]<br />

23


4.1. Ablauf empirischer Sozialforschung<br />

Der Forschungsprozess bei empirischen Untersuchungen kann gemäß [SHE05] in neun Phasen<br />

unterteilt werden (siehe Abbildung 4.1). Die erste Phase ist die Wahl des Forschungsproblems.<br />

Man unterscheidet zwischen selbst initiierter und Auftragsforschung, die sich<br />

hauptsächlich im Spielraum für den Forscher unterscheiden.<br />

Der nächste Schritt ist die Theoriebildung, bei der die Theorie zu einem bestimmten<br />

Gegenstandsbereich entweder entwickelt werden muss oder bereits in Literatur vorliegt.<br />

Eventuell können auch Theorien verwandter Gegenstandsbereiche adaptiert werden. Der<br />

größte Teil der Theoriebildung besteht aus Literaturanalyse, die zeitlich nicht unterschätzt<br />

werden darf.<br />

In der Phase der Konzeptspezifikation und Operationalisierung müssen zum einen,<br />

die <strong>zur</strong> Erklärung verwendeten Konzepte und Begriffe genau präzisiert werden (= Konzeptspezifikation)<br />

und zum anderen, beobachtbare Sachverhalte (Indikatoren) den theoretischen<br />

Begriffen und Konstrukten so zugeordnet werden, dass Messungen möglich sind (= Operationalisierung).<br />

Es erfolgt auch die Konstruktion der Messinstrumente, welche meistens<br />

Fragebögen oder Beobachtungskategorien sind.<br />

Abbildung 4.1.: Phasen des Forschungsprozesses bei empirischen Untersuchungen [SHE05]<br />

Sehr eng mit der Art der Operationalisierung hängt die Festlegung der Untersuchungsform<br />

zusammen. Die Untersuchungsform ist abhängig <strong>von</strong> Messzeitpunkten, Personengruppen<br />

und <strong>von</strong> den <strong>zur</strong> Verfügung stehenden Mitteln. Diese und andere Aspekte bestim-<br />

24


men, ob man z.B. am besten ein Laborexperiment oder eine Befragung durchführt.<br />

Nach dem Abschluss dieser Design- und Konstruktions-Phasen geht es um die Auswahl<br />

der Untersuchungsobjekte. Durch die Definition des Gegenstandsbereiches und die<br />

Anwendung <strong>von</strong> Auswahlverfahren wird die Frage geklärt, ob alle oder nur ausgewählte<br />

Elemente des Gegenstandsbereiches untersucht werden sollen.<br />

Für die Datenerhebung werden Methoden wie z. B. Interviews, Beobachtungen, Inhaltsanalysen<br />

usw. genutzt. Je nach Datenerhebungsmethode sind hier verschiedene Arbeiten<br />

nötig.<br />

Bei der Datenerfassung werden die zuvor erhobenen Daten gespeichert und aufbereitet.<br />

Dies umfasst auch die Strukturierung und ggf. Bereinigung der Daten.<br />

Die Datenanalyse besteht überwiegend aus dem Einsatz statistischer Methoden unter<br />

Verwendung <strong>von</strong> Computern und speziellen Programmen, den Datenanalysesystemen. Es<br />

wird geprüft, ob theoretisch vorhergesagte Beziehungen aus den erhobenen Daten ableitbar<br />

sind. Teilweise kann dies auch <strong>zur</strong> Revision der ursprünglichen Theorie führen.<br />

Den Abschluss stellt die Publikation der Untersuchung dar. Dies ist in der Regel der<br />

Endbericht an den Auftraggeber sowie Zeitschriftenveröffentlichungen. Die Dauer sozialwissenschaftlicher<br />

Forschungsprojekte kann zwischen sechs Monaten und mehreren Jahren<br />

liegen. [SHE05]<br />

Die nächsten Kapitel geben einen Einblick in jede dieser Phasen (Quelle: [SHE05]).<br />

4.2. Wissenschaftstheorie und empirische Sozialforschung<br />

“Jede Wissenschaft bemüht sich darum, die vielfältigen Ereignisse in der Natur oder im<br />

menschlichen Zusammenleben zu sammeln, zu ordnen, und Aussagen über ihre innere Verbundenheit<br />

zu machen.” [SHE05] Sie erhebt darüber hinaus den Anspruch, dass die Resultate<br />

daraus nicht nur <strong>von</strong> demjenigen als richtig anerkannt werden, der sie erbringt,<br />

sondern für alle am Wissenschaftsprozess Beteiligten nachvollziehbar und kritisierbar<br />

und darüber hinaus “wahr” sind. Bei einer wissenschaftlichen Aussage über die Realität<br />

bedeutet “Wahrheit” die Übereinstimmung dieser Aussage mit der Realität. Wissenschaftstheorie<br />

versucht, Vorschläge zu entwickeln, wie dieses Ziel zu erreichen ist.<br />

Das Ziel dieses Kapitels ist es, die wichtigsten Begriffe der empirischen Sozialforschung zu<br />

erklären.<br />

Unter einer Hypothese versteht man eine Aussage die einen Zusammenhang zwischen<br />

mindestens zwei Variablen postuliert (“Wenn-Dann-Aussage”, “Je-Desto-Aussage”). Der Zusammenhang<br />

kann in beliebigen mathematischen Formen vorliegen. Quantitative Hypothesen<br />

beschreiben nicht nur annäherungsweise den Verlauf der Funktion, sondern geben auch<br />

die entsprechende Funktionsgleichung an.<br />

Variable ist der Name für die Menge <strong>von</strong> Merkmalsausprägungen (z.B. Geschlecht), die<br />

einem Objekt (z.B. Person) zugeschrieben werden kann.<br />

Ein Gesetz ist strukturell identisch mit einer Hypothese. Der Begriff wird dann verwendet,<br />

“wenn sich die entsprechende Aussage bereits häufig in der Realität “bewährt” hat.” [SHE05]<br />

Eine Theorie ist ein “System <strong>von</strong> Aussagen, dass mehrere Hypothesen oder Gesetze umfasst.”<br />

[SHE05] Die Komponenten einer Theorie sind:<br />

• Definitionen: Unter Verwendung dieser werden Aussagen formuliert, die die logi-<br />

25


sche Form <strong>von</strong> Hypothesen/Gesetzen haben und nach dem Grad ihrer Allgemeinheit<br />

geordnet sind.<br />

• Axiome: Dies sind Aussagen mit der höchsten Allgemeinheit. Sie müssen untereinander<br />

widerspruchsfrei und logisch unabhängig sein. Die Richtigkeit ist innerhalb des<br />

Systems als gegeben anzusehen.<br />

• Theoreme bzw. Propositionen: Dies sind aus den Axiomen zusammen mit den<br />

Definitionen ableitbare Aussagen.<br />

Da die Hauptaufgabe der empirischen Sozialforschung in der Erklärung <strong>von</strong> sozialen Ereignissen<br />

bzw. Tatsachen liegt, ist es wichtig zu definieren, was eine Erklärung ist. Eine<br />

wissenschaftliche Erklärung muss dabei Standards wie einer eindeutigen Struktur der<br />

Argumentation, logischer Korrektheit und einer empirischer Begründung genügen. Hypothetische<br />

oder auch potentielle Erklärungen sind “Vermutungen, deren empirischer Wahrheitsgehalt<br />

bzw. Bestätigungsgrad noch weitgehend unklar ist”. [SHE05] Gesetze können<br />

allerdings niemals endgültig verifiziert werden, da denktheoretisch nicht alle zukünftigen<br />

Ereignisse gesetzeskonform sein müssen. Das Falsifikationsprinzip wird hier als Motor für<br />

Erkenntniszuwachs gesehen. Dies geschieht mit der systematischen Eliminierung falscher<br />

Aussagen durch die empirische Falsifikation, also “durch den empirischen Nachweis eines<br />

einzelnen Falles bzw. Ereignisses welches im Widerspruch <strong>zur</strong> Hypothese steht.” [SHE05]<br />

Voraussetzung dafür ist das richtiges Erfassen/Messen der empirischen Wirklichkeit.<br />

Durch die Falsifikation ist somit ein Instrument gegeben, dass als Kriterium <strong>zur</strong> Beurteilung<br />

<strong>von</strong> Hypothesen und auch zum Vergleich <strong>von</strong> Hypothesen geeignet ist. In der empirischen<br />

Sozialforschung besteht eine Hypothese im einfachsten Fall aus:<br />

• Dem Geltungsbereich, der im Idealfall keinen spezifischen Raum-Zeit-Bezug hat;<br />

• Dem Objektbereich/Individuenbereich (Bsp.: Menschen, Frauen, Männer...);<br />

• Einem Allquantor, der beschreibt, dass die Aussage für alle Objekte des Objektbereiches<br />

Geltung haben soll;<br />

• Zwei Prädikaten, Eigenschaften der im Objektbereich angegebenen Individuen;<br />

Besonders wichtig ist dabei der Objektbereich, denn dieser umschreibt die Menge der “potentiellen<br />

Falsifikatoren”. Eine zu prüfende Hypothese sollte so formuliert werden, dass die<br />

Widerlegung möglichst “einfach” ist. Erreichbar ist dies durch einen großen Objektbereich.<br />

Wenn es nun um das Testen geht, müssen dafür theoretische Begriffe mit der Realität<br />

verbunden werden. “Theorien bestehen [...] aus logischen Ausdrücken (Zeichen) und allgemeinen<br />

Grundausdrücken, sogenannten theoretischen Konstrukten, die mit Hilfe <strong>von</strong> “Korrespondenzregeln”<br />

(auch: Zuordnungsregeln) mit konkreten Beobachtungssätzen in Verbindung<br />

gesetzt werden.” [SHE05]<br />

Das Problem, das dabei auftreten kann, ist das Korrespondenzproblem, d.h. die richtige<br />

Zuordnung empirischer Indikatoren zu theoretischen Konstrukten. Dafür sind zwei Fragen<br />

zu beantworten:<br />

1. Was sind Korrespondenzregeln und welchen Status haben sie Sind es willkürliche<br />

Definitionen, logische Ableitungen oder empirische Hypothesen (die selbst wahr oder<br />

falsch sein können)<br />

26


2. Wie ist es möglich, dass man sicherstellen kann, dass bestimmte Indikatoren zu einem<br />

bestimmten Konstrukt gehören<br />

Es gibt zwei verschiedene Verfahrensweisen, um dieses Problem zu lösen:<br />

• Operationalismus und<br />

• Bilaterale Reduktionssätze<br />

Der am weitesten verbreitete Lösungsvorschlag zum ersten Fragenkomplex ist der Operationalismus.<br />

Hierbei wird das theoretische Konstrukt durch Beobachtungsbegriffe und<br />

Beobachtungsverfahren definiert. Alle Konstrukte werden in konkrete Mess- und Beobachtungsanleitungen,<br />

also eindeutig nachvollziehbare Operationen übersetzt. Beispielsweise<br />

wird die Einordnung in eine bestimmte soziale Schicht durch das Erfragen des Einkommens<br />

oder der Schulbildung ermittelt. Der Vorteil dieses Vorgehens ist, dass bei der Verwendung<br />

theoretischer Terme auch über Operationalisierung nachgedacht wird. Der daraus entsteht<br />

Nachteil ist, dass zwei Untersuchungen nur schwer miteinander verglichen werden können,<br />

da sich die Messverfahren mitunter stark unterscheiden.<br />

Der extreme Operationalismus verlangt sogar, dass operationale Definitionen sich auf direkt<br />

beobachtbare (mit einem der fünf Sinne wahrnehmbare) Eigenschaften/Ereignisse beziehen<br />

und nicht erst durch den Einsatz <strong>von</strong> Messgeräten. Dies führt natürlich zu großen Problemen<br />

bei Eigenschaften, die nur unter bestimmte Bedingungen zu ermitteln sind.<br />

Abhilfe schaffen da Bilaterale Reduktionssätze. Diese erfassen Begriffe, die nur situativ<br />

zu ermitteln sind. Dafür wird zunächst die Messsituation hergestellt, in der der entsprechende<br />

Aspekt vorkommt und durch indirekte Frage eine Reaktion provoziert. Je nach<br />

dieser Reaktion wird einer befragten Person dann das entsprechende Prädikat zugesprochen.<br />

Als Beispiel sei hier “Ausländerfeindlichkeit” genannt. Diese könnte durch die Frage:<br />

“Sollten Ausländer bei gleicher Leistung weniger Lohn als Inländer erhalten” erfragt werden.<br />

Je nach Antwort (ja/nein) kann man somit auf eine ausländerfeindliche Gesinnung<br />

schließen.<br />

Da man aber je nach verwendetem Indikator zu unterschiedlichen Ergebnissen kommen<br />

kann, müssen Korrespondenzregeln selbst als empirische Hypothesen betrachtet werden.<br />

Die Zuordnung eines Indikators zu einem theoretischen Konstrukt ist somit nicht endgültig<br />

beweisbar, sondern nur mehr oder weniger gut empirisch zu bestätigen.<br />

Ein weiteres Problem ist das Basissatzproblem: Wie ist die korrekte Erfassung des Beobachteten<br />

zu bewerkstelligen<br />

Die Lösung des Basissatzproblems ist, dass Beobachtungssätze auch nur vorläufige Gültigkeit<br />

haben. Sie müssen sich auf intersubjektiv beobachtbare Ereignisse beziehen, dürfen<br />

nicht mit anerkannten Basissätzen in Widerstreit stehen und müssen methodisch richtig<br />

erfasst worden sein. Empirisch gültige (valide) Beschreibungen müssen also korrekte Zuordnungen<br />

<strong>von</strong> Indikatoren zu Konstrukten vornehmen und auf die fehlerfreie Erhebung<br />

<strong>von</strong> Daten achten.<br />

Das Gesamtproblem der Prüfbarkeit <strong>von</strong> Theorien ist, dass “Sätze der Beobachtungssprache<br />

(Indikatoren) und ihre Zuordnung zu theoretischen Konstrukten [...] keine absolute sichere<br />

Basis <strong>zur</strong> Theoriebeurteilung” [SHE05] sind.<br />

27


4.3. Konzeptspezifikation<br />

Die Operationalisierung eines theoretischen Begriffs beginnt mit der Klärung, “welche theoretischen<br />

Aspekte eines bestimmten Gegenstandsbereiches (“Dimension”) durch den theoretischen<br />

Begriff bezeichnet werden, bzw. welche Dimension das Konzept anspricht.” [SHE05]<br />

Dieser theoretische Klärungsprozess wird Konzeptspezifikation genannt, und stellt die<br />

exakte Definition aller verwendeten Begriffe dar.<br />

Die Operationalisierung eines theoretischen Begriffs ist die Angabe einer Anweisung,<br />

“wie Objekte mit Eigenschaften (Merkmalen), die der theoretische Begriff bezeichnet,<br />

beobachtbare Sachverhalte zugeordnet werden können.” [SHE05] Es ist somit die Angabe<br />

<strong>von</strong> Korrespondenzregeln, also Anweisungen, wie ein Sachverhalt, der <strong>von</strong> einem Begriff<br />

bezeichnet wird, zu messen ist. [Atte95]<br />

Es sind verschieden Arten <strong>von</strong> Merkmalen zu unterscheiden. Konstanten sind Eigenschaften,<br />

die allen jeweils betrachteten Objekten zukommen. Variablen sind Eigenschaften, die<br />

bei verschiedenen Merkmalsträgern in mehr als einer Ausprägung vorkommen. Dabei unterscheidet<br />

man wiederum mehrere Arten <strong>von</strong> Variablen:<br />

• dichotome Variablen: nehmen nur zwei verschiedene Werte an (Bsp.: lebend-tot)<br />

• diskrete Variablen: nehmen wenige verschiedene Werte an (Bsp.: rot-gelb-grün)<br />

• kontinuierliche/stetige Variablen: nehmen jeden beliebigen Wert an (Bsp.: reelle<br />

Zahlen)<br />

Auch eine andere Unterscheidung <strong>von</strong> Variablen ist möglich. Diese richtet sich danach, ob<br />

die Ausprägung direkt oder nicht direkt wahrnehmbar ist:<br />

• manifeste Variablen: direkt beobachtbare Variablen (Bsp.: Körpergröße)<br />

• latente Variablen: nicht direkt beobachtbare Variablen (Bsp.: Abstraktionsvermögen)<br />

[Atte95]<br />

Die direkt beobachtbaren (manifesten) Variablen werden Indikatoren genannt. Das zentrale<br />

Problem der Operationalisierung ist die Rechtfertigung der Zuordnung eines Indikators<br />

zu einem theoretischen Begriff. Dies kann beispielsweise durch die definitorische<br />

Gleichsetzung des Indikators mit dem theoretischen Konstrukt (operationalistische Lösung)<br />

erreicht werden. Grundsätzlich kann man sagen, dass <strong>zur</strong> Operationalisierung eines<br />

Begriffs mehrere Indikatoren genutzt werden sollten. Durch diese unabhängigen Messungen<br />

des gleichen Sachverhaltes kann die Genauigkeit erhöht werden, da durch unsystematische<br />

Fehler der Messwert bei jeder der Messungen etwas abweicht. Der Mittelwert der Messungen<br />

der verschiedenen Indikatoren ist somit genauer als jeder einzelne Wert.<br />

Sozialwissenschaftliche Messungen verbinden drei Ebenen miteinander: Konzepte, Indikatoren<br />

und die empirische Realität. Die empirische Realität existiert unabhängig <strong>von</strong><br />

Konzepten und Indikatoren. Die Indikatoren beziehen sich auf bestimmte Aspekte der<br />

Realität. Die theoretischen Konzepte definieren die Auswahl dieser Aspekte. Durch eine<br />

Verwechslung dieser drei Ebenen kann es zu einer Reihe <strong>von</strong> Missverständnissen kommen.<br />

Dies passiert, wenn empirische Aussagen ohne Vorbehalte auf Konzepte übertragen werden.<br />

Beispielsweise sagen Variablen wie “Alter” oder “Geschlecht” nur indirekt etwas über<br />

28


“Erfahrung in sozialen Kontakten” aus. Meist kann die interessierende Dimension direkter<br />

gemessen werden als durch diese so genannten Globalvariablen.<br />

Es kann auch vorkommen, dass Theorien dazu führen, dass Konstrukten der Theorie ein<br />

Wirklichkeitscharakter gegeben wird, den sie nicht besitzen können. Ein Beispiel ist der<br />

Begriff “Vorurteile”, der nicht im selben Sinne wie materielle Gegenstände existiert. Denn<br />

das Problem mit dieser Art <strong>von</strong> Begriffen ist, dass sie wiederum <strong>von</strong> der Operationalisierung<br />

abhängen, was dazu führt, dass der Begriff unterschiedlich verstanden werden kann.<br />

Messungen<br />

Nach der Konzeptspezifikation und der Operationalisierung geht es darum, das Durchführen<br />

<strong>von</strong> Messungen genauer zu betrachten. Die empirische Sozialforschung dient ja, wie<br />

schon festgestellt, “der Beschreibung sozialer Sachverhalte und der Überprüfung sozialwissenschaftlicher<br />

Theorien <strong>zur</strong> Erklärung sozialer Sachverhalte. Beide Aufgaben können nur<br />

mit Hilfe <strong>von</strong> “Messungen” erfüllt werden” [Stev46].<br />

Messungen dienen also der Überprüfung <strong>von</strong> Theorien. Ein Messergebnis ist ein Kriterium,<br />

anhand dessen über die Beibehaltung oder Verwerfung <strong>von</strong> Theorien geurteilt wird.<br />

Unter Messen an sich versteht man die Zuordnung <strong>von</strong> Zahlen, also Messwerten, zu<br />

Objekten entsprechend festgelegten Regeln. Ziel ist immer eine möglichst präzise Messung.<br />

Darüber hinaus müssen die Messwerte aber auch die Beziehungen wiedergeben, die zwischen<br />

den gemessenen Objekten bestehen. Es muss sich also um eine strukturtreue Abbildung<br />

handeln, was beispielsweise bei einer Längenmessung sich darin widerspiegelt,<br />

dass der größte Messwert dem längsten Objekt und der kleinste Messwert dem kürzesten<br />

Objekt entspricht. Die Definition der Messung erfordert für die Angabe der Messanweisung,<br />

dass Objekte gemäß der Eigenschaft sortiert werden können. Eine abgegrenzte Ansammlung<br />

<strong>von</strong> Objekten (“Menge”) kann durch verschieden Kriterien sortiert werden. Je nach<br />

Kriterium ist die Relation, also Beziehung der Objekte zueinander (Bsp.: Länge), anders<br />

definiert. Beim empirischen Relativ ist es die Menge <strong>von</strong> Objekten, über die eine Relation<br />

definiert wurde (Bsp.: eine nach der Länge sortierte Menge <strong>von</strong> Objekten). Eine<br />

Menge <strong>von</strong> Zahlen, über die eine Relation definiert wurde, wird als numerisches Relativ<br />

bezeichnet (Bsp.: eine nach der Größe sortierte Menge <strong>von</strong> Zahlen). Eine Messung<br />

muss nun eine Zuordnung der Zahlen zu den Objekten finden, dass sich die Ordnungen<br />

im numerischen und im empirischen Relativ entsprechen. Es muss demnach eine Regel gefunden<br />

werden, die eine strukturtreue Abbildung erlaubt. Kann man aus einer durch eine<br />

Messung zugeordneten Zahl wieder eindeutig das Objekt bestimmen, spricht man <strong>von</strong> einer<br />

umkehrbar eindeutigen Abbildung, einem Isomorphismus. Sind hingegen einer Zahl<br />

mehrere Objekte zugeordnet, handelt es sich um eine nicht umkehrbar eindeutige Abbildung,<br />

einen Homomorphismus.<br />

Eine Skala ist nun definierte als eine “homomorphe Abbildung eines empirischen Relativs<br />

in ein numerisches Relativ” [SHE05] Da nicht jede Abbildung eine homomorphe Abbildung<br />

ist, muss die Existenz einer Skala erst bewiesen werden. Dies wird durch das Repräsentationstheorem<br />

nachgewiesen, das Bedingungen (“Axiome”) im empirischen Relativ angibt,<br />

die erfüllt sein müssen, damit eine homomorphe Abbildung möglich ist. Der zweite Schritt<br />

ist dann die empirische Überprüfung, ob die Axiome erfüllt sind, also ob die geforderten<br />

Eigenschaften zwischen den Objekten auch tatsächlich bestehen.<br />

29


Wenn dies erfüllt ist, ist aber noch lange nichts über die Einheiten der Messung gesagt,<br />

denn diese werden durch die Messung selber festgelegt. So kann man beispielsweise die<br />

Temperatur in Celsius, Fahrenheit oder auch Kelvin messen. Das Eindeutigkeitstheorem<br />

gibt nun an, welche Beziehung zwischen verschiedenen Skalen besteht. Genauer gesagt<br />

definiert es, “welche mathematischen Operationen im numerischen Relativ “zulässig” sind”<br />

[SHE05], also durchführbar sind, ohne dass die Strukturtreue der Abbildung verloren geht.<br />

Man unterscheidet dabei zwischen zulässigen und unzulässigen Transformationen.<br />

Eine Klassifikation <strong>von</strong> Skalen ist nach den jeweils zulässigen Transformationen möglich.<br />

Dies wird als Skalenniveau oder Messniveau bezeichnet. Die meistverwendete Klassifikation<br />

<strong>von</strong> Skalen geht auf eine Veröffentlichung <strong>von</strong> S. S. Stevens [Stev46] <strong>zur</strong>ück. Demnach<br />

wird unterschieden zwischen (siehe auch Tabelle 4.1):<br />

• Nominalskalen: Einer einfachen Klasseneinteilung, die jedes Objekt genau einer<br />

Klasse zuordnet. Die Klassen stellen nur Kennzeichnungen dar, denen beliebige Zahlen<br />

zugeordnet werden können. Es dürfen daher nur mathematische Transformationen<br />

durchgeführt werden, die die Eindeutigkeit der Zuordnung erhalten.<br />

• Ordinalskalen: Diese erfordern neben der Prüfung der Gleichheit <strong>von</strong> Objekten<br />

auch die Möglichkeit der Festlegung der Rangordnung der Objekte, in Bezug auf die<br />

interessierende Dimension. Zugeordnete Zahlen müssen die Rangordnung wiedergeben.<br />

Es sind keine mathematischen Transformationen zulässig, die die Abfolge der<br />

Zahlen verändert.<br />

• Intervallskalen: Hierbei ist zusätzlich <strong>zur</strong> Unterscheidungsmöglichkeit und Rangordnungsfestlegung<br />

die Angabe, dass die Unterschiede zwischen zwei beliebigen aufeinander<br />

folgenden Objekten gleich groß ist, gefordert. Dies bedeutet also Intervalle<br />

gleicher Größe. Aufeinanderfolgende Zahlen müssen stets die gleiche Differenz haben,<br />

demnach sind nur solche Transformationen zulässig, die dies nicht verändern.<br />

• Ratioskalen: Diese verlangen zusätzlich die Existenz eines “natürlichen Nullpunktes”.<br />

Der Messwert “Null” entspricht der tatsächlichen Abwesenheit des gemessenen<br />

Merkmals. Die Skala ermöglicht Aussagen über Quotienten zweier beliebiger Objekte<br />

(Objekt “X” hat doppelt soviel “A” wie Objekt “Y”). Nur bei dieser Skala sind<br />

Multiplikation und Division erlaubt.<br />

Skalentyp Festgelegte Eigenschaft Beispiel<br />

Nullpunkt Abstände Ränge Identität<br />

Nominalskala nein nein nein ja Familienstand<br />

Ordinalskala nein nein ja ja Zufriedenheit<br />

Intervallskala nein ja ja ja Temperatur in C.<br />

Ratioskala ja ja ja ja Länge<br />

Tabelle 4.1.: Eindeutigkeit der Skalentypen [SHE05]<br />

Je höher das Messniveau desto mehr mathematische Verfahren können auf die gewonnenen<br />

Daten angewendet werden. Deswegen ist ein möglichst hohes Messniveau das Ziel.<br />

30


Da das Messniveau einer Messung durch den Beweis der Axiome in Repräsentations- und<br />

Eindeutigkeitstheorem bestimmt wird, und dies mit sehr viel Aufwand verbunden ist, wird<br />

in der Forschungspraxis ein solcher Nachweis kaum angewendet. Zudem basieren in den<br />

Sozialwissenschaften die meisten Messungen auf vermuteten Zusammenhängen. Dabei liegen<br />

weder Repräsentations- noch Eindeutigkeitstheorem vor und ein Beweis ist somit nicht<br />

möglich.<br />

4.3.1. Gütekriterien der Messung<br />

“Das Ziel einer Messung besteht in der Erhebung möglichst exakter und fehlerfreier Messwerte.”<br />

[SHE05] Das Problem dabei sind Messfehler. Die klassische Testtheorie, eine<br />

aus wenigen Axiomen bestehende statistische Theorie, bildet die Grundlage für viele Verfahren<br />

zum Umgang mit Messfehlern. Das Grundmodell besteht aus der Annahme, dass<br />

der realisierte Messwert gleich der Summe aus dem wahren Wert und dem Messfehler ist.<br />

Der wahre Wert ist der Mittelwert einer großen Zahl <strong>von</strong> unabhängigen Messungen. Vier<br />

weiter Annahmen werden zusätzlich als erfüllt angesehen:<br />

• Mittelwert des Messfehlers ist gleich Null;<br />

• Messfehler korrelieren nicht mit den wahren Werten einer Messung (also: Größe des<br />

Messfehlers darf nicht vom wahren Wert abhängen);<br />

• Messfehler zweier Messwertreihen sind unkorreliert;<br />

• Messfehler einer Messwertreihe korrelieren nicht mit den “wahren Werten” einer anderen<br />

Messung;<br />

Aus diesen Axiomen sind zahlreiche Aussagen über Messgenauigkeit ableitbar. Ausserdem<br />

erlauben sie die einfache Definition <strong>von</strong> Gütekriterien für Messungen, wie etwa die Zuverlässigkeit<br />

einer Messung (Reliabilität) oder die Gültigkeit einer Messung (Validität).<br />

Reliabilität<br />

Reliabilität ist definiert als das Ausmaß, in dem “wiederholte Messungen eines Objektes<br />

mit einem Messinstrument die gleichen Werte liefert” [SHE05] Sie gibt also Auskunft darüber,<br />

inwieweit das Verfahren einer Messung zuverlässig ist. Um dies zu überprüfen, gibt<br />

es mehrere Methoden.<br />

Mit der Test-Retest-Methode wird die zeitliche Stabilität <strong>von</strong> Messergebnissen (ein<br />

Aspekt der der Reliabilität) durch zweimalige Messung ein und desselben Objektes mit<br />

demselben Messinstrument gemessen. Die Korrelation zwischen beiden Messungen wäre<br />

dann eine Schätzung der Reliabilität. Dieser Test basiert auf der Annahme, dass die wahren<br />

Werte zwischen beiden Messungen die gleichen bleiben. Da diese Annahme aber zweifelhaft<br />

ist, findet die Methode kaum Verwendung in der Praxis.<br />

Die Paralleltest-Methode nutzt zwei vergleichbare Messungen zum selben Zeitpunkt,<br />

mit zwei verschiedenen Messinstrumenten, die dieselbe Dimension messen. Die Korrelation<br />

der beiden Messergebnisse wird <strong>zur</strong> Schätzung der Reliabilität verwendet. Das Problem<br />

31


dabei ist es, wirklich parallele Tests zu finden. Deswegen wird auch dieses Verfahren in der<br />

Praxis kaum verwendet.<br />

Eine weitere Methode ist die der interne Konsistenz. Ein Messinstrument aus mehreren<br />

Indikatoren (“Items”) wird als Ansammlung äquivalenter Tests interpretiert, wenn alle Indikatoren<br />

dieselbe Dimension messen. Das Maß der internen Konsistenz gibt den Umfang<br />

an, in welchem alle Einzelindikatoren dasselbe Konstrukt messen.<br />

Zusammenfassend ist festzuhalten, dass eine Reliabilitätsabschätzung abhängig vom jeweiligen<br />

Instrument und den untersuchten Objekten ist.<br />

Validität<br />

Validität ist definiert das das Ausmaß, in dem “das Messinstrument tatsächlich das misst,<br />

was es messen soll.” [SHE05] Die Validität ist das zentrale Gütekriterium einer Messung.<br />

Ein Instrument ist umso valider, je weniger systematische Fehler die Messung beeinflussen.<br />

Die Empirische Validität eines Instrumentes ist die “Korrelation zwischen diesem<br />

Instrument und einer anderen beobachteten Variablen, die als Kriterium dient.” [SHE05]<br />

Die Theoretische Validität ist die “Korrelation zwischen beobachteten und wahren Werten.”<br />

[SHE05] Allgemein verbreitet sind drei Arten der Validität, die Inhaltsvalidität, die<br />

Kriteriumsvalidität und die Konstruktvalidität.<br />

Die Inhaltsvalidität bezieht sich darauf, dass möglichst alle Aspekte der Dimension, die<br />

gemessen werden sollte, auch berücksichtigt wurden. Objektive Kriterien, anhand derer<br />

diese beurteilt werden könnte, existieren nicht. Vielmehr ist sie als Idee zu verstehen, die<br />

bei der Konstruktion <strong>von</strong> Instrumenten beachtet werden soll. Jeder Aspekt eines theoretischen<br />

Begriffs soll bei der Operationalisierung berücksichtigt werden.<br />

Die Kriteriumsvalidität bezieht sich auf Zusammenhang zwischen “den empirisch gemessenen<br />

Ergebnissen des Messinstrumentes und einem anders gemessenen empirischen<br />

(“externen”) Kriterium.” [SHE05] Eine Form ist die “prädikative Validität”, die ein Instrument<br />

besitzt, wenn “Voraussagen, die auf einer ersten Messung mit diesem Instrument<br />

beruhen, durch spätere Messungen mit einem anderen Instrument bestätigt werden können.”<br />

[SHE05] Die zweite Form ist die “Concurrent validity”. Vorhersagen sind hierbei auf<br />

zu beurteilende Messungen zum selben Zeitpunkt bezogen. Diese Art der Validität ist aber<br />

selten anwendbar, da häufig keine hinreichend genau gemessene Kriteriumsvariable für die<br />

Validierung einer Messung vorliegt. Falls sie doch vorliegen sollte stellt sich die Frage, worin<br />

der Anlass einer neuen Messung bestehe.<br />

Von großer Bedeutung in der Sozialforschung ist die Konstruktvalidität. Unter Konstrukt<br />

werden theoretische Eigenschaftsdimensionen (latente Variablen) verstanden. Konstruktvalidität<br />

liegt dann vor, wenn: “aus dem Konstrukt empirisch überprüfbarer Aussagen<br />

über Zusammenhänge dieses Konstruktes mit anderen Konstrukten theoretisch hergeleitet<br />

werden können und sich diese Zusammenhänge empirisch nachweisen lassen.” [SHE05]<br />

32


4.3.2. Indexbildung und Skalierungsverfahren<br />

Es kommt vor, dass <strong>zur</strong> Operationalisierung eines theoretischen Begriffs (also: eines Konstrukts)<br />

ein einzelner Indikator nicht ausreicht. Dies ist beispielsweise dann der Fall, wenn<br />

dieser keine ausreichend genaue Messung erlaubt. Dem kann man entgegen wirken, indem<br />

man mehrere Indikatoren zu einer neuen Variablen zusammenfasst. Das erfolgt entweder<br />

durch Indexbildung oder durch Skalierungsverfahren. Beide Verfahren sind Auswahlverfahren<br />

und keine Datenerhebungs- oder Messverfahren.<br />

Indizes<br />

Ein Index ist die “Zusammenfassung <strong>von</strong> mehreren Einzelindikatoren zu einer neuen Variablen”<br />

[SHE05]. Er wird dann verwendet, wenn Begriffe einer sozialwissenschaftlichen<br />

Theorie mehrere Dimensionen ansprechen, aber eine gemeinsame latente Variable postulieren.<br />

Die Bildung eines Index kann dann aus Indikatoren für jede einzelne Dimension<br />

gebildet werden. Probleme, die bei der Indexkonstruktion gelöst werden müssen, sind:<br />

1. Welche Dimensionen sollen in den Index eingehen<br />

2. Wie sollen die Dimensionen kombiniert werden<br />

Für die Festlegung der Dimension des Index kann man einen Merkmalsraum nutzen. Die<br />

Dimensionen eines Begriffs bilden die Achsen dieses Raumes und jedes Untersuchungsobjekt<br />

kann durch die Position im Raum genau eingeordnet werden.<br />

Wenn die Variablen, die den Merkmalsraum aufspannen, nur wenige verschiedene Werte<br />

annehmen können, kann man eine Tabelle <strong>zur</strong> Darstellung der Kombinationen nutzen. Diese<br />

Typologie besteht aus der Gesamtheit aller verschiedenen Kombinationen (Typen) der<br />

zugrundeliegenden Variablen. Die Tabelle 4.2 zeigt den theoretischen Aufbau einer Typologie.<br />

Ein Beispiel, wie dies in der Praxis aussehen kann, ist in Tabelle 4.3 zu sehen.<br />

Dimension2<br />

Dimension1<br />

Ausprägung 1 Ausprägung 2<br />

Ausprägung 1 Typ11 Typ12<br />

Ausprägung 2 Typ21 Typ22<br />

Tabelle 4.2.: Allgemeiner Aufbau einer Typologie (bei zwei Dimensionen mit je zwei<br />

Ausprägungen)[SHE05]<br />

Parteimitglied<br />

politisch aktiv<br />

ja<br />

nein<br />

ja “Funktionär” “Karteileiche”<br />

nein “Aktivist” “Apathischer”<br />

Tabelle 4.3.: Beispiel für eine Typologie “politischen Engagements” [SHE05]<br />

Für die Nutzung dieser Begriffe (Typen) in der empirischen Forschung müssen die zugrunde<br />

liegenden Dimensionen theoretisch hergeleitet werden. Diese Herleitung wird als<br />

33


“Rekonstruktion des Merkmalsraumes” oder “Substruktion” bezeichnet. Objektive<br />

Gütekriterien, die eine Beurteilung erlauben würden, gibt es nicht.<br />

Nach der theoretischen <strong>Analyse</strong>, die die Frage, welche Dimensionen in den Index eingehen<br />

sollen, geklärt und die Indikatoren für die Dimensionen bestimmt hat, ist die Frage<br />

nach der richtige Kombination der verschiedenen Werte der Indikatoren zu einem Index zu<br />

beantworten.<br />

Alle möglichen Kombinationen sollen durch den Index so zusammengefasst werden, dass<br />

nur wenige verschiedene Indexwerte entstehen und die Abfolge einer vorher bestimmten<br />

Variablen entspricht. Ein Index fasst also einige Kombinationen des Merkmalsraumes zu<br />

neuen Kombinationen zusammen. Die Indexkonstruktion wird deswegen auch Reduktion<br />

des Merkmalsraumes genannt. Gründe für die Zusammenfassung sind:<br />

1. Bestimmte Typen kommen gar nicht oder sehr selten vor. Eine getrennte Behandlung<br />

kann dadurch nicht gerechtfertigt werden (“functional reduction”).<br />

2. Durch den Einsatz unterschiedliche Gewichtung der Indexvariablen werden verschiedene<br />

Kombinationen zusammengefasst (“arbitrary numerical reduction”).<br />

3. Eine Zusammenfassung erscheint als theoretisch sinnvoll (“pragmatic reduction”).<br />

Die meisten Indizes werden durch Addition der Indikatorenwerte berechnet. Ein eventuelles<br />

Problem dieser additiven Indizes ist, dass ein niedriger Punktewert eines Indikators<br />

durch anderen ausgeglichen werden kann.<br />

Wenn Abwesenheit eines Merkmales den niedrigsten Wert auf der Skala bedingen soll, also<br />

das soeben genannte Problem gelöst werden soll, kommen multiplikative Indizes zum<br />

Einsatz. Hierbei ergibt sich zwangsläufig der Wert “0” sobald nur ein Indikator diesen Wert<br />

hat.<br />

Gewichtete additive Indizes erlauben die sinnvolle Gewichtung eines “Beitrages” zum<br />

Indikator. Ein Index könnte beispielsweise so aufgebaut sein:<br />

Index = a ∗ Indikator1 + b ∗ Indikator2 + c ∗ Indikator3...<br />

Die Gewichte (a, b, c, ...) selbst können empirisch gewonnen werden, beispielsweise durch<br />

Expertenschätzungen. Eine stärkere Gewichtung erscheint dann sinnvoll, wenn bestimmte<br />

Indikatoren mehr mit dem Gesamtindex zusammenhängen. In der Praxis wird, außer bei<br />

sehr guten Gegenargumenten, eher gleiche Gewichtung verwendet.<br />

Indizes aus kontinuierlichen Variablen werden dann verwendet, wenn die Variablen<br />

beliebige Werte annehmen können. Hierbei wird meist eine einfache Formel angegeben für<br />

die Bildung des Index (Bsp.: Mittelwert, Quotient zweier Variablen). Mit zunehmender<br />

Komplexität ergeben sich allerdings rasch Interpretationsprobleme.<br />

Skalierungsverfahren<br />

“Skalierungsverfahren sind Methoden <strong>zur</strong> Konstruktion <strong>von</strong> Messverfahren.” [SHE05] Das<br />

Resultat der Durchführung eines Skalierungsverfahrens ist eine “Skala”. In der Praxis der<br />

Sozialforschung ist eine Skala eine Reihe <strong>von</strong> “Items” entlang einer Dimension. Items wiederum<br />

sind Aussagen (Statements), denen die Befragten zustimmen oder die sie ablehnen.<br />

34


Es gibt keine formalen Regeln, wie man Items für eine Skala bildet. Meist werden sie aus<br />

bereits verwendeten Skalen entnommen oder durch Vorstudien gewonnen. Oft entspringen<br />

sie auch der Phantasie des Skalenkonstrukteurs. Es gibt aber einige Faustregeln, so z.B. für<br />

die Formulierung <strong>von</strong> Statements einer Einstellungsskala. Vermieden werden sollten nach<br />

[Edwa57] Statements, die:<br />

1. sich auf die Vergangenheit statt auf die Gegenwart beziehen;<br />

2. Tatsachen beschreiben oder so aufgefasst werden können;<br />

3. vom Befragten nicht eindeutig interpretiert werden können;<br />

4. sich nicht auf die Einstellung beziehen, um die es geht;<br />

5. denen alle oder kein Befragter zustimmen kann;<br />

Statements sollten:<br />

1. den gesamten Bereich der interessierenden Einstellung abdecken;<br />

2. einfach, klar und direkt formuliert sein;<br />

3. kurz sein und möglichst nur selten mehr als 20 Worte umfassen;<br />

4. aus einfachen Sätzen und nicht aus Satzgefügen und Satzverbindungen bestehen;<br />

5. keine Worte enthalten, die den Befragten unverständlich sein könnten;<br />

6. immer nur einen vollständigen Gedanken umfassen ;<br />

7. keine doppelte Verneinung aufweisen;<br />

8. keine Worte wie “alle”, “immer”, “niemand” und “niemals” enthalten;<br />

9. nur in Ausnahmefällen Worte wie “nur”, “gerade” und “kaum” enthalten;<br />

“Skalierungsverfahren können auch als Technik bei der Datenauswertung angesehen werden,<br />

da nicht mehr viele einzelne Variablen, sondern nur noch eine ausgewertet werden muss.”<br />

[SHE05] Skalen sind Spezialfälle <strong>von</strong> Indizes, ein prinzipieller Unterschied ist nicht auszumachen.<br />

Skalierungsverfahren erlauben allerdings die Überprüfung, ob ein bestimmtes<br />

Item Bestandteil der Skala ist oder nicht. Die Konstruktion eines Index erfolgt unabhängig<br />

<strong>von</strong> erhobenen Daten und kann somit immer erfolgen. Bei Skalierungsverfahren kann es<br />

sich anhand der erhobene Daten herausstellen, dass keine Messung erfolgte (im Sinn des<br />

Skalierungsverfahrens).<br />

In der empirischen Sozialforschung werden Skalierungsverfahren überwiegend <strong>zur</strong> Messung<br />

<strong>von</strong> Einstellungen verwendet. Diese werden dabei als latente Variablen aufgefasst. Ziel der<br />

Einstellungsmessung ist es, die Ausprägung der latenten Variable bei den Befragten festzustellen.<br />

Dazu werden den Befragten Aussagen (Statements, Items) vorgelegt, auf die sie<br />

mit Zustimmung bzw. Ablehnung reagieren sollen. Je nach Verfahren werden dann auf<br />

unterschiedliche Art und Weise die einzelnen Antworten zu einem Skalenwert verrechnet.<br />

Dieser lässt dann einen Rückschluss auf die Einstellung des Befragten zu.<br />

Für einen tieferen Einstieg in die Materie sei an dieser Stelle auf [SHE05] verwiesen.<br />

35


4.4. Forschungsdesign und Untersuchungsformen<br />

“Das Ziel sozialwissenschaftlicher Arbeit besteht in der Erklärung bzw. Prognose <strong>von</strong> sozialen<br />

Ereignissen” [SHE05] also der Überprüfung <strong>von</strong> Hypothesen und Theorien. “Dieser<br />

Nachweis <strong>von</strong> theoretisch vermuteten Zusammenhängen erfolgt auf der Ebene <strong>von</strong> beobachtbaren<br />

Indikatoren.” [SHE05] Dazu ist die Entscheidung nötig: wann, wo, wie und wie oft die<br />

empirischen Indikatoren an welchen Objekten erfasst werden sollen. Unter Forschungsdesign<br />

versteht man die Gesamtheit dieser Entscheidungen.<br />

Das Ziel bei der Ausarbeitung eines Forschungsdesigns ist es, möglichst viele alternative Erklärungen<br />

durch die Wahl des Designs auszuschließen, denn für jedes Phänomen sind viele<br />

Erklärungsmöglichkeiten vorhanden. Durch die Realisierung der Untersuchungsanordnung<br />

werden Erklärungen überprüft und gegebenenfalls bestimmte Erklärungen ausgeschlossen.<br />

Experiment ist der allgemeine Begriff für eine Untersuchungsanordnung, die der Überprüfung<br />

<strong>von</strong> Hypothesen dient.<br />

Das Design der einmaligen Messung untersucht die Einwirkung eines bestimmten Stimulus<br />

(“X”) (auch Treatment, Treatmentfaktor oder unabhängige Variable genannt) und<br />

misst die mögliche Wirkung <strong>von</strong> “X” (“O”) (siehe Tabelle 4.4).<br />

Das Problem dieses Designs ist, dass kein Vergleichswert vorhanden ist. Daten aus anderen<br />

Quellen müssen herangezogen werden. Diese sind aber aus anderen Untersuchungen und<br />

somit mitunter “zweifelhaft”.<br />

X<br />

t1<br />

O<br />

t2<br />

Tabelle 4.4.: Design einer einmaligen Messung [SHE05]<br />

Bei einer Vorher-Nachher-Messung erfolgt eine zufällige Zuweisung zu zwei Gruppen<br />

(“Randomisierung”). Bei Experimentalgruppe und Kontrollgruppe wird dann eine Vorhermessung<br />

(“Pretest”) durchgeführt. Danach erfolgt ein Stimulus für die Experimentalgruppe.<br />

Die Nachhermessung (“Posttest”) geschieht wieder für beide Gruppen (siehe Tabelle 4.5).<br />

R: O X O Experimentalgruppe<br />

R: O O Kontrollgruppe<br />

t1 t2 t3<br />

Tabelle 4.5.: Design einer Vorher-Nachher-Messung mit Kontrollgruppe [SHE05]<br />

Damit hat man eine deutliche Verbesserung der Beurteilungssituation, da sowohl Vorherals<br />

auch Nachherwerte vorliegen und so ein direkter Vergleich möglich ist. Wenn das Treatment<br />

die vermutete Wirkung hat, dann ist der zweite Messwert deutlich anders als der erste<br />

und außerdem ist der Wert der Kontrollgruppe gleich geblieben. Falls dies der Fall ist, kann<br />

mit großer Sicherheit auf die Wirkung <strong>von</strong> “X” geschlossen werden.<br />

Das Survey Design ist die Befragung einer (hinreichend) großen Zahl <strong>von</strong> zufällig ausgewählten<br />

Personen hinsichtlich Stimulus und Wirkung, die in Experimental- und Kontrollgruppe<br />

je nach Vorhandensein des Stimulus eingeteilt werden. Die <strong>Analyse</strong> der Daten<br />

36


erfolgt nachträglich (“ex post”). Problematisch ist dabei, dass es keine Vorherwerte gibt<br />

und der Stimulus nicht durch die Forscher gezielt gesetzt ist (siehe Tabelle 4.6).<br />

X O Experimentalgruppe<br />

O Kontrollgruppe<br />

t1 t1<br />

(gemeinsam zu t1 gemessen)<br />

Tabelle 4.6.: Survey-Design [SHE05]<br />

Das zentrale Problem ist also die Beziehung zwischen Ursache und ihrer Wirkung. Bei<br />

einem Experiment kann nicht schon daraus, dass eine Wirkung eintritt, geschlossen werden,<br />

dass eine vermutete Ursache tatsächlich die Ursache dafür ist. Ein Objekt kann sich<br />

alleine durch den Test (oder auch Nicht-Test) verändern, es kann reifen etc. Diese Einflüsse<br />

werden Störfaktoren genannt. In der Forschungspraxis werden deswegen Störfaktoren eines<br />

Experimentes identifiziert und man versucht, sie so weit wie möglich zu kontrollieren.<br />

4.4.1. Störfaktoren<br />

Die Güte eines Designs bemisst sich daran, inwieweit Alternativerklärungen bzw. der Einfluss<br />

<strong>von</strong> Störfaktoren möglichst weitgehend ausgeschlossen werden kann. Man unterscheidet<br />

Störfaktoren, die die interne Validität (Gültigkeit) beeinflussen und die, die die externe<br />

Validität beeinflussen. Störfaktoren der internen Validität sind:<br />

• Zwischenzeitliches Geschehen (“history”, Zeiteinflüsse): Ereignisse die zusätzlich<br />

zum Stimulus die abhängige Variable beeinflussen können.<br />

• Reifungsprozess der Probanden (“maturation” bzw. “decay”, biologisch-psychologische<br />

Veränderungen): Varianz wird durch interpersonale Prozesse bedingt, also<br />

nicht durch Einwirkung des Stimulus (Bsp.: Hunger).<br />

• Messeffekte (“testing”, Testen): Veränderungen werden als Auswirkung des ersten<br />

Messvorgangs auf den zweiten erzeugt. (Bsp.: bei IQ-Test mit denselben Fragen bei<br />

Pre- und Posttest - eventuell Lernen aus den Fehlern des ersten Tests).<br />

• Hilfsmittel (“instrumentation”, Veränderungen im Messinstrument): Verwendung<br />

<strong>von</strong> unterschiedlichen Messinstrumenten (Bsps.: andere Fragen, Versuchsleiter...).<br />

• Verzerrte Auswahl und Ausfälle (“selection”, “mortality”): wenn sich Experimentalund<br />

Kontrollgruppe nicht nur hinsichtlich des Stimulus, sondern auch in anderen<br />

Merkmalen unterscheiden, die Einfluss auf die abhängige Variable haben. Auch Ausfälle<br />

können den Test beeinflussen.<br />

Interne Gültigkeit ist dann gegeben, wenn das Treatment tatsächlich für die Variation der<br />

abhängigen Variable verantwortlich ist. Die interne Gültigkeit ist verletzt, wenn ein oder<br />

mehrere Störfaktoren den Messwert verändern. Man spricht <strong>von</strong> Konfundierung, wenn<br />

sowohl Stimulus als auch Störfaktoren für Veränderung verantwortlich sind. (siehe auch<br />

[Muel06])<br />

37


Die externe Validität gibt Auskunft über die Möglichkeit der Generalisierung der experimentellen<br />

Resultate auf andere Personen(-gruppen) und Situationen. Störfaktoren der<br />

externen Validität sind:<br />

• Reaktivität oder reaktive Effekte des Messens: Die Durchführung des Pretests<br />

kann die Empfänglichkeit der Versuchspersonen für den Stimulus anregen. Der Einfluss<br />

des Stimulus wird dadurch verstärkt oder verringert.<br />

• Reaktive Effekte der experimentellen Situation: Eine experimentelle Situation<br />

kann gravierend <strong>von</strong> “der” Alltagssituation abweichen. Die Übertragung in Alltagskontext<br />

ist deswegen fraglich. Das Hauptproblem der experimentellen Situation ist<br />

dabei, dass sie einen “Aufforderungscharakter” hat. D.h. die Versuchspersonen überlegen,<br />

was der Versuchsleiter <strong>von</strong> ihnen erwartet, und handeln dann dementsprechend<br />

(siehe auch [Muel06])<br />

Externe Validität liegt bei einem Design also dann vor, wenn die ermittelten Ergebnisse<br />

auf andere Personen/Kontexte übertragbar sind.<br />

Techniken <strong>zur</strong> Kontrolle <strong>von</strong> Störfaktoren<br />

“Ziel eines jeden Experimentes ist es nunmehr, alle genannten Störfaktoren soweit irgend<br />

möglich auszuschließen bzw., da dies kaum zu realisieren ist, sie zu kontrollieren.” [SHE05]<br />

Nachfolgende Techniken dienen genau diesem Ziel.<br />

Durch Elimination werden denkbare Störgrößen bei der Durchführung des Experimentes<br />

ausgeschaltet. Dies ist vor allem sehr gut in speziell für das Experiment hergerichteten<br />

Örtlichkeiten (Labor/Laborexperiment) zu erreichen.<br />

Mit Konstanthaltung werden mitunter unvermeidliche Einflüsse in beiden Gruppen möglichst<br />

gleichartig zugelassen. Es wird versucht, eine maximale Angleichung der Versuchsbedingungen<br />

für beide Gruppen, bis auf das Treatment, zu schaffen.<br />

Darüber hinaus gibt es Techniken <strong>zur</strong> variablen Bildung <strong>von</strong> Kontrollgruppen, die auch<br />

helfen, den Einfluss <strong>von</strong> Störfaktoren zu minimieren. Dabei dienen <strong>zur</strong> Rekrutierung <strong>von</strong><br />

vergleichbaren Gruppen zwei Techniken: Matching und Randomisierung. Matching, oder<br />

auch Parallelisierung, ist der Versuch, bezüglich bestimmter Merkmalsausprägungen “gleiche”<br />

Personen auf Experimental- und Kontrollgruppe aufzuteilen. In der Praxis ist dies<br />

aber recht schwierig, da viele Variablen zu beachten sind. Deswegen ist die Randomisierung<br />

immer noch die wichtigste und grundlegendste Technik <strong>zur</strong> Vermeidung <strong>von</strong> Störfaktoren.<br />

Durch Zufallszuweisung <strong>zur</strong> Versuchs- und Kontrollgruppe wird der systematische<br />

Zusammenhang zwischen den personellen Merkmalen und der Zugehörigkeit zu einer bestimmten<br />

Gruppe ausgeschlossen. Jede Person hat die gleiche Chance, einer der beiden<br />

Gruppen zugeordnet zu werden. Alle Drittvariablen wirken in beiden Gruppen gleichartig.<br />

Gegebenenfalls vorliegende Veränderungen in den abhängigen Variablen sind mit großer<br />

Wahrscheinlichkeit auf den Stimulus <strong>zur</strong>ückzuführen. [Muel06]<br />

38


4.4.2. Forschungsdesigns<br />

Die Interpretationsmöglichkeiten eines Experimentes sind abhängig <strong>von</strong> der Beachtung der<br />

Störmöglichkeiten und ihrer Ausschaltung. Nur echte Experimente erlauben die systematische<br />

Kontrolle <strong>von</strong> Störfaktoren und “schalten damit eine Vielzahl möglicher Alternativerklärungen<br />

aus.” [SHE05] Echte experimentelle Designs sind solche Untersuchungen,<br />

die:<br />

• “eine Hypothese prüfen<br />

• Diesen Test durch eine kontrollierte Setzung eines Treatments durchführen<br />

• und die Versuchsbedingungen mit Hilfe der Techniken der Elimination, Konstanthaltung<br />

und Randomisierung kontrollieren” [SHE05]<br />

Von den bisher genannten, wird nur die Vorher-Nachher-Messung mit Kontrollgruppe den<br />

genannten Kriterien gerecht. Aber selbst dabei sind Probleme mit Alternativerklärungen<br />

vorhanden. Um beispielsweise eine Wechselwirkung zwischen Stimulus und vorheriger Messung<br />

auszuschließen, kann man zwei weitere Gruppen hinzunehmen. Dieses experimentelle<br />

Design wird SOLOMON-Viergruppenversuchsplan genannt (siehe Tabelle 4.7).<br />

R: O X O Experimentalgruppe 1<br />

R: O O Kontrollgruppe 1<br />

R: X O Experimentalgruppe 2<br />

R: O Kontrollgruppe 2<br />

t1 t2 t3<br />

Tabelle 4.7.: SOLOMON-Viergruppenversuchsplan [SHE05]<br />

Mit echten Experimenten lassen sich alle genannten Störfaktoren der internen Validität<br />

kontrollieren. Da diese allerdings meist in einem Labor stattfinden, kommt es zwangsläufig<br />

zu dem Problem, dass die externe Validität leidet. Dies ist auf Störeffekte durch die experimentelle<br />

(Labor-) Situation <strong>zur</strong>ückzuführen. Die Daten sind eventuell nicht auf Personen<br />

außerhalb dieses Kontext übertragbar.<br />

Abhilfe schaffen da Feldexperimente, die in der für die Versuchsperson gewohnten Umgebung<br />

stattfinden. Dabei werden praxisrelevante Resultate gewonnen, die eine höhere<br />

externe Validität <strong>zur</strong> Folge haben. Neben dem hohen Aufwand haben diese allerdings das<br />

Problem, dass die interne Validität, durch zahlreiche Störfaktoren, in Mitleidenschaft gezogen<br />

wird.<br />

Letztendlich muss man sich je nach den zu untersuchenden Objekten entscheiden, welche<br />

der Untersuchungssituationen für diese weniger mit Störeffekten behaftet ist. Ein Student<br />

hat vermutlich weniger Probleme mit einer Laborsituation als beispielsweise ein Stahlarbeiter.<br />

Oft entzieht sich aber zufällige Zuweisung <strong>von</strong> Merkmalen weitgehend den Einflussmöglichkeiten<br />

der Untersuchenden (Bsp.: bei Merkmalen wie Intelligenz). Dann müssen Quasiexperimentelle<br />

Designs angewendet werden. Dabei existieren zwar Kontroll- und Untersuchungsgruppe,<br />

die Zuordnung <strong>zur</strong> jeweiligen Gruppe geschieht aber durch die untersuchten<br />

Objekte selbst. Durch diese Selbstselektion ist das Design allerdings anfällig für<br />

Störfaktoten, durch verzerrte Auswahl und Ausfälle.<br />

39


Häufig sind weder die Bedingungen für Experiment noch für Quasi-Experiment gegeben.<br />

Dann muss versucht werden, die soziale Realität mit Hilfe eines Ex-post-facto-Designs<br />

nachträglich zu ordnen, ohne dass irgendwelche experimentelle Kontrolltechniken eingesetzt<br />

werden können. In Datenerhebungsprozess (meist Befragung) werden unabhängige<br />

und abhängige Variablen gemessen. Durch eine große Zahl <strong>von</strong> Versuchspersonen und die<br />

Anwendung entsprechender Auswahlverfahren sind dann die Generalisierungen möglich.<br />

Ein typisches Beispiel dafür ist das Survey-Design.<br />

Mit Ex-post-facto-Anordnungen sind allerdings schwerwiegende, gleichwohl unvermeidliche<br />

methische Probleme verbunden. Zum einen kann es bei der nachträglichen Klassifizierung<br />

passieren, dass eine interessierende Merkmalsausprägung relativ selten anzutreffen ist. Ohne<br />

besondere Vorkehrungen bei der Auswahl der Untersuchungspersonen wären so nicht<br />

genügend Fälle vorhanden, um sinnvolle Vergleiche durchzuführen. Um dies zu lösen, müssen<br />

Informationen über potentielle Verteilungen aus anderen Untersuchungen gewonnen<br />

oder eventuell Voruntersuchungen durchgeführt werden. Dann kann sich aus der Tatsache<br />

der einmaligen, gleichzeitigen Erhebung aller Daten ergeben, dass unklar ist, welche<br />

Variable kausal <strong>von</strong> einer anderen abhängt, also was Ursache und was Wirkung ist. Die<br />

Lösung dafür ist, dass sich die erhoben Variablen auf einen früheren Zeitpunkt beziehen.<br />

Als drittes Problem ergibt sich bei dieser Anordnung, dass Einwirkungen unabhängiger<br />

Variablen nicht nach dem Zufallsprinzip auf die Versuchspersonen verteilt werden können,<br />

da sie schon ohne Zutun des Forscher vorliegen. Es müssen also möglichst viele sinnvolle<br />

Drittvariablen mit erhoben werden, um die Verhältnisse der Variablen untereinander klären<br />

zu können.<br />

Die oben aufgezeigten Schwächen der einmaligen, gleichzeitigen Messung können mit Hilfe<br />

des Paneldesigns abgemildert werden. Dabei werden in Erhebungswellen zwei oder mehr<br />

Datenerhebungen zu unterschiedlichen Zeitpunkten auf der Grundlage des Survey-Designs<br />

durchgeführt. Das Grundmodell des Panels ist, dass an denselben Personen, dieselben Variablen<br />

(mit derselben Operationalisierung) zu verschiedenen Zeitpunkten erhoben werden.<br />

Durch Vergleich der Messungen kann man intraindividuelle und interindividuelle Veränderungen<br />

feststellen. Methodische Probleme des Panels sind die Ausfallrate (“Panelmortalität”)<br />

und Veränderungen der Teilnehmer durch die Teilnahme (“Paneleffekte”). Die Wahl<br />

der richtigen Zeitabstände zwischen den Erhebungen ist deswegen äußerst wichtig.<br />

Zur Kontrolle des Einflusses <strong>von</strong> Panelmortalität und anderen Paneleffekten gibt es eine<br />

Vielzahl <strong>von</strong> speziellen Paneldesigns. Zu diesen zählen beispielsweise alternierende Panels,<br />

bei denen die Subgruppen abwechselnd befragt werden, rotierende Panels, bei denen die<br />

Subgruppen in Wellen ausgetauscht werden, oder geteilte Panels, bei denen nur eine Gruppe<br />

über die gesamte Dauer der Untersuchung teilnimmt.<br />

Für weitergehende Informationen hierzu sei auf die Quelle [SHE05] verwiesen.<br />

Untersuchungsformen<br />

Im folgenden Abschnitt sollen Kombination <strong>von</strong> unterschiedlichen Techniken bei der Operationalisierung,<br />

Bestimmung der Auswahlelemente und der Datenerhebung, die bei sozialwissenschaftlichen<br />

Studien üblich sind, betrachtet werden.<br />

Die Einzelfallstudien (auch: Einzelfallanalyse, case study oder Fallstudie) betrachtet eine<br />

40


singuläre Untersuchungseinheit. Man unterscheidet vier typische Untersuchungseinheiten:<br />

• einzelne Person ist Gegenstand der <strong>Analyse</strong>: Bsp.: Medizin (Patient);<br />

• Personengruppe: Bsp.: Sekte, die Weltuntergang vorhersagt;<br />

• Organisation: Bsp.: Organisationsstruktur des Deutschen Sportbundes, DSB;<br />

• Gesellschaften oder Kulturen: Bsp.: soziale Schichtung des deutschen Volkes;<br />

Die Untersuchungsobjekte bilden in Hinblick auf das Untersuchungsziel eine Einheit. Wenn<br />

auf Auswahlverfahren verzichtet wird, leidet diese Form der Untersuchung an einem gravierenden<br />

Mangel bezüglich der Generalisierungsfähigkeit. In den Sozialwissenschaften kommt<br />

die Einzelfallstudie als Mittel der Beschreibung und Erklärung bzw. des Hypothesentests<br />

zum Einsatz.<br />

Die Sekundäranalyse greift <strong>zur</strong> Deskription bzw. zum Hypothesentest auf bereits bestehende<br />

Daten(-bestände) <strong>zur</strong>ück. Dadurch entfällt der Datenerhebungsprozess, was erhebliche<br />

Einsparungen an finanziellen Mitteln und Zeit <strong>zur</strong> Folge hat. Im akademischen<br />

Kontext ist die Sekundäranalyse eher die Regel als die Ausnahme. Als Datenquellen dienen<br />

dafür das sozialwissenschaftliche Datenarchiv, das statistische Bundesamt, internationale<br />

Organisationen (EU, UN,...), kommerzielle Organisationen (Banken,...) usw.<br />

Die Netzwerkanalyse ist eine Forschungsstrategie, deren Anliegen in der Beschreibung<br />

und Erklärung <strong>von</strong> sozialen Beziehungen und daraus resultierenden Handlungen ist. Das<br />

Ziel ist Erfassung aller ein Netzwerk bildenden Einheiten und die Relationen der Einheiten<br />

untereinander.<br />

Durch die Kontrollmöglichkeiten der einzelnen Untersuchungsanordnungen, kann man die<br />

Aussagefähigkeit einer Studie bestimmen. Durch den kombinierten Einsatz verschiedener<br />

Erhebungstechniken, Auswahlverfahren, Versuchanordnungen und Messtechniken können<br />

die Schwächen der einzelnen Strategien durch die Stärken einer anderen kompensiert werden.<br />

4.5. Auswahlverfahren<br />

Im Verlauf der Untersuchung muss die Entscheidung getroffen werden, über welche Menge<br />

<strong>von</strong> Personen oder Sachverhalte Aussagen gemacht werden sollen. Solange dies eine eng<br />

abzugrenzende Menge betrifft, ist das recht einfach. Bei Aussagen, die über die tatsächlich<br />

untersuchte Menge hinaus Gültigkeit haben sollen, ist dies weitaus problematischer. Im<br />

Folgenden sollen die Definition des Objektbereiches und Arten der Auswahl der Untersuchungsobjekte<br />

betrachtet werden.<br />

Der Objektbereich wird durch die Definition der Grundgesamtheit, einer Menge <strong>von</strong><br />

Objekten, für die die Aussagen der Untersuchung gelten sollen (“target population”), festgelegt.<br />

Die exakte Definition ist für die Durchführung wissenschaftlicher Untersuchungen<br />

unerlässlich. Meist wird ein Kompromiss zwischen Gegenstandsbereich der zu testenden<br />

Theorie und den <strong>zur</strong> Verfügung stehenden Ressourcen gemacht.<br />

41


Eine Vollerhebung liegt dann vor, wenn die Daten aller Elemente einer Grundgesamtheit<br />

erhoben werden. Von einer Teilerhebung wird dann gesprochen, wenn nur eine Teilmenge<br />

der Grundgesamtheit untersucht wird. Die Elemente der Teilerhebung sind eine Stichprobe/Auswahl,<br />

wenn sie durch vor der Untersuchung festgelegte Regeln bestimmt werden.<br />

Eine Klassifikation <strong>von</strong> Stichproben erfolgt auf Basis der Art der Auswahl der Elemente,<br />

also auf Zufallsbasis oder nicht auf Zufallsbasis (“willkürliche Auswahl”, “bewusste Auswahl”).<br />

Zufallsstichproben (“random samples”) sind Stichproben, “deren Auswahlregeln es dem<br />

Untersuchenden ermöglichen, vor der Durchführung einer Auswahl für jedes Element der<br />

Grundgesamtheit die Wahrscheinlichkeit zu berechen, dass dieses Element der Grundgesamtheit<br />

Teil der Stichprobe wird.” [SHE05].<br />

Vollerhebungen können durchgeführt werden, wenn die Grundgesamtheit klein ist. Sie haben<br />

dann den Vorteil, dass die gesamte Verteilung der Merkmale ihrer Elemente und auch<br />

“Parameter” (wie z.B. Mittelwert) bekannt sind. Der Nachteil der Vollerhebung ist, dass die<br />

Kosten mit Größe der Grundgesamtheit überproportional steigen. Sie können nicht angewendet<br />

werden, wenn die Untersuchung <strong>zur</strong> Zerstörung der Elemente der Grundgesamtheit<br />

führt (Bsp.: “destruktive Tests”, wie bei der Untersuchung des gesamten Ausstoßes einer<br />

Brauerei auf Geschmack und Qualität).<br />

Stichproben haben demgegenüber den Vorteil, dass sie in der Regel schneller durchzuführen<br />

sind. Die Ergebnisse können u.U. genauer sein, was in der besseren Ausbildung des<br />

Erhebungspersonals und besseren Kontrollmöglichkeiten begründet ist. Der Nachteil der<br />

Stichproben liegt darin, dass die Parameter aus der Stichprobenstatistik ermittelt werden<br />

müssen und Stichprobenstatistiken durch zufällige Fehler vom “wahren Wert” abweichen.<br />

Im Rahmen empirischer Sozialforschung werden meist Stichproben verwendet, da zumeist<br />

Aussagen über große Grundgesamtheiten gemacht werden sollen.<br />

Auswahlverfahren sind Verfahren, die die Regeln <strong>zur</strong> Konstruktion einer Auswahl angeben.<br />

Bevor auf diese Stichproben genauer eingegangen wird, sollen einige Begriffe geklärt<br />

werden.<br />

Ein Element bzw. eine Untersuchungseinheit ist das Objekt, an dem die Messung vorgenommen<br />

wird. Die Grundgesamtheit bzw. Population ist die Menge der Elemente, über<br />

die Aussagen gemacht werden sollen. Die angestrebte Grundgesamtheit (“target population”)<br />

umfasst als Konzept alle Elemente, über die Aussagen beabsichtigt sind. Die<br />

Auswahlgesamtheit (“frame population”) hingegen umfasst alle Elemente, die prinzipiell<br />

eine Chance haben, in eine Stichprobe zu gelangen. Im Idealfall haben alle Elemente eine<br />

Chance gezogen zu werden.<br />

Man spricht nun <strong>von</strong> Undercoverage, wenn Elemente nicht in der Auswahlgesamtheit<br />

erscheinen, wodurch Fehler möglich sind. Overcoverage tritt dann ein, wenn Elemente<br />

aufgeführt sind die nicht <strong>zur</strong> Grundgesamtheit gehören. Eine weitere Fehlerquelle sind Elemente<br />

die mehrfach aufgeführt sind.<br />

Auswahlregeln können dazu führen, dass die gezogene Stichprobe nicht alle Elemente enthält,<br />

die darin enthalten sein sollten, da sich bestimmte Elemente der Erhebung entziehen<br />

(Bsp.: nicht erreichbar, Verweigerung), oder da durch Fehler bei der Datenverarbeitung<br />

Elemente zerstört werden. Die Inferenzpopulation ist die tatsächliche Stichprobe, “die<br />

diejenige Grundgesamtheit darstellt, über die auf der Basis der vorliegenden Stichprobe tat-<br />

42


sächlich Aussagen gemacht werden können: Die Inferenzpoplation stellt (konzeptionell) die<br />

Grundgesamtheit dar, aus der die vorliegende Stichprobe tatsächlich eine Zufallsstichprobe<br />

darstellt.” [SHE05]<br />

Das Ziel eines Auswahlverfahrens ist es nun, möglichst große Übereinstimmung zwischen<br />

angestrebter Grundgesamtheit und Inferenzpopulation zu erreichen.<br />

4.5.1. Zufallsstichproben<br />

Zufallsstichproben sind Auswahlen, bei denen ein Zufallsprozess über die Aufnahme eines<br />

Elementes <strong>zur</strong> Stichprobe entscheidet. Die Auswahlwahrscheinlichkeit muss dabei angebbar<br />

und größer Null sein.<br />

Die einfache Zufallsstichprobe ist statistisch gesehen die beste Lösung, bringt aber<br />

in der Realität einige Probleme mit sich. Die Voraussetzung wäre, dass die Grundgesamtheit<br />

komplett bekannt ist, jede Person in einer Liste vermerkt ist und dann per Zufall<br />

gezogen wird. Dies ist aber gerade bei größeren Umfragen nicht möglich, da nicht jedes<br />

Land über ein Einwohnerregister verfügt, und wenn es denn doch vorhanden ist, nicht unbedingt<br />

aktuell ist (Wegzug, Todesfälle, usw.). [Hoepf2]<br />

Verfahren, um nun diese Zufallsstichprobe zu ziehen sind:<br />

• Lotterieverfahren/Urnenmodell: Die einfachste Form der Auswahl, bei der für jedes<br />

Element der Grundgesamtheit eine Kugel in einer Mischtrommel existiert. Die Kugeln<br />

werden gemischt, zufällig gezogen und man hat eine Stichprobe. Dies ist nur bei<br />

kleinen Grundgesamtheiten praktikabel.<br />

• Zufallszahlen: Jedes Element der Grundgesamtheit hat eine eindeutige Identifikationsnummer.<br />

Für Stichprobe der Größe n werden n Zufallszahlen benötigt, die beispielsweise<br />

per Computer generiert werden.<br />

• Systematische Auswahlverfahren: Hierunter versteht man die Zusammenfassung einer<br />

Reihe <strong>von</strong> praktischen Techniken, wie: “Ziehen jeder n-ten Karte”, “Buchstabenverfahren”<br />

(jeder mit einem bestimmten Buchstaben im Namen), “Geburtstagsauswahlverfahren”,<br />

usw. Diese Verfahren besitzen alle Probleme in Bezug auf die meist<br />

systematische Anordnung der zugrunde liegenden Liste und Verteilung der Auswahlmerkmale.<br />

Deshalb ist eine Anwendung der Verfahren mit Vorsicht zu genießen.<br />

Bei einer geschichteten Zufallsstichprobe werden die Elemente der Grundgesamtheit in<br />

Gruppen (“Schichten”) eingeteilt. Jedes Element gehört zu einer oder zu mehreren Schichten,<br />

aus denen dann die Zufallsstichproben gezogen werden.<br />

Im Allgemeinen werden Merkmale geschichtet, die mit dem Untersuchungsziel eng zusammenhängen.<br />

Varianten dieses Verfahrens sind proportional geschichtete Stichprobe und<br />

disproportional geschichtete Stichprobe. Bei einer proportional geschichteten Stichprobe<br />

entspricht die Verteilung der in der Grundgesamtheit. Bei einer disproportional geschichteten<br />

Stichprobe spricht man <strong>von</strong> “Oversampling”, was beispielsweise dann sinnvoll ist, wenn<br />

man genügend Befragte einer ganz spezifischen Gruppe bekommen möchte (um beispielsweise<br />

Minderheiten zu erreichen). [Hoepf2]<br />

In der Praxis sind geschichtete Stichproben <strong>von</strong> Vorteil gegenüber Zufallsstichproben, da<br />

43


sie fast immer genauere Schätzungen (kleinere Standardfehler) bei gleichen Kosten liefern.<br />

Außerdem sind sie unumgänglich, wenn bestimmte Fragestellungen und Auswertungstechniken<br />

Mindestfallzahlen für bestimmte Gruppen <strong>von</strong> Elementen benötigen.<br />

Wenn eine Befragung ein ganzes Land abdecken soll, ergibt sich das Problem, dass die<br />

Stichproben ein fein verteiltes Netz <strong>von</strong> Interviews bedeuten würde. Dies wäre gerade unter<br />

dem Kostenaspekt (Reisekosten usw.) nur schwer durchführbar. Aus diesem Grund<br />

setzt man, gerade bei mündlichen Interviews, auf das Klumpenverfahren um die regionale<br />

Verteilung einzugrenzen. Dabei ist natürlich darauf zu achten, dass die regionale<br />

Verteilung der Stichprobe der Bevölkerungsverteilung entspricht. Beispielsweise wählt man<br />

bei einer Befragung der Bevölkerung eines Landes zuvor eine gewisse Anzahl <strong>von</strong> Gemeinden<br />

aus, in denen man die Untersuchungen durchführt. [Hoepf2]<br />

Klumpenverfahren haben dann Vorteile gegenüber anderen Auswahlverfahren, wenn keine<br />

Liste der Elemente der Grundgesamtheit vorliegt oder die Kosten der Erhebung mit der<br />

Entfernung zwischen den Elementen steigen. Das zentrale Problem dieser Verfahren ist<br />

aber, dass wenn sich die Cluster sehr stark <strong>von</strong>einander unterscheiden, sich die Elemente<br />

innerhalb dieser Klumpen viel ähnlicher sind als die Elemente einer einfachen Zufallsstichprobe.<br />

Daraus folgen ungenauere Ergebnisse als bei der Verwendung einer einfachen<br />

Zufallsstichprobe, so genannte “Klumpeneffekte”.<br />

Verfahren, die Zufallsauswahlen in mehreren “Stufen” vornehmen sind mehrstufige Auswahlverfahren.<br />

Die Grundgesamtheit wird dabei zunächst in Gruppen <strong>von</strong> Elementen<br />

eingeteilt, die “Primäreinheiten”, die als Auswahlgrundlage der ersten Stufe dienen. Aus<br />

diesen wird dann eine Zufallsstichprobe gezogen, die dann die “Sekundäreinheiten” darstellen,<br />

die entweder die Erhebungseinheiten bilden oder auch Auswahlgrundlage einer weiteren<br />

Stufe sind.<br />

Diese Verfahren finden Anwendung, wenn keine Liste der Grundgesamtheit <strong>zur</strong> Verfügung<br />

steht, aber Listen zusammengefasster Elemente der Population. Problematisch ist dabei,<br />

dass die Primäreinheiten bei mehrstufigen Auswahlverfahren fast immer unterschiedlich<br />

viele Einheiten haben. Die Wahrscheinlichkeit, in die Auswahl zu gelangen, ist daher nicht<br />

wie gefordert für alle Elemente gleich. Deswegen müssen Auswahlwahrscheinlichkeiten verwendet<br />

werden, die proportional <strong>zur</strong> Größe der Primäreinheiten sind.<br />

Für einen tieferen Einstieg in die Thematik sei hier neben [SHE05] auf [Hoepf2] verwiesen.<br />

4.5.2. Willkürliche und bewusste Auswahlen<br />

“Obwohl nur Zufallsstichproben die Anwendbarkeit der Inferenzstatistik garantieren, finden<br />

sich neben den durch einen Zufallsprozess gesteuerten Auswahlverfahren weitere Auswahlverfahren<br />

in der sozialwissenschaftlichen Literatur, die als “willkürliche Auswahlen” oder<br />

“bewusste Auswahlen” bezeichnet werden.” [SHE05]<br />

Willkürliche Auswahlen sind Auswahlen, bei denen die Entscheidung über die Aufnahme<br />

eines Elementes der Grundgesamtheit in die Stichprobe nicht durch einen Auswahlplan<br />

festgelegt ist, sondern nur im Ermessen des Auswählenden liegt. Da weder die<br />

Grundgesamtheit sinnvoll definiert ist noch Auswahlwahrscheinlichkeiten angebbar sind,<br />

44


sind willkürliche Auswahlen nicht für wissenschaftliche Zweck geeignet. Begrenzten Sinn<br />

haben sie in der Vorbereitungsphase zu einer Erhebung, um eventuelle Probleme der Erhebung<br />

oder der Verarbeitung der Daten im Vorfeld zu klären.<br />

Bewusste Auswahlen erfolgen zwar nach Auswahlplan, inferenzstatistische Techniken<br />

sind aber nicht anwendbar, d.h. sie lassen keine Aussage zu Verallgemeinerung zu. Beispiele<br />

für bewusste Auswahlen sind: die Auswahl extremer Fälle (Selektion <strong>von</strong> Fällen, die in<br />

einem bestimmten Merkmal eine “extreme” Ausprägung haben.), die Auswahl typischer<br />

Fälle (Selektion <strong>von</strong> Fällen, die als besonders “charakteristisch” für die Grundgesamtheit<br />

angesehen werden.), die Auswahl nach dem Konzentrationsprinzip (Auswahl derjenigen<br />

Fälle, “bei denen ein interessierendes Merkmal so stark ausgeprägt ist, dass diese<br />

Fälle nahezu die gesamte Verteilung in der Grundgesamtheit bestimmen”. [SHE05] Dieses<br />

Verfahren ist für spezielle und eingeschränkte Fragestellungen geeignet und findet gelegentliche<br />

Anwendung in der amtlichen Statistik.), das Schneeball-Verfahren (Selektion bei<br />

der ausgehend <strong>von</strong> einer Person alle <strong>von</strong> dieser Person benannten Personen befragt werden.<br />

Das Verfahren dient der <strong>Analyse</strong> <strong>von</strong> sozialen Netzwerken.) und das Quota-Verfahren.<br />

Quota-Verfahren werden vor allem in der Markt- und Auftragsforschung verwendet. Sie<br />

basieren auf der Auswahl <strong>von</strong> Personen in der Art und Weise, dass bestimmte Merkmale in<br />

der Stichprobe in exakt derselben Häufigkeit wie in der Grundgesamtheit vorkommen. Die<br />

endgültige Auswahl der Personen bleibt dem Interviewer überlassen. Dem Interviewer werden<br />

nur “Quotenvorgaben” gemacht. Das Verfahren hat den Vorteil, dass es meist billiger<br />

und schneller als Zufallsauswahlen ist. Sie sind vor allem dann billiger, wenn keine Liste<br />

vorliegt aus der eine Zufallsstichprobe gezogen werden kann. Die Kritikpunkte sind aber,<br />

dass es keine Zufallsauswahl darstellt und somit wieder die Anwendung der Inferenztechniken<br />

erschwert oder unmöglich macht und dass die Gefahr einer erheblichen Verzerrung<br />

durch die Interviewer besteht, da diese vor allem Personen auswählen werden, die sich kooperativ<br />

verhalten.<br />

“Falls exakte Ergebnisse, deren Genauigkeit angebbar ist, wichtiger sind als scheinbar “kostengünstige”<br />

Lösungen, gibt es im Allgemeinen keine Alternative zu Zufallsstichproben.”<br />

[SHE05]<br />

Repräsentativität<br />

“Zufallsstichproben stellen die einzige Gewähr dafür dar, dass aus Ergebnissen einer Stichprobe<br />

in Bezug auf die Verteilung aller Merkmale (innerhalb bestimmter statistischer Fehlergrenzen)<br />

auf die Verteilung dieser Merkmale in der Grundgesamtheit geschlossen werden<br />

kann.” [SHE05] Dieser “Repräsentationsschluss” kann also nur dann gezogen werden, wenn<br />

eine Zufallsauswahl der Auswahlmechanismus ist.<br />

Um Untersuchungen in Bezug auf ihre Güte beurteilen zu können, sind genaue Angaben<br />

zu Grundgesamtheit, Ziehungsprozess, Ausfälle und verwendete Instrumente nötig.<br />

Nonresponse<br />

Bei sozialwissenschaftlichen Untersuchungen sind meist Personen Untersuchungseinheiten.<br />

Eines der Probleme, die bei den in der Stichprobe vorgesehenen Fällen auftreten können.<br />

sind Ausfälle. Dies wird “Nonresponse-Problem” genannt. Man unterscheidet da-<br />

45


ei zwischen einem völligen Ausfall (“Unit-Nonresponse”) und einem teilweisen Ausfall<br />

(“Item-Nonresponse”), bei dem nur einige Variablen fehlen.<br />

Wichtig ist es, das Ausmaß der Unit-Nonresponse, die so genannte “Nonresponsequote”,<br />

zu kennen. Statt einer Zahlenangabe sollte ein Bericht genaue Angaben zum Umfang der<br />

“tatsächlich realisierten” Stichprobe, wie auch der “zu realisierenden” Stichprobe (Anzahl<br />

der tatsächlich gezogenen Elemente) enthalten, sowie die Gründe für die Ausfälle.<br />

Mögliche Ausfallursachen sind: nicht aufgefundene Adressen, Personen die nicht <strong>zur</strong> Grundgesamtheit<br />

gehören, Interviewerausfälle, Nichterreichbarkeit <strong>von</strong> Kontaktpersonen, Nichterreichbarkeit<br />

der Zielperson, Krankheit der Zielperson, Verweigerung der Kontaktperson,<br />

Verweigerung der Zielperson, Abbruch während des Interviews, Interviewertäuschungen,<br />

Interviewerfehler und Datenerfassungs- und Datenaufbereitungsfehler. Typische Quoten<br />

für Nonresponse liegen zwischen 20-30%, Tendenz steigend. Vor allem der Anteil <strong>von</strong> Verweigerung<br />

steigt.<br />

Die meisten Verfahren, um mit Nonresponse umzugehen (Ignorieren oder Gewichtungsverfahren),<br />

führen lediglich <strong>zur</strong> Verdeckung der Nonresponse. Gemäß [SHE05] wird demnach<br />

nur die Anwendung <strong>von</strong> “multipler Amputationen” als die richtige Technik angesehen. Dabei<br />

werden die fehlenden Daten <strong>von</strong> Nonrespondenten auf Basis theoretischer Annahmen<br />

über den Ausfallmechanismus mehrfach ersetzt.<br />

4.6. Datenerhebungstechniken<br />

Grundsätzlich unterscheidet man drei Instrumente bzw. Verfahren der Datenerhebung:<br />

• Befragung<br />

• Beobachtung<br />

• Inhaltsanalyse<br />

Die Unterscheidungsmerkmale der Erhebungsverfahren sind dabei:<br />

• Reaktivität: Hier ist <strong>von</strong> Belang, inwiefern der Einsatz einer bestimmten Erhebungstechnik<br />

Reaktionen oder Veränderungen bei den Untersuchungsobjekten hervorruft.<br />

Ein Befragter reagiert beispielsweise nicht nur auf die gestellte Frage, sondern<br />

auch auf den Fragesteller.<br />

• Ausmaß der “Standardisierung”: Es ist zu kontrollieren, inwieweit die Untersuchungs-<br />

und Erhebungsinstrumenten standardisiert sind. (Bsp.: der exakt gleiche<br />

Fragebogen für alle Befragten vs. ein nur thematisch festgelegtes Gespräch)<br />

Es gibt jeweils viele Argumente die für oder gegen die einzelnen Techniken sprechen. Als<br />

“Königsweg der empirischen Sozialforschung” wird das standardisierte Interview angesehen.<br />

Aber auch die <strong>Analyse</strong> <strong>von</strong> Zeitungen kann viel besser als eine Befragung sein, wenn es<br />

beispielsweise um Ereignisse im Verlauf der letzten 20 Jahre geht, an die sich ein Befragter<br />

dann erinnern müsste.<br />

Im folgenden wird ein genauer Einblick in die drei zuvor genannten Techniken der Datenerhebung<br />

gegeben. Ein Schwerpunkt wird dabei auf die “schriftliche Befragung” gelegt,<br />

da diese im Rahmen des Experimentes dieser Arbeit Anwendung findet.<br />

46


4.6.1. Befragung<br />

Die Befragung gilt als Standardinstrument empirischer Sozialforschung für die Ermittelung<br />

<strong>von</strong> Fakten, Wissen, Meinungen, Einstellungen oder Bewertungen im sozialwissenschaftlichen<br />

Anwendungsbereich.<br />

Die Formen der Durchführung einer Befragung sind:<br />

• Mündliche Befragung<br />

• schriftliche Befragung<br />

• Telefoninterview<br />

• Internetgestützte Befragung<br />

Mündliche Befragung<br />

Jede Befragung stellt eine soziale Situation dar und erhält insbesondere über die Kommunikation<br />

ihre Struktur. Das standardisierte Interview versucht, den sozialen Prozess der<br />

Befragung so zu gestalten, “dass valide und substantielle Ergebnisse erwartbar werden”<br />

[SHE05]. Man unterscheidet einzelne Formen der mündlichen Befragung nach dem Ausmaß,<br />

in welchem die Interviewsituation vom Forscher und vom Interviewer strukturiert<br />

wird (siehe Tabelle 4.8).<br />

Strukturierungsgrad Einzelbefragung Gruppenbefragung<br />

Wenig Experteninterview, Gruppendiskussion<br />

Teilweise Leitfadengespräch Gruppenbefragung<br />

Stark Einzelinterview Gruppeninterview<br />

Tabelle 4.8.: Formen mündlicher Befragung [SHE05]<br />

Wenig strukturierte Interviewsituationen sind mündliche Interviews ohne Fragebogen.<br />

Die Anordnung und Formulierung der Fragen bleibt dem Interviewer überlassen. Der<br />

Interviewer hat eine eher passive Rolle, der Befragte bestimmt den Gang des Gesprächs.<br />

Diese Form findet vor allem Anwendung in der frühen Phase einer Untersuchung zu Vorbereitungszwecken,<br />

wenn der genaue Forschungsgegenstand noch nicht in allen Dimensionen<br />

umrissen ist.<br />

Teilstrukturierte Interviewsituationen sind Gespräche, die als Grundlage vorbereitete<br />

und vorformulierte Fragen haben. Die Abfolge der Fragen ist vom Interviewer je nach<br />

Situation zu wählen. Es muss aber der gesamte Fragenkatalog abgearbeitet werden.<br />

Stark strukturierte Interviewsituationen werden Gespräche auf der Grundlage eines<br />

vorgegebene “standardisierten Fragebogens” genannt. Alle Befragten erhalten die gleichen<br />

Fragen in gleicher Formulierung und Reihenfolge. Der Interviewer nimmt dabei eine<br />

neutrale, freundliche Haltung des Gewährenlassens an. Dadurch wird eine Gleichheit<br />

der Interviewsituationen erreicht und die Ergebnisse werden vergleichbar. Dies stellt die<br />

hauptsächliche Erhebungsform in der empirischen Sozialforschung dar. Tabelle 4.8 zeigt<br />

die verschiedenen Formen der Befragung hinsichtlich ihrer Strukturiertheit.<br />

47


Konstruktion <strong>von</strong> Fragen und Antwortvorgaben<br />

Im Folgenden sollen die Grundlagen <strong>zur</strong> Konstruktion <strong>von</strong> Fragen und Antwortvorgaben<br />

erklärt werden. Dabei werden die Art der Informationen die gesucht sind, die<br />

formale und die inhaltliche Struktur der Fragen und Antwortvorgaben betrachtet.<br />

Bei den Arten <strong>von</strong> Informationen, die erfragt werden, unterscheidet man zwischen:<br />

• Einstellungs- / Meinungsfragen: Diese “beziehen sich auf den Aspekt der Wünschbarkeit<br />

oder der negativen bzw. positiven Beurteilung, den Befragte mit bestimmten<br />

Statements verbinden.” [SHE05]<br />

Charakteristische Wendungen: erwünscht/unerwünscht, lehne ab/stimme zu<br />

• Überzeugungsfragen: Diese zielen darauf ab, was Befragte für wahr oder falsch<br />

halten. Charakteristische Wendungen: falsch/richtig, wahr/falsch<br />

• Verhaltensfragen: beziehen sich auf Handlungen und Verhalten <strong>von</strong> Befragten<br />

“bzw. eigentlich auf Überzeugungen der Befragten bezüglich ihres eigenen Verhaltens”.<br />

[SHE05] Es wird dabei nur über Verhaltensweisen berichtet. Diese im Interview berichteten<br />

Handlungen sind allerdings etwas anderes als die tatsächlich ausgeführten<br />

Handlungen. Besonders unsicher sind dabei Aussagen über zukünftige Handlungen.<br />

• Fragen nach Befragteneigenschaften: Allgemeine Fragen nach persönlichen und<br />

demografischen Daten (Alter, Geschlecht, Ausbildung, Beruf, usw.). Diese werden in<br />

den meisten Fragebögen “routinemäßig” erhoben. Ihr Zweck ist, “(statistisch) Zusammenhänge<br />

zwischen demographischen Eigenschaften <strong>von</strong> Personen und ihren Einstellungen,<br />

Überzeugungen und Verhaltensweisen zu ermitteln.” [SHE05]<br />

Fragen nach hypothetischem Verhalten sollten generell vermieden werden. Stattdessen sollten<br />

eher Fragen zu aktuellem Verhalten gestellt werden.<br />

Bei der Struktur <strong>von</strong> Fragen und Antwortvorgaben unterscheidet man zwischen offenen<br />

und geschlossenen Fragen. Offene Fragen bieten keine vorgefertigten Antwortmöglichkeiten.<br />

Die Antwort ist in den eigenen Worten des Befragten niederzuschreiben.<br />

Bei geschlossenen Fragen (“Multiple-Choice-Questions”) muss sich der Befragte zwischen<br />

Antwortalternativen entscheiden. Dies beginnt bei zwei Alternativen (Bsp.: “ja/nein”, “stimme<br />

zu/lehne ab”) und geht bis zu beliebig vielen Antwortvorgaben. Weiterhin unterscheidet<br />

man geschlossene Fragen danach, ob die Antwortkategorien eine Rangordnung darstellen<br />

oder sie “ungeordnet” sind. Übliche Antwortvorgaben mit Rangordnung (“Antwortskalen”,<br />

“Ratingskalen”) sind:<br />

• Häufigkeiten: “nie/selten/gelegentlich/oft/immer”<br />

• Intensitäten: “nicht/wenig/mittelmäßig/ziemlich/sehr”<br />

• Bewertungen: “stimmt nicht/stimmt wenig/stimmt mittelmäßig/stimmt ziemlich/<br />

stimmt sehr”<br />

• Wahrscheinlichkeiten: “keinesfalls/wahrscheinlich nicht/vielleicht/ziemlich wahrscheinlich/ganz<br />

sicher”<br />

48


Der Vorteil offener Fragen ist, dass ein Befragter innerhalb seines eigenen Referenzsystems<br />

antworten kann. Er wird nicht durch den Fragebogen in eine bestimmte Richtung gelenkt.<br />

Der schwerwiegende Nachteil offener Fragen besteht darin, dass die Antworten der Befragten<br />

abhängig <strong>von</strong> ihrer Artikulationsfähigkeit sind. Nicht jeder kann seine Meinung richtig<br />

in Worte fassen. Des Weiteren sind mögliche Fehler beim Notieren der Antwort durch den<br />

Interviewer möglich und für die Auswertung der offenen Fragen ist ein erheblicher zusätzlicher<br />

Aufwand nötig. Diese Probleme können bei geschlossenen Fragen nicht auftreten.<br />

Nachteilig bei diesen ist aber, dass dem Befragten Antwortalternativen vorgeben werden,<br />

an die er möglicherweise selbst noch nie gedacht hat.<br />

In der Praxis werden häufig Kombinationen <strong>von</strong> offenen und geschlossenen Antwortvorgaben<br />

verwendet. Ebenso kommen Hybridfragen zum Einsatz, bei denen bei Bedarf (also<br />

wenn keine der vorgegebenen Antworten passt) eine andere Antwort angegeben werden<br />

kann.<br />

Bei der Formulierung <strong>von</strong> Fragen und Antwortvorgaben sind einige Punkte zu beachten.<br />

Folgende Liste <strong>von</strong> Faustregeln <strong>zur</strong> Formulierung ist dabei hilfreich: Fragen und Antwortvorgaben<br />

sollten ...<br />

• einfache Worte enthalten: keine ungebräuchlichen Fachausdrücke, Fremdworte, Abkürzungen,<br />

Slangausdrücke;<br />

• möglichst kurz formuliert sein;<br />

• konkret sein: keine abstrakten Begriffe;<br />

• keine bestimmte Beantwortung provozieren: keine “Suggestivfragen”;<br />

• neutral formuliert sein: keine “belasteten” Worte wie: Kommunist, Freiheit usw.;<br />

• nicht hypothetisch formuliert sein;<br />

• sich nur auf einen Sachverhalt beziehen: Vermeidung <strong>von</strong> Mehrdimensionalität;<br />

• keine doppelte Negation enthalten;<br />

• den Befragten nicht überfordern: keine Fragen nach Prozentsätzen und Durchschnitt;<br />

• zumindest formal “balanciert” sein: alle negativen und auch positiven Antwortmöglichkeiten<br />

sollten enthalten sein;<br />

Zusätzlich sollte bei den Antwortvorgaben eine “weiß-nicht”-Kategorie vorhanden sein.<br />

Ohne diese Kategorie würde eine Antwort erzwungen werden, die Auswahl dieser geschieht<br />

dann nach dem Zufallsprinzip und hat keinerlei Aussagekraft. Eine Filterung <strong>von</strong> Non-<br />

Attitudes kann auch durch eine zweistufige Fragestellung geschehen (siehe Tabelle 4.9):<br />

... Haben Sie eine Meinung zu dieser Aussage Nein O - - - Ja O<br />

Falls ja: Stimme Zu O - - - Lehne ab O<br />

Tabelle 4.9.: Beispiel einer zweistufigen Fragestellung [SHE05]<br />

49


Bei Fragen, die als Antwortvorgabe “stimme zu/lehne ab” vorsehen, kommt es zu dem Effekt<br />

der so genannten Zustimmungstendenz. Unabhängig vom Inhalt wird diesen Fragen<br />

eher zugestimmt. Je niedriger das Bildungsniveau der Befragten desto ausgeprägter ist diese<br />

Tendenz. Deswegen sollte auf solche Formulierungen verzichtet werden und stattdessen<br />

durch Fragen mit klaren Aussagealternativen ersetzt werden, so genannten “Forced-Choice-<br />

Questions”. Dabei müssen die Befragten sich konkret zwischen inhaltlichen Alternativantworten<br />

entscheiden. Dieses Verfahren ist allerdings sehr aufwendig und lässt, gerade in<br />

Bezug auf dieses Experiment, kaum Platz für Ideen <strong>von</strong> Seiten der Befragten. [Stan1]<br />

Probleme können auch beim Anbieten einer “mittleren” Antwortkategorie auftreten.<br />

Grund dafür ist, dass Versuchspersonen, selbst wenn die Mitte explizit mit Worten beschrieben<br />

ist, diese als neutrale Antwort annehmen oder sie als eine “Weiß-nicht”- bzw.<br />

“Irrelevanz”-Antwort ansehen. Dies passiert dann, wenn jemand sich bei der Antwort nicht<br />

festlegen will oder auch die Frage als nicht wichtig ansieht. Die einfachste Lösung für dieses<br />

Problem ist, die mittlere Kategorie einfach wegzulassen und so den Probanden keine<br />

Ausweichmöglichkeit zu bieten. Sie sind so dazu gezwungen sich eine Meinung in die eine<br />

oder andere Richtung zu äußern. [Stan1]<br />

Konstruktion eines Fragebogens<br />

Die Konstruktion eines Fragebogens erfordert darüber hinaus die Beachtung einiger Kriterien.<br />

Ein Effekt der auftritt, ist der Ausstrahlungseffekt oder Halo-Effekt. Jede Frage<br />

und ihre dazugehörige Antwort kann die nachfolgende Frage so beeinflussen, “dass sich die<br />

Beantwortung der Folgefragen entweder an der vorhergehenden Frage orientiert oder an<br />

der bereits gegebenen Antwort.” [SHE05] Grund dafür ist der Sinnzusammenhang zwischen<br />

den Fragen. Es liegt im Bemühen des Befragten, seine Antworten konsistent zu halten.<br />

In diesem Zusammenhang kommt auch der Einleitungsfrage besondere Bedeutung zu, da<br />

sich an ihr das “Engagement des Befragten <strong>zur</strong> Beantwortung des gesamten Fragebogens”<br />

[SHE05] entscheidet. Sie sollte interessant in das gesamte Thema einführen, leicht zu beantworten<br />

sein, Ängste mildern und <strong>von</strong> jedem zu beantworten sein. Wird hier bereits ein<br />

“trifft nicht zu” angegeben, kann der Befragte der Meinung sein, dass die gesamte Befragung<br />

sich nicht an ihn richtet. Es sollte vermieden werden, hier demografische Daten zu erheben.<br />

Außerdem sollten zu jedem Themenbereich immer mehrere Fragen gestellt werden (Konzept<br />

der multiplen Indikatoren). Fragen, die denselben Aspekt des Themas behandeln,<br />

sollten auch nacheinander abgefragt werden. Zur Einleitung in einen neuen Fragenkomplex<br />

sollten “Überleitungsfragen” verwendet werden. Sollten einige Fragen oder ganze<br />

Fragenkomplexe für einen Befragten nicht relevant sein, sollten Filterfragen eingesetzt<br />

werden, damit ein Befragter nicht unnötig viele Fragen nur mit “trifft nicht zu” beantworten<br />

muss (Bsp.: falls “nein” weiter mit Frage 20).<br />

Zum Umgang mit “schwierigen” oder “sensiblen” Fragen sei gesagt, dass diese immer gegen<br />

Ende des Fragebogens zu stellen sind, um nicht einen frühzeitigen Abbruch zu provozieren.<br />

Wenn der Kontext wichtig für die entsprechende Frage ist, dann ist diese an das Ende des<br />

Fragenkomplexes zu stellen.<br />

50


Das Design, Format und Layout eines Fragebogens muss bei der mündlichen Befragung so<br />

gewählt sein, dass der Interviewer keine formalen Schwierigkeiten bei der Durchführung<br />

der Befragung hat. “Nicht der Interviewer, der Fragebogen muß schlau sein.” [Schm62] Der<br />

Fragebogen muss also eine leichte Unterscheidung zwischen Fragen und Anweisungen ermöglichen<br />

und eine klare Filterführung aufweisen.<br />

Es empfiehlt sich vor der eigentlichen Befragung einen Pretest durchzuführen um alle<br />

Punkte der Konstruktion zu überprüfen. Hier sollte das Verständnis der Fragen durch den<br />

Befragten, die Schwierigkeit der Fragen, Effekte der Fragenanordnung, Güte der Filterführung,<br />

Kontexteffekte, Dauer der Befragung, usw. getestet werden. Selbst wenn bereits Teile<br />

des Fragebogens in früheren Erhebungen verwendet wurden, sind Pretests unverzichtbar<br />

bei der Entwicklung zuverlässiger Erhebungsinstrumente.<br />

Neben einem Pretest empfiehlt es sich, auch eine Interviewerschulung durchzuführen.<br />

Diese ist besonders dann notwendig, wenn nicht auf einen professionellen Interviewerstab<br />

<strong>zur</strong>ückgegriffen werden kann, sondern “freiwillige” Laien-Interviewer eingesetzt werden<br />

müssen. Neben theoretischen Abhandlungen sollten Übungsinterviews und Rollenspiele<br />

durchgeführt werden.<br />

Methodische Probleme des Interviews<br />

“Erhebungstechniken, bei denen sich die “Untersuchungsobjekte‘” bewusst darüber sind, dass<br />

sie Gegenstand einer Untersuchung sind und die Möglichkeit haben, auf den Datenerhebungsvorgang<br />

selbst zu reagieren, werden als “reaktive” Messverfahren bezeichnet.” [SHE05]<br />

Durch diese “Reaktivität”, also dem Reagieren <strong>von</strong> Personen in der Interviewsituation auf<br />

den Interviewer/Fragestellung, entstehen “Artefakte”.<br />

Die Formen der Antwortverzerrung im Interview (Response Error), die sich daraus ergeben<br />

sind:<br />

• Item-Nonresponse: explizite Verweigerung einer Antwort;<br />

• Meinungslosigkeit: Abgabe einer “weiß-nicht” Antwort;<br />

• Non-Attitudes: Abgabe einer Antwort, obwohl keine Meinung vorhanden ist;<br />

• Social-Desirability-Response-Set: Abgabe sozial erwünschter Antworten;<br />

• Interviewereffekte: Reaktionen auf Merkmale des Interviewers;<br />

• Frageeffekte: Reaktionen auf formale Aspekte der Fragen;<br />

• Positionseffekte: Reaktionen auf die Abfolge der Fragen;<br />

• Anwesenheitseffekte: Reaktionen auf die Anwesenheit <strong>von</strong> Dritten beim Interview;<br />

• Sponsorship-Effekte: Reaktionen auf die Auftraggeber der Untersuchung;<br />

• Zustimmungstendenz: Zustimmung unabhängig vom Inhalt der Frage;<br />

Abgesehen <strong>von</strong> Frage-, Positionseffekten und Meinungslosigkeit lassen sich alle Effekte als<br />

Spezialfälle <strong>von</strong> Zustimmungstendenz und sozialer Erwünschtheit auffassen.<br />

51


Reaktivitätseffekte lassen sich nicht völlig ausschalten, da sie durch den sozialen Charakter<br />

der Erhebungssituation bedingt sind. Bedeutsame Verzerrungseffekte sind aber nur unter<br />

bestimmten Bedingungen zu befürchten. Durch eine explizite, theoriegeleitete Untersuchung<br />

könne solche Effekte berücksichtigt werden. “Nur eine äußerst sorgfältige theoretische<br />

Vorbereitung und empirische Absicherung durch Voruntersuchungen des Interviews<br />

kann Ergebnisse erbringen, die das Potential dieser Erhebungstechnik voll nutzen.” [SHE05]<br />

Schriftliche Befragung<br />

Schriftliche Befragungen sind Befragungen, bei denen einen Gruppe <strong>von</strong> gleichzeitig<br />

anwesenden Befragten Fragebögen in Anwesenheit eines Interviewers ausfüllen. Der Begriff<br />

wird auch für Befragungen verwendet, bei denen die Fragebögen postalisch verschickt<br />

werden, mit der Bitte sie ausgefüllt <strong>zur</strong>ückzuschicken. Bei der postalischen Befragung<br />

ist natürlich kein Interviewer anwesend.<br />

Gründe für eine postalische Befragung sind vorwiegend technischer und ökonomischer Natur.<br />

Der Verwaltungsaufwand bei persönlichen Interviews ist recht hoch, ebenso wie die<br />

Kosten bei Befragungen mit z.B. mehr als 200 Befragten.<br />

Generell haben die schriftlichen Befragungen den methodischen Vorteil, dass Interviewerfehler<br />

vermieden werden und, dass die Antworten “ehrlicher” sind als bei Anwesenheit<br />

eines Interviewers. Die Antworten sind zudem “überlegter”, da mehr Zeit zum Ausfüllen<br />

des Fragebogens gegeben ist. Auch ist die Zusicherung der Anonymität glaubwürdiger.<br />

Einen großen Nachteil stellt aber die höhere Ausfallquote als bei persönlichen Interviews<br />

dar. Zudem können die Ausfälle systematisch erfolgen, da beispielsweise Personen, die<br />

stark an dem jeweiligen Thema interessiert sind, eher den Fragebogen beantworten. Auch<br />

ist kein Interviewer anwesend (zumindest bei der postalischen Befragung) der durch weitere<br />

Erklärungen eine Teilnahme herbeiführen könnte. Dadurch kommt es zu einer Stichprobenverzerrung<br />

durch “Selbstrekrutierung”. Von Nachteil ist auch, dass die Datenerhebungssituation<br />

nicht auf mögliche externe Einflüsse kontrolliert werden kann. Die “Ernsthaftigkeit”<br />

des Ausfüllens und wer den Fragebogen tatsächlich ausgefüllt hat ist, nicht angebbar. Die<br />

schriftliche Befragung erlaubt auch nicht die Erfassung spontaner Antworten. Ein Befragter<br />

kann sich vor dem Ausfüllen des Fragebogens einen Überblick verschaffen, wodurch eine<br />

Reihe <strong>von</strong> “Konstruktionstricks” zum Abfangen verzerrter Antworten wirkungslos sind.<br />

Konstruktion eines Fragebogens für die schriftliche Befragung<br />

Die Konstruktion eines Fragebogens für eine schriftliche Befragung erfordert mehr Sorgfalt<br />

als die Konstruktion jedes anderen Fragebogens, da der Befragte weitestgehend ohne die<br />

Hilfe eines Interviewers die Fragen beantworten muss. Die zuvor beschriebenen Grundlagen<br />

<strong>zur</strong> Konstruktion der Fragen und Antwortvorgaben und des Fragebogens sind auch hier<br />

gültig.<br />

Grundvoraussetzung eines schriftlich zu beantwortenden Fragebogens ist, den Eindruck<br />

einer echten Gesprächssituation zu erzeugen und dabei ein gutes und klares Layout zu<br />

bieten. Um einen Ermüdungseffekt zu vermeiden, sollte der Fragebogen nicht zu lang sein.<br />

Es soll der Eindruck <strong>von</strong> Vielfalt und Kurzweile beim Teilnehmer erweckt werden. Dies ist<br />

durch einen Wechsel <strong>von</strong> Fragetechniken möglich. Andererseits sollte aber auch auf eine<br />

52


gewisse Einheitlichkeit der Antwortvorgaben und auch des Layouts geachtet werden. Der<br />

Befragte sollte sich an eine spezifische Form des Ankreuzens gewöhnen können und nicht<br />

andauernd erneut die Bewertungen studieren müssen. [Stan1]<br />

Der erste Eindruck sollte Seriosität, Wichtigkeit und leichte Handhabbarkeit vermitteln<br />

und ästhetischen Maßstäben genügen. Wesentlich für die Beantwortung eines Fragebogens<br />

ist dessen Einleitung. Dieser vorangestellt Einleitungstext (je nach Umfang des Fragebogens<br />

auf einem eigenen Deckblatt) sollte einige Merkmale unbedingt aufweisen. Zu diesen<br />

gehören [Pils1]:<br />

• eine knappe Vorstellung der Einrichtung, die die Befragung durchführt;<br />

• eine Erklärung <strong>zur</strong> Fragestellung, also, was genau das Ziel der Umfrage ist;<br />

• Hervorhebung der Wichtigkeit jedes einzelnen beantworteten Fragebogens;<br />

• eine Bitte um die ehrliche Beantwortung;<br />

• eine Versicherung, dass es keine “richtigen” und “falschen” Antworten gibt;<br />

• eine Zusicherung der Anonymität;<br />

• einen Dank an alle teilnehmenden Personen für die Opferung <strong>von</strong> etwas Zeit;<br />

• ev. gesonderte Instruktionen zu einzelnen Fragen, falls dies nötig ist (beispielsweise<br />

bei Fragen die mehr verlangen, als lediglich Ankreuzen);<br />

Weiterhin sollte beachtet werden, dass die einmal ausgewählte Art der Antwortkennzeichnung<br />

für den ganzen Fragebogen gültig sein sollte. Die Antwortkategorien müssen in entsprechender<br />

(gleich bleibender) Weise identifizierbar sein. Fragen sollten beispielsweise in<br />

Kleinbuchstaben, Antworten in Großbuchstaben geschrieben, oder zumindest in irgendeiner<br />

Art und Weise hervorgehoben werden. Filterführungen müssen deutlich ersichtlich sein.<br />

Die letzte Seite sollte eine Danksagung enthalten und <strong>zur</strong> Kommentierung der Untersuchung<br />

einladen. Dementsprechend muss Platz für Bemerkungen freigehalten sein.<br />

Durchführung einer schriftlichen Befragung<br />

Für den Fall, dass eine Gruppe <strong>von</strong> anwesenden Personen gleichzeitig befragt wird, ist<br />

die Durchführung trivial. Anders verhält sich dies bei der postalischen Befragung.<br />

Hier sollte ein Begleitschreiben <strong>zur</strong> Darstellung des Zwecks der Untersuchung, mit einem<br />

Hinweis auf die Wichtigkeit der Befragten, Nützlichkeit und Vertraulichkeit der Untersuchung<br />

verschickt werden. Weiter sollten Schreiben mit Danksagung bzw. Erinnerungen an<br />

diejenigen, die noch nicht geantwortet haben, folgen.<br />

Telefoninterviews<br />

Vor allem bei Markt- und Meinungsforschung werden Telefoninterviews verwendet [Atte95].<br />

Gründe für die Durchsetzung <strong>von</strong> Telefoninterviews sind vor allem die steigenden Kosten<br />

bei mündlichen Interviews vor Ort und, dass fast die gesamte Bevölkerung per Telefon<br />

erreichbar ist (Telefondeckung <strong>von</strong> Deutschland und USA bei über 98%).<br />

53


Oft verwendete Methoden <strong>zur</strong> Stichprobenziehung sind dabei die Generierung <strong>von</strong> Telefonnummern<br />

aus Zahlenkombinationen (RDD: Random-Digit-Dailing) oder die Auswahl aus<br />

dem Telefonbuch unter Verwendung eines einfachen Zahlenschlüssels (Bsp.: Ab Position X<br />

jede 3-te Nummer). Die Ausschöpfungsquote wird durch Schwer-Erreichbare und Verweigerer,<br />

wie auch bei anderen Verfahren, gesenkt. Generell liegt die Verweigerungsquote bei<br />

dieser Art <strong>von</strong> Befragung bei etwa 28%.<br />

Für Fragenformulierung und Fragebogenkonstruktion gelten die allgemeinen Grundsätze<br />

wie auch bei der persönlichen mündlichen Befragung. Problematisch ist allerdings, dass<br />

visuelle Hilfen, wie Diagramme usw., entfallen. Eine Einschätzung, ob der Befragte die<br />

Frage versteht, gelangweilt ist usw., ist schwer.<br />

Ein besonders großes Problem bei Telefoninterviews ist der “Response-Order-Effekt“. Dies<br />

ist die bevorzugte Auswahl der ersten oder letzten Antwortvorgabe. Dies ist darin begründet,<br />

dass der Befragte keine vollständige Erinnerung an alle Antwortvorgaben hat. Die<br />

Lösung dieses Problems ist die Reduzierung der Anzahl der Antwortvorgaben oder die<br />

“zwei-Stufen-Technik”. Dabei wird in der ersten Stufe die Zustimmung oder Ablehnung<br />

erfragt und dann das Ausmaß dieser festgestellt.<br />

Die Datenqualität ist kaum beeinträchtigt, da Verweigerung <strong>von</strong> Einzelfragen vom Umfang<br />

her bei Telefoninterview und mündlicher Befragung in etwa gleich ist. Bei sensiblen Fragen<br />

kommen jedoch mehr ausweichende und nicht-substantielle Antworten.<br />

Internetgestützte Befragung<br />

Befragungen über das Internet werden zunehmend populärer, da sie schnell durchführbar<br />

sind, kaum Personalaufwand erfordern, die Einbindung <strong>von</strong> Video usw. möglich machen<br />

und wesentlich geringere Kosten verursachen. Dafür haben sie aber schwerwiegende methodische<br />

Probleme aller Formen.<br />

Die Formen der internetgestützten Befragung sind “E-Mail-Befragung” (Fragebogen per<br />

E-Mail) und “Web-Survey” (Fragebogen in Form eines Formulars auf einer Webseite).<br />

Um die Ergebnisse dieser Befragung verallgemeinern zu können, muss auch hier mit einer<br />

Stichprobe aus der Grundgesamtheit gearbeitet werden. Wird die Grundgesamtheit als:<br />

“Gesamtheit der Internetnutzer” (wie es häufig der Fall ist) definiert, ist dies aber keine<br />

vernünftige Abgrenzung, da keine räumlichen, sprachlichen und zeitlichen Beschränkungen<br />

gegeben sind. Die Ergebnisse dieser “willkürlichen Auswahlen” lassen sich nicht verallgemeinern.<br />

Um allerdings ein internetgestütztes Survey auf der Basis echter Zufallsstichproben<br />

durchführen zu können, muss eine vollständige Liste <strong>von</strong> E-Mail-Adressen einer Population<br />

vorhanden sein. Dies schließt nahezu alle Populationen bis auf einige wenige hoch organisierte<br />

Gruppen (z.B. Fachverbände für Hochschullehrer eines Fachgebietes) aus. Dieses<br />

kaum lösbare Problem der unvollständigen E-Mail-Listen gilt auch für die Befragung per<br />

E-Mail.<br />

Zusätzlich führen technische Probleme, wie die Kompatibilität <strong>von</strong> Fragebögen je nach<br />

System auf dem sie betrachtet werden (gerade in Bezug auf Layout), dazu, dass internetgestützte<br />

Befragungen fast immer untragbar hohe Nonresponse-Raten haben. Befragungen<br />

dieser Art sind nur innerhalb homogener Organisationen mit vollständigen E-Mail-Listen,<br />

standardisierter Hard-/Software und hoher Motivation möglich.<br />

54


Sonderformen der Befragung<br />

Zum Abschluss der Behandlung der Arten der Befragung sollen noch zwei Sonderformen<br />

der Befragung betrachtet werden. Diese sind das Leitfadengespräch und das narrative Interview.<br />

Dem Leitfadengespräch liegt der sogenannten “Leitfaden” und nicht ein standardisierter<br />

Fragebogen zugrunde. Es kommt hauptsächlich als Pretest, <strong>zur</strong> Hypothesenentwicklung,<br />

<strong>zur</strong> <strong>Analyse</strong> seltener Gruppen und als Ergänzung <strong>zur</strong> Validierung andere Forschungsergebnisse<br />

zum Einsatz. Ziel und Vorteil dieser Form der Befragung ist die Miterfassung des<br />

Bezugsrahmens des Befragten durch offene Fragen und Erweiterung <strong>von</strong> Antwortspielräumen.<br />

Der Leitfaden stellt dabei sicher, dass alle forschungsrelevanten Themen angesprochen<br />

werden und eine zumindest rudimentäre Vergleichbarkeit der Ergebnisse der Interviews<br />

gewährleistet ist. Nachteile dieser Befragungsform sind höhere Anforderungen an<br />

den Interviewer, stärkere Interviewereinflüsse, ein höherer Zeitaufwand und geringere Vergleichbarkeit<br />

der Ergebnisse.<br />

Das narrative Interview ist die Extremform einer offenen Befragung. Weder Fragebogen<br />

noch Leitfaden liegt diesem Verfahren zugrunde. Das Ziel des Interviews ist das Verstehen<br />

<strong>von</strong> Sicht- und Handlungsweisen des Befragten. Es ist die “Erzählung eigenerlebter Geschichten”.<br />

Dem Befragten wird nur ein grobes Thema vorgegeben. Hauptproblem ist, dass<br />

das Ergebnis im Wesentlichen <strong>von</strong> der Sprachkompetenz des Befragten abhängig ist.<br />

4.6.2. Beobachtung<br />

Die Beobachtung wird i.a. als die “ursprünglichste” Datenerhebungstechnik betrachtet. Die<br />

wissenschaftliche Komponente der Beobachtung als empirische Datenerhebungstechnik ist<br />

dann gewährleistet, wenn: die Beobachtung “a) einem bestimmten Forschungszweck dient,<br />

b) systematisch geplant und nicht dem Zufall überlassen ist, c) systematisch aufgezeichnet<br />

und auf allgemeinere Urteile bezogen wird, nicht aber eine Sammlung <strong>von</strong> Merkwürdigkeiten<br />

darstellt, und d) wiederholten Prüfungen und Kontrollen hinsichtlich der Gültigkeit,<br />

Zuverlässigkeit und Genauigkeit unterworfen wird...”. [JDK65]<br />

Eine grobe Einteilung der Beobachtungsverfahren erfolgt danach, ob sie direkt oder<br />

indirekt sind. Die direkte Beobachtung ist die Verhaltensbeobachtung im engeren Sinne.<br />

Mit indirekter Beobachtung werden Verfahren bezeichnet, die Spuren, Auswirkungen <strong>von</strong><br />

Ereignissen untersuchen.<br />

Einzelne Verfahren der direkten Beobachtung grenzt man ab nach:<br />

• offen vs. verdeckt: ob die Beobachtungsobjekte Kenntnis <strong>von</strong> der Beobachtung<br />

haben;<br />

• Teilnehmend vs. nicht-teilnehmend: Teilnahme des Beobachters an der Interaktion;<br />

• Strukturiert vs. unstrukturiert: ob gemäß genauem Beobachtungsschema;<br />

• Beobachtungen in künstlichen Beobachtungssituationen vs. natürliche: Feldoder<br />

Laborbeobachtungen;<br />

55


• Selbstbeobachtung vs. Fremdbeobachtung: Beobachtung des Verhaltens der eigenen<br />

Person oder anderer Personen;<br />

In der empirischen Sozialforschung werden vor allem strukturierte Verfahren angewendet<br />

(siehe Tabelle 4.10)<br />

Distanz <strong>zur</strong> Untersuchungssituation:<br />

Strukturierungsgrad: nicht-teilnehmend teilnehmend<br />

unstrukturiert “nicht-wissenschaftliche” Anthropologische /<br />

Alltagsbeobachtung ethnologische Beobachtung<br />

strukturiert<br />

Beobachtungsverfahren der empirischen Sozialforschung<br />

Tabelle 4.10.: Beobachtungstypen [SHE05]<br />

“Bei einer systematischen Beobachtung selektiert, klassifiziert und codiert ein “Beobachter”<br />

Handlungsabläufe und Elemente <strong>von</strong> Handlungen nach den Anweisungen eines “Beobachtungssystems”.”<br />

[SHE05] Hierzu ist die Konstruktion eines Beobachtungssystems nötig.<br />

Man unterscheidet drei Arten <strong>von</strong> Beobachtungssystemen:<br />

• “Zeichen-Systeme”: Der Beobachter zeichnet lediglich das Auftreten eines oder<br />

mehrerer Ereignisse auf. Der größte Teil des ablaufenden Handlungsprozesses ist uninteressant.<br />

• “Kategorien-Systeme”: Die Handlungen werden nach festgelegten Kategorien klassifiziert.<br />

Die Hauptschwierigkeit ist die Entwicklung dieses Kategoriensystems.<br />

• “Schätz-Skalen” (“Rating-Verfahren”): Der Beobachter beurteilt die Ausprägung eines<br />

beobachteten Verhaltens. Dieses Verfahren wird meist in Kombination mit einem<br />

der beiden anderen Verfahren genutzt.<br />

In der Praxis werden mitunter alle drei Formen gleichzeitig verwendet.<br />

Hauptaufgabe bei der Konstruktion eines Kategoriensystems ist die Auswahl der theoretisch<br />

adäquaten Verhaltenseinheiten, nach denen das beobachtete Geschehen klassifiziert<br />

werden kann. Diese Verhaltensweisen bzw. Kategorien stellen die Variablen in einem Kategoriensystem<br />

dar. Die formalen und inhaltlichen Anforderungen an ein Kategoriensystem<br />

sind dabei:<br />

• Eindimensionalität der Messung;<br />

• Ausschließlichkeit der Kategorien: jedes Ereignis darf nur einer Kategorie zugeordnet<br />

werden können;<br />

• Vollständigkeit der Kategorien: für alle möglichen zum Forschungsgegenstand gehörenden<br />

Beobachtungen;<br />

• Begrenzung der Anzahl der Kategorien: schon aus rein praktischen Gründen;<br />

Typische Konstruktionsfehler sind Unvollständigkeit, Unanwendbarkeit und das Auseinanderklaffen<br />

<strong>von</strong> Kategorien, was allerdings durch einen Pretest gemindert werden kann.<br />

56


Weitere Probleme ergeben sich aus dem Einsatz eines Beobachters. Beobachter “entdecken”,<br />

“verarbeiten” und “zeichnen Daten auf”. Sie nehmen also Daten auf, beurteilen und<br />

vercoden die Daten und protokollieren sie schließlich. Die Qualität, d.h. Zuverlässigkeit der<br />

Beobachtungsleistung, hängt somit nahezu vollständig vom Beobachter ab. Dem einzelnen<br />

Beobachter wird es überlassen, den Trennstrich zwischen Ereignissen zu ziehen. Das bedeutet,<br />

dass die Genauigkeit auch jeweils vom Beobachter abhängt. Und je nach Zahl der<br />

zu beobachtenden Zeichen/Kategorien und ihres Vorkommens können selten vorkommende<br />

leicht übersehen werden.<br />

Die häufigsten Urteilsfehler sind:<br />

• zentrale Tendenz: verschobene Wahrnehmung extremer Ereignisse;<br />

• Neigung zu Milde;<br />

• Einflüsse der zeitlichen Abfolge: Festlegung aufgrund des “ersten Eindrucks”;<br />

• Halo-Effekt: Verzerrung des Urteils aufgrund eines besondern Merkmals einer Person;<br />

• Tendenz, Eigenschaften, Verhaltensweisen und Elemente <strong>von</strong> Situationen nach der<br />

“Logik” ihrer Zusammengehörigkeit/zugrunde gelegter Theorie des Beobachteten zu<br />

beurteilen.<br />

Die Anwesenheit eines Beobachters hat hingegen kaum gravierende Effekte, abgesehen <strong>von</strong><br />

eventuellen Effekten in der Anfangsphase.<br />

Um diesen Fehlern entgegenwirken zu können, müssen die Beobachter geschult werden.<br />

Die Codierung der verschiedenen Beobachter muss zudem gleich oder zumindest ähnlich<br />

sein. Um dies zu gewährleisten, werden Pretests unter “Ernstbedingungen” und Prüfungen<br />

der Übereinstimmung der Beobachter durchgeführt. Außerdem wird getestet ob, die Codierung<br />

eines Beobachters konsistent über die Zeit ist. Auch während der Feldphase empfiehlt<br />

sich eine kontinuierliche Kontrolle und Überwachung.<br />

Die Beobachtung wird vor allem genutzt, um Einblicke in wenig bearbeitete Forschungsgebiete<br />

zu bekommen und Hypothesen zu ermitteln, wie auch für die Erlangung ergänzenden<br />

Materials. Meist wird es auch angewendet, wenn andere Methoden der Datenerhebung in<br />

bestimmten Forschungsfeldern ausgeschlossen sind, wie etwa bei der Erfassung komplexer<br />

Interaktionen.<br />

Wegen der Probleme, die mit dem Verfahren der Beobachtung verbunden sind, wird es in<br />

der Praxis nur in wenigen Gebieten verwendet.<br />

4.6.3. Inhaltsanalyse<br />

Eine Methode, die hauptsächlich Texte aller Art (auch Rundfunk-, Fernsehsendungen<br />

usw.) einer quantifizierenden <strong>Analyse</strong> unterzieht, wird Inhaltsanalyse genannt. Die Methode<br />

zeichnet sich dadurch aus, dass sie nicht-reaktiv ist, da die Produzenten der Texte<br />

nichts <strong>von</strong> der <strong>Analyse</strong> wissen. Weitere Vorteile sind das umfangreiche <strong>zur</strong> Verfügung stehende<br />

Material und die disziplinübergreifende Verwendbarkeit dieser Methode.<br />

57


Hauptverwendungsbereich in der empirischen Sozialforschung ist die Erforschung politischer<br />

Kommunikation, die <strong>Analyse</strong> <strong>von</strong> Massenmedien und der Wandel <strong>von</strong> Einstellungen<br />

und Lebensstilen.<br />

Vier gebräuchliche Formen der empirischen Inhaltsanalyse sind:<br />

• Frequenzanalyse: Textelemente werden klassifiziert und die Häufigkeit ihres Vorkommens<br />

wird gezählt;<br />

• Valenzanalyse: spezifischere Beschreibung <strong>von</strong> Inhalten mit Bewertungen (negativ,<br />

neutral, positiv) im Zusammenhang mit der Nennung bestimmter Begriffe;<br />

• Intensitätsanalyse: zusätzliche Erfassung der Intensität <strong>von</strong> Bewertungen;<br />

• Kontingenzanalyse: Überprüfung des Auftretens bestimmter sprachlicher Elemente<br />

im Zusammenhang mit anderen Begriffen;<br />

Unabhängig <strong>von</strong> der Form erfolgt eine Inhaltsanalyse in vier Phasen:<br />

1. Schritt: <strong>Analyse</strong> der Art oder Klasse <strong>von</strong> Texten hinsichtlich eines spezifischen Forschungsproblems.<br />

Die Texte müssen relevant für den Zweck der Untersuchung und<br />

zugänglich sein.<br />

2. Schritt: Ziehen einer Stichprobe aus der Klasse der relevanten Texte (Vollerhebung<br />

oder Zufallsstichprobe).<br />

3. Schritt: bei quantitativer Inhaltsanalyse: Vorgabe der Zähleinheiten (zu zählende<br />

Texteinheiten, Merkmalsträger).<br />

4. Schritt: Entwicklung eines Kategorienschemas: Definition <strong>von</strong> “Kategorien” im Sinne<br />

<strong>von</strong> Oberbegriffen, “die mit dem definierten Begriff für die problemrelevanten Dimensionen<br />

identisch sind oder sie in Teildimensionen untergliedern”. [SHE05] Dann<br />

folgt die Bildung <strong>von</strong> “Unterkategorien”, die angeben, “welche Art <strong>von</strong> Aussage je<br />

Kategorie unterschieden werden soll” [SHE05] (entspricht der Merkmalsausprägung<br />

<strong>von</strong> Variablen).<br />

Das zentrale methodische Problem der Inhaltsanalyse ist der Prozess der Datenreduktion,<br />

d.h. die Klassifizierung einer Vielzahl <strong>von</strong> Wörtern eines Textes in nur wenige<br />

Kategorien. Hauptproblem sind dabei die Konsistenz und die Zuverlässigkeit dieser Klassifikation,<br />

da es sehr schnell zu Mehrdeutigkeit kommen kann.<br />

Kriterien für die Zuverlässigkeit bei Inhaltsanalysen sind:<br />

• Stabilität: inwieweit Inhaltsklassifikationen im Laufe der Zeit unverändert bleiben;<br />

• Wiederholbarkeit: Ausmaß, in dem gleiche Klassifizierungen vorgenommen wurden,<br />

wenn der gleiche Text <strong>von</strong> mehr als einem Coder vercoded wurde;<br />

• Genauigkeit: Übereinstimmung eines <strong>von</strong> Hand codierten Fragebogens mit einer<br />

bekannten “Standardcodierung”;<br />

Zusammenfassend kann gesagt werden, dass der empirischer Ertrag und die theoretische<br />

Bedeutung <strong>von</strong> Inhaltsanalysen i.a. eher gering sind.<br />

58


4.6.4. Nicht-reaktive Messverfahren<br />

Reaktivität ist, wie schon zuvor definiert, der “Einfluss des Messvorgangs auf die Reaktionen<br />

<strong>von</strong> Versuchpersonen” [SHE05] bzw. auf Befragte. Nicht-reaktive Messverfahren sind<br />

diejenigen Untersuchungssituationen, bei denen die untersuchten Personen nicht wissen,<br />

dass sie sich in einer solchen befinden. Das Problem der Reaktivität, also der “Rückwirkung<br />

der Erhebung auf die Reaktion der untersuchten Personen” [SHE05] wird so ausgeschlossen.<br />

Der folgende Abschnitt soll einige übliche Verfahren kurz vorstellen.<br />

So können physische Spuren als Datenquelle für vergangenes Verhalten genutzt werden.<br />

Beispielsweise gibt die Abnutzung <strong>von</strong> Fliesen um einen Ausstellungsgegenstand Auskunft<br />

über die Popularität desselben.<br />

Bei der nicht-reaktiven Beobachtung werden nur äußerliche Erscheinungsmerkmale eines<br />

Objektes (Bsp. Kleidung, Tätowierungen, usw.) registriert.<br />

Die <strong>Analyse</strong> laufender Berichte, öffentlich zugänglicher Berichte aller Art, ist eine weitere<br />

Datenquelle, die bei nicht-reaktiven Verfahren genutzt werden kann. Gerade in Industriestaaten<br />

bilden diese Quellen kontinuierlich vergleichbare Daten über lange Zeiträume.<br />

Allerdings existieren für kaum eines der nicht-reaktives Verfahren klare Gütekriterien.<br />

Größte Schwierigkeit bereitet auch das so genannte Auswahlproblem. Gerade bei der Untersuchung<br />

<strong>von</strong> physischen Spuren ist kaum angebbar, welche Population untersucht wird.<br />

Auch die unterschiedlichen Verfallszeiten <strong>von</strong> Spuren sind mitunter problematisch.<br />

Nicht-reaktive Verfahren sind deswegen nur bei wenigen Forschungsgebieten einsetzbar.<br />

Zudem gibt es auch rechtliche und ethische Probleme, die nicht gerade für diese Art <strong>von</strong><br />

Verfahren sprechen (Bsp.: Abhören <strong>von</strong> Telefonen).<br />

4.7. Datenaufbereitung<br />

Nachdem für jede Untersuchungseinheit die Variablen erhoben wurden, müssen für die weitere<br />

Bearbeitung die Daten zu einer bestimmten Struktur aufbereitet werden, die für die<br />

spätere <strong>Analyse</strong> dienlich ist. Hierzu ist die Erstellung einer Datenmatrix nötig. Sämtliche<br />

erhobenen Daten (z.B. alle erhaltenen Antworten eines Befragten) werden in einer<br />

Tabelle dargestellt. Die Zeilen dieser “Datenmatrix” genannten Tabelle (siehe Tabelle 4.11)<br />

stellen jeweils eine Untersuchungseinheit (Befragte Person) und die Spalten jeweils eine<br />

Variable (Antworten auf eine Frage) dar (siehe auch Anhang C).<br />

Durch die Angabe der Nummer einer Untersuchungseinheit und der Nummer einer Variablen,<br />

kann ein Datenelement genau bezeichnet werden. Das Vorgehen, um aus ungeordneten<br />

Daten (ausgefüllte Fragebögen) eine Datenmatrix zu erstellen, ist:<br />

1. Erstellung einer Liste aller erhobenen Variablen mit ihren jeweiligen Ausprägungen.<br />

Jeder Kategorie jeder Variablen wird ein spezieller Wert (“Code”) zugeordnet (“Codeplan”).<br />

2. Umsetzung (“Codierung”) aller erhobenen Informationen gemäß diesem Codeplan.<br />

3. Speicherung der codierten Daten in einer für die Verarbeitung sinnvollen Form.<br />

59


Untersuchungs Variable<br />

-einheit 1 2 ... m<br />

1 X11 X12 ... X1m<br />

2 X21 X22 ... X2m<br />

... ... ... ... ...<br />

n Xn1 Xn2 ... Xnm<br />

Tabelle 4.11.: Beispiel für eine Datenmatrix [SHE05]<br />

Für die Erstellung eines Codeplans wird zunächst zu Kontrollzwecken jedem Befragten<br />

eine Identifikationsnummer zugeordnet (erste Variable in der Datenmatrix). Für jede<br />

Variable wird dann ein Kürzel bestimmt und jeder Ausprägung ein Code zugeordnet. Für<br />

fehlende Werte müssen spezielle Codes verwendet werden, die den Sachverhalt (fehlend)<br />

und die Ursache (weiß nicht, verweigert, usw.) genau beschreiben. Dies gilt auch für Leerstellen,<br />

also Fragen die beispielsweise wegen eines Filters nicht anwendbar waren.<br />

Offene Fragen sollten für eine sinnvolle Auswertung klassifiziert werden. Nach der Auswertung<br />

aller Antworten werden sie in neuen Kategorien zusammengefasst. Den Kategorien<br />

werden dann Zahlen zugeordnet, die später ausgewertet werden können. Der Aufwand für<br />

offene Fragen ist dementsprechend sehr hoch.<br />

Meist passiert es auch, dass Codes für bestimmte Variablen verwendet werden, die nicht<br />

im Codeplan stehen. Ursachen für diese “wild codes” genannten Fehler können sein:<br />

• nicht dokumentierte Codes;<br />

• Vergabe unterschiedlicher Codes bei nicht eindeutigen Antworten;<br />

• Eingabetippfehler;<br />

• Spaltenfehler (überspringen <strong>von</strong> Spalten);<br />

Das Auffinden und Beseitigen solcher Fehler wird als Datenbereinigung bezeichnet. Neben<br />

der Bereinigung sollte auch ein Konsistenztest gemacht werden, d.h. überprüft werden,<br />

ob unlogische Daten enthalten sind (Bsp.: schwangere Männer).<br />

Nach dem Vercoden der Daten können diese mittels Computer und Statistikprogrammpaketen/Datenanalysesystemen<br />

ausgewertet werden. Für die Auswertung sind auch Datenbanksysteme,<br />

wie beispielsweise Access oder MySQL, möglich. Für den professionelle<br />

Auswertungsprozess sind diese allerdings trotz weiter Verbreitung nicht geeignet. Üblicherweise<br />

werden spezielle Programme verwendet, wie beispielsweise “EpiData” (weitere<br />

Programme siehe [SHE05]).<br />

60


4.8. Datenanalyse<br />

Nach der Erhebung und Aufbereitung der Daten müssen diese ausgewertet werden. “Erst<br />

durch die Auswertung der erhobenen Daten sind Aussagen über die Annahme oder Verwerfung<br />

<strong>von</strong> Hypothesen möglich.” [SHE05] In der Praxis der empirischen Sozialforschung<br />

ist die Datenanalyse fast immer ein iterativer Prozess. Die <strong>Analyse</strong> erfolgt nach einer bestimmten<br />

theoretischen Vorstellung. Entsprechend den Ergebnissen wird die Hypothese<br />

verworfen/modifiziert/verfeinert und eine neue <strong>Analyse</strong> mit eventuell veränderten Variablen<br />

durchgeführt. Man spricht <strong>von</strong> qualitativen Daten, wenn diese in Form <strong>von</strong> Worten<br />

und Bildern und nicht in Zahlen dargestellt sind. Den Gegenpol bilden die quantitativen<br />

Daten, die als Zahlen oder diskreten Kategorien vorliegen. [Seam99]<br />

Im Folgenden sollen zunächst quantitative Methoden der Datenauswertung beschrieben<br />

werden. Danach bietet dieses Kapitel einen Überblick über qualitative Auswertungsverfahren<br />

und schließlich einen Einblick in die <strong>Analyse</strong> mit unvollständigen Datensätzen.<br />

Randauszählung<br />

Erster Schritt einer Datenanalyse ist die Randauszählung. Diese ist das Ergebnis der Berechnung<br />

der “Häufigkeitsverteilung” für jede Variable im Datensatz. Das Verfahren<br />

gibt einen ersten Überblick über die gewonnenen Daten. Ebenso wird noch der arithmetische<br />

Mittelwert für jede Variable berechnet. Damit ist die erste, rein deskriptive <strong>Analyse</strong><br />

der Daten abgeschlossen. Solche “univariaten”, also nur auf die Variablen bezogenen, rein<br />

deskriptiven Darstellungen sind meist kaum <strong>von</strong> größerem Interesse. Deswegen wird im<br />

Anschluss meist eine Subgruppenanalyse durchgeführt.<br />

Subgruppenanalyse<br />

Die einfachste Form der Subgruppenanalyse ist der Vergleich der deskriptiven Statistiken<br />

(z.B. Mittelwerte) und der Häufigkeitsverteilung einer bestimmten Variablen, bei verschiedenen<br />

Subgruppen. Die Darstellung kann mittels “Kreuztabelle” erfolgen (auch “Kontingenztabelle”<br />

genannt): Als Beispiel sei hier die nachfolgende “bivariate Kreuztabelle”<br />

(Tabelle 4.12) dargestellt, bei der die zwei gekreuzten Variablen je zwei verschiedene Werte<br />

annehmen können. Eine Tabelle mit zwei Variablen, die je zwei Ausprägungen haben,<br />

wird auch als “2*2-Tabelle” bezeichnet.<br />

Variable 1:<br />

Variable 2: männlich weiblich Row Total:<br />

Kein Mitglied Total/Prozent Total/Prozent Total/Prozent<br />

Mitglied Total/Prozent Total/Prozent Total/Prozent<br />

Column Total: Total/Prozent Total/Prozent Total/Prozent<br />

Tabelle 4.12.: Kreuztabelle mit Kreuzung zweier Variablen (2*2-Tabelle) [SHE05]<br />

Die angegebenen Häufigkeiten beziehen sich bei der “Total Percentage” in einer Zelle auf<br />

die Gesamtzahl der Fälle. Bei der “Row Percentage” beziehen sich die Häufigkeiten auf<br />

die Gesamtzahl der Fälle einer Zeile der Tabelle und bei der “Column Percentage” auf die<br />

Gesamtzahl der Fälle einer Spalte der Tabelle.<br />

61


Am Kopf der Tabelle ist meist die unabhängige Variable. Die “Prozentsatzdifferenz”<br />

wird als einfaches “Zusammenhangsmaß” interpretiert, d.h. es gibt die Stärke des Zusammenhangs<br />

zwischen zwei Variablen an. Wenn beispielsweise 31% der Männer aber nur<br />

21% der Frauen eine bestimmte Eigenschaft aufweisen, dann ist der Zusammenhang <strong>von</strong><br />

Männern und der Eigenschaft um 10 Prozentpunkte höher als der <strong>von</strong> Frauen und der<br />

Eigenschaft.<br />

Multivariate <strong>Analyse</strong><br />

Als weiteren Schritt findet die multivariate <strong>Analyse</strong> Anwendung, wenn eine größere Zahl<br />

<strong>von</strong> Variablen betrachtet werden soll. Hierbei werden wieder Kreuztabellen <strong>zur</strong> Darstellung<br />

verwendet, die aber aus verschiedenen Teiltabellen (“Partialtabellen”) bestehen. Durch die<br />

gleichzeitige Berücksichtigung <strong>von</strong> beispielsweise drei Variablen können so weitere Ergebnisse<br />

gewonnen und Schlussfolgerungen gezogen werden.<br />

Im Folgenden sollen einige Verfahren der multivariaten <strong>Analyse</strong> kurz skizziert werden.<br />

Für einen tiefer gehenden Einblick in multivariate Datenanalyseverfahren sei auf die Quelle<br />

[SHE05] verwiesen.<br />

Bei Log-linearen Modellen <strong>zur</strong> <strong>Analyse</strong> kategorialer Daten wird versucht, die Häufigkeiten<br />

in einer Kreuztabelle durch eine lineare Gleichung, “die die Effekte einzelner Spalten<br />

und Zeilen der Kreuztabelle wiedergibt, möglichst genau zu reproduzieren.” [SHE05] Angewendet<br />

wird es für das Testen detaillierter Hypothesen, wie z.B. über Muster in Tabellen.<br />

Die Lineare Regression beantwortet die Frage: “Wie wirkt sich die Veränderung einer Variablen<br />

auf eine andere Variable aus” Die Werte der abhängigen Variablen jedes einzelnen<br />

Falles werden als Summe aus einer Konstanten und der mit einem “Regressionskoeffizienten”<br />

gewichteten unabhängigen Variablen vorhergesagt.<br />

Die Grundidee der Multiplen Regression mit kategorialen abhängigen Variablen<br />

ist, eine abhängige Variable durch eine lineare Funktion unabhängiger Variablen zu erklären.<br />

Weitere Verfahren sind die Ereignisdatenanalyse, bei der die Länge einer Zeitspanne<br />

bis zum Eintreten eines bestimmten Ereignisses untersucht wird, die Pfadanalyse, Klassifikationsverfahren<br />

und dimensionsreduzierende Verfahren. Keines der Verfahren<br />

ist immer angemessen, denn alle Verfahren haben Vor- und Nachteile. So muss <strong>von</strong> Fall zu<br />

Fall entschieden werden, welches Verfahren Anwendung finden soll.<br />

Signifikanztest<br />

Verallgemeinerung auf die Grundgesamtheit werden bei echten Zufallsstichproben durch<br />

die Anwendung der so genannten “Inferenzstatistik” durchgeführt. Ein wichtiger Teil<br />

ist dabei die Frage, ob ein beobachteter Effekt zufällig entstanden ist. “Signifikanztests”<br />

sind Verfahren <strong>zur</strong> Untersuchung dieser Frage.<br />

Die beiden am häufigsten verwendeten Verfahren sind Signifikanztests <strong>zur</strong> Prüfung der<br />

Unabhängigkeit in Kreuztabellen und Signifikanztests für Mittelwertdifferenzen.<br />

Ein Signifikanztest der Prüfung der Unabhängigkeit in Kreuztabellen arbeitet<br />

mit einer “Indifferenztabelle”. Diese Kreuztabelle zeigt die Verteilung zweier Variablen unter<br />

der Annahme, dass die Variablen unabhängig <strong>von</strong>einander sind (siehe Beispiel in Tabelle<br />

4.13). Sollte tatsächlich kein Zusammenhang in der Grundgesamtheit bestehen, dann sollte<br />

62


auch die Stichprobe keinen Zusammenhang zeigen. Kleine Abweichungen sind allerdings<br />

erlaubt. Je weiter die Kreuztabelle <strong>von</strong> der Indifferenztabelle abweicht, umso stärker ist<br />

das Argument gegen die Vermutung der Unabhängigkeit.<br />

Männer Frauen Summe<br />

Raucher 25 25 50<br />

Nichtraucher 25 25 50<br />

Summe 50 50 100<br />

Tabelle 4.13.: Indifferenztabelle: kein Zusammenhang zwischen Geschlecht und Rauchern<br />

[SHE05]<br />

Ein Signifikanztest für Mittelwertdifferenzen ist ein Test für die beobachteten Mittelwertdifferenzen<br />

(Experimental- und Kontrollgruppe) hinsichtlich der Frage der “Zufälligkeit”.<br />

Wenn beide Gruppen derselben Grundgesamtheit angehören und beide Gruppen<br />

unabhängige Zufallsstichproben darstellen, dann streuen deren Mittelwerte um den Mittelwert<br />

der Grundgesamtheit. Bei Zufallsstichproben entspricht die Mittelwertedifferenz<br />

einer bestimmten Verteilung und so kann darauf geschlossen werden, ob der Unterschied<br />

zwischen Experimental- und Kontrollgruppe reiner Zufall ist oder eben nicht.<br />

Die generelle Nützlichkeit <strong>von</strong> Signifikanztests in den empirischen Sozialwissenschaften ist<br />

aber kontrovers. (siehe [HMS97])<br />

Qualitative Auswertungsverfahren<br />

Mit qualitativen Auswertungsverfahren sind Auswertungsstrategien gemeint, die weniger<br />

strikte Anforderungen hinsichtlich Messniveau stellen und zu verbalen Interpretationen<br />

kompatibel sind.<br />

“Qualitativ” bezeichnet Verfahren, die nur auf Nominalskalen aufbauen oder die Art der<br />

Datenauswertung, bei der keine statistisch-numerische Verfahren, sondern “EDV-gestützte<br />

Strukturierungshilfen eingesetzt werden” [WoT03]. Außerdem kann auch der Verzicht auf<br />

zählende bzw. rechnende Verfahren und die Nutzung der dann übrig bleibenden subjektiven<br />

Interpretationen darunter verstanden werden. [WoT03]<br />

Unter konfigurale Techniken sind diejenigen statistischen Auswertungstechniken zu verstehen,<br />

die “nicht auf eine mathematisch-quantitative Beschreibung <strong>von</strong> Zusammenhangsstrukturen<br />

ausgerichtet sind, sondern eigentlich nur Konfigurationen in den Daten (also<br />

Kombinationen verschiedener Merkmalsausprägungen auf Nominalskalen) aufbauen.”<br />

[WoT03] Der Vorteil gegenüber den zuvor schon erwähnten linearen Verfahren besteht<br />

darin, dass die Konfigurationen strukturgleich mit “wenn-dann Sätzen” sind. Sie haben damit<br />

den Vorteil, dass sie einer normalen Argumentation entsprechen, wie: “Ein bestimmtes<br />

Ereignis “A” ist dann zu erwarten, wenn Bedingung “X” und/oder Bedingung “Y” gegeben<br />

ist”. Für große Variablenmengen sind diese Verfahren allerdings nicht geeignet. [WoT03]<br />

Zu den Verfahren, die eine Strukturierungshilfe bieten, gehören viele Verfahren der Inhaltsanalyse,<br />

insofern sie mehr als eine einfache Zählung der Worthäufigkeit beinhalten.<br />

Dabei können gerade für die Auswertung <strong>von</strong> offenen Fragestellungen, wie bei Interviews,<br />

<strong>von</strong> Befragten geäußerte Zusammenhänge in (teil-)formalisierte Darstellungen überführt<br />

63


werden. So können komplexe Sachverhalte übersichtlich dargestellt werden. Auf diesen<br />

Daten lassen sich dann quantitative Auswertungen aufbauen. Bisher sind diese Verfahren<br />

allerdings wenig verbreitet. [WoT03]<br />

Der dritte Ansatz ist ein rein verstehend-interpretatorisches Vorgehen. Auch wenn<br />

dieser Ansatz in vielen Bereichen der Geisteswissenschaften, wie auch bei der Interpretation<br />

<strong>von</strong> Kunst, unverzichtbar ist, ist er im Rahmen der empirischen Evaluation wenig<br />

akzeptiert. Auf nicht quantitativ erfasste Hinweise, wie beispielsweise Optimierungsmöglichkeiten,<br />

sollte deswegen aber nicht verzichtet werden. Meinungen und Vorschläge sollten<br />

lediglich als solche gekennzeichnet werden, um das Mißverständnis, dass diese auf objektiven<br />

Fakten beruhen würden, zu vermeiden. [WoT03]<br />

Datenanalyse mit unvollständigen Datensätzen<br />

Gerade bei sozialwissenschaftlichen Datensätzen, sind unvollständige Datensätze ein Problem.<br />

Üblicherweise fehlen dabei zwischen 1 und 10% der Daten einer Variablen (Datenfehler,<br />

weiß-nicht-Antworten oder explizite Verweigerung).<br />

Durch die Überprüfung wodurch das Fehlen der Daten zu erklären ist, kann man die Daten<br />

eventuell ersetzten. Man unterscheidet zwischen:<br />

• MCAR: “missing completely at random”: bedeutet, dass Daten völlig zufällig fehlen;<br />

• MAR: “missing at random”: Das Fehlen <strong>von</strong> Daten auf einer Variable kann durch<br />

eine andere Variablen erklärt werden. Fehlende Parameter können geschätzt werden<br />

(Bsp.: Einkommen: fehlt umso häufiger, je höher es ist, und hängt auch mit der<br />

Bildung des Befragten zusammen);<br />

• MNAR: “missing not at random”: Fehlen <strong>von</strong> Daten kann nur durch die Variable<br />

selbst, bei der sie fehlen, vorhergesagt werden;<br />

Die übliche Behandlung durch Ignorieren des Problems basiert häufig auf einer falschen<br />

MCAR-Annahme. Bei dem Verfahren der “multiplen Amputationen” werden fehlende<br />

Werte “unter Annahme eines Prozesses, der zum Fehlen der Daten führte, mehrfach geschätzt<br />

(typischerweise fünfmal), wobei die geschätzten Werte aus einer geeigneten Wahrscheinlichkeitsverteilung<br />

stammen.” [SHE05] Alle so vervollständigten Datensätze werden<br />

dann mit Standardmethoden analysiert und die Ergebnisse kombiniert.<br />

Für einen tieferen Einstieg in die Materie der “empirischen Sozialforschung” sei auf die<br />

Quellen [SHE05], [Atte95], [JDK65] und [WoT03] verwiesen. Für praxisnahe Informationen<br />

ist die Internetpräsenz <strong>von</strong> [Stan1] zu empfehlen (URL: http://arbeitsblaetter.stangltaller.at/).<br />

Werner Stangl ist Professor für Psychologie und Pädagogik an der Sozial- und<br />

Wirtschaftswissenschaftlichen Fakultät der Johannes Kepler Universität Linz. Auf seinen<br />

Internetseiten sind zahlreiche psychologische Fachtexte veröffentlicht, die auch den Bereich<br />

“empirische Forschungsmethoden” abdecken.<br />

Für weitere Informationen zu Forschungs- und Umfragemethodik sind die Seiten <strong>von</strong><br />

[Hoepf1] zu empfehlen (URL: http://www.mypage.bluewin.ch/hoepf/fhtop/). François Höpflinger<br />

ist Professor am soziologischen Institut der Universität Zürich. Seine Seiten bieten<br />

unter anderem Unterlagen zu methodischen Fragen sozialwissenschaftlicher Forschung.<br />

64


5. Einführung in die empirische<br />

Softwaretechnik<br />

Die vorangehenden Kapitel haben einen Einblick in die Softwaretechnik (Kapitel 3) und<br />

den in Aufbau sowie die Methodik <strong>von</strong> Untersuchungen in der empirischen Sozialforschung<br />

(Kapitel 4) gegeben. Das vorliegende Kapitel stellt nun die Verbindung zwischen diesen<br />

beiden Themenkomplexen dar. Es beschreibt den Einsatz <strong>von</strong> empirischen Methoden in<br />

der Softwaretechnik.<br />

Neben dem Vorgehen bei empirischen Untersuchungen in der Softwaretechnik sollen die<br />

üblichen Methoden und Untersuchungsformen, die auch schon aus der empirischen Sozialforschung<br />

bekannt sind, im Hinblick auf die Anforderungen in der Softwaretechnik,<br />

betrachtet werden. Des weiteren soll auch noch ein Überblick über Methoden <strong>zur</strong> Evaluation<br />

<strong>von</strong> Software gegeben werden.<br />

5.1. Grundlagen<br />

Der Begriff “Empirie” ist, wie schon zuvor erwähnt, aus dem Griechischen und steht für<br />

“Erfahrung”. Es beschreibt somit etwas, dass “aus der Erfahrung, Beobachtung oder einem<br />

Experiment” entnommen ist. Unter “empirischer Softwaretechnik” versteht man demzufolge<br />

den Einsatz <strong>von</strong> empirischen Methoden bei der Softwareentwicklung. Vorher<br />

aufgestellte Hypothesen werden durch Experimente, Fallstudien usw. überprüft. [BWF04]<br />

Die empirische Softwaretechnik erkundet Phänomene bei der Erstellung und dem Einsatz<br />

<strong>von</strong> Software und bewertet Werkzeuge und Methoden <strong>zur</strong> Software-Erstellung.<br />

Außerdem testet sie Theorien über Software und ihre Erstellung und bewertet Eigenschaften<br />

<strong>von</strong> Software. Fallstudien finden im Rahmen eines Projektes häufig Anwendung.<br />

[TiM06]<br />

Nach einer Einführung in den Aufbau empirischer Studien in der Informatik, oder genauer<br />

gesagt in der Softwaretechnik, werden vier in der Softwaretechnik schon übliche Methoden<br />

näher betrachtet. Dies sind Experimente, Fallstudien, Umfragen und Metastudien.<br />

Der Aufbau <strong>von</strong> empirischen Untersuchungen in der Softwaretechnik ist im Grunde genommen<br />

identisch mit dem in der Sozialforschung. Man unterscheidet i.a. sechs Phasen:<br />

1. Definition<br />

2. Planung und Design<br />

3. Implementierung und Vorbereitung<br />

4. Durchführung der Studie<br />

65


5. <strong>Analyse</strong> der gewonnenen Daten<br />

6. Aufbereitung und Interpretation der Daten sowie Veröffentlichung der Studie<br />

In der Phase der Definition werden die Ziele der Studie identifiziert und präzise definiert.<br />

Es sollte nicht nur der geplante Test beschrieben werden, sondern auch die Theorie, die<br />

der zu testenden Hypothese zugrunde liegt. Nur so wird durch das Experiment auch neues<br />

Wissen generiert.<br />

Während der Planung und dem Design der Untersuchung werden die Variablen, Prozeduren,<br />

Kontrollmechanismen und Auswahlverfahren für die zufällige Gruppenbildung (falls<br />

dies erforderlich ist) festgelegt. Den Anfang dieser Phase bildet die Festlegung der Population,<br />

aus der die Probanden ausgewählt werden sollen. Danach wird der Prozess festgelegt,<br />

durch den die Subjekte/Objekte ihrem jeweiligen Treatment zugeordnet werden sollen.<br />

Bei der Implementierung und Vorbereitung werden alle organisatorischen Maßnahmen<br />

getroffen und die benötigten Materialien vorbereitet. Dies kann beispielsweise die Schulung<br />

<strong>von</strong> Interviewern und/oder auch die Konstruktion eines Fragebogens sein.<br />

Der nächste Schritt ist dann die Durchführung der Studie, bei der alle außergewöhnlichen<br />

Vorfälle protokolliert werden und alle verwendeten Materialien gesammelt werden müssen.<br />

Die Genauigkeit und Vollständigkeit der Datenerfassung muss sichergestellt werden. Ursachen<br />

für Nicht-Antworten müssen ebenso festgehalten werden, wie auch die Anzahl der<br />

Abbrecher bei Experimenten und die Gründe dafür.<br />

In der <strong>Analyse</strong>-Phase werden die gewonnenen Daten organisiert und statistischen Verfahren<br />

<strong>zur</strong> Untersuchung der Daten ausgewählt. Ausreißer werden untersucht und es erfolgt<br />

eine Auswertung und Interpretation der gewonnenen Ergebnisse.<br />

Der letzte Schritt ist die Aufbereitung, die Interpretation der Daten und die Veröffentlichung<br />

der Studie. Wenn möglich, sollten dabei auch die Rohdaten veröffentlicht werden.<br />

[BWF04]<br />

5.2. Untersuchungsformen<br />

Im Folgenden sollen nun verschiedene empirische Forschungsmethoden, die in der Softwaretechnik<br />

eingesetzt werden können, beschrieben werden. Diese Strategien sind:<br />

• Experiment,<br />

• Fallstudie,<br />

• Umfrage und<br />

• Metastudie<br />

Besonderes Augenmerk sei dabei auf die Methoden des Experiments und der Umfrage<br />

gelenkt, da diese in besonderem Maße für die im Rahmen dieser Arbeit durchgeführte Untersuchung<br />

relevant sind (siehe die nachfolgende “Anwendung der Methodik” in Teil III).<br />

Nach einem kurzen Überblick über die verschiedenen Methoden, werden die sechs Phasen,<br />

die man während der Durchführung der Untersuchung durchläuft, beschrieben. Das Vorgehen<br />

richtet sich nach den in [BWF04] beschriebenen Grundlagen. Selbstverständlich muss<br />

der gewählte Versuchsaufbau erlauben, die gestellte Forschungsfrage auch zu beantworten.<br />

66


5.2.1. Experiment<br />

Ein Experiment ist “eine detaillierte und formale Untersuchung, die unter kontrollierten<br />

Bedingungen durchgeführt wird” [BWF04]. Dadurch ist es möglich, alle relevanten Variablen<br />

direkt und präzise zu verändern. Man unterscheidet zwischen Feldexperimenten und<br />

kontrollierten (oder auch Labor-) Experimenten.<br />

Das Feldexperiment wird in einer realen Umgebung durchgeführt. Die Hauptkennzeichen<br />

dieser Art <strong>von</strong> Experiment sind, dass die unabhängigen Variablen manipuliert (also<br />

verändert) und die abhängigen Variablen beobachtet und gemessen werden. Störvariablen<br />

werden so weit wie möglich konstant gehalten oder ihre Auswirkung neutralisiert (interne<br />

Gültigkeit). So können die Wirkungen der unabhängigen Variablen auf die abhängigen<br />

Variablen genau untersucht werden. Feldexperimente finden vor allem dann Anwendung,<br />

wenn die interessierende Situation im Labor nicht nachgestellt werden kann. Sie haben den<br />

Vorteil, dass sie aufgrund ihrer Realitätsnähe realistische Ergebnisse liefern. Leider geht<br />

dies mit einem nur sehr schwer zu erfassenden Umfeld und hohen Kosten einher. Spezialfall<br />

der Feldexperimente ist die so genannte “Software-Archäologie”. Dabei handelt es sich um<br />

ein eingriffsfreies Feldexperiment, da alle Beobachtungen erst im Nachhinein erfolgen. Die<br />

<strong>Analyse</strong> basiert auf Daten, die ein Projekt ohnehin gesammelt hat, wie etwa die Versionsdatenbank,<br />

Fehlermeldungen oder Bearbeitungszeiten. Problematisch ist allerdings die<br />

Qualität und die Vollständigkeit der Daten. [TiM06]<br />

Ein kontrolliertes Experiment ist ein Experiment, bei dem die Beobachtungen verschiedener<br />

Experimente miteinander verglichen werden. Diese verschiedenen Experimente<br />

finden immer unter den gleichen Bedingungen statt und unterscheiden sich lediglich durch<br />

eine veränderte Variable. Die Auswirkungen dieser einen manipulierten Variablen (Ursache-<br />

Wirkung-Beziehung) können so genau analysiert werden. [TiM06]<br />

Abbildung 5.1.: Unabhängige und abhängige Variablen [Muel06]<br />

Den Beginn eines Experimentes stellt die Definitions-Phase dar. In dieser wird das Ziel<br />

einer Untersuchung festgelegt. Hierzu kann eine Liste <strong>von</strong> vorläufigen Hypothesen aufgestellt<br />

werden. Darüber hinaus wird der Kontext der Studie definiert. Das Ziel wird dann<br />

beispielsweise mittels der GQM-Technik (“Goal-Question-Metric”) genauer definiert. Diese,<br />

ursprünglich am “NASA Goddard Space Flight Center” <strong>von</strong> Victor Basili (siehe [BaWe84]<br />

und [BaSe85]) entwickelte Technik wurde eingesetzt, um Ziele quantitativ zu definieren und<br />

ihren Fortschritt zu beobachten. Heute hat sich diese Technik, in modifizierter Form, auch<br />

im IT-Umfeld durchgesetzt. Das grundsätzliche Vorgehen ist dabei: für jedes Ziel, welches<br />

man erreichen will, wird eine Reihe <strong>von</strong> Fragen formuliert, die ein genaueres Verständnis<br />

ermöglichen, wann ein Ziel erreicht ist. Zu jeder dieser Fragen werden dann Metriken bestimmt,<br />

Werte anhand derer die Fragen beantwortet werden können. [BaSL98]<br />

67


Während der Design-Phase muss zunächst einmal das Design ausgewählt werden, dass<br />

den Sinn und Zweck des Experimentes optimal erfüllt. Unabhängige und abhängige Variablen<br />

müssen identifiziert werden. Die unabhängigen Variablen werden im späteren Verlauf<br />

des Experimentes bewusst verändert und führen dann zu Abweichungen an den abhängigen<br />

Variablen, die gemessen werden (siehe Abbildung 5.1).<br />

Die Einschränkungen der Gültigkeit müssen ebenfalls berücksichtigt werden. Die interne<br />

Gültigkeit (auch interne Validität) hängt, wie schon zuvor erwähnt, <strong>von</strong> der kausalen Beziehung<br />

zwischen unabhängigen und abhängigen Variablen ab. Durch äußere Einflüsse, so<br />

genannte Störeffekte, kann diese verletzt werden. Mögliche Störeffekte sind Historie, Reifung,<br />

Selektion, Sterblichkeit, usw. Die externe Gültigkeit (auch externe Validität) gibt<br />

Auskunft über die Übertragbarkeit der Ergebnisse auf andere Gruppen <strong>von</strong> Personen. Faktoren,<br />

die diese einschränken können, sind Erfahrungen der Teilnehmer, das experimentelle<br />

Umfeld, die Dauer der Studie oder auch die Selektion der Subjekte. Für die Behandlung<br />

<strong>von</strong> Störeffekten kann folgendes Vorgehen empfohlen werden:<br />

1. Versuch der Vermeidung <strong>von</strong> Störeffekten<br />

2. Konstanthaltung für alle Subjekte<br />

3. Gleichmäßige Verteilung auf Gruppen [Muel06]<br />

Eine genauere Beschreibung dieser Methoden findet sich in der Einführung in die empirische<br />

Sozialforschung unter dem Abschnitt: “Techniken <strong>zur</strong> Kontrolle <strong>von</strong> Störfaktoren”<br />

(siehe Kapitel 4.4.1).<br />

Des Weiteren werden in der Design-Phase die Kriterien für potentielle Subjekte festgelegt.<br />

Dies beginnt bei der Definition der Grundgesamtheit und geht dann bis zum Verfahren,<br />

mit dem bei einer Teilerhebung eine Stichprobe gezogen wird. Zuletzt wird dann die Datenerhebungsmethode<br />

definiert. Grundsätzlich unterscheidet man hier zwischen Befragung,<br />

Beobachtung und Inhaltsanalyse. Für einen Überblick über die Auswahlverfahren und die<br />

Datenerhebungstechniken sei hier auf die gleichnamigen Teile des Kapitels “empirische Sozialforschung”<br />

verwiesen (siehe Kapitel 4.5 und Kapitel 4.6).<br />

Ziel der Implementierung ist die Vorbereitung aller Materialien, die nötig sind, um<br />

das Experiment durchführen zu können. Werkzeuge, die für das Experiment benötigt werden,<br />

sowie Tools <strong>zur</strong> Datenerfassung müssen vorbereitet werden oder, insofern noch nicht<br />

vorhanden, implementiert werden. Ebenso müssen die Aufgaben, die die Subjekte lösen<br />

müssen, so beschrieben werden, dass sie <strong>von</strong> allen Teilnehmern erledigt werden können.<br />

Wenn für bestimmte Aufgaben ein Training nötig sein sollte, muss auch dieses oder etwaige<br />

Pretests vorbereitet werden. Speziell im Fall des Einsatzes <strong>von</strong> Trainingseinheiten ist<br />

dabei wieder auf Störeffekte zu achten, wie beispielsweise ein Lerneffekt, der dabei entstehen<br />

und so die Ergebnisse verfälschen könnte.<br />

Da die gesamte Vorbereitungsphase sehr viel Zeit in Anspruch nimmt, empfiehlt es sich,<br />

auf bereits bestehende Materialien <strong>zur</strong>ückzugreifen. Neben einer Zeit- und Kostensenkung<br />

kann durch die Wiederverwendung meist auch die Qualität erhöht werden, da die Materialien<br />

so einem zweiten Test unterzogen werden. Zum Abschluss der Vorbereitungen<br />

sollte ein Pilotexperiment durchgeführt werden. Dieses Experiment in kleinem Maßstab<br />

soll sicherstellen, dass die Messinstrumente hinreichend genau und die Aufgaben bzw. die<br />

Materialien klar und verständlich sind. Wenn all diese Maßnahmen abgeschlossen sind,<br />

68


müssen die zu untersuchenden Subjekte ausgewählt werden. Dies geschieht mit den zuvor<br />

schon erwähnten Verfahren unter Berücksichtigung der Qualifikation der Subjekte für das<br />

Experiment.<br />

Anzumerken ist, dass die Phasen Design/Planung und Implementierung/Vorbereitung oft<br />

iterative Prozesse sind.<br />

Die nächste Phase ist die planmäßige Durchführung des Experimentes. Zunächst werden<br />

etwaige Vorexperimente oder auch Trainingseinheiten durchgeführt. Als nächstes findet<br />

dann das eigentliche Experiment statt. Alle Abweichungen vom ursprünglichen Plan<br />

müssen festgehalten werden. Ebenfalls müssen alle unvorhergesehenen Ereignisse (Unterbrechungen,<br />

Störungen, Ausfälle usw.) protokolliert werden.<br />

Durch einen auf den Vortest abgestimmten Nachtest kann drüber hinaus auch ein Feedback<br />

zu dem durchgeführten Experiment erlangt werden. Die Teilnehmer könne ihre Meinung zu<br />

der eigenen Leistung, der Qualität der Materialien und zu verbesserungswürdigen Punkten<br />

der Untersuchung nennen. Neben den quantitativen Ergebnissen erhält man so auch<br />

qualitative Erklärungen für die Ergebnisse. Bereits während der Durchführung sollten die<br />

gesammelten Daten hinsichtlich Vollständigkeit, Lesbarkeit und Konsistenz überprüft werden.<br />

Sämtliche in dieser Phase fehlenden Daten können relativ einfach, beispielsweise durch<br />

Rückfragen an die Probanden, ergänzt werden.<br />

Die erste Aktivität in der <strong>Analyse</strong>-Phase ist die Überprüfung der gewonnenen Daten<br />

hinsichtlich Konsistenz, Plausibilität und Gültigkeit. Des Weiteren werden die Daten gemäß<br />

den in den Kapiteln 4.7 und 4.8 beschriebenen Methoden vercoded und analysiert.<br />

Es werden also beschreibende Statistiken und Grafiken sowie eine <strong>Analyse</strong> der Ausreißer<br />

erstellt. Der wichtigste Teil dieser Phase ist die Bewertung der zu Beginn aufgestellten Hypothese.<br />

Darüber hinaus kann auch noch eine <strong>Analyse</strong> der Daten durchgeführt werden, die<br />

zusätzlich erhoben wurden und für die Überprüfung der Hypothese selbst nicht benötigt<br />

werden (siehe Kapitel 4.8).<br />

Den letzten Schritt stellt schließlich die Veröffentlichung der Daten dar. Ziel ist es hierbei,<br />

die gewonnenen Ergebnisse in der Art zu veröffentlichen, dass es anderen möglich<br />

ist, diese zu verstehen und das Experiment wiederholen zu können. Dadurch kann gezeigt<br />

werden, dass die Ergebnisse zu verallgemeinern sind und nicht nur für die untersuchte Population<br />

gültig sind.<br />

5.2.2. Fallstudie<br />

Eine Fallstudie ist eine “detaillierte Untersuchung eines einzelnen Falls oder mehrere zusammenhängender<br />

Fälle.” [BWF04] Es ist die genaue Beschreibung und <strong>Analyse</strong> eines<br />

Vorgangs, einer Organisation oder auch eines Ereignisses. Genutzt werden dafür verschiedenste<br />

Informationsquellen wie etwa Interviews, bestehende Dokumente oder Messungen.<br />

Zum Einsatz kommen Fallstudien bei der Illustration eines Werkzeugs, Machbarkeitsstudien<br />

oder bei der Abschätzung der Effizienz einer bestimmten Technik. Fallstudien sind<br />

zwar relativ einfach durchzuführen, ihre Ergebnisse sind dafür umso schwieriger zu verallgemeinern.<br />

[TiM06]<br />

69


In der Definitions-Phase wird, wie bei empirischen Studien üblich, das Ziel der Untersuchung<br />

definiert. Auch hier kann die aus dem Experiment bekannte GQM-Technik<br />

angewendet werden. Das Ziel <strong>von</strong> Fallstudien im Software Engineering ist meist die Feststellung<br />

der besseren <strong>von</strong> zwei Techniken.<br />

Bei der Design-Phase einer Fallstudie wird, wie auch bei einem Experiment, sich zunächst<br />

für ein Konzept entschieden und Variablen und ihre Beziehungen definiert. Dann werden<br />

Auswahlstrategien für die Selektion der Informationen, die dem Projekt zugrunde liegen<br />

sollen, festgelegt. Ebenso werden die Instrumente bestimmt, die <strong>zur</strong> Gewinnung der Daten<br />

verwendet werden sollen. Störeffekten, die dabei auftreten könnten, muss mit adäquaten<br />

Methoden entgegen gewirkt werden.<br />

Die Implementierung umfasst, neben den schon bekannten Vorbereitungen, die Erstellung<br />

eines Fallstudienplans. Dieser detaillierte Projektplan soll genaue Informationen zu<br />

allen Aktivitäten, Zeitpläne, Meilensteine und Verantwortlichkeiten enthalten.<br />

Die Durchführung beinhaltet, wie auch zuvor, die planmäßige Erhebung der Daten. Alle<br />

Änderungen und Abweichungen gegenüber dem ursprünglichen Plan müssen protokolliert<br />

werden.<br />

In der Phase der <strong>Analyse</strong> werden die gewonnenen Daten quantitativ und qualitativ untersucht.<br />

Bei der quantitativen Datenanalyse wird die Verteilung der Merkmale ermittelt, bei<br />

der qualitativen <strong>Analyse</strong> werden Schlussfolgerungen aus den zuvor ermittelten Ergebnisse<br />

gezogen.<br />

Den Abschluss stellt die Aufbereitung und Veröffentlichung in Form eines Berichtes dar.<br />

5.2.3. Umfrage<br />

Umfragen sind meist relativ breit angelegte Untersuchungen, bei denen “Informationen mit<br />

einem standardisierten Formular <strong>von</strong> einer Gruppe <strong>von</strong> Personen oder Projekten erfasst<br />

werden.” [BWF04] Durch Fragen an Repräsentanten einer bestimmten Zielgruppe werden<br />

Informationen gesammelt, die einen Einblick in den momentanen Zustand der Zielgruppe<br />

geben sollen. Repräsentanten vertreten die interessierende Zielgruppe durch entsprechende<br />

Merkmale oder Verhaltensweisen. Die Fragen werden entweder schriftlich (Fragebogen)<br />

oder mündlich (Interview) gestellt. Zu beachten ist bei dieser Art <strong>von</strong> Untersuchung allerdings,<br />

dass Antworten immer subjektiv und nur begrenzt zu überprüfen sind. Vorteilhaft<br />

sind die geringen Kosten, nachteilig die Verlässlichkeit der Ergebnisse. [TiM06]<br />

In der ersten Phase, der Definitions-Phase, wird zunächst das Thema des Surveys festgelegt.<br />

Nachdem die Fragestellung definiert ist, muss eine Literaturrecherche durchgeführt<br />

werden, um zu prüfen, ob eine Befragung überhaupt nötig ist. Falls nötig, können auch<br />

Experteninterviews für einen Überblick über den aktuellen Stand der Forschung auf dem<br />

interessierenden Gebiet eingesetzt werden. Diese Recherchen münden dann in die Feststellung<br />

des genauen Ziels der geplanten Befragung. Des Weiteren ist auch die Machbarkeit der<br />

Befragung zu untersuchen, also ob die Fragestellung der Studie auch tatsächlich durch eine<br />

Befragung beantwortet werden kann, oder ob ein Experiment oder eine Fallstudie nicht<br />

besser geeignet wäre.<br />

70


Nach der Definition der Zielsetzung folgt die Design-Phase. In dieser erfolgt die Operationalisierung<br />

des Studienziels. Dabei wird die Grundgesamtheit, was die Fragebögen<br />

abfragen und wie die Daten erhoben und interpretiert werden, definiert. Wie auch zuvor<br />

müssen dabei Störeffekte, die die Gültigkeit einschränken würden, beachtet werden.<br />

In der Phase der Vorbereitung werden die Fragebögen dann ausgearbeitet. Mit Hilfe<br />

<strong>von</strong> Testläufen können eventuelle Hürden, wie unverständliche Fragen, Mehrdeutigkeiten<br />

usw. behoben werden und kritische Fragen rechtzeitig ausgetauscht werden. Außerdem erfolgt<br />

die Schulung der Interviewer, falls solche eingesetzt werden, in dieser Phase.<br />

Ist dies abgeschlossen, folgt die Durchführung der Befragung. Die interessierenden Daten<br />

werden erhoben und verarbeitet. Je nachdem, ob hier der Fragbogen oder das Interview<br />

zum Einsatz kommt, müssen unterschiedliche Tätigkeiten ausgeführt werden. Fragebögen<br />

müssen eventuell verschickt und Daten der Befragten verwaltet werden. Die Rücklaufquote<br />

muss, falls zu niedrig, durch zusätzlichen Aufwand erhöht werden (siehe hierzu in<br />

Kapitel 4.6 “Datenerhebungstechniken” den Abschnitt “Durchführung einer schriftlichen<br />

Befragung”.) Im Fall eines Interviews müssen zunächst Termine mit den zu Befragenden<br />

vereinbart werden und die Befragung selbst durchgeführt werden. Dies sollte gemäß den<br />

in Kapitel 4.6 “Datenerhebungstechniken” im Abschnitt “mündliche Befragung” genannten<br />

Richtlinien geschehen. Das Ergebnis beider Arten der Befragungen (ob mündlich oder<br />

schriftlich) ist ein ausgefüllter Fragebogen, der im Folgenden dann vercoded und <strong>zur</strong> <strong>Analyse</strong><br />

vorbereitet werden muss (siehe auch Kapitel 4.7).<br />

Es existieren Werkzeuge, die die Phasen Durchführung, <strong>Analyse</strong> und Aufbereitung unterstützen.<br />

Dies sind beispielsweise “JMP” oder auch “MS Access”. Vor allem die Ergebnisse<br />

sind durch eine Visualisierung in grafischer Form am aussagekräftigsten. Programme die<br />

dies können, sind beispielsweise “Open Office” oder “MS Excel”.<br />

Die <strong>Analyse</strong> erfolgt dann in Form <strong>von</strong> Randauszählung, Subgruppenanalyse, usw. Für<br />

das genaue Vorgehen und die verschiedenen Techniken sei auf das Kapitel 4.8 “Datenanalyse”<br />

verwiesen.<br />

Der letzte Schritt ist, wie auch bei den vorherigen Strategien, die Veröffentlichung.<br />

5.2.4. Metastudie<br />

Der Vollständigkeit halber soll auch noch kurz auf die Metastudie eingegangen werden. Die<br />

Metastudie ist eine Studie über Studien. Bei dieser werden mehrere, bereits vorhandener<br />

Studien zu einem Thema ausgewertet. Das Material wird dabei der Forschungsliteratur<br />

entnommen und zusammengefasst, sowie einer umfangreichen <strong>Analyse</strong> unterzogen. Vorteil<br />

einer Metastudie ist natürlich der vergleichsweise geringe Aufwand, um eine Studie dieser<br />

Art durchzuführen. Problematisch ist, dass entsprechende empirische Studien schon vorhanden<br />

sein müssen. Je nach Themengebiet kann das schwierig sein. Außerdem gibt es<br />

keine Möglichkeit Lücken und Mängel in den vorhandenen Studien auszugleichen (siehe<br />

auch Kapitel 4.6 Abschnitt “Inhaltsanalyse”). [TiM06]<br />

71


5.3. Methoden <strong>zur</strong> Evaluation <strong>von</strong> Software<br />

Da es in der folgenden empirischen Untersuchung (siehe Teil III) um die Evaluation, also<br />

Bewertung <strong>von</strong> Software geht, sollen einige Punkte dazu genauer betrachtet werden. Deswegen<br />

werden in diesem Abschnitt Methoden vorgestellt, die gerade im Hinblick auf die<br />

Bewertung <strong>von</strong> Software <strong>von</strong> Vorteil sind.<br />

Evaluation ist definiert als Prozeß “der Beurteilung des Wertes eines Produktes, Prozesses<br />

oder eines Programmes, was nicht notwendigerweise systematische Verfahren oder datengestützte<br />

Beweise <strong>zur</strong> Untermauerung einer Beurteilung erfordert.” [WoT03]<br />

Neben der technischen Leistungsfähigkeit stellt die Anpassung <strong>von</strong> Systemen an den sie<br />

benutzenden Menschen eine entscheidende Gestaltungsaufgabe dar. Bei der Umsetzung des<br />

Gestaltungszieles “Benutzerfreundlichkeit” bzw. “Usability” helfen zwar internationale<br />

Standards, in der Praxis sind aber Evaluationsmaßnahmen (in verschiedenen Entwicklungsstadien)<br />

unverzichtbar, um hochwertige Benutzeroberflächen zu gestalten. Dabei wird<br />

heute die Evaluation “hauptsächlich als Mittel der Informationssammlung mit gestaltungsunterstützender<br />

Rolle innerhalb eines iterativen Software-Entwicklungsprozesses gesehen”<br />

[Hegn03].<br />

Bei der Beurteilung <strong>von</strong> Software kann man zwischen zwei Arten der Evaluation differenzieren:<br />

Formative Evaluation ist die Bewertung <strong>von</strong> Software im Laufe ihres Entwicklungsprozesses.<br />

Ziel ist die Optimierung der Nutzungsqualität noch vor Abschluss der Entwicklungsaktivitäten.<br />

Hierfür werden in erster Linie qualitative Daten über die Schwächen eines<br />

Produktprototyps gesammelt (beispielsweise durch “Usability-Tests”). Aus den Ergebnissen<br />

werden dann Maßnahmen <strong>zur</strong> Verbesserung der Benutzbarkeit abgeleitet.<br />

Die Summative Evaluation ist die “<strong>Analyse</strong> und Bewertung des Softwareentwicklungsprozesses<br />

hinsichtlich der vorher formulierten Evaluationskriterien” [Hegn03]. Beispielsweise<br />

werden mehrere Software-Applikationen hinsichtlich ihrer Qualität miteinander verglichen.<br />

Daraus gewonnene Erkenntnisse finden in Nachfolgeprodukten Anwendung. Aufgestellte<br />

Hypothesen werden meist mit quantitativen Verfahren getestet (Bsp.: Fragebögen).<br />

[Hegn03].<br />

Die Ziele der Evaluation können klassifiziert werden nach:<br />

• Vergleichende Evaluation (Which is better)<br />

• Bewertende Evaluation (How good)<br />

• Analysierende Evaluation (Why bad)<br />

Bei der vergleichenden Evaluation werden mindestens zwei Systeme miteinander verglichen.<br />

Aufgrund der subjektiven Zufriedenheit der Benutzer oder objektiven Leistungsmessung<br />

wird das Beste der Systeme bestimmt (siehe auch [NiTa94]).<br />

Bei der bewertenden Evaluation wird eine “bestimmte oder geforderte Systemeigenschaft<br />

geprüft” [Hegn03].<br />

Die analysierende Evaluation hat zum Ziel, Hinweise auf Schwachstellen zu erhalten,<br />

72


um so direkte Gestaltungsvorschläge zu liefern. Potentielle Benutzer testen dazu ein System,<br />

wie es auch normalerweise zum Einsatz kommen würde. [Hegn03]<br />

Zur Durchführung der Evaluation dienen die schon aus der empirischen Sozialforschung<br />

bekannten empirischen Methoden (siehe Kapitel 4). Objektive Methoden ermitteln “harte”<br />

Daten und werden dann eingesetzt, wenn Bearbeitungszeiten oder auch Fehlerzahlen<br />

gemessen werden sollen. Zur Ermittelung wird die Beobachtung eingesetzt.<br />

Subjektive Methoden dienen, bei der Evaluation <strong>von</strong> Software, in erster Linie <strong>zur</strong> Bewertung<br />

der Benutzerschnittstelle durch den Benutzer. Die Befragung kann mit Fragebögen<br />

oder auch durch Interviews erfolgen. Gerade bei der Nutzung <strong>von</strong> Fragebögen kann sie mit<br />

verhältnismäßig geringem Aufwand durchgeführt werden. Die Akzeptanz eines Systems<br />

lässt sich so optimal feststellen. [Hegn03]<br />

Bei diesen Ergonomieprüfungen können Experten eingesetzt werden, die eine umfassende<br />

Inspektion des Systems vollziehen. Experten sind aber keine wirklichen Benutzer. Deswegen<br />

bieten sich nutzerbezogene Prüfungen an, wie Usability-Tests oder Befragungen.<br />

Diese finden anhand <strong>von</strong> Prüfaufgaben mit “echten” Benutzern statt. [Hegn03]<br />

Usability-Tests<br />

Der Usability-Test dient der Simulation des Praxisfalls. Eine gestellte Aufgabe soll dabei<br />

<strong>von</strong> Versuchspersonen mit dem zu untersuchenden System oder Werkzeug gelöst werden.<br />

Ein Versuchsleiter ist anwesend, um im Notfall eingreifen zu können. Die Lösung erfolgt<br />

normalerweise aber im Alleingang. Insoweit die Arbeitsumgebung wichtig ist, sollte der<br />

Test auch in der entsprechenden durchgeführt werden. Um viele wesentliche Fehler zu entdecken,<br />

reichen teilweise schon kleine Stichproben, <strong>von</strong> 3-6 Probanden, aus.<br />

Maße für die Benutzbarkeit (Usability) sind: Effektivität, Effizienz und Zufriedenheit.<br />

Die Effektivität ist gegeben, wenn die benötigten Ergebnisse einwandfrei erreicht werden.<br />

Um dies zu erfassen, müssen der Umfang (Angabe in Prozent), in dem die Aufgabe erfüllt<br />

wurde, und die Qualität des Ergebnisses miteinander in Verbindung gesetzt werden. Gemäß<br />

[Hegn03] resultiert daraus die Aufgabeneffektivität. Die Formel dafür ist [Hegn03]:<br />

(Umfang ∗ Qualitaet)%<br />

Aufgabeneffektivitaet =<br />

100<br />

Die Effizienz beschreibt, ob ein Werkzeug die Arbeit auch erleichtert. Mit ihrer Hilfe kann<br />

bestimmt werden, ob ein bestimmtes Werkzeug auch für eine Zielgruppe geeignet ist und<br />

eine Unterstützung <strong>zur</strong> Erfüllung einer bestimmten Aufgabe darstellt. Hierzu werden die<br />

Effektivität, und die Zeit, die <strong>zur</strong> Lösung der Aufgabe benötigt wurde, miteinander in Verbindung<br />

gesetzt. Daraus resultiert die Aufgabeneffizienz [Hegn03]:<br />

Aufgabeneffizienz = Effektivitaet<br />

Zeit<br />

Die Zufriedenheit misst schließlich die subjektive Einstellung der Benutzer im Hinblick<br />

auf das System. “Diese Größe ist sehr bedeutungsvoll, da das subjektive Empfinden des Benutzers<br />

oft entscheidend für die Akzeptanz eines Systems ist” [Hegn03]. Gemessen wird sie<br />

in der Regel durch Fragebögen oder Interviews. Neben geschlossenen Fragen können auch<br />

73


offene Fragen eingesetzt werden, um die Zufriedenheit zu erfassen. Den Benutzern soll dazu<br />

genügend Platz gegen Ende des Fragebogens eingeräumt werden, um ihre Eindrücke<br />

beschreiben zu können. Vorteile des Fragebogens sind in erster Linie, dass er standardisiert<br />

ist, d.h. für alle Befragten gleiche Bedingungen vorliegen, und dass mögliche Interviewerfehler<br />

ausgeschlossen werden. Nachteilig wirken sich unvollständige Daten und mangelnde<br />

Flexibilität aus. Letzterem kann aber durch offene Fragestellungen entgegen gewirkt werden.<br />

Für eine vollständige Erfassung der Zufriedenheit empfiehlt es sich außerdem die Körpersprache<br />

der Probanden während der Durchführung des Tests zu beobachten und auszuwerten.<br />

[Hegn03]<br />

Zum Umgang mit den Versuchspersonen empfiehlt [Hegn03], sich an folgendem Vorgehen<br />

zu orientieren:<br />

• Begrüßung der Versuchsperson und, falls nötig, Mitteilen <strong>von</strong> Informationen über die<br />

Umgebung (Toiletten, Ausgänge, etc).<br />

• Erklärung <strong>von</strong> Ziel und Zweck des Tests. Insbesondere sollte hervorgehoben werden,<br />

dass “das System und nicht die Versuchsperson getestet werden soll” [Hegn03].<br />

Erläuterung der eingesetzten Methoden (Fragebogen usw.).<br />

• Einführung in die eigentliche Aufgabe.<br />

• Rückfragen der Benutzer ermitteln und beantworten.<br />

• Durchführung der eigentlichen Aufgabe.<br />

• Nachfragen, ob spezielle Probleme aufgetreten sind.<br />

• Nach Beendigung Danksagung an alle Teilnehmer.<br />

Alle weiteren Aspekte, wie Definition des Untersuchungsziels, Bestimmung der Versuchpersonen,<br />

Bestimmung der Testumgebung, Methoden der Befragung, Auswahl der Variablen,<br />

Kontrolle der Störfaktoren, Durchführung des Tests, Aufbereitung der Daten und <strong>Analyse</strong><br />

der Daten sind die aus der empirischen Sozialforschung (siehe Kapitel 4) bekannten Methoden.<br />

Für weitere Methoden sei auf [Hegn03] verwiesen. Für zusätzliche Gesichtspunkte der Usability<br />

sei auf [NiTa94] Bezug genommen.<br />

74


Teil III.<br />

Anwendung der Methodik<br />

75


6. Evaluation <strong>von</strong> <strong>Werkzeugen</strong> <strong>zur</strong><br />

<strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

Im Folgenden wird nun ein konkretes Experiment beschrieben, das die zuvor erarbeitete<br />

Methodik benutzt. Hierzu werden die in den Kapiteln 3, 4 und 5 erarbeiteten Grundlagen<br />

herangezogen. Empirische Methoden werden genutzt, um verschiedene Werkzeuge <strong>zur</strong><br />

<strong>konzeptionellen</strong> <strong>Modellierung</strong> zu untersuchen.<br />

Das vorliegende Kapitel gliedert sich dabei in sechs Abschnitte.<br />

Die erste Phase (Kapitel 6.1) ist die Definitionsphase, in der die Ziele der Untersuchung<br />

festgelegt werden.<br />

In der Phase der Planung (Kapitel 6.2) werden Untersuchungsform, Variablen und die<br />

Auswahl der Untersuchungsobjekte bestimmt.<br />

Die dritte Phase (Kapitel 6.3) dient der Implementierung der Materialien, die <strong>zur</strong> Durchführung<br />

der Untersuchung benötigt werden.<br />

Danach erfolgt die Erhebung der Daten (Kapitel 6.4). Die theoretische Durchführung und<br />

der tatsächliche Ablauf der Befragung wird hier dokumentiert.<br />

Die Datenerfassung (Kapitel 6.5) dient der Aufbereitung und Strukturierung der Daten<br />

für die folgende <strong>Analyse</strong>.<br />

Die letzte Phase stellt die <strong>Analyse</strong> der Daten dar (Kapitel 6.6). Hierbei werden die Ergebnisse<br />

interpretiert und daraus Anforderungen an ein Werkzeug für die konzeptionelle<br />

<strong>Modellierung</strong> ermittelt.<br />

6.1. Ziel der Untersuchung<br />

Das übergeordnete Ziel dieser Untersuchung ist die Verbesserung der Softwaretechnik-Lehre<br />

durch ein Werkzeug, welches optimale Unterstützung bei der <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

bietet. Hierzu werden die Ergebnisse der <strong>Analyse</strong> <strong>von</strong> vier bestehenden <strong>Werkzeugen</strong> verwendet,<br />

um Anforderungen an ein neues Werkzeug zu formulieren.<br />

6.1.1. Kontext der Studie<br />

Wie bereits in Kapitel 3.1 beschrieben, wird in der Softwaretechnik-Lehre der Aufbau<br />

komplexer Softwaresysteme vermittelt. Dies geschieht meist unter Verwendung der <strong>Modellierung</strong>ssprache<br />

UML (siehe Kapitel 3.2). Ein wichtiger Aspekt in der Anfangsphase der<br />

Lösung eines Problems ist die <strong>Modellierung</strong> eines groben Entwurfs. Aus diesen <strong>konzeptionellen</strong><br />

Modellen kristallisiert sich dann ein Lösungskonzept heraus (siehe Kapitel 3.4).<br />

Um Studenten die Fähigkeiten <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> zu vermitteln, werden im<br />

76


Rahmen der Übung zu Softwaretechnik-Vorlesungen Aufgaben über Entwurfsmuster (siehe<br />

Kapitel 3.3) gestellt. Diese sollen die Studenten in Form eines <strong>konzeptionellen</strong> Modells<br />

lösen. Bei der Korrektur der Lösungen liegt dabei das Hauptaugenmerk auf die Konzeption.<br />

Von untergeordneter Bedeutung sind die vollständige und fehlerlose Spezifikation <strong>von</strong><br />

Attributen und Methoden.<br />

Als Werkzeug um diese Aufgaben zu erfüllen, sind verschiedenste Eingabemethoden denkbar<br />

(siehe Kapitel 3.5 bis Kapitel 3.7). Dies beginnt bei Papier und Stift und geht bis zu<br />

Tablet PCs. Auch sind Grafikprogramme oder CASE-Tools, die für den Einsatz mit UML<br />

konzipiert sind, vorstellbar.<br />

Wenn es nun aber darum geht, Aufgaben in großen Vorlesungen mit hunderten <strong>von</strong> Studenten<br />

lösen zu lassen, wird ein Werkzeug benötigt, dass zugleich einfach wie Papier und Stift<br />

ist und über die Funktionen verfügt, wie sie ein CASE-Tool bereitstellt. Dieser Bereich der<br />

<strong>konzeptionellen</strong> <strong>Modellierung</strong> wurde bisher vernachlässigt, weshalb für den akademischen<br />

Bereich adäquate Werkzeuge nicht verfügbar sind.<br />

Deshalb wurde dieses Experiment durchgeführt, in dem Studenten eine Aufgabe <strong>zur</strong> <strong>konzeptionellen</strong><br />

<strong>Modellierung</strong> mit den Eingabemethoden Papier und Stift, Grafikprogramm,<br />

CASE-Tool oder Tablet-PC lösen sollten, um die Vor- und Nachteile dieser Eingabemethoden<br />

zu ermitteln.<br />

Das Experiment fand im Rahmen der Vorlesung: “Software Engineering 1”, gehalten <strong>von</strong><br />

Professor B. Brügge an der TU München im Wintersemester 2005/2006, statt. Neben<br />

der Motivation der Studierenden sollte deren Meinung zu unterschiedlichen Lehrmethoden<br />

bzw. <strong>Werkzeugen</strong> für den Lösungsentwurf erfasst werden. Die Studenten haben nach Abschluss<br />

der Aufgabe einen Fragebogen ausgefüllt, in dem sie die Eingabemethode, die sie<br />

<strong>zur</strong> <strong>konzeptionellen</strong> Lösung der Aufgabe eingesetzt haben, nach verschiedenen Kriterien<br />

bewertet haben. Aus den Ergebnissen dieser Bewertungen wurden die Vor- und Nachteile<br />

der einzelnen Methoden ermittelt und Anforderungen für ein Werkzeug abgeleitet, das sich<br />

besonders für diese Art der <strong>Modellierung</strong> eignet. Die Durchführung erfolgte in der Vorlesung<br />

vom 13.12.2005 und in der Übung vom 15.12.2005.<br />

6.1.2. Hypothese<br />

Bei diesem Experiment wurden Papier und Stift, Grafikprogramme, CASE-Werkzeuge und<br />

Tablet PCs hinsichtlich ihrer Eignung für die konzeptionelle <strong>Modellierung</strong> untersucht. Dabei<br />

wurden folgende Ergebnisse erwartet:<br />

• Es ist zu vermuten, dass gerade wenn es um die ersten Ideen geht, keines der Werkzeuge<br />

diesen Prozess so gut unterstützt wie Papier und Stift. Da diese Hilfsmittel<br />

<strong>von</strong> jedem ohne weiteres benutzbar und darüber hinaus nahezu immer und überall<br />

verfügbar sind, kann keines der anderen Werkzeuge es bei der Intuitivität und<br />

Leichtigkeit der Benutzung übertreffen.<br />

• Gleich an zweiter Stelle, in Bezug auf Usability und Unterstützung im Lösungsprozess,<br />

ist der Tablet PC zu erwarten, da er zusätzlich zu der <strong>von</strong> Papier und Stift<br />

77


ekannten Eingabemethode noch die durch den Computer ermöglichten Modifikationsfunktionen<br />

bereitstellt.<br />

• CASE-Werkzeuge werden voraussichtlich im Mittelfeld abschneiden. Auch wenn sie<br />

gerade in Bezug auf UML die “besten” Funktionen bieten, können die Komplexität<br />

und die starre Bindung an die Regeln <strong>von</strong> UML anfänglich hinderlich bei der<br />

<strong>konzeptionellen</strong> <strong>Modellierung</strong> sein.<br />

• Die Grafikprogramme werden mit aller Wahrscheinlichkeit das Schlusslicht bilden. Da<br />

sie nicht für diese Art des Zeichnens konzipiert sind, werden sie <strong>von</strong> den Studenten als<br />

eher hinderlich und nicht unterstützend in der <strong>konzeptionellen</strong> <strong>Modellierung</strong> bewertet<br />

werden.<br />

• Da jedes der Werkzeuge Vorteile wie Nachteile hat, ist eventuell durch eine Kombination<br />

der positiven Aspekte die Skizzierung einer neuen Werkzeuglösung möglich.<br />

Diese Erwartungen zusammenfassend wurde, bezogen auf die Lösung <strong>von</strong> Aufgaben <strong>zur</strong><br />

<strong>konzeptionellen</strong> <strong>Modellierung</strong> im Rahmen einer Softwaretechnik-Vorlesung, folgende Hypothese<br />

aufgestellt:<br />

H1: Der Tablet PC bietet nach der Eingabemethode Papier und Stift die beste<br />

Unterstützung für die konzeptionelle <strong>Modellierung</strong>. Der Tablet PC wird<br />

besser abschneiden als die CASE-Tools, die ihrerseits wiederum besser <strong>zur</strong> <strong>konzeptionellen</strong><br />

<strong>Modellierung</strong> geeignet sind als die Grafikprogramme.<br />

6.2. Design<br />

Um die vorstehende Hypothese zu überprüfen, war es notwendig, ein Design zu wählen,<br />

welches genau dazu im Stande ist. Hierzu wurden zunächst die Untersuchungsform festgelegt<br />

und die Methoden bestimmt, die <strong>zur</strong> Erhebung der Daten verwendet werden sollten.<br />

Als nächstes wurden die unabhängigen und die abhängigen Variablen bestimmt. Durch<br />

die Auswahl der Untersuchungsobjekte und die Identifikation <strong>von</strong> möglichen Störeffekten<br />

waren dann Aussagen über die Validität der Untersuchung möglich.<br />

6.2.1. Untersuchungsform<br />

Die Untersuchung erfolgte in Form eines Experimentes mit anschließender Umfrage.<br />

Als Technik der Datenerhebung diente dabei in gewissem Umfang die Beobachtung, in<br />

erster Linie aber die Befragung der Probanden.<br />

Das Experiment erlaubte die Veränderung der relevanten Variablen unter kontrollierten<br />

Bedingungen. Etwaige Probleme konnten dabei direkt beobachtet werden. Genauer gesagt<br />

handelte es sich bei diesem Experiment um ein Feldexperiment, da es in der “realen<br />

Umgebung” der Befragten, also im Hörsaal, der auch normalerweise der Übung diente,<br />

durchgeführt wurde. Aufgrund der Realitätsnähe waren so realistische Ergebnisse zu erwarten<br />

gewesen. Darüber hinaus war es sogar einem Laborexperiment sehr ähnlich, da<br />

die Örtlichkeit relativ abgeschlossen war und sich so Störeffekte leicht kontrollieren ließen<br />

78


(siehe Kapitel 6.2.4). So war es möglich, die Vorteile beider Arten <strong>von</strong> Experiment (Laborund<br />

Feldexperiment) bei dieser Untersuchung zu nutzen.<br />

Im Experiment wurden die Studenten in vier Gruppen eingeteilt. Jeder Gruppe wurde eine<br />

der Eingabemethoden Papier und Stift, CASE-Tool, Grafikprogramm oder Tablet PC<br />

zugewiesen, um dann eine Aufgabe <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> zu lösen.<br />

An dieses Experiment schloss eine Umfrage an, in der die Auswirkungen auf die abhängigen<br />

Variablen erhoben wurden. Hierbei dienten Fragebögen <strong>zur</strong> Erhebung der Daten. Durch<br />

den Einsatz <strong>von</strong> Fragebögen, die schriftlich zu beantworten waren, wurde gewährleistet,<br />

dass jeder der Teilnehmer derselben Messsituation ausgesetzt war.<br />

Neben dem Fragebogen <strong>zur</strong> durchgeführten Übung wurde im Rahmen dieser Arbeit auch<br />

ein Fragebogen <strong>zur</strong> Vorlesung erarbeitet. Dieser sollte im Vorfeld die Grundstimmung unter<br />

den Studenten und die Motivation der Studenten erfassen. Die daraus resultierenden<br />

Ergebnisse sollen auch für spätere Untersuchungen verwendet werden. Die Durchführung<br />

dieser Untersuchung erfolgte in der für die Evaluation typischen Form: durch einen Fragebogen<br />

(siehe auch Kapitel 6.3.1).<br />

6.2.2. unabhängige und abhängige Variablen<br />

Die unabhängige Variable in dieser Untersuchung ist die Eingabemethode, die die Studenten<br />

<strong>zur</strong> Lösung der Aufgabe nutzten. Die vier möglichen Ausprägungen dieser Variable<br />

waren:<br />

• Papier und Stift<br />

• CASE-Tool<br />

• Grafikprogramm<br />

• Tablet PC<br />

Die abhängigen Variablen sollten die Unterstützung durch das Werkzeug bei der Lösung<br />

der Aufgabe erfassen und die Zufriedenheit der Probanden beim Umgang mit dem<br />

Werkzeug messen.<br />

Hierzu wurden die Probanden befragt, in welchem Umfang die jeweilige Eingabemethode<br />

eine Hilfe dargestellt hatte. Die Skala reichte <strong>von</strong> “unterstützt” bis “behindert”.<br />

Danach sollten die Teilnehmer die Frage beantworten, ob sie gerne auch in Zukunft Aufgaben<br />

mit dem benutzten Werkzeug lösen wollten. Die vorgegebene Antwortskala reichte<br />

<strong>von</strong> “immer” bis “nie”.<br />

Durch die Frage “Ich hätte die Aufgabe lieber mit einem anderen Werkzeug gelöst”, sollten<br />

außerdem Präferenzen für einer anderen Eingabemethode erfragt werden.<br />

Die so gewonnen Daten ließen einen direkten Rückschluss auf die Güte der einzelnen Werkzeuge<br />

zu.<br />

Über offene Fragestellungen auf dem Fragebogen <strong>zur</strong> Übung konnten darüber hinaus subjektive<br />

Meinungen zu den einzelnen <strong>Werkzeugen</strong> erfasst werden, die eine spätere qualitative<br />

Auswertung erlaubten. Somit konnten auch Begründungen für die jeweiligen Bewertungen<br />

gesammelt werden.<br />

79


Sämtliche bei dieser Untersuchung gewonnen Ergebnisse basieren auf subjektiven Daten.<br />

Diese sind zwar optimal für die Feststellung der Akzeptanz eines Systems und die Zufriedenheit<br />

der Benutzer, für eine umfassende Untersuchung sollten allerdings auch objektive<br />

Daten mit erhoben werden.<br />

Objektive Daten die ermittelt werden könnten, also weitere abhängige Variablen, sind beispielsweise<br />

die benötigte Zeit <strong>zur</strong> Erfüllung der Aufgabe, die Anzahl der Fehler und der<br />

Umfang, in dem die Aufgabe erfüllt wurde. So wären Angaben über Effektivität und<br />

Effizienz möglich (siehe Kapitel 5.3). Da eine vollständige und fehlerlose Spezifikation<br />

<strong>von</strong> Attributen und Methoden bei der <strong>konzeptionellen</strong> <strong>Modellierung</strong> <strong>von</strong> untergeordneter<br />

Bedeutung sind, wurde in diesem Fall auf die Erhebung der soeben benannten objektiven<br />

Daten wie Anzahl der Fehler usw., verzichtet.<br />

6.2.3. Auswahl der Untersuchungsobjekte<br />

Da dieses Projekt der Verbesserung der Lehre der Softwaretechnik an der TU München<br />

dient, waren genau die Studenten Teil der Grundgesamtheit, welche die Vorlesung “Software<br />

Engineering 1” an der TU München im Wintersemester 2005/2006 besuchten. Als<br />

problematisch wurde dabei im Vorfeld eine mögliche Abwesenheit und die Nichtteilnahme<br />

einer größeren Zahl <strong>von</strong> Studenten gesehen. Diesen Problemen wurde zum einen durch<br />

eine genauere Definition der interessierenden Population und durch die Schaffung einiger<br />

Rahmenbedingungen entgegengewirkt.<br />

Die Population wurde auf die “regelmäßig anwesenden Studenten der Vorlesung<br />

Software Engineering 1” eingrenzt. Da die Chance, diese in der Vorlesung anzutreffen,<br />

gemäß der Definition schon recht groß war, konnte man auch einen hohen Prozentsatz<br />

dieser Gruppe bei einer einmaligen Befragung erreichen. Zudem wurde die Befragung während<br />

der regulären Vorlesung bzw. Übung durchgeführt. Da diese Grundgesamtheit recht<br />

überschaubar war, war es möglich, eine Vollerhebung zu machen und auf das Ziehen einer<br />

Zufallsstichprobe zu verzichten.<br />

Um das Problem der Ausfälle zu vermeiden und die Rücklaufquote der Bögen auf möglichst<br />

100% zu bringen, wurden die Studenten zusätzlich durch die Auslosung eines Preises <strong>zur</strong><br />

Teilnahme motiviert (siehe Kapitel 6.3.2). Dieses wurde allerdings erst unmittelbar vor der<br />

Umfrage verkündet um die Zusammensetzung des Teilnehmerfeldes nicht zu verfälschen.<br />

Es sollten keine Personen nur wegen des Preises an der Untersuchung teilnehmen; also,<br />

wenn sie mit der Vorlesung selbst nichts zu tun hatten.<br />

Bei der Vorlesungsbefragung konnten so 59 auswertbare Datensätze gewonnen werden.<br />

Am Experiment mit nachfolgender Befragung nahmen gemäß den ausgewerteten Fragebögen<br />

34 Studenten teil.<br />

6.2.4. Störeffekte<br />

Dadurch, dass es sich bei diesem Versuch um ein Feldexperiment handelte, welches einer<br />

Laborsituation sehr ähnlich war, ist sowohl die interne wie auch die externe Validität als<br />

relativ hoch einzuschätzen.<br />

80


Störeffekte, die bei dieser Art <strong>von</strong> Versuchsaufbau auftreten können und die interne Validität<br />

stören, sind unter anderem zwischenzeitliches Geschehen, Reifungsprozess der Probanden,<br />

verzerrte Auswahl und Ausfälle. Sowohl verzerrte Auswahl wie auch Ausfälle<br />

kamen bei dieser Untersuchung vor. Aus technischen Gründen war es leider nicht möglich,<br />

die Studenten völlig per Zufall den einzelnen Gruppen zuzuweisen, da man auf die <strong>von</strong> den<br />

Studenten selbst mitgebrachten Notebooks angewiesen war. Die Zuteilung <strong>zur</strong> Eingabemethode<br />

Tablet PC erfolgte zufällig. Die Zuweisung zu den <strong>Werkzeugen</strong> CASE-Tool und<br />

Grafikprogramm erfolgte per Zufall unter den Studenten, die einen Notebook mitgebracht<br />

hatten. Die Zuteilung zu Papier und Stift erfolgte ca. <strong>zur</strong> Hälfte zufällig und <strong>zur</strong> anderen<br />

Hälfte nicht zufällig. Dieser nicht zufällige Teil waren diejenigen Studenten, die keinen Notebook<br />

ihr eigen nennen konnten und nicht per Zufall der Gruppe Tablet PC zugewiesen<br />

worden waren.<br />

Ebenso waren Ausfälle und Wechsler (Studenten die selbständig die Gruppe gewechselt haben)<br />

zu beklagen. Da es zu diesen Vorkommnissen aber nur in der Gruppe Grafikprogramm<br />

gekommen war, ist da<strong>von</strong> auszugehen, dass diese Ausfälle die aufgestellte Hypothese unterstützen<br />

(siehe auch Kapitel 6.6.2: “Ergebnisse der Übungsbefragung”).<br />

Störeffekte der externen Validität bei diesem Experiment konnten reaktive Effekte<br />

der experimentellen Situation und reaktive Effekte des Messens bedingt durch<br />

Pretests sein. Da es aber keinen Pretest mit den letztendlich an der Untersuchung teilnehmenden<br />

Probanden gab und es sich darüber hinaus um ein Feldexperiment in der gewohnten<br />

Umgebung der Studenten handelte, ist mit nur geringen Einschränkungen an die externe<br />

Gültigkeit zu rechnen.<br />

Einer Übertragung der Ergebnisse auf Hörer <strong>von</strong> Softwaretechnik-Vorlesungen im Allgemeinen<br />

ist demnach denkbar. Bedingt durch die Abgeschlossenheit des Hörsaals wurden<br />

die gröbsten Störfaktoren <strong>von</strong> Außen eliminiert. Die Haupttechnik <strong>zur</strong> Kontrolle der Störfaktoren<br />

war die Konstanthaltung aller Einflüsse auf die Teilnehmer.<br />

Im Einzelnen wurden bei dieser Untersuchung Unterschiede in der Verfügbarkeit eines Internetzugangs<br />

und <strong>von</strong> Lehrbüchern sowie der Intensität des Austauschs mit Sitznachbarn<br />

während dieses Experimentes beobachtet. Außerdem wurde vereinzeltes Abschreiben und<br />

Fragen an die Übungsleitung bzw. den Aufgabensteller festgestellt. Die aufgetretenen Fragen<br />

bezogen sich auf die Aufgabenstellung, den Inhalt der Vorlesung, die Funktionalität<br />

der Tablet PCs und spezifischen Funktionen in den CASE-Tools. Alle aufgetretenen Fragen<br />

der Studenten wurden so weit wie möglich beantwortet.<br />

Es wurden bei diesem Experiment keinerlei Einschränkungen über den Austausch der Studenten<br />

untereinander oder die Verwendung <strong>von</strong> Quellen aufgestellt. Um die Aussagekraft<br />

zukünftiger Experimente weiter zu erhöhen, sind zusätzliche Störfaktoren im Vorfeld zu<br />

eliminieren oder zumindest sicherzustellen, dass sich diese auch einheitlich auf alle Teilnehmer<br />

auswirken. Die meisten der genannten Faktoren sind sehr einfach zu kontrollieren,<br />

so könnten beispielsweise nur Fragen zu einem bestimmten Thema gestattet oder auch die<br />

Nutzung <strong>von</strong> Büchern untersagt werden.<br />

Eine Randomisierung war aufgrund fehlender Notebooks nicht in vollem Umfang möglich.<br />

Auch hier ist für zukünftige Untersuchungen zu empfehlen, sämtliches für das Experiment<br />

nötige Equipment zu stellen. Damit ist es möglich, die Versuchspersonen völlig<br />

frei zuzuordnen. Nur so können systematische Zusammenhänge zwischen den personellen<br />

Merkmalen und der Zugehörigkeit zu einer bestimmten Gruppe ausgeschlossen werden.<br />

81


6.3. Implementierung<br />

Nachdem die Form der Untersuchung und die Methoden der Datenerhebung bestimmt<br />

sind, müssen alle für die Durchführung benötigten Materialien vorbereitet werden. Dies<br />

betrifft die Konstruktion der Fragebögen, die Ausarbeitung der Übungsaufgabe aber auch<br />

die Beachtung der rechtlichen Rahmenbedingungen. Nach Abschluss all dieser Arbeiten<br />

folgt die Prüfung der fertigen Unterlagen in einem Pretest.<br />

6.3.1. Exkurs: Evaluation <strong>von</strong> Lehre<br />

Zunächst soll aber noch ein Einblick in die Evaluation <strong>von</strong> Lehre gegeben werden. Da im<br />

Rahmen dieser Untersuchung auch eine Befragung <strong>von</strong> Studenten zu der Vorlesung “Software<br />

Engineering 1” durchgeführt wurde, soll ein kurzer Exkurs in die Evaluation <strong>von</strong><br />

Lehre durchgeführt werden.<br />

“Evaluation ist die systematische und zielgerichtete Sammlung, <strong>Analyse</strong> und Bewertung<br />

<strong>von</strong> Daten zu Qualitätssicherung und Qualitätskontrolle.” Sie dient der Beurteilung <strong>von</strong><br />

Planung, <strong>von</strong> Entwicklung, <strong>von</strong> Gestaltung und, gerade auch im Bildungsbereich, <strong>von</strong> verschiedenen<br />

Angeboten. Beispielsweise wird der Einsatz <strong>von</strong> verschiedenen Medien oder<br />

auch Methoden untersucht. [Eval05]<br />

Die Lehrevaluation ist in den USA bereits seit den 20er Jahren verbreitet. Sie wird dort in<br />

unterschiedlichen Formen an privaten wie auch staatlichen Universitäten eingesetzt. In den<br />

60er bis 90er Jahren gab es rege Forschung auf dem Gebiet der studentischen Lehrevaluation.<br />

In Deutschland gibt es sie seit Ende der 60er/Anfang der 70er Jahre. Auslöser waren<br />

die Demokratisierung der Hochschule bzw. die Universitätsreform in diesen Jahren. Aber<br />

erst in den 90er Jahren wurde sie flächendeckend eingesetzt. Grund dafür waren finanzielle<br />

Einsparungen sowie die Auslastung der Universitäten, <strong>von</strong> Überlast bis zu Studentenknappheit,<br />

und die damit verbundene Rechenschaftspflicht gegenüber der Öffentlichkeit.<br />

Außerdem sollte die Qualität der universitären Ausbildung sichergestellt werden. [Rind04]<br />

Lehrevaluation und Lehrveranstaltungsevaluation sind Instrumente <strong>zur</strong> Sicherung der Qualität<br />

<strong>von</strong> Lehre und Ausbildung. [Rind04]<br />

Neben einer treffenden Beschreibung und Bewertung, soll eine Evaluation auch bestehende<br />

Prozesse optimieren. Über 90% aller US-amerikanischen Hochschulen verwenden studentische<br />

Befragungen. Die Resultate sind laut Dr. Heiner Rindermann [Rind02]:<br />

• Hilfe für Dozenten, Schwächen eigener Lehre zu erkennen und zu beseitigen (Qualifikationsmodell);<br />

• Verbesserung der Kommunikation zwischen Lehrenden und Studenten über die Lehre<br />

(Kommunikationsmodell);<br />

• Unterstützung der Studenten bei der Kurswahl (Transparenzmodell);<br />

• Einsatz bei Hochschulen als Qualifikationsmaß bei Bleibe-, Gehalts- und Berufungsverhandlungen<br />

(Steuerungsmodell);<br />

82


• Ermöglicht, zusammen mit den Forschungsleistungen einer Universität, einen Vergleich<br />

zwischen Universitäten (Transparenzmodell);<br />

Merkmale guter Lehre sind am besten auf dem direkten Wege zu finden, also durch Befragung<br />

der an einer Veranstaltung teilnehmenden Personen.<br />

Die Problematik bei Bildungs-Controlling-Ansätzen<br />

Gerade wenn es um die Fachkompetenz der Dozenten geht oder die Inhalte der Vorlesung,<br />

ist es kritisch, dies durch Studenten beurteilen zu lassen. Zumindest in den ersten<br />

Semestern können diese die beiden Aspekte kaum adäquat einschätzen. [Rind02]<br />

Wenn nun aber Studenten höherer Semester befragt werden, erreicht man in der Regel gute<br />

durchschnittliche Beurteilungen <strong>von</strong> Lehrenden und Lehrveranstaltungen durch Studierende.<br />

Die Mindeststichprobengröße bei der Durchführung einer Evaluation ist N = 10-15<br />

Studenten. Der Einfluss eventuell auftretender Störvariablen ist somit minimal. [Rind02]<br />

Für dieses Evaluationsexperiment ergeben sich daraus folgende wichtige Punkte:<br />

• Die Evaluation dieser Vorlesung ist ein relativ aussagekräftiger Test, da es sich bei den<br />

Teilnehmern der Vorlesung “Software Engineering 1” um Studenten im Hauptstudium<br />

handelt. Diese Studenten höheren Semesters sind so, laut [Rind02], in der Lage zu<br />

evaluieren.<br />

• Die Mindeststichprobengröße wurde mit 59 Studenten, die den Fragebogen <strong>zur</strong> Vorlesung<br />

ausgefüllt haben, deutlich überschritten. Man kann also <strong>von</strong> relativ zuverlässigen<br />

Ergebnissen ausgehen. Die Durchführung der Evaluation erfolgte mit dem für<br />

sie üblichen Instrument, dem Fragebogen.<br />

6.3.2. Exkurs: Motivation <strong>zur</strong> Teilnahme<br />

Um die Probanden <strong>zur</strong> Teilnahme an der Untersuchung zu motivieren und eine möglichst<br />

hohe Zahl an auswertbaren Fragebögen zu erhalten, sind einige grundsätzliche Voraussetzungen<br />

zu schaffen. Zum einen sollte der Fragebogen einen gewissen Umfang nicht überschreiten.<br />

Er sollte kurz sein und über einen hohen Anteil an geschlossenen Fragen zum<br />

Ankreuzen verfügen, um nicht länger als etwa zehn Minuten <strong>zur</strong> Beantwortung in Anspruch<br />

zu nehmen. Die Umfrage sollte während der Vorlesung gemacht werden, um den Studenten<br />

keinen Grund zum Verlassen der Lokalität zu geben. Würde der Fragebogen am Ende<br />

ausgeteilt werden, wären weniger Studenten <strong>zur</strong> Teilnahme zu überreden.<br />

Um nun fast alle der Anwesenden zu erreichen, wurde zudem auf einen Trick aus der Marktforschung<br />

<strong>zur</strong>ückgegriffen. Durch die Ausschreibung eines Gewinns bei der Teilnahme an<br />

der Umfrage, wird eine relativ hohe Rücklaufquote erreicht. Der für diese Untersuchung<br />

vom Lehrstuhl bereitgestellte Gewinn war ein “iPod shuffle”.<br />

Die Rücklaufquote der Fragebögen <strong>zur</strong> Übung lag dadurch bei 94%. Von 36 ausgeteilten<br />

Fragebögen wurden 34 beantwortet <strong>zur</strong>ückgegeben. Über die Rücklaufquote der Fragebögen<br />

<strong>zur</strong> Vorlesung kann keine genaue Aussage gemacht werden. Nach Schätzungen dürfte<br />

sie aber auch bei über 90% liegen.<br />

83


6.3.3. Exkurs: Datenschutzrecht<br />

Neben der Entwicklung der eigentlichen Fragebögen ist es natürlich genauso wichtig, die<br />

rechtlichen Rahmenbedingungen zu beachten, um die gewonnenen Daten auch verwenden<br />

zu können.<br />

Im Folgenden wird zunächst auf das Datenschutzrecht im Allgemeinen und dann auf die<br />

diesbezüglichen Regelungen in Hochschulen eingegangen. Daraus leiten sich dann direkt die<br />

wichtigsten Aspekte, die bei der Durchführung <strong>von</strong> Tests dieser Form zu beachten sind, ab.<br />

Datenschutzrecht<br />

Das Datenschutzrecht dient der Regelung <strong>von</strong> Voraussetzungen und Folgen einer Erhebung<br />

und Verwendung <strong>von</strong> personenbezogenen Daten. Dies erfolgt zugunsten des Betroffenen.<br />

Der Betroffene wird typischerweise als Unterlegener hinsichtlich seiner (Markt-) Macht angesehen,<br />

weshalb ihm die Rechtsordnung <strong>zur</strong> Seite steht. Dies gilt insbesondere bezogen<br />

auf staatliche Erhebung und Verwendung <strong>von</strong> personenbezogenen Daten. [WoG05]<br />

Der Schutz der Daten erfolgt um des Betroffenen willen, um eine individuelle Selbstbestimmung<br />

zu gewährleisten. Gegenstand des Datenschutzes ist also jeder Umgang Dritter<br />

mit personenbezogenen Informationen. Der Begriff personenbezogene Daten meint jede<br />

Information (Einzelangabe) über eine bestimmte oder bestimmbare natürliche Person.<br />

[WoG05]<br />

Hierzu Auszüge aus den drei wichtigsten Paragraphen des Bundesdatenschutzgesetzes<br />

(BDSG):<br />

Gemäß § 28 Datenerhebung, -verarbeitung und -nutzung für eigenen Zweck des<br />

Bundesdatenschutzgesetzes (BDSG) gilt: “Das Erheben, Speichern, Verändern oder Übermitteln<br />

personenbezogener Daten oder ihre Nutzung als Mittel für die Erfüllung eigener<br />

Geschäftszwecke ist zulässig”, wenn:<br />

• Es der Zweckbestimmung eines Vertragsverhältnisses dient.<br />

• Es <strong>zur</strong> Wahrung berechtigter Interessen der verantwortlichen Stellen nötig ist, es sei<br />

denn, das schutzwürdige Interesse des Betroffenen überwiegt.<br />

• Die Daten allgemein zugänglich sind.<br />

“Bei der Erhebung personenbezogener Daten sind die Zwecke, für die die Daten verarbeitet<br />

oder genutzt werden sollen, konkret festzulegen.” [WoG05]<br />

Der § 4 des BDSG beschreibt die Zulässigkeit der Datenerhebung, -verarbeitung<br />

und -nutzung, die da sind: “(1) Die Erhebung, Verarbeitung und Nutzung personenbezogener<br />

Daten sind nur zulässig, soweit dieses Gesetz oder eine andere Rechtsvorschrift dies<br />

erlaubt oder anordnet oder der Betroffene eingewilligt hat.<br />

(2) Personenbezogene Daten sind beim Betroffenen zu erheben.” [WoG05]<br />

§ 4a des BDSG regelt die Einwilligung, die <strong>von</strong> Seiten des Betroffenen nötig ist. Dieser<br />

besagt:<br />

84


“(1) Die Einwilligung ist nur wirksam, wenn sie auf der freien Entscheidung des Betroffenen<br />

beruht. Er ist auf den vorgesehen Zweck der Erhebung, Verarbeitung oder Nutzung<br />

sowie, soweit nach den Umständen des Einzelfalls erforderlich oder auf Verlangen, auf<br />

die Folgen der Verweigerung der Einwilligung hinzuweisen. Die Einwilligung bedarf der<br />

Schriftform, soweit nicht wegen besonderer Umstände eine andere Form angemessen ist.<br />

Soll die Einwilligung zusammen mit anderen Erklärungen schriftlich erteilt werden, ist sie<br />

besonders hervorzuheben.<br />

(2) Im Bereich der wissenschaftlichen Forschung liegt ein besonderer Umstand im Sinn<br />

<strong>von</strong> Absatz 1 Satz 3 auch dann vor, wenn durch die Schriftform der bestimmte Forschungszweck<br />

erheblich beeinträchtigt würde. In diesem Fall sind der Hinweis nach Absatz 1 Satz<br />

2 und die Gründe, aus denen sich die erhebliche Beeinträchtigung des bestimmten Forschungszwecks<br />

ergibt, schriftlich festzuhalten.<br />

(3) Soweit besondere Arten personenbezogener Daten (§ 3 Abs. 9) erhoben, verarbeitet oder<br />

genutzt werden, muss sich die Einwilligung darüber hinaus ausdrücklich auf diese Daten<br />

beziehen.” [WoG05]<br />

Hochschulinterne Regeln<br />

In Hochschulen ist für alle Fragen bezüglich des Datenschutzes die Position des Datenschutzbeauftragten<br />

eingerichtet. Er ist dafür zuständig, dass alle Datenschutzrichtlinien<br />

eingehalten werden. Für jedes Verfahren, bei dem personenbezogene Daten gespeichert<br />

werden (beispielsweise die Anmeldung zu Praktika), ist beim Datenschutzbeauftragten eine<br />

Freigabe zu beantragen.<br />

Die Aufgaben des Datenschutzbeauftragten gemäß Art. 25 Abs. 4 BayDSG sind,<br />

bezogen auf die TU München:<br />

• “Einrichtung eines Freigabeverfahrens, welches sicherstellen soll, dass nur solche automatisierten<br />

Verfahren an der TUM eingesetzt werden, die dem Bayerischen Datenschutzgesetz<br />

und anderen Vorschriften des Datenschutzes entsprechen<br />

• Führung eines Verfahrensverzeichnisses, in dem alle an der TUM eingesetzten und<br />

datenschutzrechtlich freigegebenen Verfahren aufgenommen sind;<br />

• Beantwortung <strong>von</strong> Auskunftsersuchen über die Speicherung <strong>von</strong> personenbezogenen<br />

Daten<br />

• Beratung und Information in Fragen des Datenschutzes<br />

• Verfolgung <strong>von</strong> Hinweisen auf datenschutzrechtliche Probleme” [TUM06]<br />

Der Datenschutzbeauftragte der TU München ist Herr Prof. Dr. Bernd Radig (Stand: Juni<br />

2006). Für weitere Fragen zu diesem Thema ist außerdem ein Datenschutzbüro an der TU<br />

München eingerichtet.<br />

Fazit<br />

Für die Durchführung der Befragung im Rahmen dieses Experimentes und im Rahmen<br />

vergleichbarer Untersuchungen sei damit als zu beachten festgehalten:<br />

85


• Meldung der Erhebung: Die Erhebung der Daten der Studenten ist dem Datenschutzbeauftragten<br />

zu melden;<br />

• Der Verwendungszweck muss <strong>von</strong> Anfang an klar aufgezeigt werden;<br />

• Die Teilnahme an der Befragung muss auf freiwilliger Basis geschehen;<br />

• Eine Einverständniserklärung/Einwilligung der Teilnehmer muss vorliegen;<br />

• Besondere Hervorhebung der Einwilligung auf dem Fragebogen;<br />

• Schriftform: Die Einwilligung muss schriftlich vorliegen;<br />

• Sicherstellung der sicheren Speicherung der Daten (keine Weitergabe an Dritte);<br />

• Anonymisierung der Daten, spätestens zum Zeitpunkt der Veröffentlichung;<br />

Bei einer Erfüllung all dieser Punkte, steht einer Verwendung der gewonnenen Daten nichts<br />

im Wege.<br />

Wenn die Daten einem Forschungszweck dienen und ein dienstliches Interesse besteht, kann<br />

auf einige der zuvor genannte Punkte sogar verzichtet werden. Eine Erhebung der Daten<br />

ist dann ohne Einwilligung der Betroffenen möglich. Für diese Untersuchung ist das zutreffend,<br />

da die Umfrage der Verbesserung der Lehre dient. Gerade im Umfeld der Hochschule<br />

sind somit die Rahmenbedingungen zu Erhebungen dieser Art nicht ganz so eng. Eine Beachtung<br />

aller Punkte kann aber nicht schaden.<br />

6.3.4. Fragebogen <strong>zur</strong> Vorlesung<br />

Nachdem alle technischen Aspekte der Befragung geklärt sind, soll jetzt der konkrete Inhalt<br />

der Fragebögen definiert werden. Die Erhebung der Daten ist nach zwei Aspekten unterteilt.<br />

Zum einen sollte der Fragebogen, der in der Vorlesung verteilt wurde, die Grundstimmung<br />

und Motivation der Studenten erfassen. Dabei sollten inhaltliche Punkte und Fragen zum<br />

Übungsmodus geklärt werden. Der in der vorliegenden Untersuchung verwendete Fragebogen<br />

entsprach im Wesentlichen den auch <strong>zur</strong> Evaluation <strong>von</strong> Lehrveranstaltungen an der<br />

TU München verwendeten Minimalfragebögen (siehe Anhang A: Abbildung A.1). Ergänzt<br />

wurde dieser durch selbst erarbeitete Skalen-Fragen bzw. offenen Fragen.<br />

In einem zweiten Bogen, der in der Übung verteilt wurde, sollten dann die Werkzeuge,<br />

mit denen eine zuvor gestellte Aufgabe konzeptionell gelöst wurde, evaluiert werden, d.h.<br />

die Studenten sollten ihre positiven wie negativen Erfahrungen auf dem Fragebogen zum<br />

Ausdruck bringen.<br />

Der Fragebogen <strong>zur</strong> Vorlesung beginnt mit einem Begleittext. In Bezug auf dessen Inhalt<br />

wurden die in Kapitel 4.6.1 erarbeiteten Grundsätze berücksichtigt. Der Begleittext<br />

klärte die Probanden über Ziele, Dauer und Durchführung der Befragung auf. Außerdem<br />

sicherte er die Anonymisierung der Daten zu und wies auf die Teilnahmebedingungen der<br />

Verlosung hin.<br />

Der zweite Abschnitt auf dem Bogen widmete sich den “Demografischen Daten”. Diese<br />

dienten der Ermittlung des Gewinners der Verlosung. Ebenso gaben diese Daten einen<br />

86


Einblick in die Zusammensetzung der Teilnehmer, was Studienrichtung und Semesterzahl<br />

angeht. Sie ermöglichten auch eine Zuordnung der Bögen der Vorlesung zu denen der<br />

Übung, um so ein umfassendes Bild jedes an beiden Befragungen beteiligten Studenten zu<br />

bekommen.<br />

Die “allgemeinen Angaben” zum Dozenten und <strong>zur</strong> Vorlesung sollten die Grundstimmung<br />

der Studenten einfangen. Diese Fragen waren den regulären Evaluationsbögen der TU München<br />

entnommen.<br />

Unter “Inhalt/Motivation” wurden den Studenten Fragen zu Stoffmenge, dem Niveau der<br />

Vorlesung und der eigenen Motivation gestellt. Auch hier waren einige Fragen den regulären<br />

Evaluationsbögen entnommen.<br />

Der Themenblock “Konzentration” beschäftigte sich mit den Ablenkungsfaktoren in Übung<br />

und Vorlesung. Außerdem wurde die Akzeptanz <strong>von</strong> verschiedenen Modifikationen am<br />

Lehrbetrieb erfragt. Dies betraf eine mehr computerorientierte Durchführung der Übung,<br />

die Integration der Übung in die Vorlesung und eine Unterteilung jeder einzelnen Vorlesung<br />

in logisch abgeschlossene Einheiten.<br />

Der Abschnitt “Ziele” sollte erfragen, ob man beabsichtigt, an der Prüfung am Ende der<br />

Vorlesung teilzunehmen und deswegen die Vorlesung besuchte oder die Vorlesung “nur” aus<br />

Interesse besuchte.<br />

Unter “Themenwahl” wurden schließlich die Schwierigkeiten und Änderungswünsche der<br />

Studenten bezüglich der Themengebiete der Vorlesung ermittelt.<br />

Zuletzt wurde den Probanden die Möglichkeit gegeben, einen Kommentar abzugeben. Hier<br />

hatten sie Platz, um sämtliche durch die Fragen nicht abgedeckten Aspekte zu erwähnen.<br />

Dies konnte sowohl die Vorlesung betreffen als auch die Durchführung dieser Befragung.<br />

Der vollständige Fragebogen <strong>zur</strong> Vorlesung ist in Anhang A zu finden (siehe Abbildungen<br />

A.2 und A.3). Zusätzlich wurde auch noch eine Übersetzung ins Englische erstellt.<br />

Diese war nötig, da die Vorlesung in Englisch gehalten wurde und einem gewissen Prozentsatz<br />

der Studenten so die Teilnahme an der Befragung leichter gemacht werden konnte.<br />

Der Inhalt des englischen Bogens ist gleich, das Layout nahezu identisch.<br />

6.3.5. Fragebogen <strong>zur</strong> Übung<br />

Bei dem Bogen <strong>zur</strong> Übung wurden dieselben Grundsätze beachtet wie bei dem Fragebogen<br />

<strong>zur</strong> Vorlesung. Das Layout ist mit dem Vorlesungsbogen nahezu identisch. Der Begleittext<br />

unterschied sich nur marginal <strong>von</strong> dem des Vorigen. Der Abschnitt mit den demografischen<br />

Daten war exakt gleich.<br />

Der erste Abschnitt: “Werkzeuge” hatte den Sinn, genau zu erfassen, mit welcher Eingabemethode<br />

die Studenten die vorgegebene Aufgabe <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

gelöst hatten.<br />

Der zweite Themenblock widmete sich dann der zuvor gelösten Aufgabe. Die für diese<br />

Untersuchung entscheidenden abhängigen Variablen wurden in diesem Abschnitt erhoben.<br />

Hier wurde zunächst nach der Schwere der Aufgabe und der Unterstützung des Lösungsentwurfes<br />

durch das verwendete Werkzeug gefragt. Danach wurde nach Problemen gefragt,<br />

die bei der Lösung der Aufgabe auftraten, bezogen auf das Werkzeug. Des Weiteren wur-<br />

87


den Präferenzen hin zu anderen <strong>Werkzeugen</strong> ermittelt und die Akzeptanz der verwendeten<br />

Eingabemethode erforscht. Letzteres geschah mit der Frage, ob man das verwendete Werkzeug<br />

auch in Zukunft für die Lösung solcher Aufgaben verwenden würde. Dabei wurde vor<br />

allem mit offenen Fragestellungen gearbeitet, um den Probanden keine Vorgaben zu machen<br />

und so soviele subjektive Eindrücke wie möglich zu erlangen. Durch eine Einengung<br />

der Auswahlmöglichkeiten wären viele Aspekte der einzelnen Werkzeuge nicht zu erfassen<br />

gewesen.<br />

Zuletzt hatten die Probanden wieder die Möglichkeit, einen Kommentar abzugeben. Dabei<br />

stand die zuvor verwendete Eingabemethode hinsichtlich besonders positiv und negativ<br />

aufgefallener Eigenschaften/Funktionen/usw. im Mittelpunkt des Interesses. Dieser Abschnitt<br />

diente damit der Ermittlung der gröbsten Vor- und Nachteile der Werkzeuge.<br />

In Anhang A ist der vollständige Fragebogen <strong>zur</strong> Übung zu sehen (siehe AbbildungenA.4<br />

und A.5). Zusätzlich dazu wurde auch hier eine Übersetzung ins Englische erstellt.<br />

6.3.6. <strong>Modellierung</strong>saufgabe<br />

Neben den Fragebögen musste eine typische <strong>Modellierung</strong>saufgabe für die Übung entwickelt<br />

werden, die zum Testen der verschiedenen Werkzeuge benutzt werden konnte.<br />

Den Studenten wurde die Aufgabe gestellt, das Kommunikations-Subsystem einer mobilen,<br />

verteilten Anwendung zu modellieren. Um die Aufgabe nicht zu schwer zu machen, wurden<br />

Hinweise hinsichtlich der zu verwendenden Entwurfsmuster gegeben. Außerdem wurden einige<br />

Klassen vorgegeben (siehe Anhang B: Abbildung B.2) und genauere Erklärungen zu<br />

einzelnen Klassen bereitgestellt. Ziel war die <strong>Modellierung</strong> eines UML-Modells des Subsystems<br />

der verteilten Anwendung.<br />

Als Werkzeug <strong>zur</strong> Durchführung dieser <strong>konzeptionellen</strong> <strong>Modellierung</strong> stand den Studenten<br />

dabei jeweils eine dieser Eingabemethoden <strong>zur</strong> Verfügung: Papier und Stift, CASE-Tool,<br />

Grafikprogramm oder Tablet PC.<br />

Für den Test selbst war die korrekte Lösung der Aufgabe nicht <strong>von</strong> Belang. Vielmehr waren<br />

die Erfahrungen der Studenten bei der Entwicklung des Entwurfs der Lösung <strong>von</strong> Interesse.<br />

Die Erfahrungen bei diesem Vorgang der <strong>konzeptionellen</strong> <strong>Modellierung</strong> wurden dann mit<br />

dem zuvor entwickelten Fragebogen erfasst.<br />

Die Aufgabenstellung ist in Anhang B zu finden. Die Abbildungen B.1 und B.2 zeigen<br />

die Problemstellung, welche den Studenten <strong>zur</strong> <strong>konzeptionellen</strong> Lösung vorgelegt wurde.<br />

Die Lösung der <strong>Modellierung</strong>saufgabe zeigt Abbildung B.3.<br />

6.3.7. Pretest<br />

Vor der eigentlichen Durchführung der Befragung wurden die Fragebögen und die Aufgabe<br />

den Übungsleitern vorgestellt. Die Übungsleiter hielten die Übung begleitend <strong>zur</strong> Vorlesung<br />

“Software Engineering 1” ab und wussten dementsprechend genau wie - zumindest<br />

theoretisch - der Kenntnisstand der Studenten war.<br />

Damit konnten sie beurteilen, ob die Übungsaufgabe angemessen war und auch <strong>von</strong> den<br />

88


Studenten gelöst werden könnte. Falls der Schwierigkeitsgrad zu hoch angesetzt gewesen<br />

wäre, wären die Ergebnisse verfälscht worden, da Frust über eine unlösbare Aufgabe auf<br />

das Werkzeug abgefärbt hätte. Die Bewertungen wären somit zu negativ gewesen.<br />

Außerdem sollte dieser Pretest mögliche Fehler in den Fragebögen aufdecken. Sollten die<br />

Übungsleiter hier auf unverständliche Formulierungen treffen, oder Fragen schlicht und einfach<br />

nicht verstehen, wäre es unumgänglich gewesen, entsprechende Passagen zu verbessern.<br />

Die zuvor erarbeiteten Fragebögen und die Übungsaufgabe konnten nach dem Pretest ohne<br />

große Änderungen weiter für die Durchführung vorbereitet werden. Dies umfasste neben<br />

einer erneuten Korrekturlesung der Bögen die anschließende Anfertigung der Kopien. Da<br />

hierfür die Kosten vergleichsweise gering sind, ist darauf zu achten, eher zu viele als zu<br />

wenige Bögen vorzubereiten. Zu geringe Zahlen würden erhebliche Verzögerungen in der<br />

Durchführung der Befragung verursachen.<br />

Die Phase der Vorbereitung und Implementierung ist damit abgeschlossen und die Datenerhebung<br />

kann beginnen.<br />

6.4. Datenerhebung<br />

Dieses Kapitel widmet sich der Durchführung der Befragung, angefangen bei der Planung<br />

der Vorgehensweise, bis hin <strong>zur</strong> tatsächlichen Umsetzung. Planung und Ausführung sind<br />

dabei jeweils in Vorlesung und Übung unterteilt. Als Termin für die Durchführung wurde<br />

im Vorfeld der 13.12.2005 für die Vorlesungsbefragung und der 15.12.2005 für das Experiment<br />

mit anschließender Befragung, bestimmt.<br />

Besondere Vorkehrungen bezüglich Reservierung <strong>von</strong> Räumen mussten nicht getroffen werden,<br />

da die Untersuchungen in den ohnehin für die Vorlesung bzw. Übung vorgesehenen<br />

Räumen durchgeführt werden konnten.<br />

6.4.1. geplante Durchführung der Befragung<br />

Das Vorgehen orientiert sich dabei an dem in Kapitel 5.3 beschriebenen Umgang mit Versuchspersonen.<br />

Für die Vorlesung (Di. 13.12.2005) wurde nachfolgende Vorgehensweise<br />

geplant:<br />

• Begrüßung der Versuchspersonen;<br />

• Erklärung des Ziels der Befragung;<br />

• Hinweis zum Preis, der unter allen Teilnehmern verlost wird;<br />

• Erklärung der Teilnahmebedingungen;<br />

• Start der Befragung <strong>zur</strong> Mitte der Vorlesung;<br />

• Vorgabe <strong>von</strong> ca. 10 Minuten <strong>zur</strong> Beantwortung der Fragen;<br />

• Nach dem Einsammeln Hinweise über das weitere Vorgehen, also die zweite Befragung<br />

in der Übung;<br />

89


Für die Übung (Do. 15.12.2005) wurde die folgende Vorgehensweise geplant:<br />

• Begrüßung der Versuchspersonen;<br />

• Erklärung des Ziels der Befragung;<br />

• Hinweis zum Preis, der unter allen Teilnehmern verlost wird;<br />

• Erklärung der Teilnahmebedingungen;<br />

• Einteilung aller Anwesenden in vier etwa gleich große Gruppen:<br />

1. Papier und Stift<br />

2. CASE-Tools: Argo / Poseidon (Open-Source <strong>Modellierung</strong>s Software)<br />

3. Grafikprogramm (Paint oder beliebiges anderes)<br />

4. Tablet PC (mit Tool)<br />

• Verteilen der Übungsaufgabe;<br />

• Kurze Einführung <strong>zur</strong> Aufgabenstellung;<br />

• Lösen der Aufgabe mittels der zugewiesenen Eingabemethode (ca. 45 Minuten);<br />

• Ausfüllen der Fragebogen über die Erfahrungen mit dem jeweiligen Werkzeug;<br />

• Nach dem Einsammeln der Fragebögen Danksagung an alle Teilnehmer;<br />

6.4.2. Durchführung der Befragung in der Praxis<br />

In der Praxis klappte die Durchführung der Vorlesungsbefragung exakt wie zuvor geplant.<br />

Es war möglich, 59 Teilnehmer für die Umfrage zu gewinnen. Nur ein kleiner Teil der anwesenden<br />

Studenten (ca. zwei oder drei) war nicht zu einer Teilnahme zu bewegen.<br />

Die Übung lief in etwa auch wie geplant ab. Die Teilnehmeranzahl lag bei 36. Die Anzahl<br />

der Fragebögen, die ausgefüllt <strong>zur</strong>ückgegeben wurden, war allerdings nur 34. Von den<br />

anwesenden Studenten hatten 20 ihren eigenen Laptop dabei. An Tablet PCs standen acht<br />

<strong>zur</strong> Verfügung, wo<strong>von</strong> einer <strong>von</strong> einem Studenten selbst mitgebracht worden war und der<br />

Rest vom Lehrstuhl bereitgestellt wurde. Nach der Einteilung am Anfang der Übung ergab<br />

sich folgende Verteilung der Probanden auf die <strong>Werkzeugen</strong>: Der Eingabemethode Papier<br />

und Stift wurden neun Teilnehmer zugeordnet, den CASE-Tools elf, dem Werkzeug Grafikprogramm<br />

acht und den Tablet PCs ebenfalls acht.<br />

Diese Zahlen änderten sich allerdings im Laufe des Versuches, da zwei Teilnehmer vor<br />

Beendigung desselben gingen. Außerdem sind einige Probanden zu einem anderen Werkzeug<br />

übergewechselt.<br />

Aus den ausgefüllten Fragebögen ergab sich, dass elf Studenten die Aufgabe mit Papier und<br />

Stift, weitere elf mit einem CASE-Tool, vier mit einem Grafikprogramm und acht mit einem<br />

Tablet-PC bearbeiteten. Vier Studenten, die zunächst in der Grafikprogramm-Gruppe<br />

eingeteilt waren, haben damit die Gruppe verlassen. Zwei haben <strong>zur</strong> Eingabemethode Papier<br />

und Stift gewechselt und zwei haben das Experiment ganz abgebrochen.<br />

90


Acht Teilnehmer aus der CASE-Tool-Gruppe setzten “Poseidon” ein, welches auch im Vorfeld<br />

<strong>von</strong> der Übungsleitung empfohlen worden war. Je einer der Teilnehmer löste die Aufgabe<br />

mit “Umbrello” und “MS Visio”. Einer der Studenten machte keine Angaben zum eingesetzten<br />

CASE-Tool. Ein bestimmtes Grafikprogramm wurde nicht empfohlen. Die Wahl<br />

des Programms war den Probanden vollkommen freigestellt, es musste nur der zuvor genannten<br />

Kategorie entsprechen. Verwendet wurden “Open Office”, “KolourPint”, “xfig” und<br />

“OmniGraffle”. Die Studenten in der Tablet-PC-Gruppe arbeiteten mit “Windows Journal”<br />

(Teil <strong>von</strong> Windows XP Tablet-PC Edition).<br />

Das Lösen der Aufgabe nahm in etwa 45 Minuten Zeit in Anspruch, das anschließende<br />

Ausfüllen des Fragebogens fünf bis zehn Minuten.<br />

6.5. Datenerfassung<br />

Zur Auswertung der gewonnenen Daten müssen diese zunächst einmal erfasst werden. Dies<br />

geschieht mittels einer Datenmatrix. Im Rahmen dieser Arbeit wurde dazu aus praktischen<br />

Gründen “MS Excel” verwendet. Da Excel ein weit verbreiteter Standard <strong>zur</strong> Bearbeitung<br />

<strong>von</strong> Tabellen ist, sind wahrscheinlich alle an den Daten interessierten Personen sofort in<br />

der Lage, mit diesen Tabellen zu arbeiten. Außerdem ermöglicht es auf recht komfortable<br />

Weise, die Daten zu Visualisieren. Mit wenigen Handgriffen kann man Diagramme unterschiedlicher<br />

Art erzeugen.<br />

Zunächst soll auf den genauen Aufbau der Matrix <strong>zur</strong> Erfassung der Daten eingegangen<br />

werden und dann die Codierung der Fragebögen besprochen werden. Im Anschluss daran<br />

wird auf die weitere Strukturierung und Visualisierung der gewonnenen Ergebnisse eingegangen.<br />

6.5.1. Codeplan und Codierung<br />

Alle Daten wurden in einer Excel-Tabelle gespeichert. Jede Spalte stellt dabei ein Attribut,<br />

also eine Frage des Fragebogens dar. Jede Zeile enthält ein Datensatz und damit alle Angaben<br />

genau einer Person. Diese Datenmatrix ist auch in der empirischen Sozialforschung<br />

der übliche Weg <strong>zur</strong> Darstellung <strong>von</strong> Forschungsergebnissen. [SHE05]<br />

Die Excel-Tabelle ist in diesem Fall in drei Bereiche untergliedert: “Infos” (demografische<br />

Daten: Matrikelnummer, E-Mail-Adresse, Studienrichtung, usw.), “Fragebogen <strong>zur</strong> Vorlesung”<br />

(alle Fragen, die auf diesem Fragebogen enthalten sind) und “Fragebogen <strong>zur</strong> Übung”<br />

(alle Fragen, die auf diesem Fragebogen enthalten sind).<br />

Bei der Erfassung war darauf zu achten, dass die Fragebögen der Vorlesung ohne Matrikelnummer<br />

mit v01 bis v19 durchnummeriert wurden und diese Kennzeichnung unter dem<br />

Attribut Matrikelnummer in der Excel-Tabelle angeben wurde. Bei den Fragebögen der<br />

Übung ohne Matrikelnummer wurde dies ebenfalls mit u01 bis u06 gemacht. Diese Kennzeichnungen<br />

oder die Matrikelnummern sind die Identifikationsnummern der Fragebögen.<br />

Falls ein Fragebogen Besonderheiten aufwies, wurde dies unter dem jeweiligen Punkt “Anmerkungen”<br />

vermerkt, der bei der Übung wie auch bei der Vorlesung vorhanden war.<br />

91


Zum Füllen der oben beschriebenen Datenmatrix ist i.a. die Erstellung eines “Codeplans”<br />

nötig. Hierbei wird jeder Antwort des Fragebogens eine Ziffer zugeordnet, um die Daten<br />

möglichst einfach weiterverarbeiten zu können (siehe Kapitel 4.7). Da die Fragebögen dieser<br />

Untersuchung recht einfach gehalten waren und es nur vier verschiedene Arten <strong>von</strong><br />

Fragen gab, wurde auf die Erstellung eines Codeplans für beide Fragebögen verzichtet.<br />

Stattdessen wurden vier Regeln definiert, die die entsprechenden Fragen-Typen abdeckten<br />

und so die Erfassung jedes Datensatzes ermöglichten. Diese vier Regeln waren:<br />

1. Skalenfragen (fünf Auswahlmöglichkeiten): das entsprechende angekreuzte Kästchen<br />

benennen; Zählweise: 1 = ganz links, 5 = ganz rechts; hat ein Student gar<br />

nichts angegeben ist: “k.A.” zu vermerken;<br />

2. Ja-nein-Fragen: jeweils “ja” oder “nein” vermerken; falls ein Student nichts angekreuzt<br />

hat ist: “k.A.” zu vermerken;<br />

3. Ja-x-nein-Fragen: jeweils “ja”, “nein” oder “x” (für die Mitte) vermerken; falls ein<br />

Student nichts angekreuzt hat ist: “k.A.” zu vermerken;<br />

4. offene Fragen: den Text der Befragten wörtlich übernehmen; falls keine Angaben<br />

gemacht wurden, das entsprechende Feld frei lassen.<br />

Die Datenmatrix mit allen gewonnenen Daten dieses Lehrevaluations-Experimentes ist im<br />

Anhang zu finden (siehe Anhang C: Abbildungen C.1 bis C.7).<br />

Nach der vollständigen Erfassung aller Bögen wurden die Daten der Übungsbögen soweit<br />

möglich denen der Vorlesung zugewiesen, um alle Daten eines Probanden in einem Datensatz<br />

zu haben. Falls keine Zuweisung möglich war, wurden die Daten in ihrer ursprünglichen<br />

Form beibehalten. Die daraus resultierende Datenmatrix verfügt über genau 67 Datensätze.<br />

Zur Anonymisierung der Daten wurde dann ein Index eingeführt, der alle Datensätze,<br />

bei denen die Daten aus der Vorlesungsbefragung vorlagen (egal ob mit den Daten der<br />

Übung oder nicht) ein Kürzel “vXX” zugewiesen wurde. “XX” steht dabei für eine Zahl<br />

<strong>von</strong> “01” bis “59”. Bei den Datensätzen, die nur die Informationen aus den Fragebögen <strong>zur</strong><br />

Übung haben, wurde <strong>zur</strong> besseren Übersicht ein anderes Kürzel (“wXX”) zugewiesen. “XX”<br />

steht in diesem Fall für Zahlen <strong>von</strong> “01” bis “08”.<br />

Die Zuweisung erfolgte per Zufall und war in keiner Weise mit der angegebenen Matrikelnummer<br />

oder der E-Mail -Adresse in Verbindung zu setzen. Zum Abschluss der Anonymisierung<br />

wurden alle Attribute, die die Zuordnung eines Datensatzes zu einer bestimmten<br />

Personen erlauben würden, aus der Datenmatrix entfernt. Dies waren die Attribute Matrikelnummer<br />

und E-Mail-Adresse.<br />

6.5.2. Strukturierung und Visualisierung<br />

Zur besseren Übersicht über die so erhaltene Datenmatrix wurden weitere in Excel <strong>zur</strong><br />

Verfügung stehende Funktionen verwendet.<br />

Durch die farbliche Gestaltung wurden die einzelnen Themenkomplexe kenntlich gemacht.<br />

Außerdem wurde jeder Datensatz farblich <strong>von</strong> dem vorherigen und dem nachfolgenden<br />

abgehoben. Für eine spätere seitenweise Darstellung der erhobenen Daten wurde der eingeführte<br />

Index auf jeder neuen Seite eingefügt. Bei den offenen Fragestellungen waren die<br />

92


Antworten mitunter recht lang. Um eine kompakte Darstellung im Anhang dieser Arbeit zu<br />

ermöglichen, wurden diese Daten auf die wesentlichen Informationen reduziert. Sämtliche<br />

so veränderten Daten sind durch kursive Schriftform gekennzeichnet.<br />

Zusätzlich wurde die unabhängige Variable, also das im Rahmen der Übung verwendete<br />

Werkzeug, auf jeder Seite hervorgehoben. Die Markierung des verwendeten Werkzeuges<br />

erfolgte durch die entsprechende Farbe in der Spalte des Index: “ blau” für Papier und<br />

Stift, “gelb” für Grafikprogramm, “violett” für CASE-Tool und “grün” für Tablet PC. (siehe<br />

Anhang C)<br />

Im Anschluss an die Wiedergabe aller Datensätze ist eine erste Auswertung der gewonnenen<br />

Daten angefügt. Dieser Abschnitt ist farblich durch Orange-Töne vom Rest der Daten<br />

abgehoben. Diese erste <strong>Analyse</strong> besteht in der Randauszählung der Daten. Neben der Häufigkeitsverteilung<br />

sind hier die Mittelwerte aller Variablen berechnet.<br />

Zur Visualisierung der Daten eignen sich Torten- und Säulendiagramme. Diese sind über<br />

die <strong>von</strong> Excel bereitgestellten Funktionen <strong>zur</strong> Generierung <strong>von</strong> Diagrammen zu erzeugen.<br />

Nach dem Markieren des darzustellenden Bereiches können über das entsprechende Menu<br />

<strong>von</strong> Excel alle Darstellungsoptionen zum Diagramm nach den jeweiligen Anforderungen,<br />

eingestellt werden. Die im folgenden Kapitel verwendeten Diagramme sind mit Hilfe dieser<br />

Funktionen erzeugt worden. Natürlich könnten auch andere Programme wie beispielsweise<br />

“Open Office” verwendet werden.<br />

6.6. <strong>Analyse</strong> und Interpretation der Ergebnisse<br />

Nach erfolgter Codierung und Strukturierung ist die <strong>Analyse</strong> der Daten möglich. Dieses<br />

Kapitel widmet sich dabei zuerst der Auswertung der Fragebögen der Vorlesung. Im Anschluss<br />

daran werden die Ergebnisse der Übungsfragebögen besprochen und schließlich die<br />

Vor- und Nachteile jeder einzelnen Eingabemethode aus Sicht der Teilnehmer aufgezeigt.<br />

Daraus werden dann die Anforderungen an ein neues Werkzeug <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

formuliert.<br />

6.6.1. Ergebnisse der Vorlesungsbefragung<br />

Zunächst soll auf einige Ergebnisse des Fragebogens <strong>zur</strong> Vorlesung eingegangen werden.<br />

Der Hauptzweck dieses Fragebogens war, wie schon erwähnt, einen Überblick über die<br />

Motivation der Studenten sowie deren Einstellung <strong>zur</strong> Vorlesung “Software Engineering I”<br />

zu bekommen. Die Daten sollen außerdem als Vergleichswert für spätere Untersuchungen<br />

dienen. Insgesamt wurden 59 Fragebögen <strong>zur</strong> Vorlesung ausgewertet.<br />

Die Studenten wurden unter anderem danach befragt, wie sie ihre eigene Motivation<br />

einschätzen würden. Die Skala reichte dabei <strong>von</strong> “sehr hoch” bis “sehr niedrig”. In der<br />

nachfolgenden Abbildung ist das Ergebnis dieser Frage dargestellt (siehe Abbildung 6.1).<br />

Wurden zu dieser Frage keine Angaben gemacht ist dies als “k. A.” vermerkt worden.<br />

Die Befragung ergab, dass sich über die Hälfte der Studenten als “hoch” (15%) bis “sehr<br />

hoch” (39%) motiviert einschätzte. Immerhin ein Drittel (34%) war “durchschnittlich moti-<br />

93


8% 2% 2%<br />

15%<br />

34%<br />

1 (sehr hoch)<br />

2 (hoch)<br />

3 (durchschnittlich)<br />

4 (niedrig)<br />

5 (sehr niedrig)<br />

k. A.<br />

39%<br />

Abbildung 6.1.: Einschätzung der eigenen Motivation<br />

viert”, was die Vorlesung angeht. Nur zusammen 10% der Befragten hatten eine “niedrige”<br />

bis “sehr niedrige” Motivation angegeben.<br />

Die Umfrage wurde <strong>zur</strong> Mitte des Semesters durchgeführt. Somit war mit einem Ergebnis<br />

in dieser Größenordnung zu rechnen, da zu diesem Zeitpunkt fast nur noch Studenten zu<br />

einer Vorlesung kommen, an welcher sie auch Interesse haben.<br />

Gestützt wurde dieses Ergebnis auch durch die Frage, ob die Studenten beabsichtigen, an<br />

der Prüfung am Ende des Semesters teilzunehmen. Diese Frage beantworteten knapp 50%<br />

der Befragten (27 <strong>von</strong> 59 Befragten) mit “ganz sicher”.<br />

Als nächstes sollte die Einstellung der Teilnehmer zu einer anderen Form der Übung erfragt<br />

werden. Zu diesem Zweck wurden die Studenten gefragt, ob sie statt der Übung lieber<br />

Aufgaben am Computer lösen wollen. Die Skala reichte dabei <strong>von</strong> “auf jeden Fall” bis<br />

zu “auf keinen Fall” (siehe Abbildung 6.2).<br />

Dieses Ergebnis ist eher positiv, also für den Computer ausgefallen. Knapp ein Drittel<br />

(30%) war unentschlossen, 25% hielten die Idee für “gut” und sogar 17% der Studenten<br />

wollten “auf jeden Fall” Übungsaufgaben am Computer lösen. 20% der Befragten fanden<br />

die Idee “schlecht” und 8% lehnten die Idee mit “auf keinen Fall” komplett ab.<br />

Der dritte Punkt, der hier behandelt wurden, beschäftigte sich mit der Frage, ob jede zweistündige<br />

Vorlesung in logisch abgeschlossene Einheiten unterteilt werden soll. Unter<br />

dieser Einteilung ist zu verstehen, dass jede einzelne Vorlesung in Blöcke unterteilt wird,<br />

die in sich abgeschlossen sind.<br />

Dies wurde <strong>von</strong> 51 der 59 Befragten mit “ja” beantwortet und <strong>von</strong> sieben mit “nein”. Keine<br />

Angaben machte einer der Teilnehmer.<br />

94


8% 0% 17%<br />

1 (auf jeden Fall)<br />

20%<br />

25%<br />

2 (gut)<br />

3 (unentschlossen)<br />

4 (schlecht)<br />

5 (auf keinen Fall)<br />

k. A.<br />

30%<br />

Abbildung 6.2.: Statt der Übung lieber Aufgaben am Computer lösen<br />

Die daran anschließende Frage sollte die Anzahl dieser logischen Einheiten pro 90 Minuten<br />

erfragen. Abbildung 6.3 zeigt das Ergebnis, wobei die Skala <strong>von</strong> “2 Einheiten” bis zu<br />

“6 Einheiten” reichte.<br />

42% der Befragten gaben “2 Einheiten” und 24% “3 Einheiten” als die beste Anzahl <strong>von</strong><br />

logisch abgeschlossenen Einheiten an. Lediglich 15% der Studenten waren der Meinung,<br />

dass vier Einheiten und zwei Prozent sogar, dass fünf Einheiten gut wären. Keine Angaben<br />

hierzu machten 17% der Teilnehmer. Zwei Drittel der Befragten waren damit der Ansicht,<br />

dass eine Unterteilung in zwei bis drei Einheiten das Beste sei. Dies wären, bei einer<br />

Vorlesungsdauer <strong>von</strong> 90 Minuten, Einheiten in der Größenordnung <strong>von</strong> 45 bzw. 30 Minuten.<br />

Als letztes soll noch die Idee betrachtet werden, die Übung in die Vorlesung mit<br />

einzuflechten. Die Skala reichte dabei <strong>von</strong> “sehr sinnvoll” bis zu “gar nicht sinnvoll” (siehe<br />

Abbildung 6.4).<br />

Hierbei war die Resonanz eher positiv. Als “sehr sinnvoll” empfanden 37% der Studenten<br />

diesen Vorschlag. Jeweils 20% der Befragten waren der Meinung, die Idee der Einflechtung<br />

sei “sinnvoll” oder waren “unentschlossen”. Nur 8% der Probanden lehnten die Idee mit<br />

“nicht sinnvoll” und 7% mit “gar nicht sinnvoll” ab. Keine Angaben machten rund 8% der<br />

Studenten.<br />

Zusammenfassend kann man zum Ergebnis der Befragung in der Vorlesung sagen, dass<br />

die Teilnehmer der Befragung den Neuerungen, die in dem Bogen angedacht waren, eher<br />

positiv gegenüberstanden. Die Einschätzung der eigenen Motivation war generell als recht<br />

hoch bewertet worden. Alle erhobenen Daten der Vorlesungsbefragung sind im Anhang C<br />

zu finden (Abbildungen C.1 bis C.4).<br />

95


17%<br />

0%<br />

2%<br />

15%<br />

42%<br />

2 Einheiten<br />

3 Einheiten<br />

4 Einheiten<br />

5 Einheiten<br />

6 Einheiten<br />

k. A.<br />

24%<br />

Abbildung 6.3.: Unterteilung der Vorlesung in logisch abgeschlossene Einheiten<br />

7%<br />

8%<br />

8%<br />

20%<br />

37%<br />

1 (sehr sinnvoll)<br />

2 (sinnvoll)<br />

3 (unentschlossen)<br />

4 (nicht sinnvoll)<br />

5 (gar nicht sinnvoll)<br />

k. A.<br />

20%<br />

Abbildung 6.4.: Einflechtung der Übung in die Vorlesung<br />

96


6.6.2. Ergebnisse der Übungsbefragung<br />

Die Ergebnisse der Übungsbefragung dienen der Bewertung verschiedener Werkzeuge im<br />

Hinblick auf die Unterstützung bei der <strong>konzeptionellen</strong> <strong>Modellierung</strong>. Der Fragebogen wurde,<br />

wie schon erwähnt, nach der Bearbeitung einer Aufgabe verteilt und sollte die Stärken<br />

und Schwächen der jeweils verwendeten Werkzeuge aufzeigen. Die Teilnehmer wurden auf<br />

die Eingabemethoden Papier und Stift, CASE-Tool, Grafikprogramm und Tablet PC aufgeteilt.<br />

Dieser Auswertung liegen 34 vollständige Fragebögen zu Grunde. Zunächst sollen<br />

die Ergebnisse der geschlossenen Fragen dargestellt werden und dann die Vor- und Nachteile<br />

der Werkzeuge gemäß den in den offenen Fragestellungen angegebenen Kommentaren,<br />

aufgezählt werden.<br />

Quantitative Ergebnisse<br />

Generell wurde die zuvor ausgeführte Aufgabe <strong>von</strong> den Studenten als eher schwierig eingestuft.<br />

Jeweils 15 der 34 Befragten empfanden die Aufgabe als “weder einfach noch schwierig”<br />

bzw. als “schwierig”. Jeweils zwei der Probanden gaben an, die Aufgabe sei “einfach” bzw.<br />

“sehr schwer” gewesen.<br />

Die Befragten sollten zunächst die <strong>von</strong> ihnen verwendete Eingabemethode dahingehend<br />

bewerten, ob sie sie beim Lösen der Aufgabe unterstützt hat. Die Skala reichte <strong>von</strong><br />

“unterstützt” bis zu “behindert”.<br />

Die Erfahrungen der Studenten, die Papier und Stift als Eingabemethode benutzt hatten,<br />

waren durchwegs positiv. 46% der Testpersonen waren <strong>von</strong> der Unterstützung des<br />

Werkzeugs bei der Lösung der Aufgabe überzeugt. Rund 27% der Probanden waren unentschlossen<br />

und 9% gaben an, “etwas behindert” worden zu sein. Keiner der Teilnehmer<br />

hatte den Eindruck, <strong>von</strong> Papier und Stift bei der Lösung behindert zu werden und 18%<br />

machten keine Angabe zu dieser Frage.<br />

In der nachfolgenden Abbildung 6.5 sind die Angaben der Studenten dargestellt, die Papier<br />

und Stift als Werkzeug <strong>zur</strong> <strong>Modellierung</strong> verwendet haben.<br />

Von den Studenten, die ein CASE-Tool zum Entwurf der Lösung verwendet hatten, empfanden<br />

nur mehr 18% das Tool als “unterstützend”. 28% bewerteten das Werkzeug als “etwas<br />

unterstützend” und 27% waren unentschlossen. Weitere 18% der Befragten empfanden das<br />

verwendete CASE-Tool als “etwas behindernd”, 9% sogar als “behindernd”.<br />

Nachfolgende Abbildung 6.6 zeigt das Ergebnis der Probanden aus der Gruppe: “CASE-<br />

Tool”.<br />

Die Testpersonen, die mit Grafikprogrammen arbeiteten, waren mehrheitlich da<strong>von</strong><br />

überzeugt, dass sich diese Eingabemethode nicht für die Lösung der gestellten Aufgabe<br />

eignete. Einige Probanden dieser Gruppe verließen sogar frühzeitig den Saal oder wechselten<br />

in eine andere Gruppe, nämlich in Gruppe Papier und Stift. Wechsler oder Ausfälle<br />

gab es sonst in keiner anderen Gruppe.<br />

Jeweils 25% der Studenten, die Grafikprogramme einsetzten, waren unentschlossen bzw.<br />

hielten das Grafikprogramm für “etwas behindernd”. 50% der Teilnehmer empfanden diese<br />

Eingabemethode sogar als “behindernd” (siehe Abbildung 6.7).<br />

97


18%<br />

0%<br />

9%<br />

46%<br />

1 (unterstützt)<br />

2 (etwas unterstützt)<br />

3 (weder noch)<br />

4 (etwas behindert)<br />

5 (behindert)<br />

k. A.<br />

27%<br />

0%<br />

Abbildung 6.5.: Unterstützung durch das Werkzeug “Papier und Stift”<br />

9% 0%<br />

18%<br />

18%<br />

28%<br />

1 (unterstützt)<br />

2 (etwas unterstützt)<br />

3 (weder noch)<br />

4 (etwas behindert)<br />

5 (behindert)<br />

k. A.<br />

27%<br />

Abbildung 6.6.: Unterstützung durch das Werkzeug “CASE-Tool”<br />

98


0%<br />

25%<br />

50%<br />

1 (unterstützt)<br />

2 (etwas unterstützt)<br />

3 (weder noch)<br />

4 (etwas behindert)<br />

5 (behindert)<br />

k. A.<br />

25%<br />

Abbildung 6.7.: Unterstützung durch das Werkzeug “Grafikprogramm”<br />

Von den Probanden, die die Aufgabe mit einem Tablet PC lösten, waren 50% <strong>von</strong> dessen<br />

Unterstützung überzeugt. Dabei haben jeweils 25% der Testpersonen “unterstützt” und “etwas<br />

unterstützt” angegeben. 37% der Befragten waren unentschieden. “Etwas behindernd”<br />

empfanden 13% der Teilnehmer diese Eingabemethode. Keiner der Studenten empfand den<br />

Tablet PC als “behindernd”.<br />

Abbildung 6.8 zeigt die Ergebnisse der Tablet PC Nutzer.<br />

Im Mittel ergab sich damit ein Wert <strong>von</strong> 2,63 (bezogen auf eine Skala <strong>von</strong> 1 (“unterstützt”)<br />

bis 5 (“behindert”)). Die Papier und Stift-Gruppe schloss mit Abstand am besten ab. Hier<br />

ergab der Mittelwert der Bewertungen einen Wert <strong>von</strong> 2,00. Auf Platz zwei folgte dann,<br />

wie schon im Vorfeld vermutet, der Tablet PC mit einem Mittelwert <strong>von</strong> 2,38. An dritter<br />

Position rangierten die CASE-Tools mit einem Wert <strong>von</strong> 2,73. Mit großem Abstand am<br />

stärksten negativ bewerteten die Teilnehmer, die ein Grafikprogramm <strong>zur</strong> <strong>konzeptionellen</strong><br />

<strong>Modellierung</strong> nutzten, ihr Werkzeug. Der Mittelwert lag hier bei 4,25.<br />

Alle Ergebnisse dieser Frage sind in der Abbildung 6.9 noch einmal zusammengefasst. Die<br />

Tendenzen der Bewertungen der einzelnen Werkzeuge sind so klar ersichtlich.<br />

Nach Bearbeitung der Aufgabe wurden die Probanden ebenfalls gefragt, ob sie die zugewiesene<br />

Eingabemethode auch in Zukunft für die Lösung <strong>von</strong> Aufgaben dieser<br />

Art benutzen würden. Die Antwortskala reichte dabei <strong>von</strong> “immer” bis zu “nie”.<br />

Bei den Befragten, die Papier und Stift nutzten, war in etwa eine Gleichverteilung zwischen<br />

Teilnehmern, die auch zukünftig mit der Methode arbeiten wollen (“immer” und<br />

“fast immer”), unentschlossenen und denen, die dies “fast nie” mehr wollen. Eine komplette<br />

Ablehnung kam jedoch nicht vor, keine Angaben machten zwei der Studenten.<br />

99


13% 0% 0% 25%<br />

1 (unterstützt)<br />

37%<br />

2 (etwas unterstützt)<br />

3 (weder noch)<br />

4 (etwas behindert)<br />

5 (behindert)<br />

k. A.<br />

25%<br />

Abbildung 6.8.: Unterstützung durch das Werkzeug “Tablet PC”<br />

unterstützt<br />

etwas<br />

unterstützt<br />

Antwortvorgaben<br />

weder noch<br />

etwas<br />

behindert<br />

behindert<br />

Papier/Stift<br />

CASE-Tool<br />

Grafikprogr.<br />

Tablet PC<br />

k. A.<br />

0 1 2 3 4 5 6<br />

Häufigkeit<br />

Abbildung 6.9.: Unterstützung im Lösungsprozess durch die verwendete Eingabemethode<br />

100


Das Ergebnis für die CASE-Tools fiel ähnlich positiv aus. Einer der Studenten würde<br />

dieses Werkzeug “immer” und sechs sogar “fast immer” <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

verwenden. Drei gaben an, unentschlossen zu sein und einer würde “fast nie” mehr ein<br />

CASE-Tool für Aufgaben dieser Art verwenden.<br />

Die Kandidaten, denen das Grafikprogramm zugeteilt worden war, äußerten eine gegenteilige<br />

Meinung. Ein Student war unentschlossen und drei wollten diese Eingabemethode<br />

“fast nie” mehr einsetzen. Dieses Werkzeug wurde mit Abstand am schlechtesten bewertet.<br />

Die Nutzer des Tablet PC waren eher <strong>von</strong> dessen Qualitäten überzeugt und würden<br />

ihn auch in Zukunft wieder verwenden. Die Hälfte der Studenten würde dieses Werkzeug<br />

“immer” oder “fast immer” <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> verwenden. Drei sind unentschlossen<br />

und einer würde “fast nie” mehr ein Tablet PC bei dieser Art <strong>von</strong> Aufgaben<br />

verwenden. Diese Ergebnisse bestätigen damit das Resultat der vorherigen Frage, siehe<br />

hierzu Abbildung 6.10.<br />

immer<br />

fast immer<br />

Antwortvorgaben<br />

egal<br />

fast nie<br />

nie<br />

Papier/Stift<br />

CASE-Tool<br />

Grafikprogr.<br />

Tablet PC<br />

k. A.<br />

0 1 2 3 4 5 6<br />

Häufigkeit<br />

Abbildung 6.10.: Angaben <strong>zur</strong> zukünftigen Nutzung des jeweiligen Werkzeuges<br />

Durchschnittlich wurde diese Frage mit einem Wert <strong>von</strong> 2,56 beantwortet (bezogen auf eine<br />

Skala <strong>von</strong> 1 (“immer”) bis 5 (“nie”)). Der Mittelwert der Papier und Stift-Gruppe betrug<br />

2,33, der der CASE-Tool-Gruppe 2,36 und der der Teilnehmer die ein Grafikprogramm<br />

zu <strong>konzeptionellen</strong> <strong>Modellierung</strong> nutzten 3,75. Bei den Studenten, denen der Tablet PC<br />

zugeteilt war, ergab sich ein Mittelwert <strong>von</strong> 2,50.<br />

101


Häufigkeit des Vorkommens<br />

20<br />

18<br />

16<br />

14<br />

12<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

17,5<br />

15,5<br />

6<br />

7<br />

4,5<br />

4 4 4<br />

3,5<br />

1 0<br />

0<br />

0 0 1<br />

Papier/Stift CASE-Tool Grafikprogr. Tablet PC Gesamt<br />

Werkzeug<br />

ja<br />

nein<br />

k. A.<br />

Abbildung 6.11.: Bevorzugung alternativer Eingabemethoden<br />

Die Studenten wurden weiterhin gefragt, ob sie eine andere Eingabemethode <strong>zur</strong> Lösung<br />

der Aufgabe bevorzugt hätten (siehe Abbildung 6.11).<br />

Insgesamt sind die Meinungen hier ausgeglichen (15,5 mal wurde eine andere Eingabemethode<br />

bevorzugt; 17,5 mal wurde nicht für eine andere Eingabemethode gestimmt; dabei<br />

gab es eine Enthaltung). Etwas weniger als die Hälfte der Befragten hätte somit lieber eine<br />

andere Eingabemethode genutzt. Sowohl Nutzer <strong>von</strong> Papier und Stift als auch <strong>von</strong> CASE-<br />

Tools wollten eher nicht wechseln. Sechs bzw. sieben Teilnehmer beantworteten diese Frage<br />

mit “nein”, wollten also nicht wechseln. Jeweils vier antworteten mit “ja”, also dass sie lieber<br />

ein anderes Werkzeug verwendet hätten.<br />

Alle Teilnehmer, die mit einem Grafikprogramm gearbeitet haben, hätten lieber eine andere<br />

Eingabemethode <strong>zur</strong> Lösung der Aufgabe eingesetzt. An erster Stelle stand dabei ein<br />

CASE-Tool. Unter allen, die lieber eine andere Eingabemethode verwendet hätten, war am<br />

häufigsten das CASE-Tool und am zweithäufigsten Papier und Stift gewünscht worden.<br />

Drei der Befragten der Tablet PC-Gruppe gaben an, lieber ein anderes Werkzeug genutzt<br />

zu haben, vier der Studenten beantworteten die Frage mit “nein” und einer war unentschlossen<br />

und gab “ja” und “nein” an. Dadurch sind die Kommawerte bei der Häufigkeit<br />

des Vorkommens zu erklären (siehe Abbildung 6.11).<br />

Qualitative Ergebnisse<br />

Die Antworten auf die gestellten offenen Fragen ergaben ein noch deutlicheres Bild der<br />

Vor- und Nachteile der einzelnen Werkzeuge. Alle folgenden Angaben wurden den<br />

Aussagen der Testpersonen entnommen. Es sei darauf hingewiesen, dass es sich dabei um<br />

die subjektiven Meinungen der befragten Studenten handelt.<br />

102


Die Studenten, die die Aufgabe mit Papier und Stift gelöst hatten, bemerkten positiv,<br />

dass diese Eingabemethode einfach und intuitiv zu benutzen ist. Sie ist überall verfügbar<br />

und kostengünstig. Eine Lösung kann schnell erarbeitet werden und ist unabhängig <strong>von</strong><br />

der Verfügbarkeit spezieller Infrastruktur.<br />

Als Nachteile wurden <strong>von</strong> den Testteilnehmern angeführt, dass mit zunehmender Komplexität<br />

des Problems die Übersichtlichkeit leidet und ein Din-A4-Blatt zu klein ist, um<br />

größere Modelle aufzuzeichnen. Die Ergebnisse sind häufig nicht präsentabel und Korrekturen<br />

sind schwierig oder wirken unsauber. Die Umwandlung in digital verwertbare Daten<br />

erfordert technische Infrastruktur und zusätzlichen Aufwand, ist also umständlich und eher<br />

nicht praktikabel.<br />

Die CASE-Tools überzeugten die Probanden vor allem durch Benutzerfreundlichkeit und<br />

Flexibilität. Objekte lassen sich einfach skalieren und in vielen Programmen automatisch<br />

anordnen, was Modifikationen am bestehenden Modell vereinfacht. Vor allem umfangreiche<br />

Änderungen sind mit dieser Eingabemethode sehr viel einfacher möglich als mit Papier und<br />

Stift. CASE-Tools wurden <strong>von</strong> manchen Studenten als intuitiv bedienbar und als schneller<br />

Weg <strong>zur</strong> Lösung angesehen, gerade da man auf viele vordefinierte UML-Objekten <strong>zur</strong>ückgreifen<br />

kann.<br />

Andere hingegen hielten CASE-Tools für unintuitiv. Problematisch ist die Einarbeitungszeit,<br />

die <strong>zur</strong> Beherrschung des Werkzeugs investiert werden muss. Zudem variiert die Qualität<br />

der verschiedenen CASE-Tools recht stark. Einige Studenten bemängelten schlechtes<br />

Layout und fehlende Funktionalität.<br />

Testpersonen, die mit Grafikprogrammen arbeiteten, bewerteten Übersichtlichkeit und<br />

Flexibilität der Programme positiv. Sie hoben außerdem die gute Auswahl an UML-<br />

Elementen (einfache Erzeugung <strong>von</strong> Rechtecken, Strichen usw.) hervor. Außerdem sind<br />

Grafikprogramme für eine Vielzahl <strong>von</strong> Plattformen verfügbar.<br />

Nachteilig wurden hingegen die mitunter zu klein bemessenen Zeichenflächen und die zu<br />

umständliche Handhabung der Grafikprogramme für diesen Zweck bewertet. Abgesehen<br />

<strong>von</strong> der Möglichkeit, Rechtecke zu zeichnen, war keine weitere UML-Unterstützung gegeben.<br />

Ebenfalls bemängelt wurden fehlende Operationen auf Gruppen <strong>von</strong> grafischen Objekten.<br />

Die Erarbeitung einer Lösung dauerte einfach zu lange.<br />

Positive Aspekte der Tablet PCs, die <strong>von</strong> den Teilnehmern genannt wurden, waren die<br />

intuitive Handhabung und die Effizienz dieser Eingabemethode. Zum Festhalten <strong>von</strong> Gedanken<br />

ist diese sehr gut geeignet. Sie bietet einfache Editierungsmöglichkeiten und erlaubt<br />

so eine gewisse Flexibilität.<br />

Bemängelt wurden die niedrige Auflösung der Testgeräte, die als zu gering für große Diagramme<br />

angesehen wurde. Weiterhin wurde die schlechte Editierbarkeit der Zeichnungen<br />

als Nachteil genannt und eine Objekterkennung (bzw. Schrifterkennung) wurde vermisst.<br />

Ein gezeichnetes Rechteck sollte beispielsweise als solches erkannt und seine Kanten begradigt<br />

werden. Vor allem wurden fehlende Funktionen bei den Tablet PCs beanstandet.<br />

103


6.6.3. Anforderungen an Werkzeuge für die konzeptionelle <strong>Modellierung</strong><br />

Die Kommentare der Studenten und die Auswertung der Skalenfragen zeigen, dass keine<br />

der untersuchten Eingabemethoden ohne Vorbehalte als ideal <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

zu bewerten ist. Ein Werkzeug für die konzeptionelle <strong>Modellierung</strong> muss zwei zentrale<br />

Kriterien erfüllen: Es muss intuitives Zeichnen ermöglichen und gleichzeitig müssen die<br />

gezeichneten Elemente flexibel modifizierbar sein.<br />

Im Folgenden sollen Anforderungen an ein neues Werkzeug <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

formuliert werden, welches die positiven Aspekte der untersuchten Eingabemethoden<br />

in sich vereint.<br />

Die natürlichste Art, ein Modell zu skizzieren ist, es mit einem Stift zu zeichnen. Ein<br />

“ideales” Werkzeug <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> sollte diese Eingabeform soweit wie<br />

möglich unterstützen. Dies beinhaltet beispielsweise auch das korrekte Erkennen und Behandeln<br />

<strong>von</strong> intuitiven Gesten wie dem Durchstreichen und damit Wegradieren gezeichneter<br />

Elemente.<br />

Von besonders großer Bedeutung bei der flexiblen Modifikation der Modellelemente ist die<br />

vollständige Erhaltung der Semantik des bestehenden Modells. Modellelemente<br />

sollten beispielsweise beliebig auf der Zeichenfläche verschiebbar sein, wobei möglicherweise<br />

bestehende Endpunkte <strong>von</strong> Linien zwischen Klassen, die verschiedene Beziehungen repräsentieren,<br />

zusammen mit einer Klasse verschoben werden müssen. Darüber hinaus sollten<br />

die Modellelemente beliebig skalierbar sein, ebenfalls unter Beachtung aller mit dem Objekt<br />

in Verbindung stehenden anderen Objekten.<br />

Im Hinblick auf die Erkennung <strong>von</strong> gezeichneten Elementen sollten UML-Objekte automatisch<br />

als solche erkannt und in eine saubere und korrekte Form umgewandelt werden.<br />

Linien sollten begradigt und Boxen als Klassen erkannt werden. Dabei muss das Erkennungssystem<br />

intuitive <strong>Modellierung</strong>sschritte, die zwischenzeitlich mitunter nicht konsistent<br />

sind, verarbeiten können. Die intuitivste Art zwei Klassen und eine Beziehung zwischen<br />

diesen Klassen zu zeichnen ist, ausgehend <strong>von</strong> der ersten Klasse eine Linie zu ziehen und<br />

dann am Ende dieser Linie die zweite Klasse zu zeichnen. Nach dem Zeichnen der Linie ist<br />

das Modell zunächst inkonsistent, da kurzzeitig eine Beziehung mit nur einem Endpunkt<br />

besteht. Nachdem die zweite Klasse gezeichnet wurde, muss die Linie nachträglich als Beziehung<br />

zwischen Klassen erkannt werden. Ein Werkzeug <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

sollte also flexibel im Hinblick auf die Reihenfolge, in der der Benutzer Elemente eines<br />

Modells zeichnet, eingehen können.<br />

Zur Verbesserung der Benutzerfreundlichkeit des Werkzeugs sollten außerdem weitere Kriterien<br />

erfüllt werden:<br />

Eine automatische Schrifterkennung würde die Lesbarkeit und Präsentationsfähigkeit des<br />

Modells erheblich verbessern. Weitergehende Manipulationsfunktionen wie das Markieren<br />

und gleichzeitige Verschieben <strong>von</strong> Gruppen <strong>von</strong> Elementen würde den <strong>Modellierung</strong>sprozess<br />

beschleunigen. Etwaige Verdeckungen, die durch das Verschieben <strong>von</strong> Elementen entstehen<br />

könnten, sollten auf Wunsch durch die dynamische Anordnung betroffener Elemente<br />

verhindert werden. Die Oberfläche des Werkzeugs sollte eine spezielle Benutzerführung erhalten,<br />

die sowohl eine intuitive Bedienung nur durch einen Stift ermöglicht (also ohne<br />

104


Tastatureingaben) als auch einen möglichst großen Arbeitsbereich bereitstellt. Dabei sollten<br />

auf Wunsch auch die aus CASE-Tools bekannten Paletten mit vorgegebenen Objekten<br />

(Klassen, Interfaces usw.) zum schnellen Einsetzen verfügbar sein. Dies würde vor allem<br />

den Studenten die Arbeit erleichtern, die bereits den Umgang mit CASE-Tools gewohnt<br />

sind. Durch verschiedene Zoom-Stufen oder auch Sichten wäre es zudem möglich, auch bei<br />

größeren Modellen den Überblick zu behalten. Je nach Detailstufe wären dann beispielsweise<br />

entweder alle Objekte und Details enthalten, aber nur ein Ausschnitt des ganzen<br />

Modells zu sehen, oder die UML-Grundelemente wie Klassen und Verbindungen zwischen<br />

diesen sichtbar, aber des ganze System könnte auf einem Bildschirm komplett dargestellt<br />

werden.<br />

Die Umsetzung dieser Anforderungen erfordert die Entwicklung einer neuen Softwarelösung.<br />

Als Hardwareplattform hierfür bieten sich für den mobilen Einsatz bei Studenten<br />

Tablet PCs an, da diese die Stifteingabe unterstützen und ausreichend Rechenleistung für<br />

komplexe Operationen wie die Erkennung und Umwandlung <strong>von</strong> UML-Elementen bereitstellen.<br />

Zudem sind diese bereits zu erschwinglichen Preisen erhältlich, die sich im Bereich<br />

der Preise eines Notebooks bewegen.<br />

Stationäre Installationen, beispielsweise für Dozenten, lassen sich aus nahezu beliebigen<br />

Kombinationen <strong>von</strong> stiftbasierten Eingabegeräten (z.B. Grafiktabletts, interaktiven Displays<br />

oder Smartboards), Anzeigegeräten (interaktive Displays, Beamer) und Rechnern<br />

zusammenstellen.<br />

6.6.4. Fazit<br />

Wie aus den Kommentaren zu erkennen ist, hat jedes der Werkzeug seine Vor- und Nachteile.<br />

Ein “optimales” Werkzeug gibt es noch nicht. Hauptmanko der meisten Werkzeuge<br />

ist, dass sie nicht für den Zweck der <strong>konzeptionellen</strong> <strong>Modellierung</strong> mit UML konzipiert<br />

sind, und somit auch nicht die erforderlichen Funktionen aufweisen.<br />

Das Ergebnis der Untersuchung stützt die zuvor aufgestellte Hypothese und<br />

entspricht den erwarteten Ergebnissen.<br />

Keines der Werkzeuge kam an die Benutzerfreundlichkeit der Eingabemethode Papier und<br />

Stift heran. Wie zu erwarten, konnte es der nötigen Flexibilität, gerade zum Beginn des<br />

Prozesses der <strong>konzeptionellen</strong> <strong>Modellierung</strong>, in vollem Umfang genüge leisten.<br />

CASE-Tools und Tablet PCs waren im Mittelfeld zu finden. Tablet PCs waren wie erwartet<br />

etwas besser in ihrer Unterstützung bei der Lösung einer Aufgabe <strong>zur</strong> <strong>konzeptionellen</strong><br />

<strong>Modellierung</strong> als die CASE-Tools bewertet worden. Obwohl die CASE-Tools mit umfangreicher<br />

UML-Unterstützung aufgewartet haben, war ihre anfängliche Komplexität eher<br />

hinderlich für den Lösungsprozess. Wäre auf den Tablet PCs ein CASE-Tool gelaufen, hätte<br />

das Ergebnis wahrscheinlich anders ausgesehen.<br />

Die Grafikprogramme bildeten wie erwartet das Schlusslicht dieses Experimentes. Da sie<br />

nicht für diese Art des Zeichnens konzipiert sind, wurden sie <strong>von</strong> den Studenten als hinderlich<br />

für die konzeptionelle <strong>Modellierung</strong> bewertet.<br />

105


Tablet PCs waren nach Papier und Stift die zweitbeste Eingabemethode <strong>zur</strong> <strong>konzeptionellen</strong><br />

<strong>Modellierung</strong>. An dritter Stelle waren die CASE-Tools vertreten, wenn auch knapp.<br />

Bezogen auf die für diese Untersuchung definierte Grundgesamtheit kann dieser Hypothese<br />

damit eine vorläufige Gültigkeit zugesprochen werden.<br />

Eine Hypothese für folgenden Untersuchungen könnte lauten:<br />

H1: Das in Kapitel 6.6.3 skizzierte Werkzeug bietet nach Papier & Stift die beste Unterstützung<br />

für die konzeptionelle <strong>Modellierung</strong>.<br />

6.6.5. Verwandte Arbeiten<br />

Ein didaktisches <strong>Modellierung</strong>swerkzeug für UML-Zustandsdiagramme, das den zuvor formulierten<br />

Anforderungen an Werkzeuge dieser Art teilweise genügt, wurde <strong>von</strong> der Universität<br />

Dortmund entwickelt [Pleu04]. DAVE (Dortmunder Automatenvisualisierer und<br />

-editor) bietet die wichtigsten Funktionen eines CASE-Tools, weist aber den Unterschied<br />

auf, dass die Funktionen auf ein Minimum reduziert sind. Damit kann die Benutzeroberfläche<br />

sehr einfach gehalten werden, wodurch das Werkzeug intuitiv zu bedienen ist und<br />

der Einarbeitungsaufwand stark reduziert wird. Durch eine zusätzliche multimediale Visualisierung<br />

kann Studenten der Sachverhalt hinter den Formalismen aufgezeigt werden.<br />

Intuitives Zeichnen mit Stifteingabe ist hier aber nicht vorgesehen.<br />

Der Einsatz <strong>von</strong> Tablet-PCs in der Softwaretechnik-Lehre wurde <strong>von</strong> Kenrick Mock<br />

untersucht ([Mock04]). Der Tablet-PC diente als digitale Tafel, wodurch es möglich war,<br />

Präsentationen komfortabel zu editieren und zu annotieren. Besonders hervorgehoben wurde<br />

dabei der Nutzen bei der Entwicklung <strong>von</strong> UML-Diagrammen, bei denen im Verlauf der<br />

Entwicklung einer Lösung, also der <strong>konzeptionellen</strong> <strong>Modellierung</strong>, viele Änderungen notwendig<br />

sind. Da oft Komponenten geändert und verschoben werden müssen, macht der<br />

Einsatz einer traditionellen Tafel häufiges Neuzeichnen des Modells notwendig. Die Eingabe<br />

per Stift ist für das Zeichnen <strong>von</strong> UML-Elementen wesentlich intuitiver als die Eingabe<br />

mit einer Maus. Auch der Einsatz eines UML-Objekterkennungs-Systems wurde <strong>von</strong> Mock<br />

angedacht.<br />

Das Projekt “Tahuti” ist ein Skizzen-Erkennungssystem für UML-Diagramme [HaDa2].<br />

Das System erkennt Objekte anhand der geometrischen Eigenschaften und nicht durch<br />

eine vorher festgelegte Reihenfolge <strong>von</strong> Strichen. Damit ist intuitives Zeichen <strong>von</strong> UML-<br />

Elementen möglich, ohne zuvor spezifizierte Abläufe lernen zu müssen. Tahuti ist auf wenige<br />

UML-Objekte begrenzt und wird derzeit nicht weiterentwickelt. Weitergehende Hilfsmittel,<br />

wie in CASE-Tools üblich, sind nicht vorhanden. Das Projekt zielt weniger auf konzeptionelle<br />

<strong>Modellierung</strong> als auf Spezifikation <strong>von</strong> Erkennungsmethoden ab.<br />

106


Teil IV.<br />

Schluss<br />

107


7. Fazit<br />

Nach einer Zusammenfassung dieser Arbeit soll der Einsatz <strong>von</strong> empirischen Methoden<br />

in der Softwaretechnik diskutiert werden. Dabei beschreibt dieses Kapitel, was bei einer<br />

Übertragung der Methodik auf andere Anwendungsfälle zu beachten ist. Den Abschluss<br />

bildet ein Ausblick auf zukünftige Entwicklungen der Methodik, wie auch die Verwendung<br />

der Ergebnisse aus der Untersuchung <strong>von</strong> <strong>Werkzeugen</strong> <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong>.<br />

7.1. Zusammenfassung<br />

Empirische Methoden haben bisher kaum Einzug in die Informatik gehalten. Anwendung<br />

finden sie teilweise in der Softwaretechnik. Dort dienen sie der Bewertung <strong>von</strong> <strong>Werkzeugen</strong><br />

und Methoden der Softwareerstellung.<br />

Diese Arbeit gibt einen Einblick in die Methoden der empirischen Sozialforschung. Die<br />

empirische Sozialforschung ist eine Sammlung <strong>von</strong> Methoden und Techniken <strong>zur</strong> wissenschaftlichen<br />

Untersuchung menschlichen Verhaltens. Diese Methoden sind für die Softwaretechnik<br />

geeignet, wenn es um die Schnittstelle zwischen Mensch und Maschine geht.<br />

Der Aufbau <strong>von</strong> empirischen Untersuchungen kann in sechs Phasen untergliedert werden.<br />

In der Phase der Definition werden die Ziele einer Studie identifiziert und definiert. Der<br />

geplante Test und eine Theorie, die der zu testenden Hypothese zugrunde liegt, werden<br />

beschrieben. Während der Planung und des Designs der Untersuchung werden die unabhängigen<br />

und abhängigen Variablen, Kontrollmechanismen und Auswahlverfahren der zu<br />

testende Grundgesamtheit festgelegt. Die Implementierung umfasst alle nötigen organisatorischen<br />

Maßnahmen und die Vorbereitung der benötigten Materialien. Dies ist beispielsweise<br />

die Schulung <strong>von</strong> Interviewern oder auch die Konstruktion eines Fragebogens.<br />

Außerdem wird in Pretests die Richtigkeit der erstellten Materialien geprüft. Der nächste<br />

Schritt ist die Durchführung der Studie, bei der alle außergewöhnlichen Vorfälle protokolliert<br />

und alle verwendeten Materialien gesammelt werden müssen. Die Datenerfassung dient<br />

dann der Aufbereitung der Daten für die nachfolgende <strong>Analyse</strong>. Hierfür werden die Daten<br />

codiert und so strukturiert, wie es für die <strong>Analyse</strong> nötig ist. In der <strong>Analyse</strong>-Phase werden<br />

die gewonnenen Daten untersucht und es erfolgt eine Auswertung und Interpretation der<br />

gewonnenen Ergebnisse. Den Abschluss bildet dann die Veröffentlichung der Ergebnisse.<br />

Mögliche Untersuchungsformen sind beispielsweise Experimente, bei denen durch Beobachtung<br />

Daten erhoben werden, oder Umfragen, in denen mittels Interviews oder auch<br />

Fragebögen Daten ermitteln werden.<br />

Im Rahmen dieser Arbeit fanden diese Methoden Anwendung bei einem Experiment, mit<br />

dem verschiedene Werkzeuge <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> bewertet wurden.<br />

108


Die konzeptionelle <strong>Modellierung</strong> ist in der Softwaretechnik-Lehre bisher vernachlässigt worden.<br />

Für die Lehre wird eine Unterstützung durch geeignete Werkzeuge benötigt. In einem<br />

Experiment wurde dazu die Eignung der vier Eingabemethoden Papier und Stift, Grafikprogramm,<br />

CASE-Tool und Tablet PC miteinander verglichen. 34 Studenten wurden in<br />

vier Gruppen aufgeteilt. Jeder Gruppe war ein Werkzeug zugeteilt, mit dem die Probanden<br />

eine Aufgabe konzeptionell lösen mussten. Ihre Erfahrungen dabei wurden danach mit<br />

einem Fragebogen erfasst.<br />

Es wurde festgestellt, dass keine der Eingabemethoden optimal <strong>zur</strong> Bearbeitung <strong>von</strong> Aufgaben<br />

<strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> geeignet ist. Aus den Ergebnissen der Befragung<br />

wurden deswegen Anforderungen für ein neues Werkzeug abgeleitet, das in Zukunft für<br />

die konzeptionelle <strong>Modellierung</strong> in Softwaretechnik-Vorlesungen eingesetzt werden kann.<br />

Dieses Werkzeug muss intuitives Zeichnen ermöglichen und gleichzeitig die gezeichneten<br />

Elemente unter vollständiger Erhaltung der Semantik des Modells flexibel modifizieren<br />

können.<br />

7.2. Diskussion<br />

Diese Untersuchung hat gezeigt, dass ursprünglich der Sozialforschung entlehnte empirische<br />

Methoden sehr gut in zwei Bereichen in der Softwaretechnik eingesetzt werden können.<br />

Erstens helfen sie bei der Ermittlung <strong>von</strong> Anforderungen an ein System. Durch die Einbeziehung<br />

der Benutzer einer zukünftigen Softwarelösung können wichtige Erkenntnisse<br />

hinsichtlich Funktionalitäten und Bedienung gewonnen werden. Dazu können bestehende,<br />

ähnliche Systeme getestet werden und die dabei erkannten Vor- und Nachteile <strong>zur</strong> Formulierung<br />

der Anforderungen an ein neues System genutzt werden. Daten können mit Hilfe<br />

<strong>von</strong> Beobachtung und Befragung gesammelt und dann ausgewertet werden. Der Nutzen<br />

<strong>von</strong> Funktionen einer Software kann so nicht nur theoretisch begründet, sondern auch empirisch<br />

bewiesen werden. Besonders hervorzuheben ist dabei, dass das Feedback <strong>von</strong> den<br />

potentiellen Benutzern kommt. Denn genau diese Gruppe entscheidet letztendlich über<br />

den Erfolg oder Misserfolg einer Softwarelösung. Nur wenn diese auch den Ansprüchen des<br />

Benutzers genügt, wird sie gekauft und auch eingesetzt.<br />

Der zweite Aspekt betrifft vor allem die Benutzerschnittstelle. Hier kann mit empirischen<br />

Methoden die Benutzerfreundlichkeit und Benutzbarkeit eines Systems getestet werden.<br />

Mit Usability-Test wird der Praxisfall simuliert. Versuchspersonen lösen dabei Aufgaben<br />

mit der <strong>zur</strong> Untersuchung stehenden Software. Im Anschluß daran wird beispielsweise die<br />

subjektive Einstellung der Benutzer erfragt. Die Zufriedenheit ist sehr bedeutungsvoll, da<br />

das subjektive Empfinden des Benutzers entscheidend für die Akzeptanz eines Systems ist.<br />

Gemessen wird sie in der Regel durch Fragebögen oder Interviews.<br />

Die nutzbringende Übertragung der in dieser Arbeit aufgezeigten Methodik auf andere<br />

Anwendungsfälle erscheint ohne weiteres möglich. Allerdings sollten die Punkte, die aufgrund<br />

der speziellen Anforderungen und auch aufgrund der technischen Voraussetzungen<br />

bei dieser <strong>Analyse</strong> <strong>von</strong> <strong>Werkzeugen</strong> <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong> nicht erfüllt werden<br />

konnten, berücksichtigt werden.<br />

Dies betrifft bei zukünftigen Untersuchungen <strong>von</strong> verschiedenen Softwarelösungen vor al-<br />

109


lem die Voraussetzungen der Validität. Hier sollte unbedingt darauf geachtet werden, dass<br />

die Rahmenbedingungen eine völlig zufällige Zuweisung zu dem jeweiligen Treatment erlauben.<br />

Nur so können systematische Zusammenhänge zwischen den personellen Merkmalen<br />

und der Zugehörigkeit zu einer bestimmten Gruppe ausgeschlossen werden. Gegebenenfalls<br />

vorliegende Veränderungen in den abhängigen Variablen sind so mit großer Wahrscheinlichkeit<br />

auf den Stimulus <strong>zur</strong>ückzuführen.<br />

Außerdem sollten neben den subjektiven Daten auch objektive Daten erhoben werden.<br />

Dadurch sind neben der Zufriedenheit der Benutzer auch Aussagen über die Effizienz und<br />

Effektivität eines Untersuchungsobjektes möglich.<br />

Eine Vielzahl <strong>von</strong> bekannten und bewährten empirischen Methoden konnte aufgrund der<br />

spezifischen Problemstellung bei dieser Untersuchung <strong>von</strong> Eingabemethoden keine Anwendung<br />

finden. Bei zukünftigen Experimenten ist deswegen erneut zu entscheiden, welche<br />

dieser Methoden verwendet werden sollen. Es ist immer <strong>von</strong> Fall zu Fall zu entscheiden,<br />

wie das Ziel einer Untersuchung am besten erreichbar ist. Es müssen also jeweils die geeigneten<br />

Methoden ausgewählt werden, mit denen die aufgestellte Hypothese am besten zu<br />

überprüfen ist.<br />

7.3. Ausblick<br />

Die empirischen Methoden der Sozialforschung haben sich in den letzten 50 Jahren nur<br />

wenig verändert. Die Erhebungstechniken sind beispielsweise auf dem Stand der 40er Jahre<br />

des 20. Jahrhunderts. In absehbarer Zukunft werden hier möglicherweise auch keine<br />

Neuerungen kommen. Der Einsatz der empirischen Methoden in der Softwaretechnik wird<br />

sich mit großer Sicherheit durchsetzen. Denn gerade die Schnittstelle zwischen Mensch und<br />

Maschine ist entscheidend für den Erfolg eines Systems. Empirische Methoden erlauben,<br />

genau diesen Aspekt detailliert zu untersuchen. Dazu werden diese Methoden in Zukunft<br />

weiter an die Bedürfnisse der Softwaretechnik angepasst werden müssen, wodurch sich wiederum<br />

eine Weiterentwicklung der empirischen Methoden selbst ergeben kann.<br />

Im Hinblick auf die Skizzierung einer neuen Werkzeuglösung <strong>zur</strong> <strong>konzeptionellen</strong> <strong>Modellierung</strong><br />

kann gesagt werden, dass am Lehrstuhl Brügge der TU München im Moment an<br />

der Entwicklung eines Werkzeugs gearbeitet wird, welches die ermittelten Anforderungen<br />

erfüllt, und somit die Softwaretechnik-Lehre optimal unterstützt. Dieses spezielle Werkzeug<br />

soll in einem Forschungsprojekt zum Einsatz kommen, welches Community-Prozesse,<br />

insbesondere Peer Reviews <strong>von</strong> Aufgabenlösungen, in großen Vorlesungen untersucht. Von<br />

besonderem Interesse ist dabei der Aspekt der Skalierbarkeit des Austauschs <strong>von</strong> Aufgaben<br />

und Lösungen zwischen Hunderten <strong>von</strong> Studenten. Bei Erfolg dieser Untersuchungen soll<br />

das Werkzeug dann Einzug in die Lehre der Softwaretechnik halten und regelmäßig <strong>zur</strong><br />

Lösung <strong>von</strong> Aufgaben auf diesem Gebiet eingesetzt werden.<br />

“Jedes Werkzeug erhält nämlich dadurch seine Vollendung,<br />

dass es nicht mehreren, sondern nur einem Zwecke dient.”<br />

Aristoteles (384 - 322 v.Chr.)<br />

110


Teil V.<br />

Anhang<br />

111


A. Fragebögen<br />

112


Fragebogen für Vorlesungen:<br />

A: Inhalt<br />

1. Stoffmenge und Tempo waren mir zu gering □ □ □ □ □ zu groß<br />

2. Das Veranstaltungsniveau war mir zu niedrig □ □ □ □ □ zu hoch<br />

3. Die Abstimmung mit anderen Fächern war deutlich □ □ □ □ □ nicht erkennbar<br />

4. Der Bezug <strong>zur</strong> Praxis bzw. <strong>zur</strong> aktuellen Forschung erschien mir angemessen □ □ □ □ □ nicht vorhanden<br />

5. Mein Gesamteindruck zum Inhalt der Vorlesung ist positiv □ □ □ □ □ negativ<br />

Kommentar zum Inhalt:<br />

(Möglichkeit <strong>zur</strong> Texteingabe)<br />

B: Gestaltung<br />

1. Die logische Gliederung war immer klar □ □ □ □ □ nie ersichtlich<br />

2. Schwierige Dinge waren für mich gut erklärt □ □ □ □ □ unverständlich<br />

3. Wichtiges wurde klar herausgearbeitet immer □ □ □ □ □ nie<br />

4. Beispiele/ Experimente/Modelle zum Thema fand ich hilfreich □ □ □ □ □ nicht hilfreich<br />

5. Mein Gesamteindruck <strong>zur</strong> Gestaltung der Vorlesung ist positiv □ □ □ □ □ negativ<br />

Kommentar <strong>zur</strong> Gestaltung:<br />

(Möglichkeit <strong>zur</strong> Texteingabe)<br />

C: Präsentation:<br />

1. Die Sprache war akustisch verständlich □ □ □ □ □ unverständlich<br />

2. Die Handschrift auf Tafel/Folie war gut lesbar □ □ □ □ □ schlecht lesbar<br />

3. Fertige Folien/Präsentationen waren gut □ □ □ □ □ schlecht<br />

4. Skripten/Unterlagen <strong>zur</strong> Vorlesung waren gut □ □ □ □ □ schlecht<br />

5. Das www- Angebot <strong>zur</strong> Vorlesung war gut □ □ □ □ □ schlecht<br />

6. Mein Gesamteindruck <strong>zur</strong> Präsentation der Vorlesung ist positiv □ □ □ □ □ negativ<br />

Kommentar <strong>zur</strong> Präsentation:<br />

(Möglichkeit <strong>zur</strong> Texteingabe)<br />

D: Persönliches Auftreten:<br />

1. Sie/Er wirkte gut vorbereitet immer □ □ □ □ □ nie<br />

2. Ich fand sie/ihn engagiert □ □ □ □ □ lustlos<br />

3. Der Dozent hat mich für das Fach motiviert sehr □ □ □ □ □ gar nicht<br />

4. Sie /Er behandelte Fragen aus dem Auditorium hilfreich □ □ □ □ □ gar nicht<br />

5. Sie/Er war außerhalb der Vorlesung für mich ansprechbar immer □ □ □ □ □ nie<br />

6. Mein Gesamteindruck zum pers. Auftreten in der Vorlesung ist positiv □ □ □ □ □ negativ<br />

Kommentar zum persönlichen Auftreten:<br />

(Möglichkeit <strong>zur</strong> Texteingabe)<br />

E: Allgemeine Angaben:<br />

1. Ich kann die Veranstaltung ihres Inhalts wegen empfehlen ja □ □ □ □ □ nein<br />

2. Ich kann die Veranstaltung des Dozenten wegen empfehlen ja □ □ □ □ □ nein<br />

3. Ich besuchte die Veranstaltung immer □ □ □ □ □ nie<br />

F: Gewichtung:<br />

a. Inhalt wichtig □ □ □ □ □ unwichtig<br />

b. Gestaltung wichtig □ □ □ □ □ unwichtig<br />

c. Präsentation wichtig □ □ □ □ □ unwichtig<br />

d. pers. Auftreten wichtig □ □ □ □ □ unwichtig<br />

G: Kommentare:<br />

1. Das fand ich gut: (Möglichkeit <strong>zur</strong> Texteingabe)<br />

2. Das kann man besser machen: (Möglichkeit <strong>zur</strong> Texteingabe)<br />

Abbildung A.1.: Minimalfragebogen der TU München <strong>zur</strong> Evaluation [Eval05]<br />

113


Software Engineering I<br />

Fragebogen <strong>zur</strong> Vorlesung<br />

13.12.2005<br />

Einführung:<br />

Das Ziel des Fragebogens ist, die Vermittlung des Stoffes und die Übung zu verbessern. Zu diesem Zweck<br />

beantworten Sie bitte die Fragen <strong>zur</strong> Vorlesung gemäß Ihrer Einschätzung. Für die weitere wissenschaftliche<br />

Verwendung werden die Befragungsergebnisse anonymisiert.<br />

Sie benötigen zum Ausfüllen des Fragebogens ca. 5 bis 10 Minuten. Kreuzen Sie den für Sie zutreffenden Wert an.<br />

Bitte immer nur ein Kreuz pro Frage. Wenn nötig/möglich schreiben Sie Ihre Meinung in Stichpunkten auf die dafür<br />

vorgesehene Linie. Am Ende des Fragebogens können Sie einen Kommentar abgeben.<br />

Wir bitten um eine ehrliche Beantwortung der Fragen. Es gibt keine „richtigen“ und „falschen“ Antworten.<br />

Bei zusätzlicher Angabe Ihrer Matrikelnummer und Ihrer E-Mail-Adresse nehmen Sie außerdem an der Verlosung<br />

eines – iPod shuffle – teil.<br />

Teilnahmebedingungen <strong>zur</strong> Verlosung:<br />

1. Angabe der Matrikelnummer und der E-Mail-Adresse<br />

2. Ausfüllen dieses Fragebogens<br />

3. Zusätzliche Teilnahme an der Übung vom Donnerstag den 15.12.2005 und Ausfüllen eines zweiten Fragebogens,<br />

der ca. 3 bis 5 Minuten Zeit in Anspruch nehmen wird. (Jeder der über einen eigenen Laptop verfügt, möge diesen<br />

bitte mitbringen.)<br />

4. Eine Teilnahme erst ab der Übung ist nicht möglich!<br />

Hinweise:<br />

Wir möchten noch einmal darauf hinweisen, dass sämtliche Daten streng vertraulich behandelt werden. Für die<br />

weitere wissenschaftliche Verwendung werden die Daten anonymisiert.<br />

Wir bedanken uns für Ihre Zeit. Viel Glück bei der Verlosung.<br />

Demografische Daten:<br />

1. Matrikelnummer: _______________ (Angabe auf freiwilliger Basis)<br />

2. E-Mail-Adresse: _______________<br />

(Angabe auf freiwilliger Basis; <strong>zur</strong> Benachrichtigung des Gewinners nötig)<br />

3. Semesterzahl: _______________<br />

4. Studienrichtung: _______________<br />

5. Nebenfach: _______________<br />

6. Abschluss: □ Diplom □ Bachelor/Master<br />

Allgemeine Angaben:<br />

1. Ich kann die Veranstaltung ihres Inhalts wegen empfehlen<br />

2. Ich kann die Veranstaltung des Dozenten wegen empfehlen<br />

sehr<br />

sehr<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

gar nicht<br />

gar nicht<br />

3. Ich besuchte die Veranstaltung<br />

4. Ich besuchte die Übung<br />

5. Ich machte die Hausaufgaben<br />

immer<br />

immer<br />

immer<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

nie<br />

nie<br />

nie<br />

Seite 1 <strong>von</strong> 2<br />

Abbildung A.2.: Fragebogen <strong>zur</strong> Softwaretechnik-Vorlesung (Seite 1)<br />

114


Software Engineering I - Fragebogen <strong>zur</strong> Vorlesung - 13.12.2005<br />

Inhalt / Motivation:<br />

1. Stoffmenge und Tempo waren mir<br />

2. Das Veranstaltungsniveau war mir<br />

3. Das Niveau der Übung war mir<br />

4. Das Niveau der Hausaufgaben war mir<br />

5. Die Abstimmung mit anderen Fächern war<br />

6. Der Bezug <strong>zur</strong> Praxis bzw. <strong>zur</strong> aktuellen Forschung<br />

erschien mir<br />

7. Mein Gesamteindruck zum Inhalt der Vorlesung ist<br />

8. Einschätzung der eigenen Motivation<br />

zu gering<br />

zu niedrig<br />

zu niedrig<br />

zu niedrig<br />

deutlich<br />

angemessen<br />

positiv<br />

sehr hoch<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

zu groß<br />

zu hoch<br />

zu hoch<br />

zu hoch<br />

nicht erkennbar<br />

nicht vorhanden<br />

negativ<br />

sehr niedrig<br />

Konzentration:<br />

1. Ich kann der Vorlesung über die gesamte Länge folgen immer □ □ □ □ □ nie<br />

Ablenkungsfaktoren:<br />

2. Ich kann der Übung über die gesamte Länge folgen immer □ □ □ □ □ nie<br />

Ablenkungsfaktoren:<br />

3. Ich würde statt der Übung lieber Aufgaben am<br />

Computer lösen.<br />

4a. Ich fände eine Unterteilung jeder zweistündigen<br />

Vorlesung in logisch abgeschlossene Einheiten gut.<br />

4b. Wenn ja: Wie viele logische Einheiten<br />

5. Die Übung sollte in die Vorlesung eingeflochten sein<br />

auf jeden Fall<br />

ja<br />

2 Einheiten<br />

sehr sinnvoll<br />

□ □ □ □ □<br />

□<br />

□<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

auf keinen Fall<br />

nein<br />

6 Einheiten<br />

gar nicht sinnvoll<br />

Ziele:<br />

1. Ich beabsichtige an der Prüfung teil zu nehmen<br />

2. Ich besuche die Vorlesung um einen Schein zu erwerben<br />

ganz sicher<br />

ja<br />

□ □ □ □ □<br />

□ □ □<br />

sicher nicht<br />

nein<br />

Themenwahl:<br />

1. welche Themen waren überfordernd:<br />

2. Ich hätte gerne mehr gehört/gelesen über:<br />

3. Ich hätte gerne weniger gehört/gelesen über:<br />

Kommentare:<br />

1. Das fand ich gut:<br />

2. Das kann man besser machen:<br />

Vielen Dank für Ihre Kooperation.<br />

Seite 2 <strong>von</strong> 2<br />

Abbildung A.3.: Fragebogen <strong>zur</strong> Softwaretechnik-Vorlesung (Seite 2)<br />

115


Software Engineering I<br />

Fragebogen <strong>zur</strong> Übung<br />

15.12.2005<br />

Einführung:<br />

Das Ziel des Fragebogens ist, die Vermittlung des Stoffes und die Übung zu verbessern. Zu diesem Zweck<br />

beantworten Sie bitte die Fragen <strong>zur</strong> soeben durchgeführten Übung gemäß Ihrer Einschätzung. Für die weitere<br />

wissenschaftliche Verwendung werden die Befragungsergebnisse anonymisiert.<br />

Sie benötigen zum Ausfüllen des Fragebogens ca. 3 bis 5 Minuten. Kreuzen Sie den für Sie zutreffenden Wert an.<br />

Bitte immer nur ein Kreuz pro Frage. Wenn nötig/möglich schreiben Sie Ihre Meinung in Stichpunkten auf die dafür<br />

vorgesehene Linie. Am Ende des Fragebogens können Sie einen Kommentar abgeben.<br />

Wir bitten um eine ehrliche Beantwortung der Fragen. Es gibt keine „richtigen“ und „falschen“ Antworten.<br />

Bei zusätzlicher Angabe Ihrer Matrikelnummer und Ihre E-Mail-Adresse nehmen Sie außerdem an der Verlosung<br />

eines – iPod shuffle – teil.<br />

Teilnahmebedingungen <strong>zur</strong> Verlosung:<br />

1. Angabe der Matrikelnummer und der E-Mail-Adresse<br />

2. Ausfüllen dieses Fragebogens<br />

3. Ausfüllen des Fragebogens <strong>zur</strong> Vorlesung vom 13.12.2005.<br />

4. Eine Teilnahme ist nur bei Ausfüllen beider Fragebögen möglich!<br />

Hinweise:<br />

Wir möchten noch einmal darauf hinweisen, dass sämtliche Daten streng vertraulich behandelt werden. Für die<br />

weitere wissenschaftliche Verwendung werden die Daten anonymisiert.<br />

Wir bedanken uns für Ihre Zeit. Viel Glück bei der Verlosung.<br />

Demografische Daten:<br />

1. Matrikelnummer: _______________ (Angabe auf freiwilliger Basis)<br />

2. E-Mail-Adresse: _________________________<br />

(Angabe auf freiwilliger Basis; <strong>zur</strong> Benachrichtigung des Gewinners nötig)<br />

3. Semesterzahl: _______________<br />

4. Studienrichtung: _______________<br />

5. Nebenfach: _______________<br />

6. Abschluss: □ Diplom □ Bachelor/Master<br />

Werkzeuge:<br />

1a. Ich habe die soeben gestellte<br />

Aufgabe gelöst mit:<br />

1b. Wenn zuvor CASE-Tool angegeben:<br />

Welches<br />

1c. Wenn zuvor Grafikprogramm angegeben:<br />

Welches<br />

1c. Wenn zuvor CASE-Tool oder Grafikprogramm<br />

angegeben: Ich kannte<br />

das verwendete Tool bereits vorher.<br />

2. Ich habe meinen eigenen Laptop<br />

benutzt<br />

□ Papier /<br />

Stift<br />

□ Poseidon<br />

□ Paint<br />

□ ja<br />

□ ja<br />

□ CASE-Tool<br />

□ anderes:<br />

□ anderes:<br />

□ nein<br />

□ nein<br />

□ Grafikprogramm<br />

________________<br />

________________<br />

□ Tablet PC<br />

Seite 1 <strong>von</strong> 2<br />

Abbildung A.4.: Fragebogen <strong>zur</strong> Softwaretechnik-Übung (Seite 1)<br />

116


Software Engineering I - Fragebogen <strong>zur</strong> Übung - 15.12.2005<br />

Fragen <strong>zur</strong> Übung:<br />

1. Ich fand die Aufgabe<br />

2. Mein Werkzeug hat mich beim Entwurf meiner Lösung<br />

sehr einfach<br />

unterstützt<br />

□ □ □ □ □<br />

□ □ □ □ □<br />

sehr schwer<br />

behindert<br />

3. Beim Umgang mit dem Werkzeug fand ich am<br />

problematischsten:<br />

4. Ich würde gerne auch in Zukunft Aufgaben mit diesem<br />

Werkzeug lösen.<br />

immer<br />

□ □ □ □ □<br />

nie<br />

5a. Ich hätte die Aufgabe lieber mit einem anderen<br />

Werkzeug gelöst.<br />

ja<br />

□<br />

□<br />

nein<br />

5b. Falls zuvor mit ja geantwortet: Welches<br />

Kommentare:<br />

1. Das fand ich gut:<br />

(auf das verwendete Werkzeug bezogen):<br />

2. Das kann man besser machen:<br />

(auf das verwendete Werkzeug bezogen):<br />

Vielen Dank für Ihre Kooperation.<br />

Seite 2 <strong>von</strong> 2<br />

Abbildung A.5.: Fragebogen <strong>zur</strong> Softwaretechnik-Übung (Seite 2)<br />

117


B. <strong>Modellierung</strong>saufgabe<br />

118


Pattern-based System Design<br />

Design the network communication subsystem of a mobile distributed application. The application must<br />

support the recognition of the following events:<br />

Event 1: Currently chosen connection method is no longer available<br />

Event 2: Better (e.g. cheaper or faster) network connection has become available<br />

These events cause the application to dynamically switch to the best available connection. The application<br />

supports a flag in the user’s preferences in which the user specifies if connection speed or connection cost are<br />

more important.<br />

The application supports the following connection methods: IEEE 802.3 (Ethernet), IEEE 802.11b/g (WLAN<br />

11/54 Mbit/s), UMTS and GSM. The application can use a set of interface classes that provide methods to<br />

connect to a network and methods to query network availability.<br />

Model an event-based communication component that provides seamless transition between network<br />

connection methods based on availability and user preference. Use pattern-driven design to fill the object gap<br />

between application and system classes in the UML class diagram on page 2. Include all the necessary classes<br />

to provide the desired functionality. Do not modify any of the classes on page 2 in your solution. Explain<br />

which patterns you used, what purpose they serve in your model and how they interact with other patterns and<br />

classes in your model.<br />

Solution hints:<br />

- Use a pattern to deal with dynamic switching of connection methods<br />

- Use a pattern to integrate system classes that don’t fit exactly<br />

- Use a pattern to implement the event dispatching mechanism<br />

Class descriptions:<br />

- To send and receive data, the application calls methods in the NetComm class<br />

- Use the UserPreferences class to look up if the user prefers fast or cheap connections<br />

- The WlanInterface class can be used to detect WLAN networks (using getAvailableNetworks())<br />

and establish and close WLAN network connections using connectToNetwork() and disconnect()<br />

- The DialupInterface class can be used to connect to UMTS and GSM networks using the dial()<br />

method, as well as disconnect using the hangup() method<br />

- The TransmissionInterface class provides methods to send and receive data over any established<br />

network connection, including LAN, WLAN, GSM and UMTS<br />

- The method isConnected() in the EthernetInterface can be used to check if an Ethernet connection<br />

is established<br />

Abbildung B.1.: Aufgabenstellung der Übung (Seite 1)<br />

119


Abbildung B.2.: Aufgabenstellung der Übung (Seite 2)<br />

120


Abbildung B.3.: Lösung der Aufgabenstellung<br />

121


C. Erhebungsdaten<br />

122


Infos:<br />

Fragebogen <strong>zur</strong> Vorlesung<br />

Demografische Daten: Allgemeine Angaben: Inhalt / Motivation:<br />

Index: Semester: Studienrichtung: Nebenfach: Abschluss: 1. 2. 3. 4. 5. 1. 2. 3. 4. 5. 6. 7. 8.<br />

v01 11 Informatik Wirtschaft Diplom 2 2 3 4 4 4 2 3 k.A. 2 2 2 3<br />

v02 5 Informatik Wirtschaft Diplom 4 2 1 5 4 3 3 k.A. 3 4 4 4 2<br />

v03 7 Austauschpr. Diplom 1 2 1 5 3 3 3 k.A. 4 1 3 2 2<br />

v04 7 Informatik BWL Diplom 3 3 2 5 4 4 3 k.A. 3 k.A. 4 3 4<br />

v05 7 Informatik Theor. Medizin Diplom 2 2 2 3 3 3 3 3 3 4 2 2 2<br />

v06 7 Informatik -- Bachelor 3 3 3 3 5 3 3 3 3 5 5 3 3<br />

v07 9 Informatik Theor. Medizin Diplom 2 2 1 4 4 3 3 3 3 2 k.A. 2 3<br />

v08 9 Informatik Wiwi Diplom 1 1 1 1 5 3 2 2 2 3 2 2 2<br />

v09 11 Informatik E-Technik Diplom 2 1 3 5 5 3 2 k.A. k.A. 4 2 2 3<br />

v10 4 CSE Bachelor 3 2 3 4 4 2 3 3 3 2 5 2 4<br />

v11 5 Informatik Luft- u. Raumfahrtt. Diplom 3 2 1 4 5 3 3 k.A. k.A. 2 2 3 3<br />

v12 6 Informatik Wirtschaft Diplom 1 1 2 2 k.A. 3 3 3 k.A. k.A. 1 1 k.A.<br />

v13 13 Informatik Wirtschaft Diplom 2 2 1 5 5 3 3 k.A. k.A. 3 2 2 2<br />

v14 9 Informatik Wirtschaft Diplom 2 2 3 4 5 2 3 k.A. 2 3 4 3 3<br />

v15 11 Informatik Bachelor 1 1 2 1 3 4 3 3 3 4 1 1 2<br />

v16 9 Informatik Wiwi Diplom 2 3 2 5 5 3 3 k.A. k.A. k.A. 3 3 2<br />

v17 5 Informatik -- Bachelor 3 3 3 5 5 4 3 1 4 3 2 4 3<br />

v18 5 Informatik E-Technik Diplom 3 3 3 5 5 3 3 3 3 3 3 3 3<br />

v19 k.A. k.A. k.. k.A. 1 2 1 1 5 2 2 1 2 2 1 2 2<br />

v20 7 Informatik BWL Diplom 2 4 1 1 3 3 3 3 3 3 3 4 3<br />

v21 5 Informatik Bachelor Bachelor 1 1 2 2 3 3 3 3 k.A. 4 4 1 1<br />

v22 1 Informatik Bachelor 2 2 1 3 5 3 3 3 3 2 5 2 2<br />

v23 7 Informatik -- Diplom 1 1 1 1 2 3 3 3 3 1 1 1 1<br />

v24 5 Informatik E-Technik Diplom 2 1 1 2 3 3 2 3 3 3 4 3 4<br />

v25 5 Comp. Science Bachelor 1 1 1 1 k.A. k.A. k.A. k.A. 1 1 5 1 1<br />

v26 7 Informatik Wirtschaft Diplom 1 2 1 1 4 3 3 2 4 2 1 2 2<br />

v27 6 Wirtschaftsinf. -- Bachelor 2 2 2 1 3 3 3 3 4 2 2 2 2<br />

v28 5 Wirtschaftsinf. -- Bachelor 2 2 2 3 3 4 4 3 4 3 2 2 3<br />

v29 5 Wirtschaftsinf. -- Bachelor 1 2 3 2 2 2 3 3 3 3 2 1 2<br />

v30 5 Wirtschaftsinf. -- Bachelor 4 4 4 4 5 5 4 4 4 3 5 4 3<br />

v31 5 Informatik -- Bachelor 2 2 2 1 3 3 3 3 3 4 2 2 2<br />

v32 7 Erasmus wi.ing Informatik Diplom 2 2 1 3 5 4 3 4 k.A. 4 k.A. 2 3<br />

v33 5 Informatik E-Technik Diplom 2 2 2 1 3 3 3 2 3 3 3 2 2<br />

v34 7 Informatik Wirtschaft Diplom 1 1 2 4 4 3 3 4 4 3 2 1 3<br />

v35 7 Informatik BWL Diplom 1 1 1 3 4 3 3 3 k.A. 2 1 1 2<br />

v36 7 Informatik Wiwi Diplom 1 1 2 5 4 2 3 k.A. 3 1 2 1 3<br />

v37 7 Informatik -- Bachelor 1 1 2 2 3 3 3 3 3 1 1 1 1<br />

v38 5 Informatik -- Bachelor 2 2 2 2 4 3 3 2 3 2 1 2 1<br />

v39 11 Informatik Bachelor 1 1 1 1 3 3 3 3 3 1 3 1 2<br />

v40 7 Maschinenwesen Diplom 2 2 1 5 5 3 3 k.A. k.A. k.A. 1 2 3<br />

v41 8 Informatik Computerlinguistik Diplom 1 1 2 5 5 3 2 k.A. k.A. 5 5 1 2<br />

v42 7 Informatik Wirtschaft Diplom 1 2 1 3 3 3 3 1 2 2 2 2 3<br />

v43 7 MW u. Managm. El.+Inf.; Ergonomie Diplom 1 1 2 1 3 3 3 3 4 5 2 1 1<br />

v44 5 Informatik E-Technik Diplom 2 2 1 2 5 2 2 3 k.A. 3 2 2 2<br />

v45 5 Informatik Wiwi Diplom 1 1 1 1 3 2 2 3 3 4 4 1 2<br />

v46 5 Informatik -- Bachelor 4 2 1 1 3 2 2 3 3 4 1 3 5<br />

v47 3 Informatik -- Bachelor 2 2 1 1 5 3 3 3 k.A. 5 4 2 4<br />

v48 9 Informatik LRT Diplom 1 2 2 3 4 3 3 3 3 2 2 1 2<br />

v49 9 Informatik Wirtschaft Diplom 2 1 1 1 3 3 3 2 2 2 3 1 1<br />

v50 5 Informatik E-Technik Diplom 2 2 1 2 3 2 2 3 3 2 2 2 3<br />

v51 5 Informatik Luft- u. Raumfahrtt. Diplom 1 1 2 4 4 3 3 3 3 4 4 1 1<br />

v52 5 Informatik Chemie Diplom 2 3 3 1 3 3 3 3 4 3 2 2 2<br />

v53 4 Comp. Science Bachelor 2 1 3 4 4 4 4 4 4 1 2 2 3<br />

v54 9 Informatik Mathe Diplom 1 1 2 4 5 3 3 k.A. k.A. 2 2 2 2<br />

v55 5 Informatik Physik Diplom 4 4 1 3 2 2 2 3 3 3 3 3 4<br />

v56 5 Informatik E-Technik Diplom 2 2 2 2 4 4 3 2 3 4 4 2 3<br />

v57 5 Informatik Wiwi Diplom 2 1 2 1 4 2 3 2 3 1 3 1 1<br />

v58 7 Informatik Wirtschaft Diplom 2 2 4 1 5 3 3 3 k.A. 4 4 3 3<br />

v59 5 Informatik Musik Diplom k.A. 1 3 5 3 2 3 k.A. 2 4 1 1 2<br />

w01 (Master) 1 CSE E-Technik Master X X X X X X X X X X X X X<br />

w02 k.A. k.A. k.A. k.A. X X X X X X X X X X X X X<br />

w03 7 TUM BWL Informatik Diplom X X X X X X X X X X X X X<br />

w04 7 Informatik Bwl Diplom X X X X X X X X X X X X X<br />

w05 5 Informatik E-Technik Diplom X X X X X X X X X X X X X<br />

w06 5 Informatik E-Technik Diplom X X X X X X X X X X X X X<br />

w07 7 Informatik Bwl Diplom X X X X X X X X X X X X X<br />

w08 5 Wirtschaftsinf. k.A. Bachelor X X X X X X X X X X X X X<br />

Index: Semester: Studienrichtung: Nebenfach: Abschluss: 1. 2. 3. 4. 5. 1. 2. 3. 4. 5. 6. 7. 8.<br />

Auswertung:<br />

Häufigkeit des Vorkommens:<br />

26 x 5. S. 51 x Inform. 45 x Diplom 1: 22 22 25 19 0 0 0 3 1 8 11 19 9<br />

19 x 7. S. 5 x Wirt.inf. 19 x Bach. 2: 26 28 21 9 3 12 11 7 6 15 21 26 23<br />

7 x 9. S. 2 x Mw 1 x Master 3: 6 6 11 9 20 37 44 31 27 15 9 10 20<br />

4 x 11. S. 4 x Comp. Sc. 2 x k.A. 4: 4 3 2 10 15 8 3 4 10 13 10 4 5<br />

9 x And.S.3 x Andere 5: 0 0 0 12 19 1 0 0 0 4 6 0 1<br />

2 x k.A. 2 x k.A. k.A.: 1 0 0 0 2 1 1 14 15 4 2 0 1<br />

67 Total 67 Total 67 Total Sum: 59 59 59 59 59 59 59 59 59 59 59 59 59<br />

Legende:<br />

Mittelwert:<br />

Papier/StiftGrafikprogramm CASE-Tool Tablet PC 1,86 1,83 1,83 2,8 3,88 2,97 2,86 2,8 3,05 2,82 2,63 1,98 2,41<br />

blau gelb violett grün<br />

Abbildung C.1.: Ergebnisse der Befragung (Seite 1 <strong>von</strong> 7)<br />

123


Fragebogen <strong>zur</strong> Vorlesung<br />

Konzentration:<br />

Ziele:<br />

Index: 1. Faktoren zu 1.: 2. Faktoren zu 2.: 3. 4a. 4b. 5 1. 2.<br />

v01 1 1 3 ja 1 5 5 nein<br />

v02 2 k.A. 2 ja 1 5 4 x<br />

v03 1 k.A. 4 ja 1 1 1 ja<br />

v04 2 5 1 nein k.A. k.A. 5 nein<br />

v05 1 2 2 ja 1 3 5 nein<br />

v06 5 Sprache (Englisch), Schlafmangel 4 Sprache (Englisch), Schlafmangel 1 nein k.A. 5 1 ja<br />

v07 2 zu viel Text auf manchen Folien bzw. zu schnell durchgeblättert, … k.A. man verliert dadurch den Faden4 ja 4 2 5 nein<br />

v08 2 Teilweise ist die Vorlesung zu monoton. Dies verführt zum Abschweifen … 1 der eigenen Gedanken ...<br />

4 ja 2 4 5 nein<br />

v09 2 Müdigkeit 5 Abwesenheit 3 ja 1 2 5 nein<br />

v10 3 The time slot is overlapped with the other one. 3 also time conflict 3 ja 3 2 1 x<br />

v11 3 Kollegen mit Laptops k.A. 2 ja 2 2 5 nein<br />

v12 2 Schwierigkeiten mit Englisch 2 Schwierigkeiten mit Englisch 3 ja 1 4 4 nein<br />

v13 2 k.A. 2 ja 3 4 5 nein<br />

v14 1 k.A. 2 ja 1 1 5 nein<br />

v15 2 Nachbarn ratschen, English-Vokabel nicht gewusst 2 Fragen der Nachbarn 5 ja 1 3 1 ja<br />

v16 3 k.A. 1 ja k.A. k.A. 5 nein<br />

v17 3 3 2 ja 1 1 5 ja<br />

v18 5 langweilig 5 nicht anwesend 3 ja 2 2 5 nein<br />

v19 4 - WLAN | - Mittagessen | - langatmige Ausführungen des Dozenten 4 Belanglosigkeiten werden zu lang besprochen 2 nein k.A. 3 5 nein<br />

v20 4 Nachbarn :) 3 1 ja 1 1 3 xx<br />

v21 3 Problemen mit der Englische-Sprache 1 English 2 ja 3 1 1 ja<br />

v22 2 2 5 k.A. k.A. k.A. 1 k.A.<br />

v23 1 1 4 ja 1 2 1 ja<br />

v24 3 So viel zu tun und Laptop dabei :-) 1 Müdigkeit 2 ja 2 k.A. 5 nein<br />

v25 1 1 1 ja 1 1 1 ja<br />

v26 2 eigene Gedanken zum Stoff 1 1 ja 3 1 5 nein<br />

v27 2 sich unterhaltende Studenten 1 3 ja 2 1 1 ja<br />

v28 2 Laptop 3 -- 2 ja 1 1 1 ja<br />

v29 1 Laptop 1 -- 5 ja 2 1 1 ja<br />

v30 5 Sprache Englisch 4 Sprache 4 ja 3 3 1 ja<br />

v31 2 2 3 ja 2 2 1 ja<br />

v32 3 3 4 nein k.A. 1 1 ja<br />

v33 2 Laptop 2 Tempo zu langsam 2 ja 1 4 4 x<br />

v34 2 3 3 ja 3 1 5 nein<br />

v35 2 2 3 ja 1 3 k.A. nein<br />

v36 2 k.A. 1 ja 2 2 4 nein<br />

v37 2 in Englisch 2 3 ja 1 k.A. 1 ja<br />

v38 1 1 1 ja 1 1 1 ja<br />

v39 3 wegen der Sprache 1 3 ja 1 3 1 ja<br />

v40 2 k.A. 1 ja k.A. 2 1 ja<br />

v41 2 Konzentration auf 90 Min. Daz. kleine Pausen waren sehr gut/wichtig! k.A. 0 5 ja 1 1 1 nein<br />

v42 1 gelgentliche, akustische Verständnisschwirigkeiten 1 -- 3 ja 1 5 1 xx<br />

v43 3 Besuche die Vorlesung nur als Ergänzung zum Lesen des Buches. … 1 Bevorzuge i.A. das Selbststudium. 5 nein Aber: k.A. gute Abstimmung 1 Buch 1 k.A. Vorlesung!<br />

v44 3 Internet, Kommilitonen, Überschneidung mit Info 2 (Inhalt), Mittagessen 2 Kommilitonen 4 ja 1 2 4 nein<br />

v45 2 eigenes Schlafdefizit 1 4 nein k.A. 2 1 nein<br />

v46 4 Konzentration/Motivation 2 4 ja 2 1 1 ja<br />

v47 4 Konzentration immer bis ~45 Min. :-) 3 s.o. 4 ja 1 1 1 ja<br />

v48 2 3 2 ja 1 3 4 nein<br />

v49 2 zu großer Vorlesungssaal erzeugt "Vortrags-Stimmung" 2 4 ja 2 3 1 ja<br />

v50 3 "zockende" Kollegen 1 3 ja 2 2 3 nein<br />

v51 2 Spiele auf Laptops in den Reihen vor mir. 3 2 ja 1 3 5 nein<br />

v52 2 Spiele auf Laptops vor mir 2 1 ja 1 1 2 nein<br />

v53 2 4 3 ja 2 1 3 ja<br />

v54 2 Müde nach dem Mittagessen k.A. 4 ja 2 4 5 nein<br />

v55 2 Stimme des Dozenten 2 3 ja 2 3 1 xx<br />

v56 2 bekannte Dinge; Spiele auf Laptops … 2 2Bereits ja bekannte 3 1Dinge veranlassen 3 nein einen, der Vorlesung nicht mehr z<br />

v57 2 wie gesagt, manche Stoffe sind die gleichen wie in Info I/II … 1 (WS0304 SS04) 2dann ja ist es 3langweilig<br />

3 1 ja<br />

v58 2 -- 2 Uhrzeit ;-) 3 nein k.A. 1 5 nein<br />

v59 1 k.A. 3 ja 3 3 4 nein<br />

w01 X X X X X X X X X X<br />

w02 X X X X X X X X X X<br />

w03 X X X X X X X X X X<br />

w04 X X X X X X X X X X<br />

w05 X X X X X X X X X X<br />

w06 X X X X X X X X X X<br />

w07 X X X X X X X X X X<br />

w08 X X X X X X X X X X<br />

Index: 1. Faktoren zu 1.: 2. Faktoren zu 2.: 3. 4a. 4b. 5 1. 2.<br />

Auswertung:<br />

Häufigkeit des Vorkommens:<br />

1: 10 16 je nach Frage: 1 / "ja": 10 51 25 21 27 22<br />

2: 31 15 2 / "nein": 15 7 14 12 1 29<br />

3: 11 9 3: 17 9 12 4<br />

4: 4 4 4 / "sonstige": 12 0 1 5 7 3<br />

5: 3 3 5: 5 0 4 19<br />

k.A.: 0 12 k.A.: 0 1 10 5 1 2<br />

Sum: 59 59 Sum: 59 59 59 59 59 56<br />

Mittelwert:<br />

2,31 2,2 2,78 1,71 2,24 2,83<br />

Abbildung C.2.: Ergebnisse der Befragung (Seite 2 <strong>von</strong> 7)<br />

124


Fragebogen <strong>zur</strong> Vorlesung<br />

Themenwahl:<br />

Index: 1. 2. 3.<br />

v01<br />

v02<br />

v03 Project Management UML<br />

v04<br />

Design Patterns<br />

v05<br />

v06 -- -- --<br />

v07 Keine Design Patters, UML<br />

v08 keine -- --<br />

v09<br />

v10<br />

v11<br />

v12<br />

v13<br />

UML<br />

v14<br />

obj.relational mapping; design patterns, proj.-management techniques<br />

v15 viele Patterns auf einmal am Ende<br />

v16<br />

v17<br />

v18<br />

v19 -- -- --<br />

v20<br />

v21 alles war ganz ok<br />

v22<br />

Design Patterns<br />

v23 Keine Wie man die ganze "Theorie" in die Praxis bzw. Code einsetzt<br />

v24<br />

v25 more real examples […] Unit testing, Disign patterns Design by could testing, be presented XP programming with mor real world examples. Requirement Homeworks eliertation and/or quizes<br />

v26 <strong>Analyse</strong> <strong>Analyse</strong> --<br />

v27 Patterns, Java<br />

v28 Design Patterns UmL<br />

v29 -- 00 Proncipler UML Basics (Info 1/2 war schon eine gute Basis), Projectmngt.<br />

v30 -- -- Pattern<br />

v31 --<br />

v32<br />

v33<br />

Design Pattern<br />

v34<br />

v35<br />

v36<br />

v37<br />

v38<br />

design patterns, code reuse, architecture<br />

v39<br />

v40<br />

v41 Struktur Pattern ... zu oberfl.<br />

v42 -- Methoden zum Projektmanagement --<br />

v43 -- GEHÖRT (niht gelesen): Projektmngt., Probleme bei Großproj., Rechtl. Aspekte<br />

v44 keine -- --<br />

v45 -- --<br />

v46 -- UML Management Issues<br />

v47<br />

UML<br />

v48<br />

v49 -- - Projektmngt. (SW-Proj.) --> SE2! | - Aktuelle Tools/Produkte, in der Praxis … -- eingesetzt werden<br />

v50 -- Entwurfsmuster<br />

v51 keine -- --<br />

v52<br />

Prakt. Anwendung v. Entwurfsmustern<br />

v53 Pattern design<br />

v54 keine<br />

v55 keine Design Pattern --<br />

v56 -- Design Pattern --<br />

v57 design pattern design pattern<br />

v58<br />

Entwicklungswerkzeuge; Vorgehen in der Praxis<br />

v59 -- Design patterns, OCL <strong>Analyse</strong>, UML-Einführung<br />

w01 X X X<br />

w02 X X X<br />

w03 X X X<br />

w04 X X X<br />

w05 X X X<br />

w06 X X X<br />

w07 X X X<br />

w08 X X X<br />

Index: 1. 2. 3.<br />

Auswertung:<br />

Abbildung C.3.: Ergebnisse der Befragung (Seite 3 <strong>von</strong> 7)<br />

125


Fragebogen <strong>zur</strong> Vorlesung<br />

Kommentare:<br />

Index: 1. 2.<br />

v01<br />

v02 die Beispiele in der Vorlesungen Weniger Text, mehr Bilder in die Vorlesungsfolien - mehr Bezug <strong>zur</strong> Praxis<br />

v03<br />

v04<br />

v05 Gute Präsentation (Sprache / Folien)<br />

v06 -- --<br />

v07 - Kurze Pause in d. Vorlesung | - Beispiele - Kleineren Raum | - siehe Ablenkungsfaktor<br />

v08 Praxisorientierung --<br />

v09 Präsentationsteil<br />

v10<br />

The time should be suitable.<br />

v11<br />

v12<br />

v13<br />

v14 BREAK DURING LECTURE<br />

v15<br />

v16<br />

v17<br />

v18<br />

v19 engl. Sprache<br />

v20<br />

v21 detailliert erklärt --<br />

v22<br />

v23 Folien, Erklärungen in den Vorlesungen, Folien, der Übung u. Erklärungen Mehr praktische Übung u. auch Programmbeispiele<br />

v24 Die Idee mit dem Miniproject, an dem ich sicher Teilnehmen werde<br />

v25<br />

v26 Viele Beispiele; klare Struktur Foline früher ins Netz; anderes Mikrofon; Interaktion fördern [...] Die F<br />

v27 VL auf Englisch VL-Datum auf die Folien schreiben<br />

v28<br />

Vorlesung in Deutsch<br />

v29 Anschauliche, vertiefende Übung! Kleinerer Hörsaal --> mehr Interaktivität<br />

v30 -- --<br />

v31<br />

v32 lectures more exercises to do on your own. Examples‚<br />

v33<br />

weniger Überschneidung mit Info II<br />

v34 Folien die auch <strong>zur</strong> Verfügung stehen. Dozent = motiviert<br />

v35 Zusammenhang mit VSO Praktikum<br />

v36 Beispiele; Englisch Die 3 Stunden Vorlesung an einem Tag<br />

v37<br />

v38 interaction, slides, easy to understand<br />

v39 Der Dozent ist sehr gut. Die Veranstaltung vielleicht doch in Deutsch anbieten.<br />

v40<br />

v41 Die Struktur dieser Einführungsveranstal. ist gut. (--> Buch) Terminüberschneidungen vermeiden; Interaktion fördern […] Term<br />

v42<br />

Tutor sollte auf Vorschläge/Fragen besser u. wohlwollender eingehen […]<br />

v43 Das Buch ist didaktisch hervorragend und inhaltlich gut geordnet. Regelmäßige Angabe der Kapitel im Buch; Schwerpunkte setzen […] Regelmäßige Angabe, w<br />

v44 Motivation, engl. Vortrag Überschneidungen mit Info 2 ( nicht dieselben Bilder, Bsp's)<br />

v45 Mut <strong>zur</strong> Veränderung, Motivation des Dozenten und des Übungsleiters Manche Beispiele waren mir zu weit hergeholt<br />

v46 Prof. Brügge ist motiviert Dinge etwas klarer erklären, Beispiele sind oft wenig hilfreich<br />

v47<br />

Ankündigung bei Übungsausfällen<br />

v48 Interessanter, praxisbezogener inhalt. Gute Beispiele<br />

v49 - Vorlesung in Englisch! | - Folien + CLIX | - Nicht/Kaum konkrete Code-Beispiele Vorträge <strong>von</strong> Wirtschaftsvertreteren & Slides + Stimme im Netz [...] - 1 oder 2 Vor<br />

v50 Dozent bemüht sich um Verständnis Viel war schon in Info 2 dran => Mehr Stoff der noch nicht gehört wurde<br />

v51 Engagement des Profs.; Begabung des Profs die Studenten für die Themen zu motivieren mehr Interaktion […] nicht imm<br />

v52<br />

Musterlösungen v. Übungsblättern, da in Übung selten alles besprochen<br />

v53<br />

v54 anschauliche Beispiele Folien immer so wie in der Vorlesung ins Netz<br />

v55 Englisch Motivation<br />

v56 Umfrage Musterlösungen für die Übung. Mehr praktische Aufgaben in der Übung<br />

v57 nicht so viele wiederholungen. (die Sache in WS0304, SS04) … ( maybe ist's my<br />

v58 Unterrichtssprache Englisch; Angebot sonst zu gering an der Fakultät Deutsche Fragen in Übung zulassen, um Hemmungen zu nehmen<br />

v59 Aufbau u. Inhalt waren immer klar gegl.. Sehr gut […] Gegenüberstellung der Designpatterns… Design Patterns intensiver; UML knapper; fand ich die Tempo Übersicht höher und […] Gegenüberstellung der Designpatterns<br />

w01 X X<br />

w02 X X<br />

w03 X X<br />

w04 X X<br />

w05 X X<br />

w06 X X<br />

w07 X X<br />

w08 X X<br />

Index: 1. 2.<br />

Auswertung:<br />

Abbildung C.4.: Ergebnisse der Befragung (Seite 4 <strong>von</strong> 7)<br />

126


Fragebogen <strong>zur</strong> Übung<br />

Werkzeuge:<br />

Fragen <strong>zur</strong> Übung:<br />

Index: 1a. 1b. 1c. 1d. 2. 1. 2. 3.<br />

v01<br />

v02<br />

v03<br />

v04<br />

v05<br />

v06<br />

v07<br />

v08<br />

v09<br />

v10<br />

v11<br />

v12<br />

v13<br />

v14<br />

v15<br />

v16<br />

v17<br />

v18<br />

v19<br />

v20 CASE-Tool + (P/S) ja 3 5<br />

v21<br />

v22 Papier / Stift nein nein 5 k.A.<br />

v23 Papier / Stift 3 1 nicht genug Platz auf einem A4 Blatt<br />

v24 Tablet PC nein nein 3 4 Markieren zu ungenau -->schnelles verschiebe unmögl.Text eintippen nicht mögl. […]<br />

v25 Papier / Stift ja 3 1<br />

v26 CASE-Tool Poseidon k.A. ja 2 2 langsame Geschwindigkeit (Java)<br />

v27 Papier / Stift 4 3<br />

v28 Tablet PC ja 4 3 Tablet-PC gut für grobes UML-Diagramm, schlecht für detaillierte Notationen ist […]<br />

v29 CASE-Tool Poseidon nein ja 4 1 löschen <strong>von</strong> Objekten (MAC); Enden <strong>von</strong> Assoziationen ändern<br />

v30<br />

v31 Papier / Stift 3 3<br />

v32<br />

v33 CASE-Tool Poseidon nein ja 4 2 sich einzuarbeiten<br />

v34<br />

v35<br />

v36<br />

v37 Tablet PC k.A. 4 2<br />

v38 Grafikprogramm KolourPint (KDE Paint) nein ja 3 5 Drawing took more time; correcting, moving, resizing hard / impossible […] Drawing took more time; false<br />

v39 Papier / Stift nein 3 3<br />

v40<br />

v41 Grafikprogramm XFIG ja ja 3 5 Erstellung UML aus grafischen Komponenten war zeitaufwändig […] Die Umsetzung (Erstellu<br />

v42 Grafikprogramm Open Office ja ja 3 3 keine UML-Objekte; Probleme bei Größenänd., Verschiebung […] etc. keine UML-Objekte (Klasse<br />

v43 CASE-Tool MS Visio (ist schlecht!) nein ja 4 3 Zeichen für Aggregation nicht vorh., Schnittstellenspezifiz. anders als im Buch<br />

v44 Tablet PC nein 4 3 Windows Journal nicht dafür geeignet; Gründe: Platzmangel, Verw. <strong>von</strong> Seiten […]<br />

v45 Papier / Stift nein 3 1 Korrekturen<br />

v46 Papier / Stift 2 1 Fehler --> Durchstreichen --> Unübersichtlich<br />

v47 CASE-Tool Poseidon nein ja 3 4 Skizzierung schwer bis unmöglich, ohne Maus sowieso. … Zum reinzei<br />

v48 CASE-Tool Poseidon nein ja 4 3<br />

v49<br />

v50 CASE-Tool Poseidon nein ja 3 2 Bei kleinem Bildschirm wird der Arbeitsbereich schnell klein<br />

v51<br />

v52 Papier / Stift 4 4 Platz, unflexibel beim Anordnen der Klassen<br />

v53<br />

v54<br />

v55<br />

v56<br />

v57 Tablet PC nein 4 1<br />

v58<br />

v59 Tablet PC k.A. 3 1<br />

w01 Papier / Stift 4 1 it's difficult to copy the result<br />

w02 Papier / Stift nein 4 k.A. Suche nach Grafix erfolglos mit Papier & Stift gut klar gekommen<br />

w03 Tablet PC k.A. 5 3<br />

w04 Grafikprogramm OMNI Graffel schlecht ja 4 4 zu wenig Platz<br />

w05 CASE-Tool Poseidon k.A. nein 4 4<br />

w06 CASE-Tool Umbrello ja ja 3 1<br />

w07 CASE-Tool Poseidon nein ja 4 3 I haven't used it earlier<br />

w08 Tablet PC ja 3 2 je größer das Diagramm desto schwieriger wird es<br />

Index: 1a. 1b. 1c. 1d. 2. 1. 2. 3.<br />

Auswertung: Häufigkeit des Vorkommens: Aufgeschlüsselt nach Werkzeug:<br />

11 x Papier / Stift 1 / "ja": 3 17 0 9 Schwierigkeit der Aufgabe: Mittelwert = 3,5<br />

4 x Grafikprogramm 2 / "nein": 10 8 2 5 3,45454545454545 Papier / Stift<br />

11 x CASE-Tool 3: 15 10 3,25 Gafikprogramm<br />

8 x Tablet PC 4 / "sonst.": 1 0 15 5 3,45454545454545 CASE-Tool<br />

5: 2 3 3,75 Tablet PC<br />

k.A.: 2 3 0 2 Unterstützung durch das Werkzeug: Mittelwert = 2,625<br />

34 Total Sum: 16 28 34 34 2 Papier / Stift<br />

Mittelwert:<br />

4,25 Gafikprogramm<br />

3,5 2,63 2,72727272727273 CASE-Tool<br />

2,375 Tablet PC<br />

Abbildung C.5.: Ergebnisse der Befragung (Seite 5 <strong>von</strong> 7)<br />

127


Fragebogen <strong>zur</strong> Übung<br />

Fragen <strong>zur</strong> Übung:<br />

Index: 4. 5a. 5b.<br />

v01<br />

v02<br />

v03<br />

v04<br />

v05<br />

v06<br />

v07<br />

v08<br />

v09<br />

v10<br />

v11<br />

v12<br />

v13<br />

v14<br />

v15<br />

v16<br />

v17<br />

v18<br />

v19<br />

v20 3 ja (mit ja geantwortet, da mit Tool nicht <strong>zur</strong>echtgekommen)<br />

v21<br />

v22 3 k.A.<br />

v23 1 nein Villeicht mit einem CASE-Tool, aber Papier u. Stift sind mir lieber<br />

v24 4 ja Poseidon UML bzw anderes Modelling-tool<br />

v25 2 nein<br />

v26 2 nein<br />

v27 3 ja Poseidon<br />

v28 3 ja Visio aber nur für genauere Entwürfe<br />

v29 2 ja Visual Paradigm (bei kleinen Dingen Dia)<br />

v30<br />

v31 2 nein<br />

v32<br />

v33 2 nein<br />

v34<br />

v35<br />

v36<br />

v37 2 nein<br />

v38 4 ja CASE Tool eventually on a Tablet PC<br />

v39 k.A. nein<br />

v40<br />

v41 4 ja CASE-Tool :-) hat die graf. Elem. schon; plus Zusatzmenüs (spezielle)<br />

v42 3 ja Visio mit UML-Typen oder entspr. Erweiterung mit Open Office<br />

v43 4 ja Egal, ein besseres, das den vollen Umfang <strong>von</strong> UML unterstützt<br />

v44 3 x eher auf Papier, ist für erste Entwürfe besser und flexibler<br />

v45 1 nein k.A.<br />

v46 1 nein k.A.<br />

v47 3 nein<br />

v48 1 nein<br />

v49<br />

v50 2 nein<br />

v51<br />

v52 4 ja CASE-Tool<br />

v53<br />

v54<br />

v55<br />

v56<br />

v57 1 nein<br />

v58<br />

v59 2 nein<br />

w01 k.A. ja CASE-Poseidon<br />

w02 4 ja Poseidon<br />

w03 2 nein<br />

w04 4 ja Papier<br />

w05 2 nein<br />

w06 3 nein<br />

w07 2 ja RAT<br />

w08 3 ja CASE-Tool<br />

Index: 4. 5a. 5b.<br />

Häufigkeit des Vorkommens:<br />

Aufgeschlüsselt nach Werkzeug:<br />

1: 5 15


Fragebogen <strong>zur</strong> Übung<br />

Kommentare<br />

Index: 1. 2.<br />

v01<br />

v02<br />

v03<br />

v04<br />

v05<br />

v06<br />

v07<br />

v08<br />

v09<br />

v10<br />

v11<br />

v12<br />

v13<br />

v14<br />

v15<br />

v16<br />

v17<br />

v18<br />

v19<br />

v20<br />

v21<br />

v22 It was good to have an idea; but was difficult. […] The paper should contain a little It bit was easier good and to have solvable an idea, questions how can one practically solve the pattern according to situat<br />

v23 man kann leicht alles skizieren u. nachher alles zum finalen Zustand bringen ein größeres Blatt Papier!<br />

v24 Super für erste Gedanken; problematisch bei Modifikationen […] eingeb. Support für UML. Super z.B: Rechteck wenn es darum wird zu geht Klasse este + Gedanken Modifikation auf […] zu schreiben. Aber problematisch, eingeb. wenn Support man z.Bf<br />

v25 quick, easy changes better hand writing :)<br />

v26 intuitive Bedienung; umfangreiche Funktionalität Geschwindigeitsoptimierung<br />

v27 griffig, Stift lag gut in der Hand lernen<br />

v28 Handhabung Stift Vordefinierte Templates<br />

v29 schnell Klassen und Methoden verbinden; schnelle Resultate braucht viel Ressourcen<br />

v30<br />

v31 schnell und am einfachsten Papier ist unsauber, nicht Präsentationsfähig<br />

v32<br />

v33 größere Änderungen wesentlich einfacher als mit Papier / Bleistift nix<br />

v34<br />

v35<br />

v36<br />

v37<br />

v38 It was good that somehow one could correct false ideas grouping objects, doing operations on the groups […] Trea<br />

v39<br />

v40<br />

v41 Das Werkzeug gibt es für viele Plattformen UML-Symbole integrieren; spez. UML-Diagramm-Funktion impl. (wie CASE) […]<br />

v42 Verbinder; gute Übersicht; Flexibilität UML-Objekte <strong>zur</strong> Verfügung stellen<br />

v43 Objekte arrangieren und skalieren selbst. Nicht so viele Kontext-Menüs und Toolboxen für Einzelbefehle<br />

v44 zeichnen wie auf Papier; auschneiden und kopieren sollte mögl. sein […] nur kleiner Ausblick zeichnen wie auf auf Zeichnung; Papier; auschneiden höherer und Einarbeitungsaufwand kopieren sollte möglich sein […]<br />

nur kleiner Ausblick a<br />

v45 Lösung kann schnell erarbeitet werden übersichtlicher<br />

v46 schnelles, intuitive Arbeiten --> unabh. <strong>von</strong> Technik […] <br />

schnelles, intuitive Arbeiten ist möglich --> unabhängig <strong>von</strong> Technik<br />

v47<br />

v48 Benutzerfreundlich Die Schriftgröße zu klein…<br />

v49<br />

v50 lässt sich recht intuitiv bedienen Nicht alles in ein Fenster packen; Multifenstern […] Nicht alles in e<br />

v51<br />

v52 Einfach zu handhaben, nahezu überall vorhanden Größeres Blatt :-)<br />

v53<br />

v54<br />

v55<br />

v56<br />

v57 easy to modify<br />

v58<br />

v59 very intuitive and efficient<br />

w01 changes easy, speed + good control […] there are changes no 'help' easy menues, to implement, documentation speed + or good 'autofill' control properties. over creating new objects<br />

w02<br />

w03 not familiar with the task; Haven't studied enough […] was good. Interesting I wasn't idea! very familiar with the task. Haven't studied enough in the field<br />

w04 Gute Auswahl an UML-Elementen<br />

w05 alles nix<br />

w06 einfache, schnelle Handhabung Schwächen bzgl. UML-Std., teilweise unintuitiv<br />

w07<br />

w08 einfaches löschen, sehr intuitiv Hatte gerade kein Tool installiert das Linien produziert. […] Hatte gerade kein Tool i<br />

Index: 1. 2.<br />

Auswertung:<br />

Abbildung C.7.: Ergebnisse der Befragung (Seite 7 <strong>von</strong> 7)<br />

129


D. Verzeichnisse<br />

130


Tabellenverzeichnis<br />

4.1. Eindeutigkeit der Skalentypen [SHE05] . . . . . . . . . . . . . . . . . . . . . 30<br />

4.2. Allgemeiner Aufbau einer Typologie (bei zwei Dimensionen mit je zwei<br />

Ausprägungen)[SHE05] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

4.3. Beispiel für eine Typologie “politischen Engagements” [SHE05] . . . . . . . . 33<br />

4.4. Design einer einmaligen Messung [SHE05] . . . . . . . . . . . . . . . . . . . 36<br />

4.5. Design einer Vorher-Nachher-Messung mit Kontrollgruppe [SHE05] . . . . . 36<br />

4.6. Survey-Design [SHE05] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

4.7. SOLOMON-Viergruppenversuchsplan [SHE05] . . . . . . . . . . . . . . . . . 39<br />

4.8. Formen mündlicher Befragung [SHE05] . . . . . . . . . . . . . . . . . . . . . 47<br />

4.9. Beispiel einer zweistufigen Fragestellung [SHE05] . . . . . . . . . . . . . . . 49<br />

4.10. Beobachtungstypen [SHE05] . . . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

4.11. Beispiel für eine Datenmatrix [SHE05] . . . . . . . . . . . . . . . . . . . . . 60<br />

4.12. Kreuztabelle mit Kreuzung zweier Variablen (2*2-Tabelle) [SHE05] . . . . . 61<br />

4.13. Indifferenztabelle: kein Zusammenhang zwischen Geschlecht und Rauchern<br />

[SHE05] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

131


Abbildungsverzeichnis<br />

3.1. Objekte aus der Softwaretechnik, in UML-Notation [BrDu04] . . . . . . . . 9<br />

3.2. Überblick über die objektorientierten Softwaretechnik-Entwicklungs-aktivitäten<br />

und ihre jeweiligen Ergebnisse [BrDu04] . . . . . . . . . . . . . . . . . 11<br />

3.3. UML-Klassendiagramm [BrDu04] . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

3.4. Multiplizitäten [BrDu04] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

3.5. Komposition und Aggregation [BrDu04] . . . . . . . . . . . . . . . . . . . . 15<br />

3.6. Generalisierung [BrDu04] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

3.7. Brückenmuster [BrDu04] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

3.8. Adaptermuster [BrDu04] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

3.9. Strategiemuster [BrDu04] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

4.1. Phasen des Forschungsprozesses bei empirischen Untersuchungen [SHE05] . 24<br />

5.1. Unabhängige und abhängige Variablen [Muel06] . . . . . . . . . . . . . . . . 67<br />

6.1. Einschätzung der eigenen Motivation . . . . . . . . . . . . . . . . . . . . . . 94<br />

6.2. Statt der Übung lieber Aufgaben am Computer lösen . . . . . . . . . . . . . 95<br />

6.3. Unterteilung der Vorlesung in logisch abgeschlossene Einheiten . . . . . . . 96<br />

6.4. Einflechtung der Übung in die Vorlesung . . . . . . . . . . . . . . . . . . . . 96<br />

6.5. Unterstützung durch das Werkzeug “Papier und Stift” . . . . . . . . . . . . 98<br />

6.6. Unterstützung durch das Werkzeug “CASE-Tool” . . . . . . . . . . . . . . . 98<br />

6.7. Unterstützung durch das Werkzeug “Grafikprogramm” . . . . . . . . . . . . 99<br />

6.8. Unterstützung durch das Werkzeug “Tablet PC” . . . . . . . . . . . . . . . . 100<br />

6.9. Unterstützung im Lösungsprozess durch die verwendete Eingabemethode . . 100<br />

6.10. Angaben <strong>zur</strong> zukünftigen Nutzung des jeweiligen Werkzeuges . . . . . . . . 101<br />

6.11. Bevorzugung alternativer Eingabemethoden . . . . . . . . . . . . . . . . . . 102<br />

A.1. Minimalfragebogen der TU München <strong>zur</strong> Evaluation [Eval05] . . . . . . . . 113<br />

A.2. Fragebogen <strong>zur</strong> Softwaretechnik-Vorlesung (Seite 1) . . . . . . . . . . . . . . 114<br />

A.3. Fragebogen <strong>zur</strong> Softwaretechnik-Vorlesung (Seite 2) . . . . . . . . . . . . . . 115<br />

A.4. Fragebogen <strong>zur</strong> Softwaretechnik-Übung (Seite 1) . . . . . . . . . . . . . . . 116<br />

A.5. Fragebogen <strong>zur</strong> Softwaretechnik-Übung (Seite 2) . . . . . . . . . . . . . . . 117<br />

B.1. Aufgabenstellung der Übung (Seite 1) . . . . . . . . . . . . . . . . . . . . . 119<br />

B.2. Aufgabenstellung der Übung (Seite 2) . . . . . . . . . . . . . . . . . . . . . 120<br />

B.3. Lösung der Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />

C.1. Ergebnisse der Befragung (Seite 1 <strong>von</strong> 7) . . . . . . . . . . . . . . . . . . . . 123<br />

C.2. Ergebnisse der Befragung (Seite 2 <strong>von</strong> 7) . . . . . . . . . . . . . . . . . . . . 124<br />

C.3. Ergebnisse der Befragung (Seite 3 <strong>von</strong> 7) . . . . . . . . . . . . . . . . . . . . 125<br />

132


C.4. Ergebnisse der Befragung (Seite 4 <strong>von</strong> 7) . . . . . . . . . . . . . . . . . . . . 126<br />

C.5. Ergebnisse der Befragung (Seite 5 <strong>von</strong> 7) . . . . . . . . . . . . . . . . . . . . 127<br />

C.6. Ergebnisse der Befragung (Seite 6 <strong>von</strong> 7) . . . . . . . . . . . . . . . . . . . . 128<br />

C.7. Ergebnisse der Befragung (Seite 7 <strong>von</strong> 7) . . . . . . . . . . . . . . . . . . . . 129<br />

133


Literaturverzeichnis<br />

[Atte95]<br />

[Balz01]<br />

P. Atteslander: Methoden der empirischen Sozialforschung. 8. Aufl., de Gruyter,<br />

Berlin, 1995.<br />

H. Balzert: Lehrbuch der Software-Technik. Bd.1. Software-Entwicklung. Spektrum<br />

Akademischer Verlag, Heidelberg 1996, 1998, 2001.<br />

[BaSe85] V. R. Basili, R. W. Selby: Calculation and use of an Environment’s Characteristic<br />

Software Metric Set. In: Proceedings of the 8th International Conference on<br />

Software Engineering, 1985, IEEE Computer Society, Seite 386-391.<br />

[BaSL98] V. R. Basili, F. Shull, F. Lanubile: Using Experiments to Build a Body of Knowledge.<br />

In: Ershov Memorial Conference, 1998, Seite 265-282.<br />

[BaWe84] V. R. Basili, D.M.Weiss: A Methodology for Collecting Valid Software Engineering<br />

Data. In: IEEE Transactions on Software Engineering, Vol. SE-10 No. 6,<br />

November 1984, IEEE Computer Society, Seite 728-738.<br />

[BrDu04] B. Brügge, A. H. Dutoit: Objektorientierte Softwaretechnik mit UML, Entwurfsmustern<br />

und Java. Pearson Studium, München, 2004.<br />

[BRJ98]<br />

G. Booch, J. Rumbaugh, & I. Jacobson: The Unified Modeling Language User<br />

Guide. Addison Wesley, Reading, MA, 1998.<br />

[BWF04] S. Biffl, D. Winkler, D. Frast: Qualitätssicherung, Qualitätsmanagement und<br />

Testen in der Softwareentwicklung. Skriptum <strong>zur</strong> Lehrveranstaltung, TU Wien,<br />

2004. URL: http://qse.ifs.tuwien.ac.at/courses/skriptum/script.htm,<br />

Stand: 09.04.2006.<br />

[ClSc03]<br />

V. Claus, A. Schwill: Duden Informatik - Ein Fachlexikon für Studium und Praxis.<br />

Dudenverlag, Mannheim, 2003.<br />

[Edwa57] A. L. Edwars: Techniques of Attitude Scale Construction. Appleton-Century<br />

Crofts, New York, 1957.<br />

[Eval05]<br />

[FDF96]<br />

[GHJ04]<br />

Evaluation MW: Evaluation <strong>von</strong> Lehrveranstaltungen an der Fakultät Maschinenwesen<br />

der TU München.<br />

URL: http://www.evaluation.mw.tum.de/download/<br />

Konzeptpapier_Evaluation.pdf, Stand: 27.01.2006.<br />

J. D. Foley, A. van Dam, S. K. Feiner, J. F. Hughes: Computer Graphics: Principles<br />

and Practice. Addison-Wesley, Boston, 1996.<br />

E. Gamma, R. Helm, R. E. Johnson: Entwurfsmuster: Elemente wiederverwendbarer<br />

objektorientierter Software. Addison-Wesley, München, 2004.<br />

134


[HaDa2]<br />

T. Hammond, R. Davis: Tahuti: A Geometrical Sketch Recognition System for<br />

UML Class Diagrams. In: Papers from the 2002 AAAI Spring Symposium on<br />

Sketch Understanding, AAAI Press, Stanford, 2002, Seite 59-68.<br />

[Hegn03] M. Hegner: Methoden <strong>zur</strong> Evaluation <strong>von</strong> Software. GESIS - Gesellschaft Sozialwissenschaftlicher<br />

Infrastruktureinrichtungen e.V., IZ-Arbeitsbericht Nr. 29,<br />

2003.<br />

URL: http://www.gesis.org/Publikationen/Berichte/IZ_Arbeitsberichte/pdf/<br />

ab_29.pdf, Stand: 05.05.2006.<br />

[HMS97] L. L. Harlow, S. A. Mulaik, J. H. Steiger: What if there were no significance<br />

tests. Mahwah, NJ, 1997.<br />

[Hoepf1] F. Hoepflinger: Wichtige Regeln der Fragenbogen-Konstruktion. Soziologie: Startseite,<br />

Francois Höpflinger,<br />

URL: http://www.mypage.bluewin.ch/hoepf/fhtop/fhmethod1B.html,<br />

Stand: 28.01.2006.<br />

[Hoepf2] F. Hoepflinger: Stichprobenauswahl und Samplingverfahren. Soziologie: Startseite,<br />

Francois Höpflinger,<br />

URL: http://www.mypage.bluewin.ch/hoepf/fhtop/fhmethod1F.html,<br />

Stand: 28.01.2006.<br />

[JDK65]<br />

M. Jahoda, M. Deutsch, S. Cook: Beobachtungsverfahren. In: R. König (Hrsg.):<br />

Beobachtungen und Experimente in der Sozialforschung, 3. Aufl., Köln, 1965,<br />

Seite 77-96.<br />

[McCl89] C. McClure: CASE is software automation. Prentice Hall, Englewood Cliffs, NJ,<br />

1989.<br />

[Micro1]<br />

Microsoft.com: What is a Tablet PC.<br />

URL: http://www.microsoft.com/windowsxp/tabletpc/evaluation/<br />

about.mspx, Stand: 12.05.2006.<br />

[Mock04] K. Mock: Teaching with Tablet PC’s. In: The Sixth Northwest Consortium for<br />

Computing Sciences in Colleges, Salem, OR, 2004.<br />

[Muel06] M. Müller: Empirische Softwaretechnik. Skript: Tutorium: Empirische Softwaretechnik,<br />

2006.<br />

[NiTa94] J. Nielsen, M. Tahir: Usability Engineering. Morgan Kaufmann Publishers, 1994.<br />

[Pilo03] D. Pilone: UML. kurz & gut. 1. Aufl., Köln, O’Reilly, 2003.<br />

[Pils1]<br />

[Pleu04]<br />

B. Pilshofer: Wie erstelle ich einen Fragebogen - Ein Leitfaden für die Praxis.<br />

URL: http://www-gewi.kfunigraz.ac.at/wila/Publikationen/Fragebogen.pdf,<br />

Stand: 03.02.2006.<br />

J. Pleumann: Erfahrungen mit dem multimedialen, didaktischen <strong>Modellierung</strong>swerkzeug<br />

DAVE. In: Die 2. e-Learning Fachtagung Informatik (DelFI 2004), Gesellschaft<br />

für Informatik, Bonn, 2004, Seite 55-66.<br />

135


[Rind02] H. Rindermann: Beurteilung <strong>von</strong> Lehrveranstaltungen durch Studierende. Mai<br />

2002, URL: http://evanet.his.de/evanet/forum/rindermannPosition.pdf,<br />

Stand: 27.01.2006.<br />

[Rind04] H. Rindermann: Evaluation <strong>von</strong> Lehrveranstaltungsqualität. Eingeladener Vortrag<br />

am 15. Juni 2004 an der Universität Klagenfurt.<br />

URL: http://www-e.uni-magdeburg.de/methpsy/hr/LevKlagf.pdf,<br />

Stand: 27.01.2006.<br />

[Schm62] G. Schmidtchen: Der Anwendungsbereich betriebssoziologischer Umfragen. Bern,<br />

1962.<br />

[Seam99] C. B. Seaman: Qualitativ Methods in Empirical Studies of Software Engineering.<br />

In: IEEE Transactions on Software Engineering, Vol. 25 No. 4, 1999, Seite 557-<br />

572.<br />

[SHE05] R. Schnell, P. B. Hill, E. Esser: Methoden der empirischen Sozialforschung. 7.<br />

Aufl., Oldenbourg Wissenschaftsverlag, München, 2005.<br />

[Stan1]<br />

[Stev46]<br />

[TiM06]<br />

W. Stangl: Der Fragebogen. [werner.stangl]s Arbeitsblätter,<br />

URL: http://arbeitsblaetter.stangl-taller.at/Forschungsmethoden/<br />

Fragebogen.shtml, Stand: 28.01.2006.<br />

S. S. Stevens: On the Theory of Scales of Measurements. Science 103, 1946, Seite<br />

677-680.<br />

W. F. Tichy, M. Müller: Empirische Softwaretechnik. Skriptum <strong>zur</strong> Lehrveranstaltung,<br />

Universität Karlsruhe, 2006.<br />

URL: http://wwwipd.ira.uka.de/Tichy/teaching.phpid=122,<br />

Stand: 16.05.2006.<br />

[TUM06] Technische Universität München: Allgemeine Informationen zum Thema Datenschutz.<br />

URL: http://www.tu-muenchen.de/einrichtungen/gremien/be_ds/<br />

Allgemeine%20DS_Info.pdf, Stand: 17.01.2006.<br />

[Wiki1]<br />

[Wiki2]<br />

Wikipedia: Grafik-Software.<br />

URL: http://de.wikipedia.org/wiki/Grafiksoftware, Stand: 05.05.2006.<br />

Wikipedia: Tablet PC.<br />

URL: http://de.wikipedia.org/wiki/Tablet_PC, Stand: 05.05.2006.<br />

[WoG05] H. H. Wohlgemuth, J. Gerloff: Datenschutzrecht - Eine Einführung mit praktischen<br />

Fällen. Luchterhand, 3. Auflage, München/Unterschleißheim, 2005.<br />

[WoT03] H. Wottawa, H. Thierau: Lehrbuch Evaluation. Verlag Hans Huber, 3. Aufl.,<br />

Bern, 2003.<br />

136

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!