05.10.2013 Aufrufe

Information und Wissen: global, sozial und frei? - Fachhochschule ...

Information und Wissen: global, sozial und frei? - Fachhochschule ...

Information und Wissen: global, sozial und frei? - Fachhochschule ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Griesbaum, Mandl, Womser-Hacker (Hrsg.):<br />

<strong>Information</strong> <strong>und</strong> <strong>Wissen</strong>: <strong>global</strong>, <strong>sozial</strong> <strong>und</strong> <strong>frei</strong>?


2 Inhaltsverzeichnis


Joachim Griesbaum, Thomas Mandl,<br />

Christa Womser-Hacker (Hrsg.)<br />

<strong>Information</strong> <strong>und</strong> <strong>Wissen</strong>:<br />

<strong>global</strong>, <strong>sozial</strong> <strong>und</strong> <strong>frei</strong>?<br />

Proceedings des 12. Internationalen Symposiums<br />

für <strong>Information</strong>swissenschaft (ISI 2011)<br />

Hildesheim, 9.—11. März 2011


4 Inhaltsverzeichnis<br />

J. Griesbaum, T. Mandl, C. Womser-Hacker (Hrsg.):<br />

<strong>Information</strong> <strong>und</strong> <strong>Wissen</strong>: <strong>global</strong>, <strong>sozial</strong> <strong>und</strong> <strong>frei</strong>?<br />

Bibliografische <strong>Information</strong> der Deutschen Bibliothek<br />

Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen<br />

Nationalbibliografie; detaillierte bibliografische Daten sind im Internet unter<br />

http://dnb.ddb.de abrufbar.<br />

© Verlag Werner Hülsbusch, Boizenburg, 2011<br />

www.vwh-verlag.de<br />

Einfache Nutzungsrechte liegen beim Verlag Werner Hülsbusch, Boizenburg.<br />

Eine weitere Verwertung im Sinne des Urheberrechtsgesetzes ist nur mit Zustimmung<br />

der Autor/inn/en möglich.<br />

Markenerklärung: Die in diesem Werk wiedergegebenen Gebrauchsnamen, Handelsnamen,<br />

Warenzeichen usw. können auch ohne besondere Kennzeichnung geschützte<br />

Marken sein <strong>und</strong> als solche den gesetzlichen Bestimmungen unterliegen.<br />

Satz: Werner Hülsbusch<br />

Druck <strong>und</strong> Bindung: Kunsthaus Schwanheide<br />

– Als Manuskript gedruckt –<br />

Printed in Germany<br />

ISSN: 0938-8710<br />

ISBN: 978-3-940317-91-9


Inhaltsverzeichnis<br />

Veranstalter & Tagungsteam 11<br />

Programmkomitee 13<br />

Partner der ISI 2011 15<br />

Vorwort 15<br />

Abstracts der Keynotes 19<br />

Kalervo Järvelin<br />

<strong>Information</strong> Retrieval: Technology, Evaluation and Beyond 20<br />

Michael Schroeder<br />

Semantic search for the life sciences 22<br />

Session 1: Evaluation 23<br />

Pavel Sirotkin<br />

Predicting user preferences 24<br />

Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, DoWan Kim<br />

Usefulness Evaluation on Visualization of Researcher Networks 36<br />

Jens Kürsten, Thomas Wilhelm, Maximilian Eibl<br />

Vergleich von IR-Systemkonfigurationen auf Komponentenebene 47<br />

Session 2: <strong>Information</strong>sinfrastruktur 61<br />

Reinhild Barkey, Erhard Hinrichs, Christina Hoppermann,<br />

Thorsten Trippel, Claus Zinn<br />

Komponenten-basierte Metadatenschemata <strong>und</strong> Facetten-basierte Suche 62<br />

Ina Dehnhard, Peter Weiland<br />

Toolbasierte Datendokumentation in der Psychologie 74<br />

Gertrud Faaß, Ulrich Heid<br />

Nachhaltige Dokumentation virtueller Forschungsumgebungen 85


6 Inhaltsverzeichnis<br />

Session 3: Soziale Software 97<br />

Evelyn Dröge, Parinaz Maghferat, Cornelius Puschmann,<br />

Julia Verbina, Katrin Weller<br />

Konferenz-Tweets 98<br />

Richard Heinen, Ingo Blees<br />

Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften 111<br />

Jens Terliesner, Isabella Peters<br />

Der T-Index als Stabilitätsindikator für<br />

dokument-spezifische Tag-Verteilungen 123<br />

Session 4: Infometrics & Representations 135<br />

Steffen Hennicke, Marlies Olensky, Viktor de Boer,<br />

Antoine Isaac, Jan Wielemaker<br />

A data model for cross-domain data representation 136<br />

Stefanie Haustein<br />

<strong>Wissen</strong>schaftliche Zeitschriften im Web 2.0 148<br />

Philipp Leinenkugel, Werner Dees, Marc Rittberger<br />

Abdeckung erziehungswissenschaftlicher Zeitschriften<br />

in Google Scholar 160<br />

Session 5: <strong>Information</strong> Retrieval 171<br />

Ari Pirkola<br />

Constructing Topic-specific Search Keyphrase<br />

Suggestion Tools for Web <strong>Information</strong> Retrieval 172<br />

Philipp Mayr, Peter Mutschke, Vivien Petras, Philipp Schaer, York Sure<br />

Applying Science Models for Search 184<br />

Daniela Becks, Thomas Mandl, Christa Womser-Hacker<br />

Spezielle Anforderungen bei der Evaluierung<br />

von Patent-Retrieval-Systemen 197<br />

Andrea Ernst-Gerlach, Dennis Korbar, Ara Awakian<br />

Entwicklung einer Benutzeroberfläche zur interaktiven<br />

Regelgenerierung für die Suche in historischen Dokumenten 209


Session 6: Multimedia 221<br />

Peter Schultes, Franz Lehner, Harald Kosch<br />

Effects of real, media and presentation time in annotated video 222<br />

Marc Ritter, Maximilian Eibl<br />

Ein erweiterbares Tool zur Annotation von Videos 234<br />

Margret Plank<br />

AV-Portal für wissenschaftliche Filme: Analyse der Nutzerbedarfe 246<br />

Achim Oßwald<br />

Significant properties digitaler Objekte 257<br />

Session 7: <strong>Information</strong> Professionals & Usage 269<br />

Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

A survey of internet searching skills among intermediate<br />

school students: How librarians can help 270<br />

Matthias Görtz<br />

Kontextspezifische Erhebung von<br />

aufgabenbezogenem <strong>Information</strong>ssuchverhalten 286<br />

Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner<br />

Evaluation von Summarizing-Systemen 298<br />

Robert Mayo Hayes, Karin Karlics, Christian Schlögl<br />

Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven<br />

Branchen der österreichischen Volkswirtschaft 309<br />

Session 8:<br />

User Experience & Behavior 323<br />

Isto Huvila<br />

Mining qualitative data on human information behaviour from the Web 322<br />

Rahel Birri Blezon, René Schneider<br />

The Social Persona Approach 327<br />

Elena Shpilka, Ralph Koelle, Wolfgang Semar<br />

„Mobile Tagging“: Konzeption <strong>und</strong> Implementierung eines mobilen<br />

<strong>Information</strong>ssystems mit 2D-Tags 333


8 Inhaltsverzeichnis<br />

Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl<br />

User Interface Prototyping 345<br />

Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum<br />

Analyse <strong>und</strong> Evaluierung der Nutzung von Sitelinks 357<br />

Bernard Bekavac, Sonja Öttl, Thomas Weinhold<br />

Online-Beratungskomponente für die<br />

Auswahl von Usability-Evaluationsmethoden 369<br />

Session 9:<br />

<strong>Information</strong> Domains & Concepts 375<br />

Michał Goliński<br />

Use, but verify 376<br />

Mohammad Nazim, Bhaskar Mukherjee<br />

Problems and prospects of implementing knowledge management<br />

in university libraries: A case study of Banaras Hindu University<br />

Library System 381<br />

Daniela Becks, Julia Maria Schulz<br />

Domänenübergreifende Phrasenextraktion mithilfe<br />

einer lexikonunabhängigen Analysekomponente 388<br />

Wolfram Sperber, Bernd Wegner<br />

Content Analysis in der Mathematik:<br />

Erschließung <strong>und</strong> Retrieval mathematischer Publikationen 393<br />

Jürgen Reischer<br />

Das Konzept der Informativität 404<br />

Session 10: <strong>Information</strong> Society 409<br />

Joseph Adjei, Peter Tobbin<br />

Identification Systems Adoption in Africa; The Case of Ghana. 410<br />

Alexander Botte, Marc Rittberger, Christoph Schindler<br />

Virtuelle Forschungsumgebungen 422<br />

Rainer Kuhlen<br />

Der Streit um die Regelung des<br />

Zweitveröffentlichungsrechts im Urheberrecht 434


Session 11: E-Learning / Social Media Marketing 453<br />

Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

Integrating industrial partners into e-teaching efforts 454<br />

Christopher Stehr, Melanie Hiller<br />

E-Learningkurs Globalisierung 467<br />

Manuel Burghardt, Markus Heckner, Tim Schneidermeier, Christian Wolff<br />

Social-Media-Marketing im Hochschulbereich 478<br />

Posterpräsentationen 493<br />

Peter Böhm, Marc Rittberger<br />

Nutzungsanalyse des Deutschen Bildungsservers<br />

<strong>und</strong> Konzeption eines Personalisierungsangebots 494<br />

Andreas Bohne-Lang, Elke Lang<br />

A landmark in biomedical information:<br />

many ways are leading to PubMed 496<br />

Ina Blümel, René Berndt<br />

3D-Modelle in bibliothekarischen Angeboten 498<br />

Nicolai Erbs, Daniel Bär, Iryna Gurevych, Torsten Zesch<br />

First Aid for <strong>Information</strong> Chaos in Wikis 501<br />

Maria Gäde, Juliane Stiller<br />

Multilingual Interface Usage 503<br />

Jasmin Hügi, Rahel Birri Blezon, René Schneider<br />

Fassettierte Suche in Benutzeroberflächen von digitalen Bibliotheken 505<br />

Hanna Knäusl<br />

Ordnung im Weltwissen 507<br />

Isabel Nündel, Erich Weichselgartner, Günter Krampen<br />

Die European Psychology Publication Platform 509<br />

Projektteam IUWIS<br />

IUWIS (Infrastruktur Urheberrecht in <strong>Wissen</strong>schaft <strong>und</strong> Bildung):<br />

Urheberrecht zwischen Fakten <strong>und</strong> Diskursen 511


10 Inhaltsverzeichnis<br />

Helge Klaus Rieder<br />

Die Kulturgüterdatenbank der Region Trier 513<br />

Karl Voit, Keith Andrews, Wolfgang Wintersteller, Wolfgang Slany<br />

TagTree: Exploring Tag-Based Navigational Structures 516<br />

Jakob Voß, Mathias Schindler, Christian Thiele<br />

Link server aggregation with BEACON 519<br />

Praxis-Tracks 523<br />

Matthias Görtz<br />

<strong>Wissen</strong>schaft trifft Praxis 524<br />

Studierendenprogramm 529<br />

Katrin Geist<br />

Mittendrin statt nur dabei 530


Veranstalter & Tagungsteam<br />

Hochschulverband <strong>Information</strong>swissenschaft (HI) e.V.<br />

www.informationswissenschaft.org<br />

IuK-Initiative <strong>Wissen</strong>schaft e.V.<br />

www.iuk-initiative.org<br />

Stiftung Universität Hildesheim<br />

Institut für <strong>Information</strong>swissenschaft <strong>und</strong> Sprachtechnologie<br />

Universität Hildesheim<br />

Bühler Campus, Gebäude Lübeckerstr. 3<br />

31141 Hildesheim<br />

www.uni-hildesheim.de/de/iwist.htm<br />

Partner<br />

The American Society for <strong>Information</strong> Science & Technology (ASIS&T)<br />

www.asis.org


12 Veranstalter & Tagungsteam<br />

Konferenzchair<br />

Christa Womser-Hacker, Universität Hildesheim<br />

Programmchair<br />

Thomas Mandl, Universität Hildesheim<br />

Organisationschair / Tagungsband<br />

Joachim Griesbaum, Universität Hildesheim<br />

Chair Doktorandenprogramm<br />

Christian Wolff, Universität Regensburg<br />

Chair für den Gerhard-Lustig-Preis<br />

Rainer Hammwöhner, Universität Regensburg<br />

Chair für das Posterprogramm<br />

Vivien Petras, Humboldt-Universität zu Berlin<br />

Demo-Chair <strong>und</strong> neue Technologien<br />

Ralph Kölle, Universität Hildesheim<br />

Chair für das studentische Programm<br />

Katrin Geist, Studentin an der Universität Hildesheim<br />

Sponsoring-Koordination<br />

Ben Heuwing<br />

Praxis-Track<br />

Matthias Görtz<br />

Tagungsbüro<br />

Sidika Uyulgan, Julia Jürgens<br />

Web<br />

Matthias Görtz, Ben Heuwing, Saskia-Janina Untiet-Kepp<br />

Print<br />

Julia Maria Schulz, Daniela Becks, Ben Heuwing<br />

Organisationsteam:<br />

Folker Caroli, Gabriele Hahn, Nadine Mahrholz, Katrin Werner<br />

Helfer <strong>und</strong> Volunteers:<br />

Fatima Alagic, Jasper Brandes, Yasemin Ciftci, Jan Denecke, Anna Eberle,<br />

Mira Heimsoth, Tomke Jaspers, Elisa Jatho, Dustin King, Hannes Krengel,<br />

Philipp Krieger, Gerrit Lutter, Simon Mangeng, Linda Meier, Veselina Milanova,<br />

Sabrina Rauch, Alexander Rösler, Clemens Roth, Stefan Strathmeier,<br />

Fabian Wächter, Lars Wendt, Hans Christian Wenske, Laura Willecke


Programmkomitee<br />

Internationales Symposium für <strong>Information</strong>swissenschaft<br />

www.isi2011.de<br />

Tatjana Aparac-Jelušic, University of Zadar, Kroatien<br />

Bernard Bekavac, Hochschule für Technik <strong>und</strong> Wirtschaft Chur<br />

Nicolas Belkin, Rutgers University<br />

Christoph Bläsi, Universität Mainz<br />

Andreas Brellochs, Zürcher Kantonalbank, Zürich, Abt. InfoCenter<br />

Rafael Capurro, ZKM Karlsruhe<br />

Nicolae Dragulanescu, University Politehnica of Bucharest<br />

Maximilian Eibl, Technische Universität Chemnitz<br />

Simone Fühles-Ubach, <strong>Fachhochschule</strong> Köln<br />

Norbert Fuhr, Universität Duisburg-Essen<br />

Ursula Georgy, <strong>Fachhochschule</strong> Köln<br />

Stefan Gradmann, Humboldt Universität zu Berlin<br />

Joachim Griesbaum, Universität Hildesheim<br />

Rainer Hammwöhner, Universität Regensburg<br />

Ilse M. Harms, Universität des Saarlandes<br />

Josef Herget, Donau-Universität Krems<br />

Hans-Christoph Hobohm, <strong>Fachhochschule</strong> Potsdam<br />

Isto Huvila, Uppsala University<br />

Peter Ingwersen, Universität Kopenhagen<br />

DoWan Kim, University Paichai, Daejeon<br />

Michael Kluck, Stiftung <strong>Wissen</strong>schaft <strong>und</strong> Politik (SWP) Berlin<br />

Gerhard Knorz, Hochschule Darmstadt<br />

Traugott Koch, Max Planck Digital Library Berlin<br />

Jürgen Krause, ehemals GESIS <strong>und</strong> Universität Koblenz Landau<br />

Otto Krickl, Universität Graz<br />

Rainer Kuhlen, ehemals Universität Konstanz<br />

Dirk Lewandowski, Hochschule für Ang. <strong>Wissen</strong>schaften Hamburg<br />

Thomas Mandl, Universität Hildesheim<br />

Michel J. Menou, University College London<br />

Achim Oßwald, <strong>Fachhochschule</strong> Köln


14 Programmkomitee<br />

Vivien Petras, Humboldt-Universität zu Berlin<br />

Wolf Rauch, Universität Graz<br />

Ulrich Reimer, University of Applied Science, St. Gallen<br />

Harald Reiterer, Universität Konstanz<br />

Marc Rittberger, Hochschule Darmstadt/DIPF<br />

Christian Schlögl, Universität Graz<br />

Colin Schmidt, Universität Le Mans<br />

Ralph Schmidt, Hochschule für Ang. <strong>Wissen</strong>schaften Hamburg<br />

Wolfgang Schmitz, Universitätsbibliothek der Universität Köln<br />

René Schneider, Haute école de gestion de Genève – HEG Genf<br />

Ulrike Schömer, <strong>Fachhochschule</strong> Hannover<br />

Michael Seadle, Humboldt Universität zu Berlin<br />

Wolfgang Semar, Hochschule für Technik <strong>und</strong> Wirtschaft Chur<br />

Wolfram Sperber, ZIB Berlin<br />

Ulrike Spree, Hochschule für Ang. <strong>Wissen</strong>schaften Hamburg<br />

Maximilian Stempfhuber, RWTH Aachen, Hochschulbibliothek<br />

Wolfgang G. Stock, Universität Düsseldorf<br />

Klaus Tochtermann, ZBW Kiel<br />

Gabriela Tullius, <strong>Fachhochschule</strong> Reutlingen<br />

Sirje Virkus, Universität Tallinn<br />

Christian Wolff, Universität Regensburg<br />

Julian Warner, Queens University of Belfast<br />

Erich Weichselgartner, ZPID Trier<br />

Christa Womser-Hacker, Universität Hildesheim<br />

Maja Zumer, Universität Ljubljana


When Music comes into Play – Überlegungen zur Bedeutung von Musik ... 15<br />

Partner der ISI 2011<br />

Wir danken unseren Partnern für die Unterstützung der Konferenz:<br />

\\file02.iw.uni-hildesheim.de\isi\g...


16 Ellen Jünger<br />

Vorwort


Vorwort 17<br />

Vorwort<br />

Das 12. Internationale Symposium für <strong>Information</strong>swissenschaft (ISI), das<br />

vom 9. bis 11. März 2011 an der Universität Hildesheim zusammen mit der<br />

17. Jahrestagung der IuK-Initiative <strong>Wissen</strong>schaft stattfindet, greift unter dem<br />

Tagungsmotto „<strong>Information</strong> <strong>und</strong> <strong>Wissen</strong>: <strong>global</strong>, <strong>sozial</strong> <strong>und</strong> <strong>frei</strong>?“ zentrale<br />

informationswissenschaftliche <strong>und</strong> informationspraktische Fragestellungen<br />

auf <strong>und</strong> stellt sie in einen aktuellen, wissenschaftlichen <strong>und</strong> gesellschaftspolitischen<br />

Kontext.<br />

Der Fokus liegt auf <strong>Information</strong> <strong>und</strong> <strong>Wissen</strong> in einer immer stärker vernetzten,<br />

<strong>global</strong>isierten Welt, auf der Rolle von <strong>sozial</strong>en Netzwerken <strong>und</strong> auf<br />

der Diskussion von „<strong>frei</strong>er“ <strong>Information</strong> <strong>und</strong> „<strong>frei</strong>em“ <strong>Wissen</strong> im Spagat zwischen<br />

Open Access <strong>und</strong> noch fragilen politischen Entscheidungen im Urheberrecht<br />

für <strong>Wissen</strong>schaft <strong>und</strong> Bildung. Damit wird auch ein Forschungsschwerpunkt<br />

im Institut für <strong>Information</strong>swissenschaft <strong>und</strong> Sprachtechnologie<br />

an der Universität Hildesheim aufgegriffen, das sich in seinem besonderen<br />

Profil mit <strong>Information</strong>s- <strong>und</strong> <strong>Wissen</strong>sprozessen vor dem Hintergr<strong>und</strong><br />

der Mehrsprachigkeit <strong>und</strong> Interkulturalität beschäftigt.<br />

Die ISI 2011 ist die Tagung der deutschsprachigen <strong>Information</strong>swissenschaft.<br />

Sie wird vom Hochschulverband für <strong>Information</strong>swissenschaft (HI)<br />

e.V. in Kooperation mit der IuK-Initiative <strong>Wissen</strong>schaft veranstaltet.<br />

Ein besonderes Ziel war es in diesem Jahr, eine stärkere Internationalisierung<br />

zu erreichen, ohne auf die erfolgreiche Tradition der bisherigen ISI-<br />

Tagungen zu verzichten. Die Einlösung dieser Herausforderung spiegelt sich<br />

in der Kooperation mit dem European Chapter von ASIST (The American<br />

Society for <strong>Information</strong> Science and Technology), im Programmkomitee, in<br />

der Herkunft der Beitragenden <strong>und</strong> in der intensiveren Einbeziehung der<br />

englischen Sprache als Tagungssprache wider. Ein spezielles Panel geht dem<br />

Selbstverständnis einer European <strong>Information</strong> Science Community nach.<br />

Auf den Call for Papers gingen mehr als 90 Einreichungen ein, wovon nur<br />

ein Teil für die Tagung ausgewählt werden konnte. Jeder Beitrag wurde von<br />

mindestens drei Mitgliedern des Programmkomitees anonym begutachtet; die<br />

nicht immer leichte Entscheidung fiel in einem intensiven Diskussionsprozess.<br />

Die Beiträge in diesem Tagungsband beleuchten das Generalthema der<br />

Tagung aus vielfältigen thematischen Perspektiven <strong>und</strong> aus der Sichtweise


18 Vorwort<br />

unterschiedlicher Disziplinen. Dabei kommen aktuelle Themenfelder genauso<br />

zum Tragen wie traditionelle Kernthemen der <strong>Information</strong>swissenschaft<br />

wie <strong>Information</strong> Retrieval, <strong>Information</strong>sverhalten, Mensch-Maschine-Interaktion<br />

sowie deren Evaluierung. Deutlich rücken auch Themen der Fachinformation<br />

bzw. der <strong>Information</strong>sinfrastruktur in den Vordergr<strong>und</strong>. Theorie<br />

<strong>und</strong> konstruktive Praxis halten sich die Waage <strong>und</strong> profitieren von einander.<br />

Zum Schluss ein Wort des Dankes bereits im Vorfeld der Tagung: Der Erfolg<br />

einer wissenschaftlichen Tagung steht <strong>und</strong> fällt mit der Qualität der Beiträge.<br />

Die Herausgeber dieses Bandes danken dem Programmkomitee für die<br />

f<strong>und</strong>ierte Begutachtung der vielen Beiträge. Insbesondere sei den Autoren<br />

<strong>und</strong> Autorinnen gedankt, welche die ISI 2011 mit ihren Einreichungen zu<br />

einem wichtigen Community Event machen.<br />

Die problemlose Kooperation mit dem Verlag Werner Hülsbusch hat uns<br />

in einer Zeit, wo Stress etwas Natürliches ist, vieles vereinfacht. Nicht zuletzt<br />

gebührt unser Dank dem gesamten Team des Instituts für <strong>Information</strong>swissenschaft<br />

<strong>und</strong> Sprachtechnologie <strong>und</strong> den vielen studentischen Helfern <strong>und</strong><br />

Helferinnen vor Ort, die alle mit großem Engagement <strong>und</strong> Interesse die Tagungsarbeit<br />

unterstützt haben.<br />

Wir wünschen allen Teilnehmern <strong>und</strong> Teilnehmerinnen der ISI 2011 eine<br />

spannende Zeit in Hildesheim <strong>und</strong> allen Lesern <strong>und</strong> Leserinnen des Tagungsbandes<br />

eine interessante Lektüre.<br />

Hildesheim, im Februar 2011<br />

Christa Womser-Hacker, Joachim Griesbaum <strong>und</strong> Thomas Mandl


Vorwort 19<br />

Abstracts der Keynotes


20 Kalervo Järvelin<br />

Abstract<br />

<strong>Information</strong> Retrieval:<br />

Technology, Evaluation and Beyond<br />

Kalervo Järvelin<br />

School of <strong>Information</strong> Sciences<br />

University of Tampere, Finland<br />

kalervo.jarvelin@uta.fi<br />

The ultimate goal of information retrieval (IR) research is to create ways to<br />

support humans to better access information in order to better carry out their<br />

tasks. Because of this, IR research has a primarily technological interest in<br />

knowledge creation – how to find information (better)? IR research therefore<br />

has a constructive aspect (to create novel systems) and an evaluation aspect<br />

(are they any good?). Evaluation is sometimes referred to as a hallmark and<br />

distinctive feature of IR research. No claim in IR is granted any merit unless<br />

it is shown, through rigorous evaluation, that the claim is well fo<strong>und</strong>ed.<br />

Technological innovation alone is not sufficient. In fact, much research in IR<br />

deals with IR evaluation and its methodology.<br />

Evaluation, in general, is the systematic determination of merit and significance<br />

of something using criteria against a set of standards. Evaluation therefore<br />

requires some object that is evaluated and some goal that should be<br />

achieved or served. In IR, both can be set in many ways. The object usually<br />

is an IR system or a system component – but what is an IR system? The goal<br />

is typically the quality of the retrieved result – but what is the retrieved result<br />

and how does one measure quality? These questions can be answered in alternative<br />

ways, which lead to different kinds of IR evaluation.<br />

Practical life with all its variability is difficult and expensive to investigate.<br />

Therefore surrogate and more easily measurable goals are employed in IR<br />

evaluation, typically the quality of the ranked result list instead of the work<br />

task result. The task performance process may also be cut down from a work<br />

task to a search task and down to running an individual query in a test collection.<br />

This simplification has led to standardization of research designs and<br />

tremendous success in IR research. However, as the goals and systems drift


<strong>Information</strong> Retrieval: Technology, Evaluation and Beyond 21<br />

farther away from the practical life condition, an alert mind needs to ask,<br />

whether the findings still serve the initial goals of evaluation? If means (outputs)<br />

replace ends (outcomes), one runs the risk of suboptimization.<br />

It is important to evaluate the subsystems of information retrieval processes,<br />

in addition to the search engines. By lifting one’s eyes from the search engine<br />

effectiveness alone, one may be able to put the subsystems and their contributions<br />

in relation with each other. We will discuss nested IR evaluation<br />

frameworks ranging from IR system centered evaluation to work-task based<br />

evaluation. We will also point to the Pandora’s box of problems that the<br />

enlargement of the scope of research grants us.<br />

The contributions of a research area, in addition to constructive and evaluative<br />

contributions, may be generally empirical, theoretical and methodological.<br />

Why should we care about anything beyond IR experimentation (i.e.<br />

evaluation)? The talk will outline some motivations and possibilities for descriptive,<br />

explanatory and theoretical research in IR.


22 Kalervo Järvelin<br />

Abstract<br />

Semantic search for the life sciences<br />

Michael Schroeder<br />

Biotechnology Center of the TU Dresden<br />

Tatzberg 47/49, 01307 Dresden<br />

director(at)biotec.tu-dresden.de<br />

Semantic search promises to improve classical keyword search by exploiting<br />

backgro<strong>und</strong> knowledge to improve completeness of search results and navigation<br />

in search results. I will give a summary of GoPubMed, the first semantic<br />

search engine for the life sciences. Besides demonstrating the power<br />

of semantic search, I will highlight problems in entity recognition, disambiguation<br />

and ontology generation. A prerequesite for efforts such as<br />

GoPubMed are open access and open data.


<strong>Information</strong> Retrieval: Technology, Evaluation and Beyond 23<br />

Session 1:<br />

Evaluation


24 Pavel Sirotkin<br />

Abstract<br />

Predicting user preferences<br />

An evaluation of popular relevance metrics<br />

Pavel Sirotkin<br />

Heinrich Heine University Düsseldorf<br />

<strong>Information</strong> Science Department<br />

Universitätstr. 1, 40225 Düsseldorf<br />

sirotkin@phil-fak.uni-duesseldorf.de<br />

The many metrics employed for the evaluation of search engine results have<br />

not themselves been conclusively evaluated. We propose a new measure for a<br />

metric’s ability to identify user preference of result lists. Using this measure,<br />

we evaluate the metrics Discounted Cumulated Gain, Mean Average Precision<br />

and classical precision, finding that the former performs best. We also<br />

show that considering more results for a given query can impair rather than<br />

improve a metric’s ability to predict user preferences.<br />

Introduction<br />

One issue in the evaluation of information retrieval systems in general and<br />

search engines in particular is the missing benchmark for system evaluation<br />

metrics. Given the by now ab<strong>und</strong>ant number of measurement types, it is unclear<br />

how to judge them. With time, some measures like classical precision<br />

fall out of the researchers’ favour, while new ones gain acceptance. However,<br />

the process is slow and by no means conclusive. As Büttcher et al. (2010, p.<br />

410) note, “given their importance in IR evaluation, one might assume that<br />

the relationship between user satisfaction and, say, average precision has<br />

been thoroughly studied and is well <strong>und</strong>erstood. Unfortunately, this is not the


Predicting user preferences 25<br />

case. User studies trying to find correlations between user satisfaction and<br />

various effectiveness measures are a relatively recent phenomenon.”<br />

Thus, the meaning of metrics is unclear. It might be conceivable that popular<br />

metrics measure user satisfaction; or user preference; or task completion;<br />

or success in reaching goals; or perhaps just the correlation with the<br />

metric itself and nothing else. We attempt to provide first answers to a particular<br />

question that has received relatively little attention until now: How<br />

well can popular metrics pick out user preference between result lists? We<br />

will describe some popular metrics and discuss previously conducted evaluations<br />

in Section 2. Section 3 describes our own methodology and introduces a<br />

new measure employed to produce results described in Section 4. Section 5<br />

provides a discussion of those results, with conclusions drawn in Section 6.<br />

Related Work<br />

Evaluation metrics<br />

A list by Della Mea et al. (2006), which does not claim any completeness,<br />

contains 45 evaluation metrics introduced from 1965 to 2005. Many of them<br />

have hardly been used except by their creators, and most are not relevant for<br />

our purposes. The earliest and surely most influential metric is precision. It is<br />

defined simply as the proportion of relevant documents returned by a system.<br />

Its shortcomings for the purposes of web evaluation have been often stated;<br />

particularly, as thousands of pages can be relevant to a query, it might be<br />

unwise to assign an equal weight to all returned results.<br />

These concerns were partly addressed by Average Precision (AP). As its<br />

name suggests, it averages precisions at individual ranks. In words, AP considers<br />

the precision at every relevant result in the list, and divides it by the<br />

result’s rank; then, the precision is averaged by dividing the sum of discounted<br />

precisions by the total number of relevant results. In most cases, the<br />

AP of many queries is considered, and a Mean Average Precision (MAP) is<br />

calculated. MAP is one of the most-used metrics and is employed in single<br />

studies as well as in large efforts such as TREC.


26 Pavel Sirotkin<br />

Formula 1. MAP formula with queries Q, relevant documents R, documents D at<br />

rank r and n returned results. rel is a relevance function assigning 1 to relevant results.<br />

Another metric which has enjoyed wide popularity since its introduction<br />

is Discounted Cumulated Gain or DCG for short (Järvelin and Kekäläinen<br />

2002). The more basic measure upon which it is constructed is the Cumulated<br />

Gain, which is a simple sum of the relevance judgements of all results<br />

up to a certain rank. DCG enhances this rather simple method by introducing<br />

“[a] discounting function [...] that progressively reduces the document score<br />

as its rank increases but not too steeply (e.g., as division by rank) to allow for<br />

user persistence in examining further documents” (Järvelin and Kekäläinen<br />

2002, p. 425). In practice, the authors suggest a logarithmic function, which<br />

can be adjusted (by selecting its base) to provide a more or less strong discount,<br />

depending on the expectations of users’ persistence. DCG can be<br />

modified to allow for better inter-query comparison; to this end, a perfect<br />

ranking for known documents is constructed. The DCG of a result list is then<br />

divided by the ideal DCG, producing normalized DCG (nDCG) in the 0...1<br />

range.<br />

Formula 2. DCG with logarithm base b (based on Järvelin and Kekäläinen 2002).<br />

Metric Evaluations<br />

When a new evaluation metric is introduced, it is usually explained what its<br />

advantage over existing metrics is. Mostly, this happens in theoretical terms;<br />

more often than not, an experimental metric evaluation is also given. There<br />

are many studies comparing one metric to another; however, this has the<br />

disadvantage of being a circular confirmation, indicating at best correlation<br />

between metrics.<br />

Another method was used for evaluating different CG metrics (Järvelin<br />

and Kekäläinen 2000; Järvelin and Kekäläinen 2002). Those were used to<br />

evaluate different IR systems, where one was hypothesized to outperform the


Predicting user preferences 27<br />

others. The CG measures indeed showed a significant difference between the<br />

systems, and were considered to have been validated. We do not regard this<br />

methodology as satisfactory. It seems that evaluating the hypothesis with a<br />

new metric while at the same time evaluating the metric against the hypothesis<br />

may produce a positive correlation without necessarily signifying a meaningful<br />

connection to any outside entity.<br />

More promising approaches attempt to judge metrics with regard to an external<br />

standard. These studies often cast doubt on assumptions about explicit<br />

measures. Several studies report that MAP does not correlate in a significant<br />

way with user performance (Hersh et al. 2000; Turpin and Scholer 2006).<br />

Another study showed some correlation (Kelly et al. 2007); however, it was<br />

significant for less than half of all users. Also, the study has methodological<br />

issues; it included only four topics, and, while raters were to formulate own<br />

queries, the result lists were predefined. That means that raters actually rated<br />

the same result lists for different queries. A further study examined the correlation<br />

between average precision and user success (Al-Maskari et al. 2008).<br />

The results showed a strong correlation between average precision and user<br />

success metrics (such as the number of retrieved documents) as well as user<br />

satisfaction. The correlation values are signifycant; however, the correlation<br />

was with a fourfold increase in average precision, which is quite an extraordinary<br />

difference. Compared with this distinction, the increase in user success<br />

and especially user satisfaction was quite low. When the (absolute or<br />

relative) difference between the systems’ average precision was reduced, the<br />

significance of correlations promptly dropped and all but disappeared when<br />

the increase in average precision was at 30%. One more MAP study looked<br />

at average precision at rank 3, which was fo<strong>und</strong> to have a strong correlation<br />

with explicit user satisfaction (Huffman and Hochster 2007).<br />

In a further study, precision, CG, DCG and NDCG were compared to<br />

three explicit measures of user satisfaction with the search session called<br />

“accuracy”, “coverage” and “ranking” (Al-Maskari et al. 2007). The results<br />

were mixed. From the overall 12 relations between metric and user satisfaction,<br />

only two showed a significant correlation, namely, precision and CG<br />

with the ranking of results. There have been further studies indicating the<br />

need for more holistic ratings. Ali, Chang et al. (2005) have shown that the<br />

correlation between result-based DCG scores and result list scores (on a tertiary<br />

scale) is 0.54 for image and 0.29 for news search. While the fields were<br />

more specific than general web search, the numbers clearly do not indicate a<br />

reliable link between the scores.


28 Pavel Sirotkin<br />

These studies do not produce conclusive results, though they seem to cast<br />

doubt on the connections between popular metrics (as they have been used<br />

for web search evaluation) and user satisfaction. Therefore, the need for<br />

novel methods of metric evaluation has been emphasized (Mandl 2010).<br />

Methodology<br />

We attempt to provide a comparison of three popular explicit evaluation metrics<br />

in their relationship to user satisfaction. That is to say, we attempt to test<br />

whether and how well (M)AP and (n)DCG 1 indicate users’ explicitly stated<br />

preferences. While there is no absolute standard against which to measure<br />

evaluation metrics, we consider user preference between two result lists to be<br />

a useful start. From the point of view of a search engine developer, the most<br />

interesting question to be answered by a metric is whether a given algorithm<br />

is better than another. This other might be a previous version of the algorithm,<br />

a competing search engine, or just a baseline value. Additional questions<br />

might regard the confidence in the preference statement or the amount<br />

of difference between the algorithms. And the most direct way to gather user<br />

preference is to obtain explicit judgments. The directness is needed to ensure<br />

that the standard we are measuring metrics against is not itself biased by an<br />

intermittent layer of theory. While a direct comparison of two result sets is<br />

not usual (and might be considered “unnatural” for search behaviour), we<br />

think it nevertheless provides a more close reflection of actual user preference<br />

than other methods.<br />

For the study, the help of 31 first-year <strong>Information</strong> Science students was<br />

enlisted. They were required to enter queries they were interested in, as well<br />

as a detailed statement of their information need. For every query, the top 50<br />

results were fetched from a major web search engine. From these, two result<br />

lists were constructed; one contained the results in original order, while the<br />

ordering of the other was completely randomized. Then the users were confronted,<br />

also through a web interface, with different types of judgments.<br />

1 As we calculate the metrics on a per-query basis, nDCG is analogous to DCG while<br />

being easier to compare as it falls into the usual 0...1 range. Also, MAP for a single<br />

query is obviously equal to AP. For convenience, we will speak of MAP in all contexts.


Predicting user preferences 29<br />

First, they were presented with a query, an information need statement, and<br />

two result lists displayed side by side, which were anonymized and presented<br />

in random order. They were asked to conduct a search session as they would<br />

do normally, and when they were done, to indicate which result list they<br />

fo<strong>und</strong> better, or if both were equally good (or bad) 2 . Later, they were presented<br />

with single results and requested to evaluate their relevance given the<br />

query and the information need. Ratings were graded on a 1...6 scale, which<br />

is familiar to German students since it is the standard grade scale in schools<br />

and universities. For evaluation purposes, the ratings were converted to a<br />

1...0 scale with 0.2 intervals (1 → 1.0, 2 → 0.8, …, 6 → 0.0). Both the preference<br />

and the relevance judgments could be for the users’ own queries or for<br />

others’. The raters performed all actions via a Web interface.<br />

The main evaluation measure was the ratio of queries for which the difference between<br />

metric values for the two result lists would correctly predict explicit user preference.<br />

We call the measure Preference Identification Ratio (PIR). The definition is<br />

given in<br />

Formula 3, with Q being the set of queries where the output of one algorithm<br />

has been judged to be better than another, mq1 and mq2 being metric<br />

values for the two result lists <strong>und</strong>er comparison, pq the preference judgment<br />

(with value 1 if q1 is preferred and -1 if q2 is preferred), and t a threshold<br />

value to allow treating result list quality as equal if their metric values are<br />

similar. On an intuitive level, the numerator is the number of queries where<br />

we can correctly predict the user preference from explicit result ratings minus<br />

the number of queries where the preference prediction is inversed. The denominator<br />

is simply the number of preference judgments where a preference<br />

actually exists. If two result lists are judged to be of similar quality, a metric’s<br />

values do not influence PIR, as choosing any one does not lead to any<br />

advantages or disadvantages to the user 3 . This implies that if a metric’s values<br />

could be used to correctly predict user preference judgments for all sessions,<br />

its PIR would be 1; and if every preference prediction was reversed,<br />

the PIR would be -1. However, since assuming no preferences at all would<br />

result in a PIR value of 0, we can consider this to be the baseline.<br />

2 Interestingly (and surprisingly for us), the randomized result list was judged to be better<br />

than the original one in ca. 26% of all cases. The reasons for and implications of this<br />

finding go beyond the scope of this paper and will be discussed elsewhere.<br />

3 It may be argued that if the current algorithm performs equally well, the adoption of a<br />

novel one is a waste of effort. Here, though, we focus on user experience.


30 Pavel Sirotkin<br />

Formula 3. Preference Identification Ratio with metric values m, queries Q, preference<br />

judgments p and threshold t.<br />

Evaluation<br />

Our aim was to determine how well MAP and nDCG predict user preference<br />

in different conditions as measured by PIR. For comparison, precision was<br />

also evaluated. In a departure from the classical definitions, we retained<br />

graded relevance values for precision and MAP. We defined Precision@K as<br />

the sum of relevance ratings at ranks 1 to K divided by K, which is a slight<br />

adjustment of the original formula also falling into the 0...1 range. For MAP,<br />

only the relevance function changes. The different conditions were different<br />

cut-off values, corresponding to different amounts of evaluation effort. If,<br />

after some rank, a further increase of the cut-off value provided only marginal<br />

PIR gains, one might lower the cut-off value and direct the released<br />

resources towards an increased number of queries.<br />

Our first task was to find appropriate values for the threshold t. To this<br />

end, we calculated PIR for every metric, cut-off value and threshold (the<br />

latter in 0.01 intervals); then, we selected thresholds performing best for<br />

every metric/cut-off combination. A sample t evaluation is shown in<br />

Figure 1. While the PIR differences between neighbouring t values were<br />

expectedly small and thus not statistically significant, we feel justified in this<br />

approach as our main aim was inter-metric comparison. Thus, even if the<br />

better PIR of a threshold is due to chance, the influence of randomness<br />

should average out between thresholds, cut-off values and measures, and<br />

while the absolute numbers might be too high, the relative performance<br />

judgments are still relevant.


Predicting user preferences 31<br />

Figure 1. Evaluation for different t values for precision with cut-offs 2, 5 and 10.<br />

Now using the best available t values for every metric/cut-off combination,<br />

we were able to compare PIR performances. The relevant values can be<br />

seen in Figure 2.<br />

Figure 2. PIR results


32 Pavel Sirotkin<br />

A comparison of metrics and cut-off values suggests that in different circumstances,<br />

different metrics might be appropriate. MAP performs quite<br />

poorly at small cut-offs, but emerges as the best metric at 10. Precision never<br />

outperforms nDCG, but (at least at the earlier ranks) comes close enough for<br />

the difference to be minimal. In absolute terms, the maximum PIR reached is<br />

0.84 (nDCG@7-8).<br />

Discussion<br />

We would like to point out that search engine evaluation is just a small part<br />

of IR evaluation and, moreover, the type of performance we have attempted<br />

to capture is just one of many possible aspects of search engine quality.<br />

Lewandowski and Hochstötter (2007) propose a four-way quality framework<br />

including index quality, quality of the results, quality of search features and<br />

usability. The pure evaluation of organic, web page based result lists (as opposed<br />

to paid content or “universal search” features) is itself only a minimalistic<br />

subset of “quality of the results”. However, the evaluated content is still<br />

an important and arguably even crucial part of a search engine’s results.<br />

Also, our test subjects obviously did not constitute a representative sample of<br />

search engine users. While we look forward to studies with more diverse<br />

raters, the group is hardly less heterogeneous than those of most comparable<br />

studies.<br />

Our results lead to some conclusions of practical importance. As an increasing<br />

cut-off value does not necessarily lead to a better approximation of<br />

user preferences, it might be a good idea to divert some resources from rating<br />

queries deeper to rating more queries. This has been fo<strong>und</strong> to provide higher<br />

significance (Sanderson and Zobel 2005); our results suggest that, rather than<br />

being a trade-off, exchanging depth for width can be doubly effective. It may<br />

even be sensible to reduce the cut-off to as low as 4, since it means cutting<br />

the effort in half while losing about 15% of information as measured by PIR.<br />

A possible explanation for the decrease of prediction quality is that users<br />

hardly look at documents beyond a certain rank (Hotchkiss et al. 2005), in<br />

which case any later difference in result quality is not reflected in actual user<br />

preferences. It would also explain why precision is the most and MAP the


Predicting user preferences 33<br />

least affected, since the former has no and the latter a high discounting factor<br />

for later results.<br />

Regarding individual metrics, nDCG was shown to perform best in most<br />

circumstances. In the best case, it correctly predicted 84% of user preferences.<br />

MAP might be employed if one explicitly desires to take into account<br />

later results, even if their relevance may not be important to the user. While<br />

precision performs considerably well, the present study has not fo<strong>und</strong> a situation<br />

where it would be the most useful metric.<br />

The absolute PIR values we report may well be overestimations, as discussed<br />

in the Evaluation section. On the other hand, the preference judgments<br />

obtained were binary. We might assume that, given degrees of preference,<br />

we would find strong preferences easier to identify by considering<br />

document ratings. While metrics are often compared on their ability to distinguish<br />

between entities of relatively close quality, from the practical point<br />

of view, it is crucial for a metric to reliably pick out large differences, since<br />

those are the instances where the most improvements can be made. However,<br />

these conjectures await further research to confirm or disprove them.<br />

Finally, our evaluation might have a value beyond its immediate results.<br />

We think that choosing an explicit, praxis-based standard for evaluating<br />

evaluation can help distinguish between the multitudes of available metrics.<br />

Particularly, a measure like PIR can be more practical than correlation measures<br />

often employed in such studies. Rather than indicating whether a given<br />

metric reflects a preference tendency, it can tell for what ratio of queries we<br />

would provide better results by using each metric to simulate preference<br />

judgments.<br />

Conclusions and future work<br />

A measure of a metric’s ability to predict user satisfaction across queries was<br />

introduced. We used this measure, the Preference Identification Ratio (PIR),<br />

to provide estimates for the some common relevance metrics. (n)DCG was<br />

fo<strong>und</strong> to perform best, indicating the preferred result lists for up to 84% of<br />

queries. MAP provided good judgments at higher cut-off values, while precision<br />

did well without ever being the most informative metric. We also<br />

showed that search engine evaluations might be performed in a more signifi-


34 Pavel Sirotkin<br />

cant and efficient way by considering more queries in less depth. The most<br />

significant cut-off values lie between 6 and 10 for different metrics, while the<br />

most efficient might come as low as cut-off 4.<br />

Further work should look at PIR for degrees of preference and explore<br />

whether the metrics’ performance stays at similar levels, and also to evaluate<br />

further metrics. We also intend to examine in more detail the cases where<br />

single metrics failed to pick a preferred result list to provide a qualitative<br />

analysis of their weaknesses. Finally, the connection of our results with log<br />

data might provide insights into relations between user behaviour and relevance<br />

or preference judgments.<br />

References<br />

Al-Maskari, A., M. Sanderson and P. Clough (2007). The relationship between IR<br />

effectiveness measures and user satisfaction. SIGIR 2007. Amsterdam, ACM:<br />

773–774.<br />

Al-Maskari, A., M. Sanderson, P. Clough and E. Airio (2008). The good and the bad<br />

system: does the test collection predict users’ effectiveness? SIGIR 2008. Singapore,<br />

ACM: 59–66.<br />

Ali, K., C.-C. Chang and Y. Juan (2005). Exploring Cost-Effective Approaches to<br />

Human Evaluation of Search Engine Relevance. Advances in <strong>Information</strong> Retrieval.<br />

Berlin/Heidelberg, Springer: 360–374.<br />

Büttcher, S., C. L. A. Clarke and G. V. Cormack (2010). <strong>Information</strong> retrieval: implementing<br />

and evaluating search engines. Cambridge, Mass.; London, MIT<br />

Press.<br />

Della Mea, V., G. Demartini, L. Di Gaspero and S. Mizzaro (2006). “Measuring<br />

Retrieval Effectiveness with Average Distance Measure (ADM)” <strong>Information</strong>:<br />

<strong>Wissen</strong>schaft <strong>und</strong> Praxis 57(8): 433–443.<br />

Hersh, W., A. Turpin, S. Price, B. Chan, D. Kramer, L. Sacherek and D. Olson<br />

(2000). Do batch and user evaluations give the same results? SIGIR 2000. Athens,<br />

ACM: 17–24.<br />

Hotchkiss, G., S. Alston and G. Edwards (2005). Google Eye Tracking Report, Enquiro.<br />

Huffman, S. B. and M. Hochster (2007). How well does result relevance predict<br />

session satisfaction? SIGIR 2007. Amsterdam, ACM: 567–574.


Predicting user preferences 35<br />

Järvelin, K. and J. Kekäläinen (2002). “Cumulated gain-based evaluation of IR techniques”<br />

ACM Trans. Inf. Syst. 20(4): 422–446.<br />

Kelly, D., X. Fu and C. Shah (2007). Effects of rank and precision of search results<br />

on users’ evaluations of system performance, University of North Carolina.<br />

Lewandowski, D. and N. Höchstötter (2007). Web searching: A quality measurement<br />

perspective. Web Searching: Interdisciplinary Perspectives. Dordrecht, Springer:<br />

309-340.<br />

Mandl, T. (2010). “Evaluierung im <strong>Information</strong> Retrieval” <strong>Information</strong> <strong>Wissen</strong>schaft<br />

& Praxis 61(6–7): 341–348.<br />

Sanderson, M. and J. Zobel (2005). <strong>Information</strong> retrieval system evaluation: effort,<br />

sensitivity, and reliability. SIGIR 2005. Salvador, ACM: 162–169.<br />

Turpin, A. and F. Scholer (2006). User performance versus precision measures for<br />

simple search tasks. SIGIR 2006. Seattle, ACM: 11–18.


36 Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, DoWan Kim<br />

Abstract<br />

Usefulness Evaluation on Visualization<br />

of Researcher Networks<br />

Hanmin Jung 1 , Mikyoung Lee 1 ,<br />

Won-Kyung Sung 1 , DoWan Kim 2<br />

1<br />

Korea Institute of Science and Technology <strong>Information</strong> (KISTI)<br />

Daejeon, KOREA<br />

e-mail: {jhm, jerryis, wksung}@kisti.re.kr<br />

2 Paichai University<br />

Daejeon, KOREA<br />

e-mail: dwkim@pcu.ac.kr<br />

This study aims to analyze and evaluate usefulness on the visualization of<br />

researcher networks from the user’s perspective. We selected the following<br />

four academic information services in the viewpoint of data set and level of<br />

functionality; Authoratory, Researchgate, Biomedexperts, and Academic.research.<br />

By six IT technology researchers and professors with doctorate, the<br />

services were evaluated based on functional quality criteria of information<br />

visualization elements and on information quality criteria served by the elements<br />

as a user study, and we concluded that it is necessary to overcome<br />

visual complexity in information visualization of researcher networks by<br />

showing additional information and by including additional attributes.<br />

Key Words<br />

Researcher network, <strong>Information</strong> visualization, Evaluation criteria, Functional<br />

and information quality


Usefulness Evaluation on Visualization of Researcher Network 37<br />

1 Introduction<br />

Today’s Web is cementing its place as core infrastructure of information<br />

services, and with the massive penetration of smart phones and advancements<br />

in mobile Web, information services are <strong>und</strong>ergoing evolution in order<br />

to enable use them anytime, anywhere in any way, and by anyone. However,<br />

text-oriented information services require attention for reading, and domain<br />

knowledge and ability of reasoning for <strong>und</strong>erstanding correctly. This is one<br />

of the main factors <strong>und</strong>ermining the user’s ability to acquire information on<br />

the Web. Therefore, efforts have been made to maximize the usefulness of<br />

information perception by efficiently delivering a massive amount of information<br />

accumulated on the Web at an amazing speed, and information visualization<br />

is one of the fruits of such efforts [1]. In particular, information<br />

visualization and the use of graphic metaphors to that end have become major<br />

HCI design concepts involving information services.<br />

Scientific visualization is a concept similar to information visualization<br />

[2] [3]. Scientific visualization differs from information visualization in that<br />

it visualizes real objects using computer graphic technology. Just like topography<br />

maps that show mapped, visualized information, information visualization<br />

can be designed in conjunction with scientific visualization. <strong>Information</strong><br />

visualization can be explained with the following characteristics [4].<br />

• <strong>Information</strong> visualization helps users quickly <strong>und</strong>erstand a massive<br />

amount of data.<br />

• <strong>Information</strong> visualization helps users recognize important information instantly.<br />

• <strong>Information</strong> visualization allows recognition of new attributes that are<br />

embedded in the information and are difficult to <strong>und</strong>erstand. For instance,<br />

users can recognize specific patterns embedded in information<br />

through visualization.<br />

• <strong>Information</strong> visualization may cause problems with data themselves –<br />

because visualization may accompany quality control issues.<br />

This study aims to analyze and evaluate usefulness on the visualization of<br />

researcher networks from the user’s perspective. To this end, representative<br />

researcher networks that have been developed and operated as part of Web<br />

information services are chosen. By doing so, this study ultimately aims to<br />

contribute to practical development of technologies for information visualization<br />

that can enhance the usefulness of Web information services.


38 Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, DoWan Kim<br />

2 Visualization of Researcher Networks<br />

2.1 Evaluation Targets<br />

We have examined popular Web information services that are successfully<br />

serving information on researcher network-based academic research, and<br />

selected the following four academic information services in the viewpoint of<br />

data set and level of functionality.<br />

• http://www.authoratory.com (Authoratory)<br />

• http://researchgate.com (Researchgate)<br />

• http://biomedexperts.com (Biomedexperts)<br />

• http://academic.research.microsoft.com (Academic.research)<br />

Authoratory uses a computer program for analyzing millions of academic<br />

papers available in PubMed and puts the analyzed results into a database,<br />

while providing information on 969,189 scientists including researcher profiles,<br />

research trends, researchers’ social networks, and published papers. As<br />

a professional network for scientists, Researchgate has about 400,000 scientists<br />

registered, and provides information on published papers, participating<br />

research groups, and researchers’ social networks. Meanwhile, Biomedexperts<br />

is a literature-based, scientific social network site that automatically<br />

analyzes millions of papers published in over 20,000 scientific journals and<br />

extracts information on authors, co-authors, and their affiliations. In so doing,<br />

the service has identified co-author relations of researchers working at over<br />

3,500 organizations in more than 190 countries. Biomedexperts provides expert<br />

lists for each research area, as well as information on researchers’ social<br />

network, research trends, and locations of their organizations. Finally, Academic.research<br />

provides information on researchers, researchers’ social networks,<br />

and research trends, as well as information indicating a researcher’s<br />

productivity including published papers, number of citations, G-index, and<br />

H-index, based on information extracted automatically from over 6 million<br />

papers. All of them are representative services that provide visualized researcher<br />

networks as well as academic information that is commonly required<br />

in the scientific and technological fields.


Usefulness Evaluation on Visualization of Researcher Network 39<br />

2.2 Researcher Networks<br />

Researcher network visualizes relationships between researchers by symbolizing<br />

nodes and links with diagrams. It has emerged as a kind of social network,<br />

which is a representative service of Web 2.0. It also expresses desired<br />

information by using radial visualization technology and presents the correlations<br />

of each piece of information dynamically with images to help users<br />

visualize, compare, and recognize the relationships between information,<br />

flows, and characteristics in an intuitive manner. However, a larger number<br />

of nodes and worse too many induced links between the nodes <strong>und</strong>ermine the<br />

ability to express and convey information.<br />

A researcher network consists of two basic attributes, i.e. nodes and links,<br />

and the following additional attributes added on to control the two or to enhance<br />

information recognition.<br />

• Color to discriminate nodes and links<br />

• Link attribute to express strength of the relationships between nodes<br />

using width and length<br />

• <strong>Information</strong> filtering control to constrain what to be displayed in the network<br />

• Node metaphor to express a node’s meaning using text or image<br />

• Browsing control to change the shape of the network<br />

Figure 1 shows an example of a researcher network offered by Biomedexperts.<br />

It provides information filtering control that filters information by<br />

selecting the number of Co-publications, Publications, and Connections.<br />

When a user moves the mouse over to a semi-transparent window, it displays<br />

relevant information such as the author’s research profile, timeline, and publications<br />

(see the right screen of Figure 1).<br />

Fig. 1 Researcher network of Biomedexperts


40 Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, DoWan Kim<br />

In addition, when the mouse is brought over to the author’s name shown<br />

on the network browser, the link between the author and co-authors connected<br />

at the 1st depth is displayed in blue, and the line becomes thicker if<br />

co-authorship is greater than average.<br />

Fig. 2 shows a researcher network of Authoratory, which offers a simple<br />

service that displays the number of co-authored papers over the link between<br />

researchers. It supports relatively simple browsing control such as moving<br />

the node’s axis, and if a user selects a specific node, a new network aro<strong>und</strong><br />

the centered node is re-drawn.<br />

Fig. 2 Researcher network of Authoratory<br />

Fig. 3 shows a researcher network of Researchgate. On this network, users<br />

can sort co-authorship relations by group or by interest area (See the right<br />

part of Fig. 3) using information filtering control located at the top of the<br />

browser.<br />

Fig. 3 Researcher network of Researchgate


Usefulness Evaluation on Visualization of Researcher Network 41<br />

Fig. 4 shows a researcher network offered by Academic.research. Users<br />

can press the buttons on the upper right part of the browser to reduce/enlarge<br />

or move it up and down and left and right. The length between nodes indicates<br />

the level of closeness in co-relationship. When a user clicks on coauthored<br />

publications, another pop-up window displays the list (See the right<br />

part of Fig. 4). The researcher network of Academic.research supports<br />

browsing control, node metaphor, link attributes among the above-mentioned<br />

additional attributes.<br />

Fig. 4 Researcher network of Academic.research<br />

3 Usefulness Evaluation on Visualization<br />

of Researcher Network<br />

3.1 Evaluation Criteria<br />

The usefulness of information visualization in Web information services can<br />

be evaluated based on functional quality criteria of information visualization<br />

elements and on information quality criteria served by the elements as a user<br />

study [5]. More specifically, the usefulness of elements for information visualization<br />

can be defined by the efficiency, effectiveness, and satisfaction of<br />

the set of functions and actions used to achieve the results desired by users as<br />

well as the visualized results. This study defines the functional quality criteria<br />

and information quality criteria, as follows, to evaluate the usefulness of<br />

the elements by referring to ISO9241-11 and ISO9126-1 [6] [7].


42 Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, DoWan Kim<br />

• Minimal action: Is it possible to acquire a desired result with minimal<br />

actions?<br />

• Resource utilization: Are visualization elements sufficiently utilized for<br />

performing a given task? (ISO9126-1: Efficiency-Resource behavior)<br />

• Operability: Are essential efforts to operate and control the information<br />

service performed with ease? (ISO9126-1: Usability-Operability)<br />

• Feedback: Does the information service give feedback for the user’s<br />

action?<br />

• Navigability: Can users move and use the service environment easily<br />

from the perspective of functional quality?<br />

• Time behavior: How fast can functions be performed and how much time<br />

does it take for information to be loaded and visualized? (ISO9126-1: Efficiency-Time<br />

behavior)<br />

• Consistency: Are visualization elements consistent and do they deliver<br />

their meanings to users sufficiently?<br />

• Accurateness: Do functions bring about a desired result or effect?<br />

(ISO9126-1: Functionality-Accurateness)<br />

• Completeness: Can users perform and complete a given task clearly?<br />

• Attractiveness: How attractive is the environment of the information<br />

service to users?<br />

• Flexibility: Can users customize the user interface of the information<br />

service according to their preferences?<br />

• User guidance: Does the information service give feedback for the user’s<br />

action appropriately and supportively?<br />

• Visualization type: Is it possible to visualize information in the format<br />

desired by users?<br />

• Report type: Is it possible to create reports in the format desired by users?<br />

• <strong>Information</strong> accuracy: Does visualized information meet the user’s needs<br />

accurately?<br />

• <strong>Information</strong> completeness: Is served information complete enough to<br />

satisfy the user’s needs?<br />

• <strong>Information</strong> navigability: Can users navigate in served information easily<br />

and quickly?<br />

• <strong>Information</strong> individualization: Can served information be utilized to meet<br />

individual needs such as email transfer, saving files, sharing through<br />

Twitter and use group?


Usefulness Evaluation on Visualization of Researcher Network 43<br />

3.2 Evaluation Process<br />

Six IT technology researchers and professors with doctorate were involved as<br />

test persons (TPs). Each TP performed the following task on the four services<br />

introduced in Chapter 2 and evaluated information visualization for researcher<br />

network services according to the evaluation criteria mentioned in<br />

3.1 [8] [9].<br />

• Task: Give a name of an expert in your own field into each service and<br />

investigate the expert’s researcher network it provides. (e.g.) Search for<br />

“Jinde Cao” who is an expert in ‘neutral network’ field.<br />

TPs quantitatively assigned each evaluation criterion with a value between 0<br />

~ 5, with one unit being 0.5, and were allowed to discuss pros and cons of<br />

visualization elements qualitatively. The following heuristics were used to<br />

perform the user test.<br />

• Visibility of system status: The test environment was prepared so that<br />

both TPs and an observer can simultaneously monitor how the task is being<br />

performed.<br />

• Match the system to the real world: Ensure that the test environment<br />

matches the TP’s actual work environment as closely as possible.<br />

• User control and freedom: TPs have the freedom to use the test environment<br />

and to perform the test.<br />

• Help and assistance: If required by TPs, the observer can provide answer<br />

to their questions as long as such support will not affect test results.<br />

3.3 Evaluation Results<br />

For Biomedexperts, TPs judged that the list on the right side and the additional<br />

information on the left side shown in conjunction with a researcher<br />

network explain the network in a very efficient manner. Also, they suggested<br />

that additional attributes such as color and information filtering control are<br />

adequately applied to enhance the user’s ability of information recognition,<br />

and the graphic chart provided with a co-author list helps users recognize a<br />

researcher’s research trend easily. They also gave a high score on the feature<br />

that the service does not require screen changes.


44 Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, DoWan Kim<br />

Table 1. Evaluation Results on the four Researcher Networks<br />

(FQ: Functional quality, IQ: <strong>Information</strong> quality)<br />

Resource utilization was not evaluated since it cannot be evaluated by users.<br />

Evaluation criteria Biomedexperts<br />

FQ<br />

IQ<br />

Authoratory Researchgate Academic.<br />

research<br />

Minimal action 4.50 3.42 2.25 4.00<br />

Operability 4.75 3.08 2.08 3.75<br />

Feedback 4.83 3.08 2.42 4.17<br />

Navigability 4.92 3.00 2.50 4.33<br />

Time behavior 5.00 3.67 4.33 4.50<br />

Consistency 4.50 3.58 3.25 4.58<br />

Accurateness 4.83 3.33 2.92 4.75<br />

Completeness 4.83 3.67 2.75 4.75<br />

Attractiveness 4.67 3.83 2.08 3.83<br />

Flexibility 4.25 3.50 2.00 4.00<br />

User guidance 4.42 3.42 2.17 3.83<br />

Average 4.68 3.42 2.61 4.23<br />

Visualization type 4.17 4.00 1.83 4.42<br />

Report type N/A 4.00 N/A N/A<br />

<strong>Information</strong> accuracy<br />

5.00 4.50 1.25 4.67<br />

<strong>Information</strong><br />

completeness<br />

5.00 4.75 1.17 4.67<br />

<strong>Information</strong> navigability<br />

4.42 4.25 1.25 4.17<br />

<strong>Information</strong> individualization<br />

3.75 4.75 1.00 N/A<br />

Average 4.47 4.38 1.17 4.48<br />

While TPs assigned a rather high score to information quality, they gave a<br />

relatively low score to functional quality for Authoratory. They pointed out<br />

the limitation in displaying co-authorship of a specific year only, the difficulty<br />

of recognizing the entire researcher network, and confusion caused by<br />

excessive and red<strong>und</strong>ant presentations of the same information with various<br />

visual elements. In other words, the more information is provided from the<br />

researcher network, the more complex it becomes due to the absence of additional<br />

attributes to resolve this issue. However, the contribution of Authoratory<br />

to user satisfaction received a positive evaluation, as it provides a<br />

method to personalize search results.


Usefulness Evaluation on Visualization of Researcher Network 45<br />

Researchgate received relatively poor scores from TPs because it provides<br />

a network service for researchers that are in contact with a given researcher<br />

in the viewpoint of social network, rather than researcher network based on<br />

co-authorship or citation relationship.<br />

Academic.research provides a researcher network service with a relatively<br />

simple structure. In other words, it provides an intuitive service function; a<br />

node is shown as a picture image when its corresponding researcher’s image<br />

file is available.<br />

4 Conclusion<br />

We defined functional quality criteria and information quality criteria and<br />

then evaluated four major information services focused on researcher network.<br />

The researcher networks evaluated through this study commonly use<br />

diagrams to represent nodes for researchers and links for the relationships<br />

between them, thereby visually indicating their correlations to users. They<br />

present an issue of diminished ability to express information with a larger<br />

number of nodes and more complicated links between the nodes. Therefore,<br />

as in the case with Biomedexperts, we concluded that it is necessary to overcome<br />

this challenge by showing additional information and by including<br />

additional attributes such as information filtering control. As another conclusion,<br />

such services should carefully consider the functions that can complement<br />

limitations of visualization elements rather than aesthetics of design.<br />

In the future, this study will be expanded to additionally evaluate visualized<br />

graphs and lists that provide information on researchers and research<br />

trends.


46 Hanmin Jung, Mikyoung Lee, Won-Kyung Sung, DoWan Kim<br />

References<br />

[1] S. Card and J. Mackinlay, “The Structure of the <strong>Information</strong> Visualization Design<br />

Space”, In Proceedings of IEEE Symposium on <strong>Information</strong> Visualization,<br />

1997.<br />

[2] D. Gordin and R. Pea, “Prospects for Scientific Visualization as an Educational<br />

Technology”, In Journal of the Learning Sciences 4(3), 1995.<br />

[3] S. Bryson, “Virtual Reality in Scientific Visualization”, In Communication of<br />

the ACM, 39(5), 1996.<br />

[4] C. Ware, <strong>Information</strong> Visualization, 2004.<br />

[5] S. Erazo, “Evaluation of the Functional Efficiency of Applications Multimediales,<br />

In Current Developments in Technology-Assisted Education”, 2006.<br />

[6] http://www.iso.org/iso/catalogue_detail.htm?csnumber=16883<br />

[7] http://www.sqa.net/iso9126.html<br />

[8] J. Volckmann and M. Lippert, “Web Usability Testing”, Arbeitspapiere Wirtschaftsinformatik,<br />

University Giessen, 2006.<br />

[9] A. Seffah et al., “Usability Measurement and Metrics: A Consolidated Model”,<br />

In Software Quality Journal 14(2), 2006.


Vergleich von IR-Systemkonfigurationen auf Komponentenebene 47<br />

Vergleich von IR-Systemkonfigurationen<br />

auf Komponentenebene<br />

Jens Kürsten, Thomas Wilhelm <strong>und</strong> Maximilian Eibl<br />

Kurzfassung<br />

Technische Universität Chemnitz<br />

Straße der Nationen 62, 09111 Chemnitz<br />

{jens.kuersten, eibl}@informatik.tu-chemnitz.de<br />

In der klassischen Evaluationsforschung werden Verfahren anhand der Performance<br />

der Gesamtsysteme bewertet. Dies macht es schwer, die Wirkung<br />

einzelner Systemkomponenten <strong>und</strong> ihr Zusammenspiel zu analysieren. Auf<br />

Basis einer umfangreichen Evaluation mit mehreren englischsprachigen Testkorpora<br />

wird ein Werkzeug zum interaktiven Vergleich von Systemkonfigurationen<br />

vorgestellt. Neben der Möglichkeit, den Einfluss einzelner Komponenten<br />

auf das Rechercheergebnis zu untersuchen, wird ein Ansatz zur<br />

Normierung der Ergebnisse beschrieben. Dieser wird genutzt, um den Einsatz<br />

des Visualisierungswerkzeugs für den korpusübergreifenden Vergleich<br />

von Systemkonfigurationen zu skizzieren.<br />

Abstract<br />

In traditional information retrieval (IR) evaluation new models are assessed<br />

based on system effectiveness in terms of a metric suitable to the problem of<br />

interest. Drawing conclusions about the impact of system components and<br />

possible interaction effects is almost impossible in this setting. We address<br />

this problem and present a tool for interactive comparison of system configurations<br />

on component-level based on a large-scale evaluation across several<br />

English test collections. An approach to normalize effectiveness measures<br />

is applied in order to allow comparison across test collections. The provided<br />

visual presentation enables researchers and practitioners to study the impact<br />

of system components on retrieval effectiveness in an efficient way.


48 Jens Kürsten, Thomas Wilhelm <strong>und</strong> Maximilian Eibl<br />

1 Motivation<br />

Evaluationsforschung ist eines der wesentlichen Instrumente der <strong>Information</strong>swissenschaft.<br />

Im <strong>Information</strong> Retrieval ermöglicht sie eine Bewertung<br />

von Systemen anhand festgelegter Kriterien, das heißt einer Menge von Anfragen<br />

<strong>und</strong> deren Relevanzbewertungen bezüglich einer Sammlung von Dokumenten.<br />

Diese Vorgehensweise für die Evaluation von IR Systemen, die<br />

als Cranfield Paradigma bezeichnet wird, hat sich im Verlauf der letzten<br />

Jahrzehnte im Bereich des textuellen Retrievals nicht wesentlich weiterentwickelt.<br />

Im gleichen Zeitraum haben sich die eingesetzten Systeme in ihrem<br />

Aufbau sehr wohl verändert. Nicht nur die Komponenten, aus denen ein IR<br />

System besteht, sind für sich gesehen komplexer geworden. Auch die Vielfalt<br />

verfügbarer theoretischer Modelle ist wesentlich größer als zu Zeiten des<br />

Cranfield Paradigmas. Dies macht es zum heutigen Zeitpunkt nahezu unmöglich,<br />

für eine vorliegende Dokumentsammlung das Optimum im Sinne der<br />

Systemgenauigkeit aus dem Portfolio der wissenschaftlichen Modelle <strong>und</strong><br />

Komponenten auszuwählen. Für Inhaltsanbieter, egal ob regionaler Zeitungsverlag<br />

oder Fernsehsender mit nationaler Reichweite, stellt sich unter anderem<br />

genau dieses Problem bei der Verwertung ihres Archivbestandes im Geschäftsfeld<br />

des Internets. Daher werfen diese Fakten im Kontext der textbasierten<br />

Suche die Frage nach neuen Methoden der vergleichenden Systembewertung<br />

auf.<br />

An dieser Schnittstelle setzt der hier vorgestellte Ansatz zur Evaluation<br />

auf Komponentenebene an. Die Idee des Vergleichs von Systemen auf Basis<br />

ihrer wesentlichen Bestandteile wurde bereits im Rahmen verschiedener Evaluationskampagnen<br />

vorgeschlagen. Ein allgemeiner Überblick wird in (Hanburry<br />

2010) gegeben. Als Ausgangspunkt dient der Grid@CLEF Task (Ferro<br />

2009). Dort wurde ein vierstufiges Konzept für die Evaluation von bilingualen<br />

Systemen vorgeschlagen. Basierend auf dieser Idee werden hier unterschiedliche<br />

Methoden für drei wesentliche Systemkomponenten anhand verschiedener<br />

Textkorpora verglichen. Als Testdaten dienen zwölf englischsprachige<br />

Kollektionen aus den CLEF 1 <strong>und</strong> TREC 2 Kampagnen mit entsprechenden<br />

Anfragen <strong>und</strong> Relevanzbewertungen.<br />

1 Cross-Language Evaluation Forum: http://www.clef-campaign.org/, abgerufen am<br />

08.11.2010<br />

2 Text Retrieval Conference: http://trec.nist.gov/, abgerufen am 08.11.2010


Vergleich von IR-Systemkonfigurationen auf Komponentenebene 49<br />

Die Bewertung von IR Systemen beruht im Normalfall auf einer Kennzahl<br />

wie Mean Average Precision (MAP) oder Geometric Mean Average<br />

Precision (GMAP). Beide Metriken repräsentieren die durchschnittliche Güte<br />

eines Systems auf einer Menge von Anfragen. Wir verwenden MAP <strong>und</strong><br />

GMAP für den Vergleich der Konfigurationen. Diese Auswahl wird in Abschnitt<br />

vier näher begründet. Da wir zusätzlich über verschiedene Kollektionen<br />

hinweg vergleichen wollen, wenden wir eine Methode zur Normierung<br />

der Werte an, die ebenso in Abschnitt vier beschrieben wird. Die wesentlichen<br />

Beiträge dieser Forschungsarbeit sind die Vorstellung des experimentellen<br />

Aufbaus <strong>und</strong> der Ergebnisse einer umfassenden Evaluation auf Komponentenebene<br />

über mehrere englischsprachige Korpora hinweg. Darüber<br />

hinaus wird ein Werkzeug zur Visualisierung vorgestellt, mit dem sich die<br />

umfangreichen Evaluationsergebnisse vergleichen <strong>und</strong> interpretieren lassen.<br />

2 Experimentaufbau<br />

In den vergangenen fünf Jahren wurde ein hochgradig flexibles Retrieval<br />

Framework entwickelt, dessen Konzept in (Kürsten 2008) dargestellt ist. Das<br />

System integriert die beiden wissenschaftlichen Tools Terrier (Ounis 2007)<br />

<strong>und</strong> Lemur (Ogilvie 2002) sowie das Open-Source Projekt Apache Lucene 3 .<br />

Im Rahmen der CLEF Kampagne wurden Erfahrungen gesammelt, um Einblicke<br />

in die Funktionsweise von IR Systemen zu gewinnen <strong>und</strong> das Zusammenspiel<br />

der Komponenten besser zu verstehen. Die in den Vergleichen erzielten<br />

Resultate hatten dabei durchweg unterschiedliche Güte <strong>und</strong> machen<br />

die eingangs formulierte These der Schwierigkeit der Auswahl einer möglichst<br />

optimalen Systemkonfiguration anhand eines vorgegebenen Datenkorpus<br />

offensichtlich.<br />

2.1 Parameter der Evaluation<br />

Nachfolgend werden Evaluationsergebnisse vorgestellt, die über einen dreidimensionalen<br />

Parameterraum von Systemkonfigurationen aufgespannt wer-<br />

3 Apache Lucene Suchmaschine: http://lucene.apache.org/, abgerufen am 08.11.2010


50 Jens Kürsten, Thomas Wilhelm <strong>und</strong> Maximilian Eibl<br />

den. Die erste wesentliche Komponente ist die Wortstammreduktion. In das<br />

verwendete Framework wurden fünf Varianten integriert <strong>und</strong> getestet:<br />

• Porter Stemmer (Porter 1997)<br />

• Krovetz Stemmer (Krovetz 1993)<br />

• UeaLite Stemmer (Jenkins 2005)<br />

• N-Gram Stemmer, mit N=4 <strong>und</strong> N=5<br />

Die Auswahl der angegebenen Algorithmen zur Wortstammreduktion deckt<br />

drei unterschiedliche Ansätze ab. Der wohl am weitesten verbreitete Algorithmus<br />

nach (Porter 1997) steht für die Klasse der regelbasierten Verfahren.<br />

Der von (Krovetz 1993) beschriebene Algorithmus steht für die Gruppe der<br />

Ansätze, die die Probleme von zu starker oder zu schwacher Reduktion durch<br />

den Einsatz eines Wortbuchs abschwächen. Der UeaLite Stemmer aus (Jenkins<br />

2005) setzt auf eine generell weniger stark ausgeprägte Reduktion. Der<br />

N-Gram Stemmer ist sprachenunabhängig aber dadurch gleichzeitig auch<br />

ungenauer. Aufgr<strong>und</strong> dessen ist er für den Einsatz auf mehrsprachigen Kollektionen<br />

besonders geeignet. In einer umfassenden Studie (McNamee 2009)<br />

über eine Reihe von Testkollektionen haben sich die angegebenen Varianten<br />

mit N=4 <strong>und</strong> N=5 auf Korpora in englischer Sprache im Vergleich als besonders<br />

robust erwiesen.<br />

Der Ranking Algorithmus, der in der Forschung von allen Komponenten<br />

am häufigsten untersucht wird, bildet die zweite Dimension des untersuchten<br />

Parameterraums. In der vorliegenden Studie werden 13 verschiedene Modelle,<br />

die zum Großteil im Terrier Framework (Ounis 2007) integriert sind,<br />

zur Evaluation ausgewählt. Die nachfolgende Liste enthält alle getesteten<br />

Varianten in drei wesentlichen Gruppen:<br />

• Klassische Modelle: TF-IDF, BM25 <strong>und</strong> Lucene<br />

• Modelle aus dem Divergence from Randomness (DFR) Framework:<br />

DFRee, DFR_BM25, DLH, DPH, BB2, IFB2, In_ExpB2 <strong>und</strong> PL2<br />

• Linguistisch motivierte (LM) Modelle: HiemstraLM, DirichletLM<br />

Die erste Gruppe enthält mit dem Ranking Algorithmus von Lucene <strong>und</strong> TF-<br />

IDF zwei ähnliche Modelle, die beide im Wesentlichen auf einer Kombination<br />

von Term- <strong>und</strong> inverser Dokumentfrequenz basieren. Der Hauptunterschied<br />

liegt in der flexiblen Gewichtungsmöglichkeit mithilfe der Lucene<br />

Programmierschnittstelle. Die aufgeführte Klasse der wahrscheinlichkeitsbasierten<br />

DFR Modelle wird bereits umfangreich im Rahmen der Dokumen-


Vergleich von IR-Systemkonfigurationen auf Komponentenebene 51<br />

tation 4 des Terrier Frameworks beschrieben. Erwähnenswert ist hier die Sonderstellung<br />

der Modelle DLH <strong>und</strong> DPH, die aufgr<strong>und</strong> einer abgewandelten<br />

mathematischen Gr<strong>und</strong>lage streng genommen in eine eigene Kategorie gehören.<br />

Die theoretische Basis der Gruppe der LM Algorithmen ist eine für jeden<br />

Dokumentkorpus spezifische Analyse der Wortverteilungen, die dann<br />

wiederum mit wahrscheinlichkeitsbasierten Annahmen in eine Dokumentrangfolge<br />

überführt wird.<br />

Die letzte Dimension des angedeuteten Parameterraums entsteht durch<br />

den Einsatz unterschiedlicher Modelle für automatisches Pseudo-Relevanzfeedback<br />

(PRF). In dieser Studie wurden die zwei Ansätze Kullback-Leiber<br />

<strong>und</strong> Bose-Einstein2, die ihre theoretische Gr<strong>und</strong>lage ebenfalls im DFR Modell<br />

haben, mit Konfigurationen ohne PRF verglichen. Beim Einsatz von<br />

PRF haben die beiden zusätzlichen Parameter Dokumentanzahl <strong>und</strong> Termanzahl<br />

einen Einfluss auf die Güte der Ergebnisse. Daher wurden hierfür sieben<br />

verschiedene Ausprägungen der Dokumentanzahl <strong>und</strong> 13 Varianten für die<br />

Gesamtanzahl der letztlichen Erweiterungsterme ausgewählt.<br />

Die Variation der Ausprägungen der angegebenen Parameter ergibt<br />

11,895 Systemkonfigurationen, die entsprechend für jeden der im nachfolgenden<br />

Abschnitt aufgeführten Testkorpora getestet wurden. Insgesamt wurden<br />

daher gut 140,000 Retrievalexperimente durchgeführt.<br />

2.2 Testkorpora<br />

Für die Evaluation wurden unterschiedliche Korpora englischer Sprache ausgewählt,<br />

um Zusammenhänge zwischen der Art des Korpus in Bezug auf<br />

linguistische Merkmale <strong>und</strong> der Güte der Systemkonfigurationen zu untersuchen.<br />

In Tabelle 1 sind die verwendeten Korpora mit entsprechenden Metadaten<br />

gelistet. In der Menge der Testkorpora wurden vier wesentliche Typen<br />

identifiziert: (a) bibliothekarische Kataloge (LIB); (b) Beschreibungen<br />

multimedialer Daten (MM); (c) Nachrichtenartikel (NEWS); <strong>und</strong> (d) eine<br />

Sammlung manuell transkribierter Sprache (SPTR). Im Rest dieses Beitrags<br />

verwenden wir die Identifikation (ID) aus Tabelle 1, um ein entsprechendes<br />

Testkorpus zu benennen. Die Abkürzung KPN steht für die Evaluationskampagne,<br />

bei der die entsprechende Dokumentsammlung verwendet wurde.<br />

4 Dokumentation zum Terrier Framework: http://terrier.org/docs/v3.0/dfr_description.html,<br />

abgerufen am 08.11.2010


52 Jens Kürsten, Thomas Wilhelm <strong>und</strong> Maximilian Eibl<br />

Die Spalte #QU gibt die Größe der für den jeweiligen Testkorpus verfügbaren<br />

Anfragemenge an.<br />

Tabelle 1. Testkorpora <strong>und</strong> deren Eigenschaften<br />

ID Name KPN Jahr #Dok. #QU<br />

LIB1 CSA-EN CLEF 2007 20,000 50<br />

LIB2 TEL (British Library) CLEF 2008 ~1,000,000 100<br />

LIB3 Federal Register TREC 1997 ~55,000 150<br />

LIB4 GIRT4-EN (GESIS) CLEF 2003 ~150,000 150<br />

SPTR 103 rd Congress Rec. TREC 1997 ~30,000 50<br />

MM1 Belga Image Captions CLEF 2009 ~500,000 50<br />

MM2 IAPR-TC12 Annotat. CLEF 2007 20,000 60<br />

MM3 Wiki Images INEX 2006 ~150,000 106<br />

NEWS1 Financial Times TREC 1997 ~210,000 150<br />

NEWS2 Foreign Broadcast IS TREC 1997 ~130,000 150<br />

NEWS3 LA Times 1994 CLEF 2009 ~110,000 89<br />

NEWS4 LA Times 1989/90 TREC 1997 ~130,000 150<br />

3 Ergebnisse<br />

Eine detaillierte Auswertung der gut 140,000 durchgeführten Experimente<br />

stellt aufgr<strong>und</strong> der schieren Datenmenge eine Herausforderung dar. Als<br />

Kennzahlen für die Systembewertung werden MAP <strong>und</strong> GMAP eingesetzt.<br />

In Tabelle 1 wird deutlich, dass für die Testkorpora unterschiedlich große<br />

Mengen von Anfragen verwendet wurden. In (Robertson 2006) wurde argumentiert,<br />

dass die Stabilität der MAP insbesondere auf kleineren Anfragemengen<br />

am höchsten ist. Ausgehend von dieser These verwenden wir daher<br />

MAP als Referenzmaß. Darüber hinaus führen wir die Güte der Systeme<br />

zusätzlich anhand der GMAP auf. Die Gründe dafür sind die ebenfalls in<br />

(Robertson 2006) angeführte Fokussierung auf die Robustheit von Systemen<br />

<strong>und</strong> den Aspekt, dass keines der beiden Maße besser oder schlechter ist als<br />

das jeweils andere. Ferner soll später beim Vergleich der Systemkonfigurationen<br />

die Möglichkeit bestehen, die für eine jeweilige Forschungsfrage passendere<br />

Kennzahl auszuwählen. In Tabelle 2 werden die besten Ergebnisse je


Vergleich von IR-Systemkonfigurationen auf Komponentenebene 53<br />

Testkorpus dem durchschnittlichen Ergebnis aller Systemkonfigurationen<br />

(AMAP, AGMAP) gegenübergestellt.<br />

Die Analyse der Resultate zeigt, dass sowohl die durchschnittliche Güte<br />

der Systemkonfigurationen als auch deren Verhältnis zur jeweils besten Konfiguration<br />

in Abhängigkeit von Korpus <strong>und</strong> Anfragemenge variiert. Betrachten<br />

wir jedoch das Verhältnis der beiden aufgelisteten Größen, so lässt sich<br />

feststellen, dass die beste Konfiguration für die MAP im Bereich von 22 bis<br />

42 Prozent oberhalb der AMAP liegt. Wobei hier jedoch vier Testkorpora die<br />

obere Grenze um 40 Prozent markieren. Betrachtet man die Ergebnisse im<br />

Sinne der GMAP, so zeigt sich, dass genau diese vier Testkorpora die<br />

AGMAP mit 74 bis 130 Prozent besonders deutlich übertreffen.<br />

Tabelle 2. Durchschnittliche Güte der Systemkonfigurationen je Testkorpus<br />

im Verhältnis zur besten getesteten Systemkonfiguration nach MAP <strong>und</strong><br />

GMAP<br />

ID AMAP MAP AGMAP GMAP<br />

LIB1 0.2878 0.3776 (+31.20%) 0.2021 0.2971 (+47.00%)<br />

LIB2 0.2958 0.4187 (+41.56%) 0.1584 0.2759 (+74.18%)<br />

LIB3 0.2403 0.3361 (+39.84%) 0.0356 0.0817 (+129.63%)<br />

LIB4 0.3248 0.4183 (+28.80%) 0.1911 0.2802 (+46.61%)<br />

SPTR 0.2225 0.3203 (+43.92%) 0.0656 0.1390 (+112.08%)<br />

MM1 0.4198 0.5309 (+26.48%) 0.2995 0.4685 (+56.46%)<br />

MM2 0.2380 0.2916 (+22.49%) 0.0653 0.1028 (+57.46%)<br />

MM3 0.2168 0.2781 (+28.30%) 0.0798 0.1292 (+61.83%)<br />

NEWS1 0.2717 0.3306 (+21.68%) 0.0864 0.1430 (+65.55%)<br />

NEWS2 0.2360 0.3112 (+31.83%) 0.0574 0.1191 (+107.48%)<br />

NEWS3 0.4521 0.5864 (+29.70%) 0.2616 0.4239 (+62.02%)<br />

NEWS4 0.2215 0.2876 (+29.85%) 0.0901 0.1450 (+60.99%)<br />

Aus Tabelle 1 kann man wiederum ablesen, dass die Anzahl der Anfragen<br />

allein nicht für diese Schwankungen verantwortlich sein kann. Denn die Anfragemenge<br />

deckt das volle Spektrum zwischen 50 <strong>und</strong> 150 ab. Die restlichen<br />

Testkorpora schwanken beim Verhältnis GMAP zu AGMAP zwischen gut<br />

47 <strong>und</strong> knapp 66 Prozent. Dies entspricht einem ähnlichen Bereich wie beim<br />

Verhältnis zwischen MAP <strong>und</strong> AMAP. Die absoluten Werte sind jedoch<br />

deutlich höher, was dafür spricht, dass die besten Systemkonfigurationen<br />

wesentlich robuster sind. Die hier dargelegten Daten ermöglichen noch keine


54 Jens Kürsten, Thomas Wilhelm <strong>und</strong> Maximilian Eibl<br />

Bewertung des Einflusses einzelner Komponenten auf die Güte der Ergebnisse.<br />

Die Voraussetzungen für eine vergleichende Bewertung der Systemkonfigurationen<br />

auch über mehrere Testkorpora werden im nachfolgenden<br />

Abschnitt diskutiert.<br />

4 Vergleich der Systemkonfigurationen<br />

Aus Forschungssicht interessanter als die Güte des besten Systems für jedes<br />

Testkorpus zu bestimmen, ist die vergleichende Bewertung der Konfigurationen<br />

über eine Menge von Korpora. Darüber hinaus stellt sich dann vielmehr<br />

die Frage, welche Zusammenhänge zwischen Testkorpus <strong>und</strong> Systemkonfiguration<br />

in Bezug auf die Güte der Retrievalergebnisse existieren. Um sich<br />

dieser Fragestellung anzunehmen <strong>und</strong> eine Vergleichbarkeit über Korpora<br />

hinweg zu gewährleisten, müssen die Ergebnisse in geeigneter Form normiert<br />

werden. Zu diesem Thema existieren bereits Forschungsarbeiten, deren Kernideen<br />

nachfolgend kurz skizziert werden. Ist diese Normierung erfolgt, können<br />

die Ergebnisse in entsprechender Form aufbereitet werden, um einen<br />

Vergleich auch über verschiedene Korpora hinweg zu ermöglichen. Da die<br />

Darstellung von knapp 12,000 Experimenten in traditioneller Form mittels<br />

Tabellen oder statischen Grafiken nicht gelingen kann, stellen wir ein interaktives<br />

Werkzeug zur visuellen Interpretation vor.<br />

4.1 Normierung der Ergebnisse<br />

In (Mizarro 2007) werden die Evaluationsdaten für eine spätere Netzwerkanalyse<br />

normiert. Dabei erfolgt die Standardisierung der Ergebnisse anhand<br />

der Systemgüte im Sinne von MAP oder GMAP, einerseits durch Subtraktion<br />

des durchschnittlichen Ergebnisses für eine Anfrage <strong>und</strong> andererseits durch<br />

Subtraktion des Durchschnittswerts für ein System. In weiteren Publikationen<br />

wurde diskutiert, die Normierung anhand des besten Wertes je Anfrage<br />

durchzuführen. Ein weiterer Ansatz zur Standardisierung (Webber 2008)<br />

schlägt hingegen vor, für ein System vergleichbare Ergebnisse auch auf unterschiedlichen<br />

Korpora zu erzeugen. Dazu wird zusätzlich zur einfachen<br />

Normierung auch die Varianz von Retrievalergebnissen betrachtet, was eine


Vergleich von IR-Systemkonfigurationen auf Komponentenebene 55<br />

Auswahl von Anfragen ermöglicht, mit der dann vergleichbare Gesamtergebnisse<br />

erzielt werden können.<br />

In unserem konkreten Fall ist die Varianz der Ergebnisse der Systemkonfigurationen<br />

von Interesse. Denn sie ist der womöglich einzige Anhaltspunkt<br />

für die Zusammenhänge zwischen Korpuseigenschaften <strong>und</strong> Systemkonfigurationen.<br />

Daher wurde die in (Mizarro 2007) vorgeschlagene Strategie angewendet<br />

<strong>und</strong> die Ergebnisse für MAP <strong>und</strong> GMAP jeweils anhand der durchschnittlichen<br />

Güte aller Systemkonfigurationen je Anfrage normiert. Damit<br />

wird für jede Konfiguration jeweils ein normierter Wert MAPn <strong>und</strong> GMAPn<br />

ermittelt. Die Formeln (1) <strong>und</strong> (2) verdeutlichen den Prozess zur Normierung<br />

anhand der MAPn. Dabei steht AP(si, tj) für die Average Precision von Systemkonfiguration<br />

i für Anfrage j <strong>und</strong> AAP(tj) für die durchschnittliche Average<br />

Precision aller Konfigurationen für Anfrage j.<br />

Der Nachweis der Äquivalenz zwischen MAP <strong>und</strong> MAPn respektive<br />

GMAP <strong>und</strong> GMAPn wurde ebenfalls in (Mizarro 2007) geführt. Die Äquivalenzbeziehung<br />

zwischen MAP <strong>und</strong> MAPn respektive GMAP <strong>und</strong> GMAPn<br />

macht eine Auflistung der normierten Ergebnisse analog zu Tabelle 2 überflüssig.<br />

4.2 Interaktive Visualisierung<br />

Aus Sicht der Autoren ist ein Vergleich von Systemkonfigurationen <strong>und</strong> deren<br />

Komponenten am besten visuell <strong>und</strong> interaktiv realisierbar. Die Datenvisualisierung<br />

ist ein eigenes Forschungsgebiet, deren Inhalte hier nicht näher<br />

erläutert werden sollen. Vielmehr wird es als Mittel zum Zweck eingesetzt.<br />

Zur Visualisierung von mehrdimensionalen Daten wird in der Literatur häufig<br />

das Prinzip paralleler Koordinaten (Wegman 1990) vorgeschlagen. Daher<br />

soll dieser Ansatz hier als Gr<strong>und</strong>lage dienen. Zur Realisierung wird die <strong>frei</strong>e<br />

Programmbibliothek Protovis 5 der Forschergruppe Visualisierung an der<br />

Stanford Universität verwendet.<br />

5 JavaScript Bibliothek Protovis: http://vis.stanford.edu/protovis/, abgerufen am<br />

08.11.2010<br />

(1)<br />

(2)


56 Jens Kürsten, Thomas Wilhelm <strong>und</strong> Maximilian Eibl<br />

Abbildung 1 zeigt das Visualisierungswerkzeug. Die Säule ganz rechts<br />

steht für die Güte der Konfiguration in Bezug auf die Rechercheergebnisse.<br />

Alle weiteren Säulen spannen den Parameterraum auf. Die Farbgebung 6 verdeutlicht<br />

den Einfluss der Konfiguration auf die Recherchequalität, dabei<br />

steht grün für gute <strong>und</strong> rot für schlechte Ergebnisse. Die Nutzung des Werkzeugs<br />

erfolgt in zwei Schritten. Zuerst wird aus der Datenbasis eine gewünschte<br />

Untermenge selektiert. Diese Auswahl erfolgt durch Einschränkung<br />

der Parameter, der Güte der Ergebnisse oder einer Kombination aus<br />

beiden.<br />

Abbildung 1: Visualisierung der Ergebnisse der mehrdimensionalen Systemkonfigurationen<br />

für ein ausgewähltes Testkorpus. Die Säulen 1–6 stellen den Parameterraum<br />

dar, Säule 7 die Güte (MAP) der Retrievalergebnisse.<br />

Im folgenden Schritt können die ausgewählten Daten interaktiv verglichen<br />

werden. Dazu kann auf jeder Säule ein Bereich markiert werden, der<br />

sich verschieben lässt, um unterschiedliche Konfigurationen der entsprechen-<br />

6 Der Prototyp zur Visualisierung ist online erreichbar unter: http://sachsmedia.tv/compeval/,<br />

abgerufen am 08.11.2010


Vergleich von IR-Systemkonfigurationen auf Komponentenebene 57<br />

den Komponente zu vergleichen. Im dargestellten Beispiel wurden der Korpus<br />

CLEF2008-AH-TEL, der Krovetz Stemmer, vier Ranking Modelle sowie<br />

kein PRF <strong>und</strong> das PRF Modell KLCorrect ausgewählt. Exemplarisch wurde<br />

in der Visualisierung auf der Säule PRF Dokumente eine Einschränkung auf<br />

9 Dokumente vorgenommen. Die MAP für die selektierten Systemkonfigurationen<br />

liegt zwischen 13 <strong>und</strong> 42 Prozent. Die Ergebnisse der im Beispiel ausgewählten<br />

Konfigurationen sind farblich hervorgehoben. Zu erkennen ist<br />

eine Kumulation im Bereich von 13 bis 26 Prozent MAP <strong>und</strong> eine zweite im<br />

Bereich von 36 bis 42 Prozent. Über die MAP Säule kann die Darstellung auf<br />

ausgewählte Retrievalergebnisse reduziert werden, um beispielsweise eine<br />

besonders gute oder schlechte Konfiguration zu identifizieren.<br />

5 Fazit <strong>und</strong> Ausblick<br />

Zur vergleichenden Bewertung der am Retrievalprozess beteiligten Systemkomponenten<br />

wurden die umfangreichen Ergebnisse der vorgestellten experimentellen<br />

Studie in eine interaktive, grafische Darstellung überführt. Das<br />

Werkzeug erlaubt es, jede Dimension <strong>und</strong> die Zielmetrik des untersuchten<br />

Parameterraumes gezielt einzuschränken. Das in Abschnitt vier dargelegte<br />

Beispiel zeigt, dass sowohl die Auswirkungen einzelner Parameter als auch<br />

die Wechselwirkungen zwischen den Komponenten auf einen oder mehrere<br />

Testkorpora analysiert werden können. Damit lassen sich Rückschlüsse auf<br />

die Robustheit der jeweiligen Systemkonfigurationen ziehen. Für weitere<br />

Arbeiten existieren bereits wesentliche Ansatzpunkte. So ist beispielsweise<br />

eine Verbesserung der Auswahlmechanismen des Werkzeugs geplant. Die<br />

Möglichkeit Koordinaten aus der Darstellung zu entfernen, würde es erlauben,<br />

auf bestimmte Aspekte der Konfiguration konzentrierter eingehen zu<br />

können.


58 Jens Kürsten, Thomas Wilhelm <strong>und</strong> Maximilian Eibl<br />

Danksagung<br />

Diese Arbeit wurde teilweise von Mitarbeitern der Forschungsinitiative<br />

sachsMedia (www.sachsmedia.tv) realisiert, die im Rahmen des Förderprogramms<br />

Unternehmen Region vom BMBF finanziert wird.<br />

Referenzen<br />

Ferro, N. <strong>und</strong> Harman, D. (2009). CLEF 2009: Grid@CLEF pilot track overview. In:<br />

Multilingual <strong>Information</strong> Access Evaluation I. Text Retrieval Experiments, 10th<br />

CLEF Workshop, Corfu, Greece<br />

Hanburry, A. <strong>und</strong> Müller, H. (2010). Automated Component-Level Evaluation: Present<br />

and Future. In: Multilingual and Multimodal <strong>Information</strong> Access Evaluation,<br />

Padua, Italy<br />

Jenkins, M. C. <strong>und</strong> Smith, D. (2005). Conservative stemming for search and indexing.<br />

In: Proceedings of the 28th international ACM SIGIR conference, Salvador,<br />

Brazil<br />

Kürsten, J., Wilhelm, T., <strong>und</strong> Eibl, M. (2008). Extensible retrieval and evaluation<br />

framework: Xtrieval. LWA 2008: Lernen – <strong>Wissen</strong> – Adaption, Workshop Proceedings,<br />

Germany<br />

Krovetz, R. (1993). Viewing morphology as inference process. In: Proceedings of<br />

the 16th international ACM SIGIR conference, pp. 191–202, Pittsburgh, USA<br />

McNamee, P., Nicholas, C., <strong>und</strong> Mayfield, J. (2009). Addressing morphological<br />

variation in alphabetic languages. In: Proceedings of the 32nd international ACM<br />

SIGIR conference, pp. 75–82, July 19–23, Boston, USA<br />

Mizarro, S. <strong>und</strong> Robertson, S. (2007). Hits hits TREC: exploring IR evaluation results<br />

with network analysis. In: Proceedings of the 30th international ACM<br />

SIGIR conference, pp. 479–486, Amsterdam, Netherlands<br />

Ogilvie, P. <strong>und</strong> Callan, J. (2002). Experiments using the Lemur toolkit. In: Proceedings<br />

of the 2001 Text Retrieval Conference, pp. 103–108. National Institute<br />

of Standards and Technology, special publication 500-250, USA<br />

Ounis, I., Lioma, C., Macdonald, C., <strong>und</strong> Plachouras, V. (2007). Research directions<br />

in terrier: a search engine for advanced retrieval on the Web. Novatica/UP-<br />

GRADE Special Issue on Next Generation Web Search, pp. 49–56


Vergleich von IR-Systemkonfigurationen auf Komponentenebene 59<br />

Porter, M. F. (1997). An algorithm for suffix stripping. In: Multimedia information<br />

and systems series – Readings in information retrieval, pp. 313–316, San Francisco,<br />

USA<br />

Robertson, S. (2006) On GMAP: and other transformations. In: Proceedings of the<br />

15th ACM CIKM conference, pp. 78–83, Arlington, USA<br />

Webber, W., Moffat, A., <strong>und</strong> Zobel, J. (2008). Score standardization for inter-collection<br />

comparison of retrieval systems. In: Proceedings of the 31st international<br />

ACM SIGIR conference, pp. 51–58, Singapore<br />

Wegman, E. J. (1990). Hyperdimensional data analysis using parallel coordinates. In:<br />

Journal oft he American Statistical Association, Vol. 85, No. 411, pp. 664–675,<br />

USA


60 Jens Kürsten, Thomas Wilhelm <strong>und</strong> Maximilian Eibl


Vergleich von IR-Systemkonfigurationen auf Komponentenebene 61<br />

Session 2:<br />

<strong>Information</strong>sinfrastruktur


62 R. Barkey, E. Hinrichs, C. Hoppermann, T. Trippel, C. Zinn<br />

Komponenten-basierte Metadatenschemata<br />

<strong>und</strong> Facetten-basierte Suche<br />

Ein flexibler <strong>und</strong> universeller Ansatz<br />

Reinhild Barkey, Erhard Hinrichs, Christina Hoppermann,<br />

Thorsten Trippel, Claus Zinn<br />

Seminar für Sprachwissenschaft <strong>und</strong> SFB 833 – Universität Tübingen<br />

Wilhelmstr. 19, D-72074 Tübingen<br />

E-Mail: vorname.nachname@uni-tuebingen.de<br />

Zusammenfassung<br />

Wenn man verschiedenartige Forschungsdaten über Metadaten inhaltlich<br />

beschreiben möchte, sind bibliografische Angaben allein nicht ausreichend.<br />

Vielmehr benötigt man zusätzliche Beschreibungsmittel, die der Natur <strong>und</strong><br />

Komplexität gegebener Forschungsressourcen Rechnung tragen. Verschiedene<br />

Arten von Forschungsdaten bedürfen verschiedener Metadatenprofile,<br />

die über gemeinsame Komponenten definiert werden. Solche Forschungsdaten<br />

können gesammelt (z.B. über OAI-PMH-Harvesting) <strong>und</strong> mittels Facetten-basierter<br />

Suche über eine einheitliche Schnittstelle exploriert werden.<br />

Der beschriebene Anwendungskontext kann über sprachwissenschaftliche<br />

Daten hinaus verallgemeinert werden.<br />

Abstract<br />

The content description of various kinds of research data using metadata<br />

requires other than bibliographical data fields that are alone not sufficient for<br />

this purpose. To properly account for research data, other metadata fields are<br />

required, often specific to a given research data set. Consequently, metadata<br />

profiles adapted to different types of resources need to be created. These are<br />

defined by building blocks, called components, that can be shared across<br />

profiles. Research data described in this way can be harvested, for example,<br />

using OAI-PMH. The resulting metadata collection can then be explored via<br />

a unified interface using faceted browsers. The described application is in the<br />

area of linguistic data, but our approach is also applicable for other domains.


Komponenten-basierte Metadatenschemata <strong>und</strong> Facetten-basierte Suche 63<br />

1 Beschreibungsprofile für Klassen<br />

von Ressourcen<br />

<strong>Wissen</strong>schaftliche <strong>und</strong> andere Publikationen werden in der Regel mit strukturierten<br />

Beschreibungen, Metadaten, versehen, wie z.B. mit bibliografischen<br />

Angaben zu Autoren, Publikationstitel, Verlagshaus <strong>und</strong> Erscheinungsjahr,<br />

sowie mit einer Klassifikation oder Verschlagwortung. Diese Metadaten erlauben<br />

das Auffinden von Publikationen innerhalb von (Bibliotheks-) Katalogen.<br />

Auf diese Weise kann auch innerhalb einer wissenschaftlichen Arbeit<br />

auf andere publizierte Arbeiten verwiesen werden. Gleichzeitig helfen<br />

Schlagworte, verwandte Arbeiten grobkörnig zu gruppieren.<br />

Für Druckerzeugnisse hat sich als Beschreibungssystem eine Kernmenge<br />

von Datenkategorien für Metadaten etabliert, die Dublin-Core-Kategorien<br />

(Hillmann, 2005). Viele dieser Kategorien sind für Forschungsprimärdaten<br />

nicht relevant oder nicht aussagekräftig, um durch die Beschreibung einem<br />

möglichen Benutzer einen hinreichenden Eindruck zu geben, um was für eine<br />

Ressource es sich überhaupt handelt. Unterschiedliche Klassen von Ressourcen<br />

benötigen dabei unterschiedliche Beschreibungsebenen. So sind etwa<br />

für die Sprachtechnologie <strong>Information</strong>en zu Audioformaten von Aufnahmen<br />

wichtig, wohingegen für Textkorpora eher der Zeichensatz eine Rolle spielt,<br />

für lexikalische Ressourcen die Struktur der einzelnen Einträge, für Fragebogenauswertungen<br />

die Größe der Stichprobe <strong>und</strong> Methode, etc.<br />

Aus diesen Beispielen wird deutlich, dass die benötigten Beschreibungsdimensionen<br />

für Ressourcen stets vom Ressourcentyp abhängen, auch wenn<br />

für Archivierungszwecke allgemeine bibliografische Kategorien für alle Typen<br />

Anwendung finden können. Daher ist es notwendig, basierend auf einem<br />

Klassifikationssystem für Ressourcen <strong>und</strong> möglichen Prototypen Beschreibungsmuster<br />

zu definieren, die in Abhängigkeit vom Ressourcentyp auf die<br />

jeweilige Ressource angewendet werden können. Diese Beschreibungsmuster<br />

bilden Profile für Metadaten.


64 R. Barkey, E. Hinrichs, C. Hoppermann, T. Trippel, C. Zinn<br />

2 Komponentenbasierte<br />

Metadatenbeschreibungen<br />

Profile für unterschiedliche Ressourcentypen sind nicht überschneidungs<strong>frei</strong>,<br />

weil bestimmte Beschreibungsebenen, wie z.B. bibliografische <strong>Information</strong>en,<br />

häufig von verschiedenen Ressourcentypen verwendet werden. Somit<br />

können auch Beschreibungen unterschiedlicher Ressourcentypen Ähnlichkeiten<br />

aufweisen. Um die Wiederverwendung von gemeinsamen Datenkategorien<br />

<strong>und</strong> Beschreibungsstrukturen sowohl bei der Erstellung als auch bei<br />

der Interpretation von Beschreibungen zu gewährleisten, wurde ein System<br />

für Metadaten entwickelt, bei dem zusammengehörige Datenkategorien <strong>und</strong> -<br />

strukturen zu Komponenten zusammengefasst werden. Komponenten sind<br />

dabei zunächst Mengen von beschreibenden Datenkategorien. Diese wiederum<br />

können selbst zu größeren Komponenten kombiniert werden, um<br />

schließlich für einen Ressourcentyp als ein Beschreibungsprofil Verwendung<br />

zu finden. Damit werden Komponenten als Bausteine für Profile verwendet,<br />

wobei die gleichen Komponenten innerhalb verschiedener Profile enthalten<br />

sein können.<br />

Im Rahmen des EU-Projektes CLARIN (www.clarin.eu) wurde zur systematischen<br />

Verwendung von Komponenten ein Metadatenschema, die Component<br />

MetaData Infrastructure (CMDI, siehe Broeder et al., 2010, siehe<br />

auch htttp://www.clarin.eu/cmdi), entwickelt. Neben einer Beschreibungssprache<br />

für Profile <strong>und</strong> Komponenten enthält diese Infrastruktur dazu auch<br />

weitere Werkzeuge, sowohl Editoren als auch Analysewerkzeuge. Diese<br />

operieren unabhängig vom Ressourcentyp auf bestimmten Datenkategorien. 1<br />

Bestehende Metadatenstandards wie Dublin Core (Coyle <strong>und</strong> Baker, 2008),<br />

OLAC (Simons <strong>und</strong> Bird, 2008) oder der TEI-Header (TEI P5, 2007) können<br />

als Profile oder auch als Komponenten dargestellt werden, sodass ein Komponentenmodell<br />

mit Profilen als Obermenge bestehender Metadatenschemas<br />

angesehen werden kann. So werden die bibliografischen <strong>Information</strong>en in<br />

den Metadaten einer Ressource für Archiv- <strong>und</strong> Bibliothekskataloge ver-<br />

1 Die Implementierung hätte dabei auch mittels XML-Namespaces erfolgen können, dies<br />

allerdings zu Lasten einer erhöhten Komplexität, da potenziell die volle Ausdrucksmächtigkeit<br />

von XSchema zur Verfügung gestanden hätte. Die vorliegenden Werkzeuge<br />

dagegen basieren zwar auf XSchema, operieren aber auf einer Teilmenge davon<br />

<strong>und</strong> enthalten Restriktionen, die zu einer leichteren Handhabung führen.


Komponenten-basierte Metadatenschemata <strong>und</strong> Facetten-basierte Suche 65<br />

wendbar. Andere Datenkategorien dagegen, wie z.B. die Angabe von Annotationstypen<br />

bei linguistischen Korpora, werden von allgemeinen Kataloganwendungen<br />

ignoriert, aber von spezialisierten Suchmaschinen oder Diensten<br />

verwendet.<br />

Um auch institutionsübergreifend die Verwendung gleicher Komponenten<br />

<strong>und</strong> Profile zu ermöglichen, wurde im Rahmen von CMDI die Component<br />

Registry veröffentlicht. Dabei handelt es sich um ein Verzeichnis, das zentral<br />

Komponenten <strong>und</strong> Profile sowohl zur Weiterverwendung in Institutionen <strong>und</strong><br />

Projekten als auch zur Validierung konkreter Instanzen zur Verfügung stellt.<br />

Die Komponenten erhalten dort einen persistenten Identifikator (Persistent<br />

Identifier oder PID, siehe ISO 24619), auf den sowohl von anderen Komponenten<br />

als auch Instanzen verwiesen werden kann <strong>und</strong> der über ein Handle-<br />

System zu einer URL aufgelöst wird.<br />

Innerhalb der Komponenten werden die Datenkategorien mit einer Referenz<br />

auf bereits standardisierte oder im Standardisierungsprozess befindliche<br />

Datenkategorien verwendet, die in einem Verzeichnis definiert <strong>und</strong> nachhaltig<br />

dokumentiert werden. Bei diesem Verzeichnis für Datenkategorien<br />

handelt es sich um ISOcat, das aus dem Bereich der Sprachressourcen der<br />

International Organization of Standardization (ISO, siehe ISO 12620:2009,<br />

siehe auch http://www.isocat.org) stammt. Die Referenz auf in ISOcat definierte<br />

Datenkategorien innerhalb der Komponenten ermöglicht es, dass Datenkategorien<br />

von unterschiedlichen Erstellern von Metadateninstanzen in<br />

gleicher Weise verstanden werden. Außerdem können Probleme wie nicht<br />

der Definition entsprechende entfremdete Verwendungen der Datenkategorien<br />

(d.h. Tag Abuse) eingedämmt werden.<br />

In den Komponentendefinitionen von CMDI können zudem kontrollierte<br />

Vokabulare angegeben werden. Diese können ebenfalls dazu beitragen, das<br />

Problem des Tag Abuse zu minimieren, da Datenkategorien durch das kontrollierte<br />

Vokabular formal auf ihre Konsistenz geprüft werden können.<br />

Gleichzeitig gibt es auch Freitextfelder wie Zusammenfassungen <strong>und</strong> Beschreibungen,<br />

deren Inhalt nicht genauer reglementiert wird. Der Gebrauch<br />

von Datenmodellen ist nach Maßgabe der zugr<strong>und</strong>eliegenden Schemasprache<br />

möglich. Im Rahmen des CMDI-Datenmodells ist dies mit der Verwendung<br />

von XSchema sehr weitgehend umgesetzt worden, angefangen von Datumsformaten<br />

bis zu regulären Ausdrücken für Zeichenkettendefinitionen.<br />

Abbildung 1 stellt eine Anwendung des Komponentenmodells für linguistische<br />

Korpora dar. Die Komponenten (durch Rechtecke repräsentiert) können<br />

dabei selbst weitere Komponenten enthalten. So ist z.B. die Komponente


66 R. Barkey, E. Hinrichs, C. Hoppermann, T. Trippel, C. Zinn<br />

zur Annotation innerhalb der Komponente zur Erstellung der Ressource<br />

(Creation) eingeb<strong>und</strong>en. Komponenten sind dabei unterschiedlich komplex<br />

(illustriert durch die Dimensionen der Rechtecke), können aber in verschiedenen<br />

Profilen <strong>und</strong> Komponenten erscheinen. Beispielsweise wird die in der<br />

vorliegenden Implementierung verwendete Komponente GeneralInfo in fast<br />

allen Profilen für unterschiedliche Ressourcentypen eingeb<strong>und</strong>en. Tochterkomponenten<br />

<strong>und</strong> Datenkategorien können nebeneinander in Komponenten<br />

erscheinen (in der Abbildung: Datenkategorien mit durchgezogenen Kanten).<br />

Abbildung 1:<br />

Komponentenmodell für Metadaten zur Beschreibung von linguistischen Korpora.


Komponenten-basierte Metadatenschemata <strong>und</strong> Facetten-basierte Suche 67<br />

3 Verbreitung von Metadaten über OAI-PMH<br />

Für den Austausch von Metadaten in Archiven hat sich im Rahmen der Open<br />

Archive Initiative ein Containerformat etabliert: das Open Archive Initiative<br />

Protocol for Metadata Harvesting (siehe OAI-PMH, 2008). Obwohl OAI-<br />

PMH im Wesentlichen zum Austausch von Dublin-Core-Daten für Kataloginformationen<br />

zwischen Bibliotheken gedacht war, erlaubt es dieses Protokoll<br />

dennoch, z.B. mithilfe von Namespaces, auch weitere Metadatenformate<br />

einzubinden. Auf diese Weise können detaillierte Metadaten nach dem Komponentenmodell<br />

über einen OAI-PMH-Server bereitgestellt werden. Die einzige<br />

Voraussetzung dabei ist, dass es – möglicherweise zusätzlich zu diesen<br />

spezifischen Metadaten – bibliografische Metadaten nach Dublin Core gibt,<br />

wenn der verwendende Service auf Dublin Core Metadaten beschränkt ist.<br />

Services, die von Dublin Core unabhängig sind, benötigen diese Abbildung<br />

nicht. CMDI <strong>Information</strong>en können damit direkt in OAI-PMH-Containern<br />

eingeb<strong>und</strong>en <strong>und</strong> verteilt werden.<br />

Da ein Komponentenmodell detailreicher ist <strong>und</strong> in Dublin Core die Datenkategorien<br />

optional sind, gibt es immer eine verlustbehaftete Abbildung<br />

dieser Komponenten-Metadaten nach Dublin Core. Um eine vollständigere<br />

Abbildung von den detailreicheren Metadaten auf Dublin Core vorzunehmen,<br />

ist eine profilspezifische Anpassung nötig. So kann eine Person, die in einer<br />

Projektleiterkomponente einer Ressource erscheint, in Abhängigkeit vom<br />

Ressourcentyp in Dublin Core als Herausgeber oder als Autor aufgefasst<br />

werden. Dies kann automatisiert beim Bereitstellen auf dem OAI-PMH-Server<br />

erfolgen, sodass keine red<strong>und</strong>ante Dateneingabe erfolgen muss.<br />

Die über OAI-PMH-Server bereitgestellten Metadaten können automatisiert<br />

mit Crawlern <strong>und</strong> Webservices erfasst werden. Zur Zeit werden Metadatenbestände<br />

unter anderem von den folgenden sprachwissenschaftlichen<br />

Institutionen semiautomatisch erfasst <strong>und</strong> ausgewertet: MPI Nijmegen, Universität<br />

Leipzig, Bayerisches Archiv für Sprachdaten, Universität Stuttgart,<br />

Universität Tübingen, Berlin-Brandenburgische Akademie der <strong>Wissen</strong>schaften<br />

<strong>und</strong> linguistische Sonderforschungsbereiche der DFG.


68 R. Barkey, E. Hinrichs, C. Hoppermann, T. Trippel, C. Zinn<br />

4 Verwendung von komponentenbasierten<br />

Metadaten für die Facetten-basierte Suche<br />

Ein wesentliches Problem bei der Weiterverwendung von Forschungsprimärdaten<br />

in anderen Kontexten <strong>und</strong> der Überprüfung von Ergebnissen anhand<br />

der Daten – was zum Beispiel durch die Deutsche Forschungsgemeinschaft<br />

gefordert wird (DFG, 2009) – ist neben der Langzeitarchivierung auch <strong>und</strong><br />

gerade die Auffindbarkeit der Daten (Rehm, et al., 2010). Dies umfasst zunächst<br />

nicht den Zugang zu den Forschungsprimärdaten, sondern die Auffindbarkeit<br />

ihrer formalen Beschreibungen, wie sie beispielsweise in Bibliothekskatalogen<br />

für Schriften vorliegen. Dabei stellt die große Variation von<br />

Metadatenkategorien in Abhängigkeit von den Klassen von Ressourcen eine<br />

Herausforderung dar. Volltextsuchen über die Metadaten sind für diesen<br />

Zweck nur bedingt hil<strong>frei</strong>ch, da sie die in Datenkategorien <strong>und</strong> Metadatenstrukturen<br />

implizit enthaltenen <strong>Information</strong>en nicht auswerten. Auch klassische<br />

formularbasierte Suchen, die oft als „erweiterte Suche“ bezeichnet<br />

werden, sind durch die Variabilität der Metadatenschemas mit unterschiedlichen<br />

Komponenten stark eingeschränkt, weil sie nicht alle Varianten berücksichtigen<br />

können, ohne zu umfangreich <strong>und</strong> unübersichtlich zu werden.<br />

Um diese Probleme zu vermeiden, kann man ein Facetten-basiertes Suchsystem<br />

(siehe Hearst, 2006) einsetzen, das alle Datensätze eines Datenbestandes<br />

mithilfe von Ausprägungen wohldefinierter Facetten beschreibt. Dazu<br />

werden einem Datensatz in der Regel mehr als eine Kategorie (Teilmenge)<br />

zugeordnet. Die Abbildung zwischen Facetten <strong>und</strong> Metadatenfeldern<br />

diverser Metadatenprofile wird dabei durch den oben beschriebenen Komponenten-basierten<br />

Ansatz enorm vereinfacht. Dies liegt daran, dass eventuelle<br />

Ambiguitäten in der Lesart durch Referenz auf das Verzeichnis von<br />

Metadatenkategorien (www.isocat.org) leicht aufgelöst werden können.<br />

Der Benutzer eines Faceted Browsers erhält bereits zu Suchbeginn eine<br />

Facetten-basierte Übersicht über den gesamten Datenbestand. Abbildung 2<br />

veranschaulicht dies am Beispiel des im Projekt „Nachhaltigkeit Linguistischer<br />

Daten“ (NaLiDa, http://www.sfs.uni-tuebingen.de/nalida) entwickelten<br />

Faceted Browsers, der einen Zugang zu sprachwissenschaftlichen Forschungsprimärdaten<br />

auf der Basis von komponentenbasierten Metadaten erlaubt.<br />

Sichtbar sind in der Abbildung die Facetten origin (Quelle eines Datensatzes),<br />

modality (Modalität der Ressource), resourcetype (Ressourcentyp),<br />

country (Ursprungsland), language (Sprache der Ressource) <strong>und</strong> or-


Komponenten-basierte Metadatenschemata <strong>und</strong> Facetten-basierte Suche 69<br />

ganisation (Institution, an der diese Ressource entstanden ist) sowie ihre<br />

Facettenausprägungen <strong>und</strong> die Anzahl der Datensätze, die mit den jeweiligen<br />

Ausprägungen beschrieben sind. Durch die Auswahl einer Facettenausprägung<br />

(z.B. die Facette resourcetype mit Ausprägung corpus) setzt der Nutzer<br />

einen Filter, der den Suchraum entsprechend verkleinert. Die ausgewählten<br />

Datensätze (Anzahl 4499) werden so wiederum umgehend mithilfe der verbliebenen<br />

Facetten beschrieben, sodass der Nutzer gezielt durch Suchräume<br />

navigieren kann. Auf diese Weise kann ein Nutzer etwa alle Ressourcen<br />

identifizieren, die zugleich aus einem bestimmten Korpus stammen <strong>und</strong> einer<br />

bestimmten Sprache zugeordnet werden. In diesem Suchkontext fächert der<br />

Faceted Browser die ausgewählten Ressourcen u.a. bezüglich der Ausprägungen<br />

der Facette genre auf. Nutzer können so ihre Suche nach einem<br />

deutschsprachigen Korpus mit Dialogdaten oder Diskursdaten verfeinern.<br />

Abbildung 2: Der NaLiDa-Faceted-Browser zum Metadaten-basierten Zugriff auf<br />

Forschungsprimärdaten in der Sprachwissenschaft.


70 R. Barkey, E. Hinrichs, C. Hoppermann, T. Trippel, C. Zinn<br />

Für die sehr großen <strong>und</strong> heterogen Datenbestände in der Sprachwissenschaft<br />

ist die Einführung bedingter Facetten hil<strong>frei</strong>ch. Bedingte Facetten sind<br />

solche, die nur für bestimmte Typen von Ressourcen relevant sind <strong>und</strong> die<br />

dem Nutzer erst nach Vorauswahl von einigen allgemeinen, sogenannten unbedingten<br />

Facetten angezeigt werden. Somit erlauben sie eine feinkörnigere<br />

Suche in Teilräumen von Metadatensätzen. Beispielsweise wird die bedingte<br />

Facette genre mit ihren Ausprägungen discourse, poetry, story-telling, etc.<br />

nur angezeigt, wenn Datensätze vom Ressourcetyp corpus weiter exploriert<br />

werden sollen. Werden vom Nutzer hingegen Datensätze vom Ressourcentyp<br />

tool ausgewählt, wird ihre weitere Exploration durch die Einführung der bedingten<br />

Facette tooltype (mir ihren Ausprägungen spell checker, POS tagger,<br />

named entity recognizer, etc.) erleichtert.<br />

Abbildung 3:<br />

Architektur eines Metadaten-basierten Zugangs zu Forschungsprimärdaten.<br />

Diese Benutzerschnittstelle ist unabhängig von der Datenhaltung der Forschungsprimärdaten,<br />

erlaubt aber über die persistenten Identifikatoren (PIDs)<br />

der Forschungsprimärdaten die Verbindung zwischen beiden. Abbildung 3<br />

illustriert die Architektur eines Systems, in dem Metadaten <strong>und</strong> Primärdaten


Komponenten-basierte Metadatenschemata <strong>und</strong> Facetten-basierte Suche 71<br />

konzeptionell getrennt sind <strong>und</strong> unterschiedlichen Rechteverwaltungs- <strong>und</strong><br />

Zugangssystemen unterstehen. Die Metadaten-Objekte sind in einem Metadata<br />

Repository offen zugänglich <strong>und</strong> damit lesbar. Sie können von unterschiedlichen<br />

Services verwendet werden. Der Zugang zu Primärdaten erfordert<br />

dagegen sowohl die Authentifizierung als auch die Überprüfung der<br />

speziellen Rechte eines Benutzers, die Autorisierung. Die Suche <strong>und</strong> die Auflösung<br />

von persistenten Identifikatoren auf URLs können dabei wiederum<br />

unabhängig als Service realisiert werden.<br />

5 Zusammenfassung <strong>und</strong><br />

weiterführende Arbeiten<br />

In diesem Beitrag haben wir die Gr<strong>und</strong>züge von Komponenten-basierten<br />

Metadatenmodellen skizziert <strong>und</strong> aufgezeigt, wie flexibel ein solches System<br />

auf unterschiedliche Ressourcentypen angewendet werden kann. Dabei erweist<br />

sich ein Faceted Browser als hervorragendes Werkzeug, um erfahrenen<br />

Nutzern wie auch Anfängern einen einheitlichen Zugriff auf Kollektionen<br />

von Metadatensätzen zu geben. Die Einführung bedingter Facetten sorgt zudem<br />

dafür, dass Navigationselemente dynamisch <strong>und</strong> kontextsensitiv bereitgestellt<br />

werden <strong>und</strong> bringt somit Nutzern eine zusätzliche Unterstützung zur<br />

schnellen <strong>und</strong> strukturierten Exploration großer Datenmengen.<br />

Nach der ersten Implementierung eines Faceted Browsers auf der Basis<br />

von CMDI-Komponentenmetadaten für unterschiedliche Korpora, Lexika<br />

<strong>und</strong> computerlinguistische Werkzeuge, sollen in einem nächsten Arbeitsschritt<br />

Profile für weitere Ressourcentypen geschaffen <strong>und</strong> die Inhaltsmodelle<br />

von Komponenten überprüft <strong>und</strong> bei Bedarf angepasst werden. Diese<br />

Komponenten sind ferner über die Component Registry zur Weiterverwendung<br />

bereit zu stellen.<br />

Ein wichtiger, bereits initiierter Schritt besteht darin, das Komponentenmodell<br />

selbst <strong>und</strong> eine Implementierungssprache für Komponenten in den<br />

Standardisierungsprozess im Rahmen der ISO einzubringen. Dies soll dazu<br />

führen, dass langfristig <strong>und</strong> transparent Dienstleistungen für die Forschung<br />

<strong>und</strong> Ressourcengemeinschaft aufgebaut werden können.<br />

Zur Erweiterung des Systems wird außerdem versucht, weitere Archive<br />

<strong>und</strong> Daten produzierende Projekte mit einzubeziehen <strong>und</strong> gegebenenfalls bei


72 R. Barkey, E. Hinrichs, C. Hoppermann, T. Trippel, C. Zinn<br />

der Erstellung von Metadatenbeispielen für ihre Datentypen zu unterstützen.<br />

Dies soll dazu führen, dass Forschungsprimärdaten langfristig zur Weiterverwendung,<br />

Referenz <strong>und</strong> als Forschungs- <strong>und</strong> Ergebnisbeleg verfügbar sind.<br />

Literaturverzeichnis<br />

Broeder, D.; Kemps-Snijders, M.; Van Uytvanck, D.; Windhouwer, M.; Withers, P.;<br />

Wittenburg, P.; Zinn, C. (2010): “A Data Category Registry- and Componentbased<br />

Metadata Framework”. Proceedings of the 7th conference on International<br />

Language Resources and Evaluation.<br />

Coyle, K.; Baker, Thomas (2009): Guidelines for Dublin Core Application Profiles.<br />

Dublin Core Metadata Initiative, 2009-05-18.<br />

http://dublincore.org/documents/2009/05/18/profile-guidelines/<br />

DFG (2009): Empfehlungen zur gesicherten Aufbewahrung <strong>und</strong> Bereitstellung digitaler<br />

Forschungsprimärdaten. Deutsche Forschungsgemeinschaft, Ausschuss für<br />

<strong>Wissen</strong>schaftliche Bibliotheken <strong>und</strong> <strong>Information</strong>ssysteme, Unterausschuss für <strong>Information</strong>smanagement,<br />

2009.<br />

http://www.dfg.de/download/pdf/foerderung/programme/lis/ua_inf_empfehlungen_20<br />

0901.pdf<br />

Hearst, M. (2006): “Design Recommendations for Hierarchical Faceted Search Interfaces”.<br />

ACM SIGIR Workshop on Faceted Search.<br />

Hillmann, D. (2005): Using Dublin Core – The Elements. Dublin Core Metadata<br />

Initiative, 2005-11-07.<br />

http://dublincore .org/documents/2005/11/07/usageguide/elements.shtml<br />

ISO 12620:2009: Terminology and other language and content resources – Specification<br />

of data categories and management of a Data Category Registry for language<br />

resources. International Organization of Standardization, Genf.<br />

http://www.isocat.org<br />

ISO/DIS 24619:2010: Language resource management -- Persistent identification<br />

and sustainable access (PISA). International Organization of Standardization,<br />

Genf. http://www.isocat.org<br />

OAI-PMH (2008): The Open Archives Initiative Protocol for Metadata Harvesting.<br />

Protocol Version 2.0 of 2002-06-14, Document Version 2008-12-07.<br />

http://www.openarchives.org/OAI/2.0/openarchivesprotocol.htm<br />

Rehm, G., Schonefeld, O., Trippel, T. Witt, A. (2010): Sustainability of Linguistic<br />

Resources Revisited. Proceedings of the International Symposium on XML for


Komponenten-basierte Metadatenschemata <strong>und</strong> Facetten-basierte Suche 73<br />

the Long Haul: Issues in the Long-term Preservation of XML. Balisage Series on<br />

Markup Technologies, vol. 6 (2010). doi:10.4242/Balisage/Vol6.Witt01<br />

Simons, G.; Bird, S. (2008): OLAC Metadata. Open Language Archive Community,<br />

2008-05-31. http://www.language-archives.org/OLAC/metadata-20080531.html<br />

TEI P5 (2007): TEI Guidelines. Text Encoding Initiative, 1. November 2007.<br />

http://www.tei-c.org/Guidelines/P5/


74 Ina Dehnhard, Peter Weiland<br />

Toolbasierte Datendokumentation<br />

in der Psychologie<br />

Ina Dehnhard, Peter Weiland<br />

Leibniz-Zentrum für Psychologische <strong>Information</strong> <strong>und</strong> Dokumentation<br />

D-54286 Trier<br />

E-Mail: dehnhard@zpid, weiland@zpid.de<br />

Zusammenfassung<br />

Das Leibniz-Zentrum für Psychologische <strong>Information</strong> <strong>und</strong> Dokumentation<br />

(ZPID) stellt mit PsychData seit 2002 ein auf Forschende in der Psychologie<br />

ausgerichtetes Datenarchiv zur Verfügung. In diesem Beitrag werden die<br />

Herausforderungen der Forschungsdatendokumentation im Fach Psychologie<br />

dargestellt, <strong>und</strong> es wird ein im Rahmen des Projekts entwickeltes Werkzeug<br />

vorgestellt, das insbesondere in der forschungsbegleitenden Dokumentation<br />

eingesetzt werden kann.<br />

Abstract<br />

Since 2002, the Leibniz Institute for Psychology <strong>Information</strong> is operating a<br />

data archive supporting researchers in psychology. This paper discusses the<br />

challenges of documenting research data in psychology and related disciplines.<br />

Moreover, a Web application is presented which has been developed<br />

for data documentation during the research process.<br />

Einleitung<br />

Psychologie versteht sich als empirische <strong>Wissen</strong>schaft, deren Erkenntnisfortschritt<br />

auf der Gewinnung <strong>und</strong> Verarbeitung von Forschungsdaten beruht<br />

(Erdfelder, 1994). Die aufgr<strong>und</strong> der Daten ermittelten Ergebnisse werden<br />

dann in Publikationen der Forschungsgemeinschaft zur Verfügung gestellt.


Toolbasierte Datendokumentation in der Psychologie 75<br />

Während früher im Anhang einer Publikation noch die Daten veröffentlicht<br />

wurden (z.B. Donders, 1868) <strong>und</strong> so also direkt verfügbar waren, ist es heute<br />

schwieriger, an die Datenbasis einer Veröffentlichung zu gelangen (Wicherts<br />

et al., 2006). Trotz des enormen Stellenwerts, der der empirischen Gr<strong>und</strong>lage<br />

psychologischer Forschung beigemessen wird, erhalten die Forschungsdaten<br />

weniger Beachtung. Dies wird auch an der Tatsache deutlich, dass bisher die<br />

Veröffentlichung von Daten <strong>Wissen</strong>schaftlern keine Reputation bringt, sondern<br />

nur darauf aufbauende Publikationen (vgl. Wagner, 2010, Klump et al.,<br />

2006).<br />

Allerdings lässt sich in Forschungskultur <strong>und</strong> -politik ein Umdenken feststellen.<br />

Die Vorteile des Data Sharing, wie z.B. ökonomischer Nutzen, Qualitätssicherung,<br />

Potenzial für Reanalysen unter neuen Fragestellungen oder mit<br />

anderen statistischen Methoden, werden zunehmend erkannt (vgl. Bengel &<br />

Wittman, 1982, Wicherts et al. 2006) <strong>und</strong> führen zu ersten forschungspolitischen<br />

<strong>und</strong> infrastrukturellen Maßnahmen. So gibt die Deutsche Forschungsgemeinschaft<br />

(DFG) in ihrer Denkschrift Vorschläge zur Sicherung<br />

guter wissenschaftlicher Praxis die Empfehlung, dass „Primärdaten als<br />

Gr<strong>und</strong>lagen für Veröffentlichungen auf haltbaren <strong>und</strong> gesicherten Trägern in<br />

der Institution, wo sie entstanden sind, für zehn Jahre aufbewahrt werden<br />

sollen“ (DFG, 1998).<br />

Über die reine Aufbewahrungspflicht hinaus, sollten Daten auch für andere<br />

<strong>Wissen</strong>schaftler auffindbar <strong>und</strong> zugänglich sein. Die Verbesserung <strong>und</strong><br />

Erweiterung der Dateninfrastruktur in den Sozial-, Verhaltens- <strong>und</strong> Wirtschaftswissenschaften<br />

stellt daher das erklärte Arbeitsziel des Rates für Sozial-<br />

<strong>und</strong> WirtschaftsDaten (RatSWD) 1 dar. Der RatSWD ist ein unabhängiges<br />

Gremium, das sich aus empirisch arbeitenden <strong>Wissen</strong>schaftlern von Universitäten,<br />

Hochschulen <strong>und</strong> anderen Forschungseinrichtungen unabhängiger<br />

wissenschaftlicher Forschung sowie von Vertreterinnen <strong>und</strong> Vertretern wichtiger<br />

Datenproduzenten zusammensetzt. Seine Aufgaben liegen in der Optimierung<br />

des Datenzugangs <strong>und</strong> der Datennutzung sowie in der Interessenvermittlung<br />

zwischen <strong>Wissen</strong>schaft <strong>und</strong> Datenproduzenten.<br />

Speziell für das Fach Psychologie bietet das Datenarchiv PsychData 2 ein<br />

Serviceangebot zur Unterstützung von Forschenden im Primär- <strong>und</strong> Sek<strong>und</strong>ärforschungskontext<br />

an (vgl. Ruusalepp, 2008, Klopp, 2010). Forscher er-<br />

1 http://www.ratswd.de/, letzter Zugriff am 25.10.2010.<br />

2 http://psychdata.de/, letzter Zugriff am 04.11.2010.


76 Ina Dehnhard, Peter Weiland<br />

halten die Möglichkeit, ihre Daten bei PsychData langfristig zu archivieren<br />

<strong>und</strong> zur Nachnutzung bereitzustellen. Dies beinhaltet auch die Zitierfähigkeit<br />

der Daten, da diese über DOIs (Digital Object Identifiers) identifizierbar<br />

bleiben. Die bereitgestellten Daten können von Sek<strong>und</strong>ärforschern für die<br />

wissenschaftliche Forschung <strong>und</strong> Lehre nachgenutzt werden. Sowohl die<br />

Datenbereitstellung durch den Produzenten als auch die Weitergabe an Datennutzer<br />

sind vertraglich geregelt. Abbildung 1 zeigt die Verortung der<br />

PsychData-Plattform im Forschungskontext. Neben der Datenarchivierung<br />

<strong>und</strong> -bereitstellung unterstützt PsychData <strong>Wissen</strong>schaftler bei der retrospektiven<br />

<strong>und</strong> forschungsbegleitenden Dokumentation ihrer Daten.<br />

Abbildung 1: PsychData im Forschungskontext<br />

Voraussetzung zum Data Sharing<br />

Die Archivierung <strong>und</strong> Bereitstellung von Forschungsdaten erfordert eine entsprechende<br />

Aufbereitung der Daten. Neben den technischen Maßnahmen zur<br />

Datensicherung wie z.B. Speicherung in geräte- <strong>und</strong> systemunabhängigen<br />

Formaten, ist vor allem eine langfristige Interpretierbarkeit der Daten sicherzustellen.<br />

Ohne eine umfassende Dokumentation sind die Forschungsdaten<br />

inhaltsleer <strong>und</strong> somit für eine Nachnutzung unbrauchbar. Diese Dokumentation<br />

sollte optimalerweise anhand von internationalen Standards erfolgen,<br />

um Interoperabilität <strong>und</strong> Durchsuchbarkeit der Inhalte zu gewährleisten. Ebenso<br />

wichtig wie die Dokumentation sind Kontrollen der Forschungsdaten<br />

auf Integrität, Vollständigkeit, Konsistenz <strong>und</strong> Anonymisierung.<br />

Diese notwendige Dokumentation <strong>und</strong> auch Datenüberprüfung wird im<br />

Forschungsalltag häufig nachlässig durchgeführt. Doch gerade eine Dokumentation<br />

des Forschungsprozesses von Beginn an wird als „Best Practice“<br />

im Datenmanagement angesehen (Van den Eynden et al., 2009). Eine retrospektive<br />

Aufbereitung der Daten ist meist zeit- <strong>und</strong> arbeitsaufwendiger, ein-


Toolbasierte Datendokumentation in der Psychologie 77<br />

zelne Fragen lassen sich im Nachhinein möglicherweise gar nicht mehr klären.<br />

Gründe für die Vernachlässigung einer gründlichen Dokumentation werden<br />

vor allem in der mangelnden zur Verfügung stehenden Zeit oder auch<br />

den fehlenden „incentives“ vermutet (Wagner, 2010). Eine weitere Ursache<br />

dafür, dass die Datendokumentation keine selbstverständliche Routine im<br />

Forschungsalltag darstellt, könnte in der fehlenden Verbreitung von Standards<br />

<strong>und</strong> Richtlinien zur Dokumentation liegen <strong>und</strong> auch im Fehlen geeigneter<br />

Werkzeuge <strong>und</strong> Plattformen, die eine möglichst effiziente Dokumentation<br />

der Forschungsdaten erlauben (vgl. Postle et al., 2002). Gängige Statistikpakete<br />

unterstützen den Forschenden hierbei nur sehr unzureichend.<br />

Dokumentationsstandards im PsychData-Archiv<br />

Das psychologische Archiv PsychData verwendet zur Beschreibung der zur<br />

Verfügung gestellten Forschungsdaten ein Set von Metadaten, das sowohl<br />

den Forschungskontext als auch die Variablen selbst umfassend dokumentiert.<br />

Diese Metadaten orientieren sich an den international anerkannten Dokumentationsstandards<br />

Dublin Core 3 mit seinen 15 Kernelementen <strong>und</strong> DDI<br />

Version 2 (Data Documentation Initiative 4 ). DDI ist ein XML-Format, das<br />

speziell für die Beschreibung von <strong>sozial</strong>wissenschaftlichen Daten entwickelt<br />

wurde <strong>und</strong> in vielen Projekten weltweit eingesetzt wird. 5 Im April 2008 ist<br />

Version 3 des DDI Standards erschienen, die im Gegensatz zu der vor allem<br />

auf die Variablenbeschreibung konzentrierte Version 2 versucht den gesamten<br />

data life cycle abzubilden. Mittelfristig ist geplant, die PsychData-<br />

Metadaten im DDI 3 Format zur Verfügung zu stellen. Das von PsychData<br />

verwendete Metadatenset ist mit beiden Dokumentationsstandards kompatibel,<br />

wurde aber entsprechend erweitert, um den Besonderheiten der psychologischen<br />

Forschung gerecht zu werden (vgl. Fahrenberg, 2009, Weichselgartner,<br />

2008). Kennzeichnend für die Psychologie ist die Erforschung<br />

3 http://dublincore.org/, letzter Zugriff am 08.11.2010.<br />

4 http://www.ddialliance.org/, letzter Zugriff am 08.11.2010.<br />

5 Eine Liste einiger Projekte, die DDI zur Dokumentation ihrer Daten einsetzen, ist unter<br />

http://www.ddialliance.org/ddi-at-work/projects verfügbar (letzter Zugriff am<br />

25.10.2010).


78 Ina Dehnhard, Peter Weiland<br />

nicht direkt beobachtbarer innerpsychischer Prozesse. Für deren Messung<br />

sind Konstruktbildungen, Operationalisierungen <strong>und</strong> die Entwicklung von<br />

Erhebungsinstrumenten sowie derer Validierung notwendig <strong>und</strong> müssen<br />

dementsprechend auch ausreichend dokumentiert werden.<br />

Mit den PsychData-Metadaten erfolgt daher zum einen eine genaue Studienbeschreibung<br />

anhand von bibliografischen Angaben (wie Autor, Titel<br />

etc.), einer inhaltlichen Studiendarstellung (z.B. zugr<strong>und</strong>eliegende Hypothesen)<br />

<strong>und</strong> insbesondere Angaben zum Datenerhebungsprozess (verwendete<br />

Testverfahren, Methodenbeschreibung, Stichprobenziehung etc.).<br />

Zum anderen werden zum eindeutigen Verständnis der Forschungsdaten<br />

selbst die einzelnen Variablen anhand eines Kodebuchs beschrieben. Das von<br />

PsychData verwendete Kodebuch-Schema enthält die Elemente: Variablenname,<br />

inhaltliche Variablenbeschreibung, Itemtext (z.B. die gestellte Frage<br />

oder Instruktionsanweisung), Wertebereich der gültigen Werte, Wertebereich<br />

der fehlenden Werte, Bedeutung der gültigen Werte <strong>und</strong> Bedeutung der fehlenden<br />

Werte.<br />

Die Erstellung einer kompletten Dokumentation anhand einer Studienbeschreibung<br />

<strong>und</strong> eines Kodebuchs bedeutet einen relativ zeitintensiven Arbeitsaufwand.<br />

Dieser kann durch entsprechende technische Unterstützung jedoch<br />

wesentlich verringert werden.<br />

Ein Werkzeug zur<br />

forschungsbegleitenden Dokumentation<br />

Im Rahmen des PsychData-Projekts wurde ein webbasiertes Dokumentationstool<br />

entwickelt, das es Forschern erleichtern soll, ihre Daten umfassend<br />

zu dokumentieren <strong>und</strong> auf Konsistenz zu überprüfen. Das Dokumentationstool<br />

ermöglicht die Datenbeschreibung anhand des PsychData-Metadatensets<br />

sowie das Hochladen <strong>und</strong> Archivieren der Forschungsdaten selbst. Die Nutzung<br />

des Tools kann sowohl retrospektiv als auch forschungsbegleitend erfolgen.<br />

Bei der Bearbeitung eines Kodebuchs <strong>und</strong> der zugehörigen Datenmatrix<br />

erfolgen automatische Fehlerkontrollen, durch die Mindeststandards<br />

der Datenaufbereitung gewährleistet werden.<br />

Neben der Funktion eines reinen Dokumentationswerkzeugs für einzelne<br />

Forscher besteht auch die Möglichkeit, die Anwendung als eine Data Sharing


Toolbasierte Datendokumentation in der Psychologie 79<br />

Plattform zu verwenden. Einzelne Mitarbeiter können Mitgliedern aus ihrer<br />

Forschungsgruppe Zugriff auf ihre Datensätze gewähren. Ebenso kann die<br />

Anwendung bei der Betreuung von Diplomarbeiten oder Dissertationen eingesetzt<br />

werden, indem Studierende, die mit dem Tool arbeiten, ihren jeweiligen<br />

Betreuern den Zugriff auf ihre Daten ermöglichen. Hierfür steht eine<br />

Rechteverwaltung zur Verfügung, mit der die Zugriffsrechte für andere Personen<br />

auf die eigenen Daten festgelegt werden können.<br />

Ein Anwendungsfeld dieses Werkzeugs sind Datensammlungen, wie sie<br />

im Rahmen von Diplom-/Masterarbeiten oder auch Dissertationen entstehen.<br />

Diese wurden bisher nicht langfristig archiviert <strong>und</strong> publiziert – Studierende<br />

sind zwar in der Regel von ihrem Lehrstuhl angehalten, ihre Daten auf einem<br />

Datenträger wie CD-ROM zusammen mit der Prüfungsarbeit abzugeben, im<br />

Gegensatz zu den eigentlichen Arbeiten, die häufig auf Dokumentenservern<br />

abgelegt werden, verschwinden die Daten dann aber meist in irgendwelchen<br />

Stahlschränken <strong>und</strong> sind für eine Nachnutzung nicht verfügbar. Abgesehen<br />

von den fehlenden Zugriffsmöglichkeiten sind die Beschreibungen der Daten<br />

nicht standardisiert, was ein Nachrechnen der Ergebnisse durch den/die Betreuer/in<br />

der Prüfungsarbeit bzw. eine Nutzung der Daten durch Dritte in<br />

einem anderen Auswertungskontext sehr schwierig macht. Hier kann das<br />

Dokumentationstool einen Beitrag leisten, um zum einen die Verfügbarkeit<br />

von Datensätzen zu gewährleisten, zum anderen aber auch die Lehrenden bei<br />

der Betreuung studentischer Arbeiten zu unterstützen. Darüber hinaus führt<br />

der Einsatz eines solchen Tools in Empiriepraktika oder ähnlichen Veranstaltungen<br />

die Studierenden an die Gr<strong>und</strong>sätze der guten wissenschaftlichen<br />

Praxis heran.<br />

Das Dokumentationstool ist eine PHP/MySQL-Anwendung <strong>und</strong> stellt somit<br />

relativ geringe Anforderungen an die darunterliegende Infrastruktur. Aus<br />

Nutzersicht besteht die Software aus den Komponenten Metadaten-Formular,<br />

Kodebuch-Upload/-Eingabe, Datenmatrix-Upload/-Eingabe, einer Rechteverwaltung<br />

<strong>und</strong> Funktionen zum Datenexport.<br />

Abbildung 2 zeigt das Metadatenformular der Anwendung, das in die Bereiche<br />

Basisdaten (z.B. beteiligte Forscher, Arbeitstitel, finanzielle Förderung),<br />

<strong>Information</strong>en zur Studie (z.B. Forschungshypothesen, verwendete<br />

Erhebungsmethoden, Vorgehen, Zeiträume), <strong>Information</strong>en zur Stichprobe<br />

<strong>und</strong> weitere Angaben zu den Daten (z.B. Anonymisierung <strong>und</strong> <strong>Information</strong>en<br />

zur Kodierung der Daten) aufgeteilt ist. Diese Metadaten unterstützen später<br />

zum einen das Discovery von Datensätzen, zum anderen machen sie die Entstehung<br />

der Daten nachvollziehbarer.


80 Ina Dehnhard, Peter Weiland<br />

Abbildung 2: Metadatenformular des Dokumentationstools<br />

Ein wesentliches Element der Datendokumentation ist die Erstellung von<br />

Kodebüchern. Die Anwendung bietet einen komfortablen Editor an, der die Nutzereingaben<br />

validiert <strong>und</strong> auf Fehler aufmerksam macht (siehe Abbildung 3).<br />

Abbildung 3: Kodebuch bearbeiten


Toolbasierte Datendokumentation in der Psychologie 81<br />

Alternativ zur direkten Eingabe in der Anwendung ist es auch möglich,<br />

vorbereitete Kodebücher hochzuladen. Diese können beispielsweise in einem<br />

Texteditor erstellt werden. Geplant ist ein Werkzeug, das eine semiautomatische<br />

Erstellung der Kodebücher aus SPSS heraus ermöglicht.<br />

Ebenso wie die Kodebücher werden auch die eigentlichen Daten direkt in<br />

der Datenbank verwaltet. Datenpunkte können entweder direkt eingegeben/bearbeitet<br />

werden oder in Form einer Textdatei mit Tab-separierten Werten<br />

hochgeladen werden. Die eingegebenen/hochgeladenen Werte werden<br />

gegen das Kodebuch validiert, sodass Fehler direkt erkannt <strong>und</strong> korrigiert<br />

werden können.<br />

Neben der Darstellung der Forschungsdaten in einer Datenmatrix steht<br />

auch eine Häufigkeitsverteilung über die einzelnen Variablen zur Verfügung<br />

(siehe Abbildung 4). Diese kann zur Kontrolle bereits exportierter Forschungsdaten<br />

dienen.<br />

Abbildung 4: Häufigkeitsverteilung<br />

Als Exportfunktionen für Kodebuch <strong>und</strong> Datenmatrix existiert bisher die<br />

Ausgabe als Textdatei mit Tab-separierten Werten. Vorteil dieses Formats ist


82 Ina Dehnhard, Peter Weiland<br />

die Eignung als ein plattformunabhängiges Format. Geplant sind dennoch<br />

weitere Ausgabeformate wie Excel oder SPSS-Dateien.<br />

Um die Anwendung als eine Data Sharing Plattform einsetzen zu können,<br />

beispielsweise im Kontext von Arbeitsgruppen oder studentischen Arbeiten,<br />

kann die Rechteverwaltung genutzt werden. Der Besitzer eines Datensatzes<br />

kann entscheiden, wem er welchen Zugriff auf einen Datensatz gewähren<br />

möchte. Zur Wahl stehen ein einfaches Leserecht, ein Lese- <strong>und</strong> Schreibrecht<br />

<strong>und</strong> darüber hinausgehend das zusätzliche Grant-Privileg, Zugriffsrechte an<br />

weitere, im System registrierte Personen weiterzugeben. Abbildung 5 zeigt<br />

einen Screenshot der Rechteverwaltung.<br />

Abbildung 5: Rechteverwaltung<br />

Ausblick<br />

Das psychologische Datenarchiv PsychData stellt ein Werkzeug bereit, das<br />

psychologische Forscher bei der forschungsbegleitenden Datendokumentation<br />

<strong>und</strong> -aufbereitung unterstützt. Außerdem wird eine sichere Archivierung<br />

der Forschungsdaten zusammen mit der zugehörigen Dokumentation ermög-


Toolbasierte Datendokumentation in der Psychologie 83<br />

licht. Dadurch können die Forschungsdaten sehr einfach für weitere Analysen<br />

bereitgestellt werden. Durch die Vorgabe von bewährten Dokumentationsstandards<br />

ergeben sich dabei mehrere Vorteile: Von Beginn der Forschungsarbeiten<br />

wird ein strukturiertes Vorgehen während des Forschungsprozess<br />

gefördert. Fehlerquellen wie ungültige Kodierungen werden durch<br />

die Validierungsroutinen sehr schnell erkannt <strong>und</strong> können direkt korrigiert<br />

werden.<br />

Das Tool unterstützt noch nicht den gesamten Dokumentationsprozess –<br />

einige begleitende Arbeitsschritte können bisher nur außerhalb des Tools<br />

durchgeführt werden: Das Umwandeln von Statistik-Software-Formaten in<br />

Tab-separierte Textdateien, das Erstellen einer Studiendokumentation <strong>und</strong><br />

eines Kodebuchs, die Korrektur von Fehlern in Variablenbeschreibungen <strong>und</strong><br />

Forschungsdaten setzen entsprechende Kenntnisse bzw. die Bereitschaft, sich<br />

diese anzueignen, voraus. Obwohl hier auch ein gewisser Vorteil gesehen<br />

werden kann, da sich der Nutzer aktiv mit Erfordernissen der Datendokumentation<br />

auseinandersetzen muss, kann es sich nur um einen zwischenzeitlichen<br />

Entwicklungsstand handeln. Die Erleichterung der Datendokumentation<br />

im Forschungsalltag ist eindeutiges Entwicklungsziel. Zur Erreichung<br />

dieses Ziels werden daher weitere Entwicklungen folgen wie z.B.<br />

die Erweiterung auf Ein- <strong>und</strong> Ausgabeformate gängiger Statistikprogramme<br />

oder das automatisierte Erstellen von Kodebüchern aus bereits vorhandenen<br />

(Teil-) Dokumentationen.<br />

Der Mehrwert des Systems hat sich bereits in der Dokumentationsarbeit<br />

im psychologischen Datenarchiv PsychData gezeigt. Ein weiteres Anwendungsszenario<br />

ist die Nutzung des Dokumentationswerkzeugs als eine Art<br />

Data Sharing-Plattform für Forschungsprojekte.<br />

Literaturverzeichnis<br />

Bengel, J. & Wittmann, W. W. (1982). Bedeutung <strong>und</strong> Möglichkeiten von Sek<strong>und</strong>äranalysen<br />

in der psychologischen Forschung. Psychologische R<strong>und</strong>schau, 33,<br />

19–36.<br />

Donders, F. C. (1868). Die Schnelligkeit psychischer Processe. Archiv für Anatomie,<br />

Physiologie <strong>und</strong> wissenschaftliche Medizin, Berlin, 657–681.


84 Ina Dehnhard, Peter Weiland<br />

Deutsche Forschungsgemeinschaft. (1998). Vorschläge zur Sicherung guter wissenschaftlicher<br />

Praxis: Empfehlungen der Kommission „Selbstkontrolle in der <strong>Wissen</strong>schaft“.<br />

Weinheim: Wiley-VCH<br />

Erdfelder, E. (1994). Erzeugung <strong>und</strong> Verwendung empirischer Daten. In T. Herrmann<br />

& W. H. Tack (Hrsg.), Enzyklopädie der Psychologie. Themenbereich B<br />

Methodologie <strong>und</strong> Methoden, Serie I Forschungsmethoden der Psychologie, Bd.<br />

1 Methodologische Gr<strong>und</strong>lagen der Psychologie (S. 47–97). Göttingen: Hogrefe.<br />

Fahrenberg, J. (2009). Open Access – nur Texte oder auch Primärdaten? 05. Oktober<br />

2009.<br />

http://www.jochen-fahrenberg.de/fileadmin/openacces/Open_Access_Primaerdaten.pdf<br />

(Zugriff am 04.11.2010)<br />

Klopp, T. (2010). Open Data: Forscher sollen ihre Daten teilen. Zeit Online, 22.<br />

September 2010.<br />

http://www.zeit.de/digital/internet/2010-09/data-sharing-open-access?page=1 (Zugriff<br />

am 03.11.2010)<br />

Klump, J., Bertelmann, R., Brase, J., Diepenbroek, M., Grobe, H., Höck, H., Lautenschlager,<br />

M., Schindler, U., Sens, I. & Wächter, J. (2006). Data publication in<br />

the open access initiative. Data Science Journal, 5, 79–83.<br />

http://www.jstage.jst.go.jp/article/dsj/5/0/5_79/_article (Zugriff am 05.11.2010)<br />

Postle, B. R., Shapiro, L. A. & Biesanz, J. C. (2002). On Having One’s Data Shared.<br />

Journal of Cognitive Neuroscience, 14, 838–840.<br />

Ruusalepp, R. (2008). Infrastructure, Planning and Data Curation. A comparative<br />

study of international approaches to enabling the sharing of research data. Version<br />

1.6. 30. November 2008.<br />

http://www.dcc.ac.uk/docs/publications/reports/Data_Sharing_Report.pdf (Zugriff am<br />

03.11.2010)<br />

Van den Eynden, V., Corti, L., Woollard, M. & Bishop, L. (2009). Managing and<br />

Sharing Data. A best practice guide for researchers. Essex: UK Data Archive.<br />

http://www.data-archive.ac.uk/media/2894/managingsharing.pdf (Zugriff am<br />

04.11.2010)<br />

Wagner, G.G. (2010). Forschungsdaten fallen nicht vom Himmel. Forschung <strong>und</strong><br />

Lehre, 9, 650–651.<br />

http://www.forschung-<strong>und</strong>-lehre.de/wordpress/?p=5562 (Zugriff am 04.11.2010)<br />

Weichselgartner, E. (2008). Fünf Jahre Primärdatenarchivierung in der Psychologie:<br />

Ein Erfahrungsbericht. In Ockenfeld, M. (Hrsg.), Verfügbarkeit von <strong>Information</strong><br />

(S. 259–267). Frankfurt a. M.: DGI.<br />

Wicherts, J. M., Borsboom, D., Kats, J. & Molenaar, D. (2006). The poor availability<br />

of psychological research data for reanalysis. American Psychologist, 61, 726 bis<br />

728


Nachhaltige Dokumentation virtueller Forschungsumgebungen 85<br />

Nachhaltige Dokumentation<br />

virtueller Forschungsumgebungen<br />

Dokumentation von NLP-Webservices am Beispiel eines<br />

morphologischen Analysewerkzeugs<br />

Gertrud Faaß 1 , Ulrich Heid 2<br />

1 Institut für maschinelle Sprachverarbeitung<br />

Universität Stuttgart, Stuttgart<br />

faasz@ims.uni-stuttgart.de<br />

2 Institut für <strong>Information</strong>swissenschaft <strong>und</strong> Sprachtechnologie<br />

Universität Hildesheim, Hildesheim<br />

heidul@uni-hildesheim.de<br />

Zusammenfassung<br />

In den letzten Jahren werden immer mehr virtuelle Forschungsumgebungen<br />

für die maschinelle Sprachverarbeitung zur Verfügung gestellt. Diese sollten<br />

zum einen nachhaltig <strong>und</strong> zum anderen für potenzielle Nutzer vergleichbar<br />

dokumentiert werden. In diesem Beitrag werden daher Bedingungen für die<br />

Nachhaltigkeit insbesondere von NLP- (Natural Language Processing) Werkzeugen<br />

beschrieben: Die Dokumentation sollte nicht nur die Software, sondern<br />

auch ihre Evaluierung anhand einer – ebenfalls gut dokumentierten –<br />

Testsuite umfassen. Im Beitrag werden auch Möglichkeiten dargestellt, den<br />

Dokumentationsvorgang selbst anhand von DocBook XML zu automatisieren.<br />

Abstract<br />

Throughout the last years, an increasing number of virtual research environments<br />

have been offered in the field of Natural Language Processing (NLP).<br />

These should be documented in a sustainable way that also guarantees comparability<br />

for potential users. This paper thus describes constraints for the<br />

sustainability of NLP-environments: the documentation must describe not<br />

only the software from the developer’s view, but also its evaluation according<br />

to a testsuite, which is itself to be documented comprehensively. The


86 Gertrud Faaß, Ulrich Heid<br />

paper also describes the possibility of automating the documentation processes<br />

by utilizing DocBook XML.<br />

1 Hintergr<strong>und</strong><br />

Im Rahmen des europäischen Forschungsprojekts CLARIN 1 werden verschiedene<br />

NLP- (Natural Language Processing) Werkzeuge für Sprach- <strong>und</strong><br />

Humanwissenschaftler <strong>frei</strong> verfügbar bereitgestellt. Dies soll über Web Services<br />

geschehen: Internet-Portale, bei denen – online <strong>und</strong> offline – linguistische<br />

Daten eingegeben, analysiert <strong>und</strong> die Ergebnisse eingesehen werden<br />

können. Mögliche Analysen sind beispielsweise morphologischer, syntaktischer,<br />

aber auch lexikografischer Art (z.B. Kollokationsextraktion). Im Falle<br />

von morphologischen <strong>und</strong> syntaktischen Analysen werden die eingegebenen<br />

Daten mit den entsprechenden <strong>Information</strong>en angereichert (annotiert) zurückgegeben.<br />

Gr<strong>und</strong>thema von CLARIN ist die Nachhaltigkeit: Während in früheren<br />

Jahren linguistische Ressourcen (d.h. Textsammlungen, Lexika <strong>und</strong> Sprachverarbeitungswerkzeuge<br />

(vgl. Witt et al. (2009)) projektweise an Instituten<br />

erzeugt <strong>und</strong> gespeichert, <strong>und</strong> danach oft vergessen wurden, sollen solche<br />

Ressourcen nun aufbereitet <strong>und</strong> einem breiten Benutzerkreis zur Verfügung<br />

gestellt werden. Ziel ist somit auch ein rationellerer Umgang mit den in die<br />

Ressourcenerstellung investierten Forschungsgeldern.<br />

D-SPIN 2 (Bankhardt 2009) ist der deutsche Beitrag zu CLARIN. Im D-<br />

SPIN-Projekt stellen <strong>Wissen</strong>schaftler von mehreren Universitäten <strong>und</strong> Institutionen<br />

(u.a. die Universitäten Leipzig <strong>und</strong> Stuttgart, das Institut für Deutsche<br />

Sprache, etc.) ihre Ressourcen über Webservices, z.B. “WebLicht” (vgl.<br />

Hinrichs et al. (2010)), zur Verfügung. Die Ressourcen sind vor allem für die<br />

empirische geisteswissenschaftliche Forschung geeignet. Das Projekt befindet<br />

sich in der Vorbereitungsphase.<br />

In diesem Beitrag beschreiben wir zuerst Bedingungen für die öffentliche<br />

Bereitstellung von NLP-Software, die sich aus dem Anspruch der Nachhaltigkeit<br />

ergeben (Abschitt 2). Im Abschnitt 3 wird dann konkret die Um-<br />

1 Common LAnguage Resources and technology INfrastructure http://www.clarin.eu<br />

2 Deutsche SPrachressourcen-INfrastruktur: http://www.d-spin.org


Nachhaltige Dokumentation virtueller Forschungsumgebungen 87<br />

setzung dieser Bedingungen bei der geplanten Bereitstellung eines Morphologiewerkzeugs<br />

diskutiert <strong>und</strong> es werden Ergebnisse aufgezeigt. Abschnitt 4<br />

bietet eine Zusammenfassung <strong>und</strong> einen Ausblick auf zukünftige Arbeiten in<br />

diesem Zusammenhang.<br />

2 Bedingungen für Nachhaltigkeit<br />

Ein zentraler Aspekt der Nachhaltigkeit von Ressourcen ist deren Dokumentation:<br />

Nur anhand der Dokumentation kann ein Benutzer nachvollziehen,<br />

nach welchen Kriterien ein Tool oder eine Textsammlung erstellt wurde. Es<br />

ist für ihn außerdem von Wichtigkeit, zu erfahren, welche Bedingungen für<br />

die Nutzung eines NLP-Werkzeugs gelten bzw. inwieweit es anderen Tools<br />

ähnlich ist, oder wo es sich von anderen unterscheidet. Verfügbarkeit <strong>und</strong><br />

urheberrechtliche Aspekte sind ebenfalls zu berücksichtigen.<br />

Für die strukturierte Beschreibung solcher Fakten wurden in den letzten<br />

Jahren Normenvorschläge für die Annotation von Meta-Daten textueller Ressourcen<br />

(z.B. Autor, Erstellungsdatum, Formatinformation etc.) entwickelt<br />

(siehe auch Component Metadata Infrastructure, CMDI, www.clarin.eu/<br />

cmdi). Die Richtlinien der Text Encoding Initiative (TEI 3 ) für die Annotation<br />

von zwischen verschiedenen Institutionen auszutauschenden Daten sind hier<br />

ein gutes Beispiel: Nicht nur Webseiten, sondern auch Textsammlungen, die<br />

linguistischer Forschung dienen, sind heutzutage meist mit solchen Metadaten<br />

angereichert.<br />

Für NLP Software („Tools“) <strong>und</strong> deren Ergebnisdaten gilt dies bisher<br />

nicht. In den 1990ern gab es zwar erste Überlegungen in Richtung von Standards<br />

4 für Dokumentation <strong>und</strong> Evaluierung, bisher dokumentiert jedoch<br />

meist der Entwickler das, wovon er meint, dass es relevant sei (Underwood<br />

(1998)). Auch in Untersuchungen zu virtuellen Forschungsumgebungen, wie<br />

z.B. Carusi <strong>und</strong> Reimer (2010), ist die Nützlichkeit der Dokumentation für<br />

den potenziellen Nutzer der angebotenen Tools kein Thema. Ein konkretes<br />

Beispiel eines Portals für Sprachverarbeitungswerkzeuge ist das NLP Tool<br />

Registry am DFKI, wo Entwickler über ihre NLP Tools informieren können.<br />

3 http://www.tei-c.org<br />

4 Siehe ISO 9126 (2.1.2) sowie EAGLES EAG-EWG-PR.2


88 Gertrud Faaß, Ulrich Heid<br />

Hier gibt es allerdings keine Vorschriften dafür, was eigentlich zu dokumentieren<br />

ist, für das zu füllende „description“ Feld sind keinerlei Vorgaben angegeben.<br />

Bei im Prinzip vergleichbaren Tools ergibt sich daraus die Frage,<br />

wie potenzielle Benutzer eines Webservice konkurrierende Tools vergleichen<br />

<strong>und</strong> das für ihre Ansprüche geeignete Tool auswählen können. Weiterhin soll<br />

ein Benutzer nicht nur eine vergleichbare Qualitätsangabe erhalten, sondern<br />

auch darüber informiert werden, mit welcher Version des Tools er arbeitet<br />

(bzw. mit welchen Datenressourcen das Tool arbeitet), um, bei z.B. wiederholter<br />

Anwendung desselben Services auch dasselbe Ergebnis erwarten zu<br />

können. Um die Vergleichbarkeit von Tools sicherstellen zu können, sollte<br />

sämtliche Dokumentation unserer Ansicht nach anhand standardisierter Vorlagen<br />

erfolgen. Dokumentiert werden sollten dabei die folgenden Aspekte:<br />

• Die Software (siehe auch das NaLiDa Projekt des sfs Tübingen 5 , Rehm<br />

et al. (2010));<br />

• Eine Testsuite (d.h. eine Ist-Eingabe mit einer Soll-Ausgabe der Software);<br />

• Evaluierung eines Testlaufs mit der dokumentierten Software anhand der<br />

Testsuite.<br />

Eine weitere Bedingung für Nachhaltigkeit ist die Verfügbarkeit der Dokumentation:<br />

sie sollte jederzeit abrufbar, am besten auf einer Webseite, zur<br />

Verfügung gestellt werden. Verschiedene Versionen der Dokumentation sollten<br />

sich dabei klar unterscheiden, auf ältere Versionen sollte bei Bedarf auch<br />

zugegriffen werden können, wenn neuere Versionen publiziert sind.<br />

Zur Dokumentation bzw. Repräsentation von angereicherten Daten sind<br />

mehrere ISO 6 -Standards in Vorbereitung bzw. bereits veröffentlicht: Für<br />

diese ist die Arbeitsgruppe ISO TC 37/SC4 7 zuständig. Derzeit werden Normen<br />

zur Wort-Segmentierung (ISO 24614-1:2010, 24614-2:2010), zur Repräsentation<br />

von Datenstrukturen (ISO 24610-1:2006), von lexikalischen<br />

(LMF, ISO 24613:2008), morphosyntaktischen (MAF, ISO DIS 24611:2008),<br />

sowie syntaktischen Annotationsprinzipien (SynAF, ISO DIS 24615:2010)<br />

erarbeitet. Wir planen zwar, die Ausgaben unseres Tools mit MAF zu kodieren,<br />

dies ist jedoch nicht Thema unseres Artikels. Hier beschreiben wir die<br />

Dokumentation der Software <strong>und</strong> der Testsuite sowie deren Validierung.<br />

5 http://www.sfs.tuebingen.de/nalida<br />

6 http://www.iso.org<br />

7 http://www.tc37sc4.org


Nachhaltige Dokumentation virtueller Forschungsumgebungen 89<br />

3 SMOR<br />

Das Stuttgarter Morphologische Analysewerkzeug SMOR (Schmid et al.<br />

(2004)) wird seit Jahren erfolgreich in mehreren Anwendungen (zum Beispiel<br />

bei der grammatischen Analyse) eingesetzt. Es ist geplant, dieses Tool<br />

im Rahmen des D-Spin-Projekts Forschern kostenlos als Teil des „Web-<br />

Licht“-Webservices zur Verfügung zu stellen. Wir dokumentieren das Tool<br />

selbst nach den NaLiDa Richtlinien. Zusätzlich wird es anhand einer Testsuite<br />

evaluiert. Drittens wird der Erstellungsvorgang <strong>und</strong> der Inhalt der Testsuite<br />

selbst ebenfalls dokumentiert, um auch hier die Vergleichbarkeit mit<br />

anderen Werkzeugen sicherstellen zu können. Diese Evaluierung unterscheidet<br />

sich daher von bisherigen Ansätzen, wie z.B. Morpholympics (Hausser<br />

(1996) oder Morpho Challenge (z.B. Kurimo <strong>und</strong> Varjokallio (2008)), weil<br />

sie eine Anpassung der Testsuite zulässt: Falls ein anderes Analysewerkzeug<br />

mit SMOR verglichen werden soll, können spezifisch die Teile der Testsuite<br />

ausgewählt werden, die von beiden Tools gleichermaßen verarbeitet werden<br />

können.<br />

3.1 Morphologische Analyse mit SMOR<br />

SMOR beschreibt Derivations-, Kompositions- <strong>und</strong> Flexionsvorgänge gleichermaßen.<br />

Dabei verfügt es über eine große <strong>Wissen</strong>sbasis (alleine ca.<br />

48.000 Flexionsstammformen sind im Lexikon verzeichnet). Das Tool erzeugt<br />

für (einzelne oder eine Liste von) Wortformen morphologische Analysen,<br />

im Folgenden ein Beispiel:<br />

Projektplanenung<br />

Projektplanenung<br />

Projektplanenung<br />

Projektplanenung<br />

(1) Eingabe: Projektplanung<br />

(1) zeigt folgende Analyse: SMOR liefert eine Aufgliederung in Morpheme:<br />

das Verb planen ist Basis einer Derivation (zum Nomen Planung), Projektplanung<br />

ist das Ergebnis einer Komposition dieses Nomens mit dem Wort<br />

Projekt. Zusätzlich liefert SMOR <strong>Information</strong> zur Flexion, indem Werte zu Person,<br />

Numerus <strong>und</strong> Kasus des Gesamtwortes hinzugefügt werden. Der als Kopf<br />

eines komplexen Wortes erkannte Wortbestandteil ist mit „+“ gekennzeichnet.


90 Gertrud Faaß, Ulrich Heid<br />

3.2 Erstellung <strong>und</strong> Dokumentation der Testsuite<br />

Wie in Faaß et al. (2010) dargestellt, wurde die Testsuite („Gold Standard“)<br />

auf Basis von je 1000 selektierten Wortformen der drei produktiven Wortarten<br />

Nomen, Verb <strong>und</strong> Adjektiv erzeugt. Die Erstellung dieser Wortformenliste<br />

erfolgte semi-automatisch aus einer großen Textsammlung (880<br />

Mio. Token) nach quantitativen Kriterien. Ein erster Durchlauf mit SMOR<br />

zeigte bereits die Wortformen auf, die vom Tool nicht erkannt werden (negatives),<br />

diese wurden dann manuell aufgeteilt in true negatives, d.h. Wortformen,<br />

die auch nicht erkannt werden sollen (Wortformen mit Schreibfehlern,<br />

Wortformen, die in der Textsammlung mit falscher Wortart annotiert<br />

wurden, etc.), sowie in Wortformen, die das Tool eigentlich hätte erkennen<br />

sollen (false negatives). Für diese Wortformen werden nun – als Vorgabe für<br />

die nächste Version des Tools – manuell Soll-Analysen erstellt.<br />

Jede erstellte Analyse wird anhand der im Projekt erarbeiteten Richtlinien,<br />

die zur Dokumentation der Testsuite hinzugefügt werden, geprüft <strong>und</strong>,<br />

falls nötig, korrigiert. Die Richtlinien enthalten Vorgaben, wie z.B.<br />

• Derivationelle Analysen, sollten, falls möglich, auf ein zugr<strong>und</strong>eliegendes<br />

Verb zurückgeführt werden, dabei spielt, z.B. Ablautung keine Rolle<br />

(Betrieb also auf betreiben zurückführen);<br />

• Wörter, deren Wortbestandteile im heutigen Deutsch nicht mehr produktiv<br />

verwendet werden, bzw. deren Wortbildung für einen heutigen<br />

Sprecher nicht mehr nachvollziehbar ist (Zukunft, Wirtschaft, etc.) sollten<br />

als opak analysiert werden (Zukunft nicht auf zu-kommen, Wirtschaft<br />

nicht auf Wirt +schaft zurückführen). Diese Wörter sind jedoch zu kennzeichnen,<br />

da sie eine eigene Gruppe bilden.<br />

Nach den Analysen werden auch die zugr<strong>und</strong>e liegenden Wortformen selbst<br />

aufgr<strong>und</strong> anerkannter linguistischer Kriterien ausführlich dokumentiert. Da<br />

wir SMOR auch bei der Erstellung der Testsuite nutzen, kann es im gleichen<br />

Arbeitsgang evaluiert werden: jede korrekte, <strong>und</strong> jede inkorrekte, jede vorhandene<br />

<strong>und</strong> jede nicht vorhandene Analyse wird gezählt <strong>und</strong> ausgewertet,<br />

sodass sich Zahlwerte für Recall <strong>und</strong> Precision ergeben.<br />

Für die Dokumentation der Testsuite wird „DocBook-XML“ 8 verwendet,<br />

welches einerseits über alle notwendigen Ausdrucksmöglichkeiten verfügt,<br />

jedoch andererseits leicht anzuwenden ist. DocBook-Seiten können auch<br />

vollautomatisch über einfach zu erzeugende Skripte, z.B. aus Tabellen er-<br />

8 http://www.docbook.org


Nachhaltige Dokumentation virtueller Forschungsumgebungen 91<br />

stellt werden. Zusätzlich existieren XSL-Stylesheets, anhand derer die erstellte<br />

Dokumentation auf Knopfdruck in HTML, also Webseitenformat, konvertiert<br />

werden kann. Damit erfüllt DocBook gleich zwei Bedingungen: Es<br />

erlaubt die Erstellung einer formatierten Vorlage <strong>und</strong> es ist leicht in eine<br />

Webseite, in der die Software angeboten wird, einzubinden.<br />

Wir möchten dies anhand eines Beispiels veranschaulichen: Die beiden<br />

Wortformen leisten <strong>und</strong> standen sind Teil der Testsuite. Manuell wird eine<br />

Dokumentation zu diesen Wortformen (tabellarisch) in Microsoft Excel erstellt,<br />

vgl. den Auszug in (2). Ein Skript erzeugt aus diesen Daten das Doc-<br />

Book-Format, ein Auszug der Darstellung findet sich in (3).<br />

(2) Auszug aus der Excel-Datei, die zur Dokumentation der Wortformen dient<br />

(3) Auszug: Automatisch erzeugte DocBook Dokumentation (aus (2))


92 Gertrud Faaß, Ulrich Heid<br />

Diese DocBook-XML-Daten werden mit einem XSL-Stylesheet wiederum<br />

automatisch in eine HTML-Datei überführt; (4) zeigt einen Bildschirmausschnitt<br />

in der Browser-Ansicht.<br />

(4) Auszug: Automatisch erzeugte HTML-Seite (aus (3))<br />

3.3 Dokumentation der Software<br />

Die Software wird anhand der NaLiDa Richtlinien 9 , mit wenigen Erweiterungen,<br />

ebenfalls mit DocBook-XML dokumentiert <strong>und</strong> in mehreren Abschnitten<br />

nach HTML überführt. Die DocBook-Vorlage des ersten Abschnitts beinhaltet<br />

unter anderem die folgenden Felder: Name, Version (+Datum),<br />

Beschreibung (Publikation), Herkunft, Institution, Urheber. <strong>Information</strong>en<br />

zum Umfang des verwendeten Lexikons sind spezifisch für morphologische<br />

Analysesysteme relevant, im zweiten Abschnitt der Dokumentation werden<br />

daher Zahlen zu den verwendeten Flexions-, Derivations- <strong>und</strong> Kompositionsstammformen<br />

sowie zu Affixen im Lexikon des Tools veröffentlicht. Der<br />

dritte Abschnitt beschäftigt sich ausführlich mit den Ausgaben des Tools: Art<br />

der Analyse (hier wird eine Werteliste vorgegeben), Art der Ausgabe, Granularität<br />

der Ausgabe.<br />

Es folgen Beispiel-Ausgaben, die typische Analysen des Tools beschreiben<br />

sowie eine vollständige Übersicht aller möglichen Annotationsbestandteile<br />

mit Hinweisen zu ihrer Verwendung, (5) zeigt einen Auszug dieses<br />

Teils.<br />

Die Testsuite selbst wird, wie oben erwähnt, im MAF Format angeboten.<br />

9 http://www.sfs.uni-tuebingen.de/nalida/


Nachhaltige Dokumentation virtueller Forschungsumgebungen 93<br />

(5) Auszug: Beispiel-Ausgaben, in der HTML Version<br />

3.4 Dokumentation der Evaluierung<br />

Der dritte Teil der Dokumentation beschreibt die Evaluierung der dokumentierten<br />

Software (Teil 1) anhand der dokumentierten Testsuite (Teil 2) <strong>und</strong><br />

die dabei erzielten Ergebnisse. Hier beinhalten die vorgesehenen Felder Angaben<br />

zu den Beteiligten, dem Validierungszeitraum <strong>und</strong> dem Vorgehen. Erläuterungen<br />

zur Berechnung von Recall <strong>und</strong> Precision sowie die Ergebnisse<br />

schließen die Dokumentation ab.<br />

3.5 Stand der Entwicklung<br />

Auf dem Stand von Januar 2010 ist die Dokumentation der Software fertiggestellt,<br />

die Erstellung der Testsuites für Nomina <strong>und</strong> Verben ist abgeschlossen;<br />

deren Dokumentation sowie die Erstellung der Testsuite für Adjektive<br />

ist in Arbeit. Die Vorlagen-Entwicklung ist weitestgehend abgeschlossen.<br />

Die Validierung verläuft parallel zur Erstellung der Testsuite <strong>und</strong><br />

ist daher bisher nur für Nomina <strong>und</strong> Verben abgeschlossen.


94 Gertrud Faaß, Ulrich Heid<br />

3.6 Zugänglichkeit, Pflege <strong>und</strong> Weiterentwicklung<br />

der Ressourcen<br />

Die Software wird zusammen mit einem Verweis auf die beschriebene Dokumentation<br />

im Rahmen der WebLicht-Forschungsumgebung zur Verfügung<br />

gestellt. Für spätere Fassungen der Software ist es geplant, den Evalierungslauf<br />

gegenüber der erstellten Soll-Analysen zu wiederholen <strong>und</strong> die<br />

Unterschiede zu dokumentieren, sodass der Entwicklungsvorgang für die<br />

Nutzer nachvollziehbar bleibt. Ältere Fassungen der Software bleiben weiterhin<br />

zugänglich.<br />

4 Zusammenfassung <strong>und</strong> Ausblick<br />

Im Rahmen des Projekts D-Spin wurden Richtlinien zur Dokumentation von<br />

morphologischer Analysesoftware entwickelt. Sie umfassen die Dokumentation<br />

der Software (anhand der NaLiDa Richtlinien), ihrer Ausgaben, einer<br />

zur Validierung der Software erzeugten Testsuite sowie die Vorgehensweise<br />

bei der Validierung <strong>und</strong> ihre Ergebnisse.<br />

Die Dokumentation wird mit DocBook-XML zum Teil automatisiert erstellt<br />

<strong>und</strong> per XSL-Stylesheets nach HTML überführt, um Webseiten zu erzeugen,<br />

die für Benutzer des Webservice jederzeit zugänglich sind.<br />

Das Projekt befindet sich in seiner finalen Phase, sein Abschluss sowie<br />

die Veröffentlichung der Dokumentation sind für Frühjahr 2011 geplant.<br />

References/Literaturverzeichnis<br />

Bankhardt, C. (2009). D-SPIN – Eine Infrastruktur für Deutsche Sprachressourcen.<br />

Sprachreport, 25 (1): 30–31, 2009.<br />

Carusi, A. <strong>und</strong> Reimer, T. (2010). Virtual Research Environment Collaborative<br />

Landscape Study. A JISC f<strong>und</strong>ed project (January 2010).<br />

http://www.jisc.ac.uk/media/documents/publications/vrelandscapereport.pdf


Nachhaltige Dokumentation virtueller Forschungsumgebungen 95<br />

EAGLES. Evaluation of Natural Language Processing Systems, EAG-EWG-PR-2.<br />

EAGLES, final report, October 1996.<br />

Faaß, G. Heid, U. <strong>und</strong> Schmid, H. (2010). Design and application of a Gold Standard<br />

for morphological analysis: SMOR in validation. Proceedings of the 7th international<br />

Conference on Language Resources and Evaluation (LREC2010), 803<br />

bis 810. Valetta, Malta.<br />

Hausser, R. (Hg.) (1996). Linguistische Verifikation. Dokumentation zur Ersten<br />

Morpholympics 1994. Tübingen: Niemeyer.<br />

Hinrichs M., Zastrow, T., Hinrichs. E. (2010). WebLicht: Web-based LRT Services<br />

in a Distributed eScience Infrastructure. Proceedings of the 7th international<br />

Conference on Language Resources and Evaluation (LREC2010), 489–493. Valetta,<br />

Malta.<br />

Kurimo, M. <strong>und</strong> Varjokallio, M. (2008). Unsupervised Morpheme Analysis Evaluation<br />

by a Comparison to a Linguistic Gold Standard – Morpho Challenge 2008.<br />

Working Notes for the CLEF 2008 Workshop.<br />

http://www.cis.hut.fi/mikkok/kurimo1-paperCLEF2008.pdf<br />

Rehm, G., Schonefeld, O., Trippel, T. Witt, A. (2010). Sustainability of Linguistic<br />

Resources Revisited. In Proceedings of the International Symposium on XML for<br />

the Long Haul: Issues in the Long-term Preservation of XML. Balisage Series on<br />

Markup Technologies, vol. 6 (2010). doi:10.4242/Balisage/Vol6.Witt01<br />

Schmid, H., Fischen, A., Heid, U. (2004). SMOR: A German Computational Morphology<br />

Covering Derivation, Composition, and Inflection, Proceedings of<br />

the IVth International Conference on Language Resources and Evaluation<br />

(LREC2004). 1263–1266, Lisbon, Portugal.<br />

Underwood, N. (1998). Issues in Designing a Flexible Validation Methodology for<br />

NLP Lexica. Proceedings of the First International Conference on Language Resources<br />

and Evaluation, volume 1, 129–134, Granada, Spanien.<br />

Witt, A., Heid, U., Sasaki, F., Sérasset, G. (2009). Multilingual Language Resources<br />

and Interoperability. Language Resources and Evaluation (43): 1–14.


96 Gertrud Faaß, Ulrich Heid


Nachhaltige Dokumentation virtueller Forschungsumgebungen 97<br />

Session 3:<br />

Soziale Software


98 E. Dröge, P. Maghferat, C. Puschmann, J. Verbina, K. Weller<br />

Konferenz-Tweets<br />

Ein Ansatz zur Analyse der Twitter-Kommunikation bei<br />

wissenschaftlichen Konferenzen<br />

Evelyn Dröge, Parinaz Maghferat, Cornelius Puschmann,<br />

Julia Verbina, Katrin Weller<br />

Zusammenfassung<br />

Heinrich-Heine-Universität Düsseldorf<br />

Universitätsstr. 1, 40225 Düsseldorf<br />

weller@uni-duesseldorf.de<br />

Dieser Artikel untersucht den Einsatz von Twitter während vier wissenschaftlicher<br />

Konferenzen im Bereich Geisteswissenschaften bzw. Informatik.<br />

Dabei wurden automatische Analysen von Tweets, Retweets <strong>und</strong> @-Nachrichten<br />

sowie intellektuelle Auswertungen der Inhalte durchgeführt.<br />

Abstract<br />

In the following study, we analyze the usage of Twitter during four scientific<br />

conferences with focus on humanities and computer science. Automated<br />

analyses of tweets, retweets and @-messages were performed as well as an<br />

intellectual analysis of the tweets’ contents.<br />

1 Einleitung<br />

Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von Kommunikationsprozessen<br />

während wissenschaftlicher Konferenzen über den Microblogging-Dienst<br />

Twitter. Mittels Twitter können Nutzer kurze Mitteilungen<br />

von maximal 140 Zeichen (sogenannte Tweets) veröffentlichen, <strong>und</strong> die Beiträge<br />

anderer Nutzer beobachten bzw. als Follower abonnieren. Auf diese


Konferenz-Tweets 99<br />

Weise entsteht ein Kommunikations-Netzwerk (Ebner & Reinhardt, 2009),<br />

das für verschiedene Anwendungsszenarien interessant ist. Gleichzeitig ist<br />

Twitter damit eine einzigartige Datenquelle, die Aufschluss über Prozesse<br />

des <strong>Wissen</strong>saustauschs in Webcommunities geben <strong>und</strong> somit einen neuen<br />

Teilbereich der Webometrie erschließen kann. In verschiedener Hinsicht<br />

wird derzeit die Datenbasis von Twitter zur Analyse von Kommunikationsmustern<br />

oder Netzwerkstrukturen genutzt. Dabei wurden bereits allgemeine<br />

Schlüsse bezüglich der Plattform an sich gezogen (Java et al., 2007) <strong>und</strong><br />

Nutzeranalysen durchgeführt (Mainka, 2010) sowie die Aktivitäten der Twitter-Nutzer<br />

im Kontext spezieller Ereignisse <strong>und</strong> Umgebungen untersucht –<br />

beispielsweise bezogen auf Naturereignisse (Vieweg et al., 2010), im Arbeitsalltag<br />

(Zhao & Rosson, 2009) oder als Marketing-Instrument (Hotopp &<br />

Willecke, 2010). Einen interessanten Ereigniskontext für die Analyse von<br />

Twitter-Aktivitäten liefern auch wissenschaftliche Konferenzen. Tauschen<br />

sich die Konferenzteilnehmer während der Veranstaltung über Twitter aus, so<br />

kann sich dadurch ein zusätzlicher Mehrwert zum eigentlichen Konferenzprogramm<br />

ergeben. Erste Studienergebnisse zum Twitter-Verhalten auf Konferenzen<br />

sind bereits verfügbar (Ebner et al., 2009; Letierce et al., 2010;<br />

Reinhardt et al., 2009). Während sich die bisherigen Studien vor allem auf<br />

eine quantitative Auswertung verschiedener Zusammenhänge konzentrieren,<br />

liefert dieser Beitrag einen Ansatz für eine qualitative, inhaltliche Analyse<br />

von Konferenz-Tweets. Dabei geht es vor allem darum zu erfassen, welche<br />

Art von Inhalten während Konferenzen über Twitter kommuniziert <strong>und</strong> diskutiert<br />

werden. Darüber hinaus wurden weitere automatisierte Analysen vorgenommen.<br />

Im Folgenden wird zum einen die Vorgehensweise als methodischer<br />

Ansatz zur Fachdiskussion gestellt. Zum anderen werden in Auszügen<br />

erste Ergebnisse präsentiert, die bei der Untersuchung von vier Konferenzen<br />

gewonnen wurden.<br />

2 Datenerhebung <strong>und</strong> Messmethode<br />

Wesentlicher Teil unserer Studie ist die Erprobung verschiedener Verfahren<br />

für informetrische Analysen von Microblogs. Im Folgenden wird insbesondere<br />

auf unsere bisherige Vorgehensweise bei der Auswertung von Tweet-<br />

Inhalten eingegangen <strong>und</strong> es werden offene Problembereiche aufgezeigt, die


100 E. Dröge, P. Maghferat, C. Puschmann, J. Verbina, K. Weller<br />

es in Zukunft zu diskutieren gilt. Für die Untersuchung haben wir Daten von<br />

vier verschiedenen Konferenzen erhoben. Es handelt sich dabei um archivierte<br />

Tweets, die mit dem konferenzspezifischen Hashtag (Hashtags sind<br />

mit einem # markierte, <strong>frei</strong> wählbare Schlagworte) versehen <strong>und</strong> über Twitter<br />

veröffentlicht wurden. Ausgewählt wurden die World Wide Web Conference<br />

2010 (WWW2010), die Modern Language Association Conference 2009<br />

(MLA 2009), die Dublin Core and Metadata Applications Conference 2009<br />

(DC-2009) sowie eine Tagung des Institute for Enabling Geospatial Scholarship<br />

im Jahr 2010 (Geoinst). Kriterien für die Auswahl dieser Konferenzen<br />

waren die Größe <strong>und</strong> der Fachbereich: je zwei Konferenzen sind (im weitesten<br />

Sinne) dem Fachbereich Informatik bzw. den Geisteswissenschaften<br />

(speziell Digital Humanities) zuzuordnen. Für beide Fachbereiche wurde<br />

jeweils eine große Konferenz (ab ca. 1.000 Teilnehmern) sowie eine kleinere<br />

Veranstaltung (weniger als 500 Teilnehmer) ausgewählt 1 . Tabelle 1 gibt einen<br />

Überblick über die vier Konferenzen, ihre Fachbereiche <strong>und</strong> Größenkategorien.<br />

Alle Konferenzen fanden im Zeitraum von Ende 2009 bis<br />

Mitte 2010 statt <strong>und</strong> dauerten drei bis fünf Tage. Die Konferenzsprache war<br />

Englisch. Für die Datensammlung wurde auf das Tool TwapperKeeper<br />

(http://twapperkeeper.com/) zurückgegriffen, mit dem Kurznachrichten von<br />

Twitter über <strong>frei</strong> auswählbare Suchbegriffe archiviert werden können. Die für<br />

die Untersuchung berücksichtigten Tweets wurden ausschließlich über verfügbare<br />

Konferenzhashtags ausgewählt. Das Kennzeichnen von Tweets mittels<br />

vereinbarter Hashtags wird häufig bei Konferenzen genutzt, damit der<br />

Nachrichtenstrom von allen Interessierten leicht verfolgt werden kann. Hashtags<br />

von Konferenzen werden entweder im Vorfeld offiziell von den Organisatoren<br />

der Veranstaltung festgelegt oder spontan beim Versenden erster<br />

Tweets von Teilnehmern gesetzt <strong>und</strong> anschließend von anderen übernommen.<br />

Bei der Analyse haben wir für jede der vier Konferenzen nur den<br />

am häufigsten verwendeten Hashtag genutzt, nachdem überprüft wurde, dass<br />

Schreibvarianten (z.B. #www10 statt #www2010) nur sehr vereinzelt auftraten.<br />

Für künftige Untersuchungsstandards empfiehlt es sich jedoch, alle<br />

vorkommenden Schreibvarianten zu ermitteln <strong>und</strong> mit zu erfassen. Von uns<br />

ebenfalls unberücksichtigt sind die Hashtags von angeschlossenen Veranstaltungen<br />

(z.B. fand neben der WWW2010 noch die Web Science Conference<br />

2010 statt, deren Hashtag #websci10 nicht mit erfasst wurde).<br />

1 Die Zahlen beruhen zum Teil auf Schätzungen, da nicht bei jeder Konferenz eine offizielle<br />

Teilnehmerzahl angegeben wurde.


Konferenz-Tweets 101<br />

Tabelle 1: Übersicht über die untersuchten Konferenzen.<br />

Konferenz Hashtag Ort Zeit Fachbereich Größe<br />

World Wide Web #www2010 Raleigh, 26. bis Informatik >1000<br />

Conference<br />

(WWW2010)<br />

NC, USA 30.4.10<br />

Dublin Core and #dcmi2009 Seoul, 12. bis Informatik 1000<br />

Association Confephia,<br />

PA, 30.12.09 teratur, Digital<br />

rence (MLA 2009)<br />

USA<br />

Humanities<br />

Tagung d. Institute #geoinst Charlotte- 25. bis Digital Huma-


102 E. Dröge, P. Maghferat, C. Puschmann, J. Verbina, K. Weller<br />

Schema der Häufigkeit der Kategorienverwendung in der Testindexierung<br />

angepasst. In einem erneuten Testlauf mit dem überarbeiteten Schema wurde<br />

so eine verbesserte Konsistenz erzielt. Abbildung 1 zeigt das fertige Kategorisierungsschema<br />

sowie die jeweils für die Kennzeichnung der Tweets verwendeten<br />

Kürzel.<br />

1. Ebene: Zweck<br />

- 1.1 Kommunikation [COM]<br />

- 1.2 Konferenzbezogene Tweets<br />

[CONF]<br />

- 1.3 Selbstbezogene Tweets [ME]<br />

- 1.4 Retweets [RT]<br />

- 1.5 Externe Links [URL]<br />

- 1.6 Nicht definierbar [NA]<br />

Abbildung 1: Schema zur Kategorisierung von Tweet-Inhalten.<br />

2. Ebene: Inhalt<br />

- 1.1 Inhaltsbezug zur Konferenz [YES]<br />

- 1.2 Kein inhaltlicher Bezug zur<br />

Konferenz [NO]<br />

- 1.3 Nicht definierbar [NA]<br />

Auf einer ersten Ebene wird erfasst, welchem Zweck ein Tweet hauptsächlich<br />

dient. Dabei unterscheiden wir folgendermaßen:<br />

• Tweets, die in erster Linie einen Auszug aus einer Konversation abbilden<br />

(z.B. Fragen, Aufrufe) [COM]. Beispiel: “Good luck to all the TW people<br />

at #www2010 and #websci2010”.<br />

• Tweets, die sich direkt auf die Konferenz beziehen [CONF]. Beispiel:<br />

“the ‘official’ tag for Dublin Core conference in Seoul is now<br />

#dcmi2009”.<br />

• Tweets, die sich in erster Linie auf die Verfassung, den Aufenthaltsort,<br />

Aktivitäten, Gedanken <strong>und</strong> Gefühle des Autors beziehen [ME]. Beispiel:<br />

“managed to change my flights. Let’s hope the cloud doesn’t stand in the<br />

way now ... #www2010 #w4a #ashtag”.<br />

• Weiterhin wurden Retweets [RT] <strong>und</strong> Tweets, die URLs beinhalten<br />

[URL], gesondert gekennzeichnet. Retweets wurden, abgesehen von der<br />

Markierung mit RT, nicht weiter inhaltlich kategorisiert, da es sich hier<br />

nur um Kopien bereits vorhandener Tweets handelt.<br />

Konnte ein Tweet keiner dieser Kategorien zugeordnet werden, so wurde er<br />

mit NA markiert. Ein Tweet konnte auf der ersten Ebene mehreren Kategorien<br />

zugeordnet werden, was vor allem bei der Verwendung von URL Gebrauch<br />

fand. Ebenfalls gekennzeichnet wurden Tweets, die nicht in englischer<br />

oder in verschiedenen Sprachen verfasst waren (wobei Tweets in nicht<br />

bekannten Sprachen nicht inhaltlich ausgewertet wurden). Auf der zweiten<br />

Ebene wurde zwischen Tweets, in denen sich der Nutzer inhaltlich auf die


Konferenz-Tweets 103<br />

Konferenz bezieht, <strong>und</strong> allen übrigen Tweets unterschieden. Auch hier gab es<br />

die Möglichkeit, bei Unklarheiten NA anzugeben. Das Schema wurde bislang<br />

auf die WWW2010, die MLA 2009 <strong>und</strong> die DC-2009 angewandt.<br />

3 Ausgewählte Ergebnisse<br />

Tabelle 2 enthält einen Überblick über die Kennwerte der Konferenzen, die<br />

automatisch gewonnen wurden. Sie können als Basis für einen Vergleich<br />

verschiedener Merkmale dienen. Die MLA 2009 stellt mit 7309 Teilnehmern<br />

die größte Konferenz in unserem Vergleich dar. Am meisten getwittert wurde<br />

jedoch auf der WWW2010 (3475 Tweets), die auch die größte Anzahl an<br />

Twitterern aufweist (911 Nutzer mit mindestens einem Tweet zum Konferenz-Hashtag).<br />

Möglicherweise liegt das an der fachlichen Ausrichtung der<br />

Konferenz, da bei computerwissenschaftsorientierten Veranstaltungen eine<br />

höhere Akzeptanz neuer Internettechniken vermutet werden kann. Dass die<br />

fachliche Ausrichtung der Konferenz kein alleiniges Kriterium zu sein<br />

scheint, lässt die sehr geringe Anzahl an Tweets bei der ebenfalls informations-<br />

bzw. computerwissenschaftlichen DC-2009 vermuten, die selbst von<br />

den Konferenzteilnehmern bemerkt wurde. Interessant ist dagegen die hohe<br />

Anzahl der Tweets auf der Geoinst-Konferenz mit dem eher geisteswissenschaftlichen<br />

Schwerpunkt. Trotz der geringen Anzahl an Teilnehmern gibt es<br />

100 Twitterer <strong>und</strong> 1673 Tweets. Die Auswertung von Retweets <strong>und</strong> @-<br />

Nachrichten zeigt eine leichte Tendenz dahingehend, dass der Anteil an RTs<br />

bei den beiden computerwissenschaftlichen Konferenzen <strong>und</strong> der Anteil der<br />

@-Nachrichten bei den beiden geisteswissenschaftlichen Konferenzen höher<br />

liegt. Die Anzahl der @-Nachrichten pro Twitterer ist bei der Geoinst mit<br />

4,11 deutlich größer als bei den anderen. Hier gilt es weiter zu untersuchen,<br />

ob ein hoher Anteil an @-Nachrichten vor allem bei kleinen Konferenzen<br />

auftritt, wo die Wahrscheinlichkeit der Bekanntschaft der Teilnehmer untereinander<br />

größer ist. Erfasst wurde außerdem automatisch, wie viele Tweets


104 E. Dröge, P. Maghferat, C. Puschmann, J. Verbina, K. Weller<br />

eine URL als Verweis auf weitere Web-Inhalte enthalten 2 . Die WWW2010<br />

ist hier Spitzenreiter, fast 40% der Tweets enthalten eine URL.<br />

Tabelle 2: Vergleich der Kennzahlen für die vier Konferenzen.<br />

Untersuchungszeitraum 3 13.04.–<br />

14.05.2010<br />

WWW 2010 DC-2009 MLA 2009 Geoinst<br />

12.10.–<br />

23.10.2009<br />

15.12.2009–<br />

14.01.2010<br />

Anzahl Tweets 3358 146 1929 1673<br />

Anzahl Twitterer 903 27 369 99<br />

∅ Tweets/Twitterer 3,72 5,41 5,23 16,90<br />

Anteil/Anzahl RTs 4<br />

(autom. Auswertung)<br />

33,38%<br />

1121/3358<br />

25,34%<br />

37/146<br />

21,41%<br />

413/1929<br />

∅ RTs/Twitterer 1,24 1,37 1,12 1,40<br />

Anteil/Anzahl @-Nachrichten<br />

∅ @-Nachrichten/ Twitterer<br />

Anteil/Anzahl Tweets<br />

mit URL<br />

7,47%<br />

251/3358<br />

5,48%<br />

8/146<br />

13,37%<br />

258/1929<br />

0,28 0,30 0,70 4,11<br />

39,67%<br />

1132/3358<br />

19,86%<br />

29/146<br />

26,70%<br />

515/1929<br />

11.05.–<br />

09.06.2010<br />

8,31%<br />

139/1673<br />

24,33%<br />

407/1673<br />

14,82%<br />

248/1673<br />

Die inhaltliche Auswertung der Tweets sollte vor allem erste Anhaltspunkte<br />

für die Funktion von Twitter während Konferenzen liefern. Eine we-<br />

2 Auch in der intellektuellen Analyse wurden Tweets, die eine URL enthalten, gekennzeichnet.<br />

Die Zahlen liegen hierbei niedriger als die automatisch erfassten Werte,<br />

da in der intellektuellen Auswertungen URLs in RTs nicht mitgezählt wurden.<br />

3 Erfasst wurde im Idealfall ein Zeitraum von je zwei Wochen vor <strong>und</strong> nach der Konferenz.<br />

Der Anteil an Tweets aus dieser Gesamtmenge, die tatsächlich während der Konferenztage<br />

verschickt wurden, verteilt sich wie folgt: WWW2010: 70,61%, DC-2009:<br />

94,52%, MLA 2009: 67,65%, Geoinst: 87,33%. Eine Umrechnung für die Kennwerte<br />

<strong>und</strong> die Kategorisierungen auf die jeweils tatsächlichen Konferenztage steht noch aus.<br />

4 In der Menge der automatisch erfassten RTs finden sich alle Tweets, welche die Struktur<br />

„RT@user“ enthalten. Nicht enthalten sind Retweets, die mit „via“ o. Ä. gekennzeichnet<br />

sind. In der manuell kategorisierten Tweetmenge sind diese jedoch erfasst,<br />

weshalb sich die Anzahl der Retweets bei der automatischen <strong>und</strong> manuellen Auswertung<br />

unterscheidet.


Konferenz-Tweets 105<br />

sentliche Frage war dabei, inwiefern die eigentlichen fachlichen Inhalte der<br />

Konferenz bei Twitter diskutiert werden. Abbildung 2 gibt hierfür einen ersten<br />

zusammenfassenden Überblick für die drei Konferenzen, deren Tweets<br />

inhaltlich kategorisiert wurden. Der hohe Anteil an Tweets, für die keine<br />

Angabe verfügbar ist, erklärt sich dadurch, dass RTs nicht weiter inhaltlich<br />

bestimmt wurden. Davon abgesehen zeigt sich, dass der Anteil an nicht auf<br />

fachliche Inhalte bezogenen Tweets bei der MLA 2009 <strong>und</strong> der DC-2009<br />

deutlich überwiegt, lediglich bei der WWW2010 ist das Verhältnis zwischen<br />

fachlichen <strong>und</strong> nicht-fachlichen Tweets in etwa ausgewogen. In den Abbildungen<br />

3 <strong>und</strong> 4 wurde für die MLA 2009 bzw. die WWW2010 weiter ausdifferenziert,<br />

welche Kategorien sich auf fachliche Inhalte beziehen.<br />

Anteil der Tweets an gesamten<br />

Konferenztweets<br />

Beziehen sich die Tweets auf fachliche Inhalte der Konferenz?<br />

100%<br />

80%<br />

60%<br />

40%<br />

20%<br />

0%<br />

619<br />

1002 938 74<br />

308<br />

1467<br />

953<br />

48<br />

24<br />

MLA 2009 WWW2010 DC-2009<br />

keine Angabe<br />

Nein<br />

Ja<br />

Abbildung 2: Auswertung der 2. Ebene im Kategorisierungsschema (siehe Abb. 1),<br />

Gesamtüberblick für die Konferenzen MLA 2009, WWW2010, DC-2009.<br />

Abbildung 3 enthält einen Überblick über die Kategorien der inhaltlichen<br />

Auswertung der Tweets der MLA-Konferenz. Dabei waren 514 Tweets (intellektuell<br />

bestimmte) RTs, die auf der zweiten Ebene nicht weiter kategorisiert<br />

worden sind. Die zweithäufigste Kategorie ist COM. Von diesen<br />

358 Tweets, die reine Konversations- <strong>und</strong> Kommunikationselemente enthalten,<br />

beziehen sich nur 55 auch auf die Inhalte der Konferenz. Von den 285<br />

selbstreferenzierenden Tweets in der Kategorie ME sind nur 16 auf Konferenzinhalte<br />

bezogen. In der Kategorie CONF findet sich wie erwartet der<br />

größte Anteil an fachlichen Inhalten. 158 von 269 CONF-Tweets beziehen<br />

sich auf die Inhalte der Konferenz, <strong>und</strong> enthalten z.B. Berichte über die Vorträge,<br />

Kommentare oder Verweise auf Präsentationen. Die übrigen Tweets in


106 E. Dröge, P. Maghferat, C. Puschmann, J. Verbina, K. Weller<br />

dieser Kategorie beziehen sich auf organisatorische Aspekte der Konferenz.<br />

Der relativ hohe Anteil an nicht-kategorisierten Tweets bei dieser Konferenz<br />

(Kennzeichen NA) liegt vor allem an einer inhaltlichen Besonderheit. Es<br />

finden sich zahlreiche sogenannte „MLA Tips“, die auf ironische Weise das<br />

Verhalten der Konferenzteilnehmer thematisieren (Beispiel: „#MLA09 Tip:<br />

Remember you don’t have to answer interview questions about your marital<br />

status, religion, sexual orientation, or dissertation“). Als NA wurden auch<br />

zahlreiche Werbe-Tweets gekennzeichnet. Verhältnismäßig wenigen Tweets<br />

wurden mehrere gleichwertige Kategorien zugeordnet. Insgesamt 220 Tweets<br />

enthalten URLs (davon 73 ohne weitere Kategoriezuweisung). Die meisten<br />

von ihnen verlinken auf Blogs <strong>und</strong> nichtwissenschaftliche Publikationen im<br />

Internet. Die meisten der MLA-Tweets sind an den Konferenztagen entstanden,<br />

vor allem am vorletzten Tag der Konferenz (mit 426 Tweets). Darunter<br />

sind viele konferenzbezogene aber nicht inhaltliche Tweets zu erkennen, z.B.<br />

Beschwerden über die Räumlichkeiten oder Verweise auf den Konferenz-<br />

Hashtag. Insgesamt haben 308 Tweets direkt auf die Konferenzinhalte Bezug<br />

genommen (siehe Abb. 2), die außerdem überwiegend an den tatsächlichen<br />

Konferenztagen verfasst wurden.<br />

Anzahl der Tweets (MLA09)<br />

600<br />

500<br />

400<br />

300<br />

200<br />

100<br />

0<br />

Beziehen sich die Tweets auf fachliche Inhalte der Konferenz?<br />

keine Angabe<br />

Nein<br />

RT<br />

COM<br />

ME<br />

CONF<br />

NA<br />

URL<br />

CONF, URL<br />

ME, URL<br />

COM, URL<br />

CONF, ME<br />

COM, ME<br />

COM, CONF<br />

COM, CONF, URL<br />

NA, URL<br />

COM, ME, URL<br />

CONF, ME, URL<br />

Abbildung 3: MLA 2009-Tweets, n=1929: Kategorisierung der Tweets. Dabei wird<br />

die Anzahl der vorkommenden Kategorie-Kombinationen erfasst <strong>und</strong> für jede angegeben,<br />

inwiefern die darunter fallenden Tweets fachliche Konferenzinhalte thematisieren.<br />

Ja


Konferenz-Tweets 107<br />

Eine intensive Diskussion um ein inhaltliches Top-Thema der Konferenz<br />

(„Digital Humanities“) fand am vorletzten Tag der Konferenz statt <strong>und</strong><br />

kommt als ein möglicher Gr<strong>und</strong> für die hohe Anzahl der Tweets an diesem<br />

Tag in Frage. Die Tweets vor <strong>und</strong> nach der Konferenz fallen meist in die<br />

Kategorien COM <strong>und</strong> ME. Vor der Konferenz sind viele kommunikative<br />

Tweets zu identifizieren, die sich mit der Vorbereitung auf der Konferenz,<br />

persönlichen Beiträgen <strong>und</strong> der Anreise befassen. Nach der Konferenz sind<br />

sehr viele Verweise auf Präsentationsfolien, Blogeinträge <strong>und</strong> verschiedene<br />

Websites sowie Danksagungen, persönliche Meinungen <strong>und</strong> Aktivitäten zu<br />

sehen. Detailliertere <strong>und</strong> vergleichende Analysen hierzu sollen noch folgen.<br />

Bei der WWW2010 wurden insgesamt 3358 Tweets analysiert. Fast 3/4<br />

der ausgetauschten Tweets fallen dabei unmittelbar auf die fünf Konferenztage<br />

(26.-30.04.2010). Dabei fällt auf, dass am letzten Konferenztag eine<br />

überproportional große Anzahl an Tweets verfasst wurde (ca. 46,5% der<br />

Tweets aller Konferenztage). Deutlich weniger Tweets (nur 5%) wurden am<br />

ersten Konferenztag veröffentlicht. Abbildung 4 zeigt die Aufschlüsselung<br />

der WWW2010-Tweets nach Kategorien <strong>und</strong> die Angaben zum fachlichen<br />

Konferenzbezug. Bei der Häufigkeit der Vergabe liegen nach den Retweets<br />

diesmal die Kategorie CONF bzw. die Kombination CONF+URL vorne, mit<br />

deutlichem Abstand vor COM (Platz 4) <strong>und</strong> ME (Platz 5).<br />

Anzahl der Tweets (WWW10)<br />

1400<br />

1200<br />

1000<br />

800<br />

600<br />

400<br />

200<br />

0<br />

Beziehen sich die Tweets auf fachliche Inhalte der Konferenz?<br />

RT<br />

CONF<br />

CONF, URL<br />

COM<br />

ME<br />

URL<br />

NA<br />

COM, URL<br />

CONF, ME<br />

COM, CONF<br />

ME, URL<br />

COM, ME<br />

NA, URL<br />

CONF, ME, URL<br />

COM, CONF, URL<br />

keine Angabe<br />

Nein<br />

Ja<br />

COM, ME, URL<br />

COM, RT<br />

COM, CONF, ME<br />

ME, RT<br />

Abbildung 4: WWW2010-Tweets, n=3287 (71 Tweets wg. Fremdsprachen nicht<br />

berücksichtigt): Kategorisierung der Tweets nach dem Schema aus Abb. 1.


108 E. Dröge, P. Maghferat, C. Puschmann, J. Verbina, K. Weller<br />

Die Tweets, die sich auf der ersten Ebene auf die Konferenz bezogen haben<br />

(CONF, CONF+URL, CONF+ME, COM+CONF), verzeichnen die<br />

höchsten Werte für thematische Bezüge zu Inhalten der Konferenz. Die restlichen<br />

Kategorien thematisieren hingegen kaum fachliche Inhalte der Konferenz.<br />

Twitternde Konferenzteilnehmer waren demnach in mindestens gleichem<br />

Maße daran interessiert, sich über die konferenzbezogenen <strong>Information</strong>en<br />

auszutauschen (CONF), wie auch über eigene Erfahrungen zu<br />

berichten (ME) <strong>und</strong> mit anderen ins Gespräch zu kommen (COM). Insgesamt<br />

ist die Menge der Tweets, die unmittelbar mit dem Inhalt der WWW2010 zu<br />

tun hatten, <strong>und</strong> die Menge, in der andere Inhalte behandelt werden, ungefähr<br />

gleich groß. Demnach sind die Tweets der WWW2010 im Vergleich zu den<br />

anderen Konferenzen am stärksten fachorientiert (Abb. 2). Wie schon bei der<br />

Kategorisierung der MLA 2009 wurden auch hier nur wenigen Tweets mehrere<br />

gleichwertige Kategorien zugewiesen (eine Ausnahme bildet die Kombination<br />

CONF+URL). In Abbildung 5 wurde schließlich die Mehrfachvergabe<br />

von Kategorien aufgelöst. Dadurch ergibt sich ein Überblick, welcher<br />

Anteil an Tweets von der jeweiligen Konferenz mit der jeweiligen Kategorie<br />

ausgezeichnet ist.<br />

Antei an den Gesamttweets in %<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

Wie viel Prozent der gesamten Tweets einer Konferenz<br />

wurden die folgenden Kategorien zugewiesen?<br />

WWW2010<br />

MLA 2009<br />

DC-2009<br />

RT CONF URL COM ME NA<br />

Abbildung 5: Relative Häufigkeit der Kategorien pro Konferenz, dabei konnte jeder<br />

Tweet mit mehreren Kategorien beschrieben werden. Bei reinen Retweets ohne weitere<br />

Textbestandteile (RT) wurden keine anderen inhaltsbeschreibenden Kategorien<br />

vergeben.


Konferenz-Tweets 109<br />

4 Fazit <strong>und</strong> Ausblick<br />

Mit unserem Ansatz haben wir erste Anhaltspunkte für die vergleichende<br />

Analyse von Konferenzen basierend auf den Twitter-Aktivitäten der Konferenzteilnehmer<br />

erhalten. Es zeigt sich, dass Twitter mit unterschiedlicher<br />

Ausrichtung genutzt wird. Jede der untersuchten Konferenzen verfügt über<br />

ein eigenes Profil, bei dem z.B. die eigentliche Fachdiskussion (wie bei der<br />

WWW2010) oder die Gruppen-Kommunikation (wie bei der Geoinst) stärker<br />

ausgeprägt sein kann. Für die Zukunft ist zum einen eine Ausweitung der<br />

Untersuchung auf weitere Konferenzen geplant, zum anderen sollen die vorhandenen<br />

Daten vertiefend analysiert werden. Insbesondere soll dabei auf die<br />

Inhalte der in Tweets verlinkten Webseiten, auf den Aktivitätsgrad während<br />

verschiedener Phasen der Konferenz sowie auf das Retweet-Verhalten eingegangen<br />

werden. Eine Analyse der Vernetzung der Twitter-Community sowie<br />

Ranglisten der aktivsten Twitterer sind ebenfalls in Arbeit. Für die methodische<br />

Weiterentwicklung möchten wir das Kategorisierungssystem zur Diskussion<br />

stellen. Darüber hinaus kann diskutiert werden, welche begleitenden<br />

Umstände es zu erfassen gilt (z.B. die Klärung der jeweiligen Konferenzumstände<br />

wie <strong>frei</strong>e W-LAN Verfügbarkeit, ein offiziell vorgegebener Hashtag).<br />

Insgesamt eröffnet sich mit Twitter ein weites Feld zur Beobachtung <strong>und</strong><br />

Messung von Verhaltensweisen <strong>und</strong> Vernetzungen innerhalb wissenschaftlicher<br />

Communities.<br />

Literaturverzeichnis<br />

Boyd, D., Golder, S. & Lotan, G. (2010). Tweet, Tweet, Retweet: Conversational<br />

Aspects of Retweeting on Twitter. In Proceedings of the 43rd Hawaii International<br />

Conference on System Sciences, Kauai, HI.<br />

Ebner, M. & Reinhardt, W. (2009). Social Networking in Scientific Conferences.<br />

Twitter as Tool for Strengthen a Scientific Community. In Proceedings of the 1st<br />

International Workshop on Science 2.0 for TEL at the 4th European Conference<br />

on Technology Enhanced Learning, Nizza.<br />

Hotopp, D. & Willecke, L. (2010). Twitter als Werkzeug des Online-Marketings.<br />

Richtlinien für erfolgreiches Twittern. <strong>Information</strong> – <strong>Wissen</strong>schaft <strong>und</strong> Praxis,<br />

61(6–7), 419–422.


110 E. Dröge, P. Maghferat, C. Puschmann, J. Verbina, K. Weller<br />

Java, A., Song, X., Finin, T. & Tseng, B. (2007). Why We Twitter: Understanding<br />

Microblogging Usage and Communities. In Proceedings of the 9th WebKDD and<br />

1st SNA-KDD 2007 Workshop on Web Mining and Social Network Analysis,<br />

San Jose, CA.<br />

Letierce, J., Passant, A., Breslin, J. & Decker, S. (2010). Understanding How Twitter<br />

Is Used to Spread Scientific Messages. In Proceedings of the 2nd Web Science<br />

Conference, Raleigh, NC.<br />

Mainka, A. (2010). Twitter: Gezwitscher oder gezielte <strong>Information</strong>svermittlung? <strong>Information</strong><br />

– <strong>Wissen</strong>schaft <strong>und</strong> Praxis, 61(2), 77–82.<br />

Reinhardt, W., Ebner, M., Beham, G. & Costa, C. (2009). How People are Using<br />

Twitter During Conferences. In Proceedings of the 5th EduMedia conference,<br />

Salzburg.<br />

Vieweg, S., Hughes, A. L., Starbird, K. & Palen, L. (2010). Microblogging During<br />

Two Natural Hazards Events: What Twitter May Contribute to Situational<br />

Awareness. In Proceedings of the 28th International Conference on Human Factors<br />

in Computing Systems, Atlanta, GA.<br />

Zhao, D. & Rosson, M. B. (2009). How and Why People Twitter: The Role that<br />

Micro-Blogging Plays in Informal Communication at Work. In Proceedings of<br />

the ACM 2009 International Conference on Supporting Group Work, Sanibel Island,<br />

FL.


Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften 111<br />

Social Bookmarking als Werkzeug<br />

für die Kooperation von Lehrkräften<br />

Das Projekt Edutags für den Deutschen Bildungsserver<br />

Richard Heinen 1 , Ingo Blees 2<br />

1 Universität Duisburg-Essen<br />

Forsthausweg 2 – LC 105, 47057 Duisburg<br />

richard.heinen@uni-due.de<br />

2<br />

Deutsches Institut für Internationale Pädagogische Forschung<br />

Schloßstraße 29, 60486 Frankfurt/Main<br />

blees@dipf.de<br />

Zusammenfassung<br />

Im Artikel werden zunächst Forschungsergebnisse zur Kooperation von<br />

Lehrkräften dargestellt. Daran schließen sich Überlegungen an, welche webbasierten<br />

Dienste eine Kooperation unter Lehrkräften unterstützen könnten<br />

<strong>und</strong> ob solche Dienste bereits (erkennbar) genutzt werden. Abschließend<br />

werden die Konzeption eines Social-Bookmarking-Dienstes für Lehrkräfte<br />

erläutert <strong>und</strong> die ersten Entwicklungs- <strong>und</strong> Implementationsschritte dargestellt.<br />

Abstract<br />

The article begins with an outline of research on cooperation among teachers<br />

that is followed by reasoning about which web-based services could support<br />

such cooperation and whether these services are already in use by teachers.<br />

In the main part the design of a customized social bookmarking service for<br />

teachers is explicated and the first steps of its development and implementation<br />

are shown.


112 Richard Heinen, Ingo Blees<br />

1 Kooperation von Lehrkräften<br />

Digitalen Medien im Unterricht werden vielfältige Potenziale zur Verbesserung<br />

des Lehrens <strong>und</strong> Lernens zugeschrieben. Gr<strong>und</strong>sätzlich sei ein Unterricht<br />

möglich, der schülerzentrierter, projektorientierter sei, der es ermögliche,<br />

auf individuelle Leistungsunterschiede zu reagieren, der aber vor allem<br />

auch Möglichkeiten zu kooperativeren Arbeitsformen biete. Beispiele, die<br />

dies exemplarisch belegen können, sind vielfältig entwickelt, erprobt <strong>und</strong><br />

dokumentiert [Eickelmann, 2009]. In der Regel wird dabei aber der Unterricht<br />

einer einzelnen Lehrkraft in den Blick genommen. Unberücksicht bleibt<br />

oft die Frage der Lehrerkooperation.<br />

Eine in den letzten Jahren zunehmende Outputorientierung von Unterricht<br />

rückt die Professionalisierung des Lehrerberufs in den Blick. Neben Aspekten<br />

der Aus- <strong>und</strong> Weiterbildung ist hier auch nach Formen der Kooperation<br />

von Lehrkräften zu fragen. Der Austausch mit anderen Lehrkräften unterstützt<br />

die Reflexion des eigenen Handelns <strong>und</strong> kann so die Qualität des Unterrichts<br />

<strong>und</strong> von Arbeitszufriedenheit erhöhen [Ihme, Möller & Pohlmann,<br />

2009]. Effiziente Formen der Kooperation können die Arbeitsbelastung der<br />

einzelnen Lehrkraft reduzieren [Obolenski, 2006].<br />

Aktuelle Untersuchungen zur Lehrerkooperation belegen einerseits die<br />

positive Wirkung gelungener Kooperation, zeigen andererseits aber auch,<br />

dass diese häufig noch nicht hoch entwickelt <strong>und</strong> etabliert ist [Bauer, 2008].<br />

Hierfür werden eine Reihe von Gründen angeführt. Die Lehrtätigkeit als<br />

solche, der eigentliche Unterricht ist eine vereinzelte Tätigkeit, in der Folge<br />

wird Unterricht auch alleine vorbereitet <strong>und</strong> entwickelt. Die Lehrerausbildung<br />

unterstützt kooperative Arbeitsformen nicht nur nicht, sondern <strong>sozial</strong>isiert<br />

angehende Lehrkräfte immer noch eher im Sinne einer Einzeltätigkeit<br />

[Tenorth, 2006]. Zudem wird die Zusammenarbeit mit anderen Lehrkräften<br />

häufig auch mit zusätzlichem Zeitaufwand verb<strong>und</strong>en <strong>und</strong> daher abgelehnt.<br />

Diese Ablehnung gilt es durch alternative Formen der Kooperation aufzubrechen<br />

<strong>und</strong> Kommunikations- <strong>und</strong> Selbstreflexionsprozesse anzustoßen [Kolbe,<br />

Reh, Coelen & Otto, 2008]. Denn andere Formen der Kooperation können<br />

den Arbeitsalltag von Lehrkräften bereichern. Von der punktuellen problemorientierten<br />

Zusammenarbeit bis zur institutionalisierten Zusammenarbeit<br />

sind Kooperationsformen beschrieben [Little, 1990]. Neben der schulinternen<br />

Kooperation sind aber auch immer wieder Formen zu beobachten, bei denen<br />

gerade engagierte Lehrkräfte, die in ihrer Schule keine Partnerschaften fin-


Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften 113<br />

den, die Kooperation außerhalb der eigenen Schule suchen [Schönknecht,<br />

1997].<br />

Kooperation unter Lehrkräften scheint also eine schwierige Sache zu sein.<br />

Dennoch wurden einige Merkmale gelingender Kooperation identifiziert.<br />

• Im Rahmen einer Kooperation arbeiten kleinere Gruppen zusammen.<br />

• Die Kooperation wird von der Leitung gefördert <strong>und</strong> unterstützt.<br />

• Es liegt eine klare Aufgabenstellung für die Kooperation vor, bzw. es ist<br />

ein klares Kooperationsziel formuliert.<br />

• Es werden Arbeitsschritte <strong>und</strong> Zuständigkeiten transparent festgelegt<br />

[Legters, 1999].<br />

Vor diesem Hintergr<strong>und</strong> wird im Rahmen des hier beschriebenen Projektes<br />

gefragt, wie der Einsatz von digitalen Medien die Kooperation von Lehrkräften<br />

unterstützen kann. Ziel ist es, eine webbasierte Software zur Verfügung<br />

zu stellen, die einfach zu bedienen ist <strong>und</strong> Kooperation von Lehrkräften<br />

in unterschiedlichen Szenarien unterstützen kann, die darüber hinaus<br />

aber auch das Potenzial bietet, Lehrkräfte im Umgang mit digitalen Medien<br />

im Kontext der Unterrichtsvorbereitung vertrauter zu machen <strong>und</strong> sie dazu<br />

anregt, sich über den Unterricht <strong>und</strong> die verwendeten digitalen Ressourcen<br />

auszutauschen. Die Ansiedlung des Projektes beim Deutschen Bildungsserver<br />

1 bietet den Vorteil, dass ein Ressourcenpool entsteht, der Lehrkräften<br />

offen zur Verfügung steht. Es werden so neue Formen der Ressourcensammlung<br />

<strong>und</strong> -bewertung erprobt, die ggf. den Datenbestand des redaktionell<br />

gepflegten Angebotes bereichern können.<br />

2 Social Bookmarking<br />

Social Bookmarking <strong>und</strong> Tagging sind Formen der virtuellen Zusammenarbeit,<br />

die es ermöglichen, große auf Internetressourcen basierende <strong>Wissen</strong>sbestände<br />

aufzubauen, zu strukturieren <strong>und</strong> gemeinsam zu nutzen. 2 Neben der<br />

Art der Strukturierung über <strong>frei</strong>e Tags, d.h. individuelle durch die User ver-<br />

1 http://www.bildungsserver.de/start.html<br />

2 Bertram (2009) gibt einen Überblick über die informationswissenschaftlich relevanten<br />

Aspekte des Social Tagging. Eine im Weiteren zugr<strong>und</strong>egelegte umfassende Darstellung<br />

zum Thema liefert Peters (2009).


114 Richard Heinen, Ingo Blees<br />

gebene Schlagwörter, ist auch die Suche sehr flexibel, denn anders als in der<br />

Lesezeichenverwaltung eines Browsers kann jede Ressource von verschiedenen<br />

Usern mit mehreren Schlagworten getaggt werden. Hier ergeben sich<br />

positive Effekte aus der Zusammenarbeit im Netzwerk. Für den Einzeluser<br />

kann die Nutzung eines webbasierten Werkzeuges von Vorteil sein, wenn<br />

mehrere Rechner genutzt werden. Der Zugriff auf die Ressourcensammlung<br />

ist von jedem Rechner aus möglich. Dies entspricht der Arbeitssituation von<br />

Lehrkräften, die Unterricht am heimischen Rechner vorbereiten, im Lehrerzimmer<br />

evtl. Zugriff auf einen Arbeitsrechner haben <strong>und</strong> auf Lehrerrechner<br />

im Klassen- oder Computerraum zugreifen. Erst die Zusammenarbeit mit<br />

anderen Usern macht aus einem Bookmarking- ein Social-Bookmarking-<br />

System. Die gemeinsame Verschlagwortung <strong>und</strong> Bewertung von Quellen<br />

erhöht deren Qualität. Je mehr User eine Ressource für sich sichern <strong>und</strong> mit<br />

Tags versehen, umso relevanter könnte diese Ressource für eine Gruppe<br />

sein. 3<br />

Für die Annäherung an kooperative Arbeitsformen erscheint ein Social-<br />

Bookmarking-System auch deshalb besonders geeignet, weil nicht eigene<br />

Unterrichtsentwürfe <strong>und</strong> selbsterstellte Materialien ausgetauscht werden<br />

(müssen) – wie dies z.B. mit Wikis realisierbar wäre –, sondern „lediglich“<br />

Ressourcen ausgetauscht werden, die im Netz aufgef<strong>und</strong>en wurden. In einem<br />

zweiten Schritt kann dann über die Kommentarfunktion ein Austausch über<br />

Erfahrungen im Unterricht beginnen.<br />

Es wird also angenommen, dass ein Social-Bookmarking-System eine<br />

webbasierte Software-Lösung ist, die kooperative Arbeitsformen unterstützen<br />

kann. Andere Werkzeuge wie etwa Blogs sind eher geeignet, die Reflexion<br />

der einzelnen Lehrkraft zu unterstützen [Reinmann & Bianco, 2008].<br />

2.1 Aktuelle Nutzung bestehender Dienste<br />

Die Nutzung bestehender Bookmarking-Systeme bei der Vorbereitung von<br />

Unterricht scheint bisher in Deutschland bzw. im deutschsprachigen Raum<br />

nicht weit verbreitet zu sein. Eine explorative Untersuchung, bei der die<br />

Dienste del.icio.us <strong>und</strong> Mr. Wong 4 untersucht wurden, zeigte, dass kaum<br />

Ressourcen mit unterrichtsrelevanten Tags markiert sind. Hierzu wurden 25<br />

3 Zum kollaborativen Filtern durch Social Tagging vgl. Peters (2009), 299ff.<br />

4 http://del.icio.us <strong>und</strong> http://www.mister-wong.de/


Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften 115<br />

themen- bzw. fachspezifische Begriffe in unterschiedlichen Abstraktionstiefen<br />

(Biologie, Zellbiologie, Mitose) mit dem Begriff Unterricht kombiniert<br />

<strong>und</strong> die Trefferlisten ausgewertet. Bei den allgemeinen Begriffen wurden<br />

mehr Treffer gef<strong>und</strong>en, allerdings verwiesen diese eher auf Einstiegsseiten<br />

von Portalen <strong>und</strong> nicht auf konkrete Materialien. Insgesamt waren Ressourcen<br />

immer nur im zweistelligen Bereich getaggt. Ausnahmen waren wenige<br />

englischsprachige Portale, die auch mit deutschen Tags versehen waren. Bei<br />

den spezifischeren Suchbegriffen wurden Verweise auf konkrete Materialien<br />

gef<strong>und</strong>en, doch lag die Zahl der User, die die einzelnen Ressourcen getaggt<br />

hatten, immer im einstelligen Bereich. Als Beispiel sei die Unterrichtseinheit<br />

„Mitose“ 5 genannt, die bei Lehrer-Online die Besucher-Hits Biologie anführt,<br />

aber nur zweimal (!) auf del.icio.us getaggt ist.<br />

Die explorative Untersuchung legt den Schluss nahe, dass die Idee des<br />

Social-Bookmarking für Zwecke der Unterrichtsvorbereitung bei deutschsprachigen<br />

Lehrkräften wenig verbreitet ist. Die geringe Zahl von Mehrfachtagging<br />

bei spezifischen Ressourcen lässt zudem den Schluss zu, dass die<br />

Dienste bisher eher von Einzelusern <strong>und</strong> nicht von Gruppen im Sinne einer<br />

kooperativen Arbeitsweise genutzt werden. Im Rahmen der Fokusgruppe<br />

(s.u.) wurden diese Ergebnisse auch diskutiert. Es zeigte sich, dass (zumindest<br />

bei den beteiligten Lehrkräften) die fehlende Nutzung nicht aus einer<br />

Ablehnung der Systeme erwuchs, sondern aus mangelndem <strong>Wissen</strong> über deren<br />

Existenz oder Skepsis gegenüber nicht-öffentlichen Anbietern.<br />

2.2 Edutags – Social Bookmarking auf dem DBS<br />

Auf der Gr<strong>und</strong>lage der bisherigen Darstellungen wurde die Entwicklung <strong>und</strong><br />

exemplarische Implementierung eines Social-Bookmarking-Dienstes für<br />

Lehrkräfte auf dem Deutschen Bildungsserver konzipiert.<br />

2.2.1 Erstellung eines Prototypen<br />

Die Entscheidung, ein eigenständiges Werkzeug zu entwickeln, war von<br />

mehreren Überlegungen geleitet. Ein Social-Bookmarking-System für Lehrkräfte<br />

in Deutschland sollte als eigenständiges Angebot eines renommierten<br />

Anbieters erkennbar sein. In der Entwicklung soll flexibel auf Anforderungen<br />

5 http://www.lehrer-online.de/mitose.php


116 Richard Heinen, Ingo Blees<br />

der Lehrkräfte eingegangen werden können. Das System soll den Bildungsbereich<br />

ins Zentrum stellen.<br />

Zunächst wurde daher mit dem Content-Management-System Drupal ein<br />

Prototyp für ein Social-Bookmarking-System entwickelt. Die Entscheidung,<br />

Drupal als Gr<strong>und</strong>lage zu wählen, liegt im konzeptionellen Ansatz des Systems<br />

begründet. Drupal ist ein CMS, das als Open Source vorliegt. Es ist<br />

stark auf die Unterstützung von virtuellen Gemeinschaften ausgerichtet. Ein<br />

besonderer Vorteil von Drupal ist dabei, dass unterschiedliche Anforderungen<br />

mithilfe von Modulen, die ebenfalls als Open Source zur Verfügung<br />

stehen, umgesetzt werden können [Westrup, Vervenne & Kerres, 2010]. Das<br />

System ist so flexibel <strong>und</strong> anpassbar, <strong>und</strong> kann auf die Rückmeldungen der<br />

Lehrkräfte im Laufe der Testphasen reagieren.<br />

Der Prototyp wies bereits wichtige Funktionalitäten eines Bookmarking-<br />

Dienstes auf, ohne dass diese jedoch detailliert ausgearbeitet waren. Folgende<br />

Funktionalitäten sind im Prototypen bereits angelegt.<br />

Bereich Bookmarking, Tagging, Bewerten<br />

• Mithilfe eines Bookmarklets, das in die Symbolleiste aller gängigen<br />

Browser integriert wird, können User eigene Lesezeichen anlegen.<br />

• Beim Anlegen eines neuen Lesezeichens werden URL, Seitentitel <strong>und</strong><br />

ggf. eine Textpassage in das Lesezeichen übernommen.<br />

• In einem zweiten Schritt können User Tags vergeben. Dabei stehen drei<br />

Verfahren zur Auswahl: 1) Das System schlägt zu jedem Lesezeichen<br />

Tags vor. Im Prototyp ist der Algorithmus hierfür noch nicht festgelegt.<br />

Im Laufe der Erprobung soll festgestellt werden, ob eigenen Tags, anderen<br />

Tags derselben Ressource oder Tags aus Gruppen eine höhere Gewichtung<br />

gegeben werden soll. In einem Textfeld können Tags <strong>frei</strong> eingegeben<br />

werden. Hierbei haben User die Wahl, 2) entweder eigene, <strong>frei</strong><br />

gewählte Tags zu vergeben oder 3) sich von der Autovervollständigung<br />

des Systems leiten zu lassen. Gr<strong>und</strong>idee der Autovervollständigung ist<br />

es, dass Usern Tags aus einer hinterlegten Taxonomie vorgeschlagen<br />

werden. 6 Durch dieses Verfahren soll eine Quasi-Standardisierung unter-<br />

6 Obwohl sich dies von der Gr<strong>und</strong>idee des Social Tagging entfernt, wird diese Unterstützung<br />

im untersuchten Setting von den Nutzern ausdrücklich verlangt (s.u.); <strong>und</strong><br />

auch in der neueren Literatur werden Tag-Empfehlungen als Systemerweiterungen angeregt,<br />

s. Peters (2009), 238 ff.


Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften 117<br />

stützt werden, zugr<strong>und</strong>e liegt eine Auswahl von Deskriptoren des Fachinformationssystems<br />

Bildung entlang von MINT-Fachsystematiken.<br />

• Nach dem Speichern der Lesezeichen können alle Elemente (Titel, URL,<br />

Beschreibung, Tags) auch wieder geändert werden.<br />

• Jedes Lesezeichen kann mit einer 5-Sterne-Bewertung versehen werden.<br />

Die User bekommen dabei sowohl die selbst vergebene Wertung angezeigt,<br />

als auch den Durchschnittswert <strong>und</strong> die Anzahl der insgesamt vergebenen<br />

Wertungen.<br />

Bereich Suche<br />

• Das System bietet im Wesentlichen drei Suchwege.<br />

• Der User durchstöbert die Lesezeichen, die von der Startseite aus in umgekehrt<br />

chronologischer Reihenfolge erreichbar sind.<br />

• Eine Volltextsuche durchsucht alle Elemente der Lesezeichen.<br />

• Tagclouds zeigen die vergebenen Tags in Wolkenform an. Dabei werden<br />

häufig vergebene Tags größer dargestellt als weniger häufig vergebene<br />

Tags. Tagclouds werden an verschiedenen Stellen im System angezeigt<br />

<strong>und</strong> basieren dabei jeweils auf unterschiedlichen Ressourcen, abhängig<br />

davon, im welchem Kontext sie angezeigt werden. D.h. es gibt eine eigene<br />

Tagcloud für einzelne User, Gruppen <strong>und</strong> für das Gesamtsystem, mit<br />

denen auf die jeweiligen Teilmengen zugegriffen werden kann.<br />

Bereich Kooperation<br />

• Zusammenarbeit ermöglicht das System auf verschiedenen Ebenen:<br />

• Das System zeigt an, wie oft eine Ressource als Lesezeichen angelegt<br />

wurde. Neben der Anzahl werden aber auch die einzelnen User <strong>und</strong> die<br />

von ihnen vergebenen Tags angezeigt.<br />

• User können sich zu Gruppen zusammenschließen. Gruppen erhalten<br />

eine eigene Tagcloud <strong>und</strong> eine chronologische Auflistung der Ressourcen<br />

der Gruppe. So wird der Aufbau einer systematischen Themensammlung<br />

in der Gruppe unterstützt. Inwieweit die Zusammenarbeit in Gruppen<br />

zur Qualitätssteigerung der einzelnen Ressourcen beitragen kann,<br />

muss noch im Detail untersucht werden [Noll, Au Yeung, Gibbins, Meinel<br />

& Shadbolt, 2009].<br />

• Einzelne User können sich gegenseitig als Fre<strong>und</strong>e markieren. Damit ist<br />

ein Einblick in die Sammlung der einzelnen User möglich.<br />

• Neben den Tags <strong>und</strong> Beschreibungen, die bei der Anlage der Lesezeichen<br />

vergeben werden, können User Kommentare zu Lesezeichen anle-


118 Richard Heinen, Ingo Blees<br />

gen, über die eine Diskussion zu den Ressourcen <strong>und</strong> ihren Einsatzmöglichkeiten<br />

im Unterricht möglich ist.<br />

2.2.2 Weiterentwicklung in einer Fokusgruppe<br />

Das Basiskonzept <strong>und</strong> der darauf aufbauende Prototyp wurden in einer Fokusgruppe<br />

mit Lehrkräften diskutiert. Die Methode der Fokusgruppe bot sich<br />

an, da das zu bewertende Produkt noch in einem unfertigen Zustand vorlag<br />

<strong>und</strong> so einfach <strong>und</strong> schnell ein Feedback zum Prototypen eingeholt werden<br />

konnte [Morgan, 1997]. Die Mitglieder der Fokusgruppe wurden unter verschiedenen<br />

Aspekten ausgewählt.<br />

Ein Teil der Gruppe unterrichtet an Schulen, in denen Schüler/-innen <strong>und</strong><br />

Lehrkräfte über eine Ausstattung mit individuellen Endgeräten verfügen. In<br />

diesen Schulen ist der Einsatz digitaler Medien im Unterricht an der Tagesordnung<br />

<strong>und</strong> der Bedarf an guten digitalen Ressourcen entsprechend hoch.<br />

Der Austausch von Ressourcen erfolgt bei diesen Lehrkräften meist per E-<br />

Mail oder über den Schulserver.<br />

Weitere Teilnehmende unterrichten an Schulen, die den Einsatz von LMS<br />

(Lernmanagementsystemen) bereits etabliert haben. In diesen Schulen werden<br />

digital vorliegende Ressourcen über ein LMS an Schüler/-innen verteilt.<br />

Hausaufgaben können darüber eingesammelt werden. Funktionalitäten zum<br />

systematischen Aufbau von Sammlungen mit online verfügbaren Ressourcen<br />

enthalten gängige LMS jedoch nicht.<br />

Eine dritte Gruppe von Lehrkräften kam von Schulen, die zwar über eine,<br />

nach eigener Einschätzung, akzeptable technische Ausstattung, aber weder<br />

über eine systematisch genutzte Lernplattform, noch über etablierte Formen<br />

der Medienarbeit im Unterricht, noch über erprobte Formen der Kooperation<br />

in der mediengestützten Unterrichtsvorbereitung verfügen.<br />

Allen Teilnehmenden war gemein, dass sie der Kooperation im Kollegium<br />

einen hohen Stellenwert beimaßen, für die eigene Schule aber ein zu<br />

geringes Maß an Kooperation konstatierten.<br />

In der Gruppe wurden Konzept <strong>und</strong> Prototyp unter vier Aspekten diskutiert:<br />

1. Funktionalitäten, die erforderlich oder weniger gewünscht sind<br />

2. Umgang mit persönlichen Daten auf der Plattform<br />

3. Unterstützung beim Taggen von Ressourcen<br />

4. Exportmöglichkeiten <strong>und</strong> Suchhilfen


Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften 119<br />

Die Diskussionen der Fokusgruppe lassen sich folgendermaßen zusammenfassen:<br />

1. Es werden vor allem Funktionalitäten erwartet, die die Kernaufgabe des<br />

Systems unterstützen. Bereits bei der Implementierung von allgemeinen<br />

Diskussionsforen <strong>und</strong> Kommentierungsmöglichkeiten einzelner Ressourcen<br />

findet sich keine eindeutige Mehrheit. Gemeinsam wurde die Aussage<br />

erarbeitet, dass ein System erwartet wird, das nicht die Aufgaben<br />

anderer Plattformen ersetzt, sondern sich auf die definierte Aufgabe der<br />

digitalen Verwaltung online verfügbarer Ressourcen konzentriert.<br />

2. Die Frage der persönlichen Daten auf der Plattform wurde kontrovers<br />

diskutiert. Die Meinungen sind zwischen zwei extremen Positionen angesiedelt.<br />

Die eine setzt auf möglichst weitgehende Datenvermeidung,<br />

sowohl bei der Registrierung als auch bei der Anzeige gegenüber anderen<br />

Usern, die andere sieht ausführliche Daten über die einzelnen User<br />

als Qualitätsmerkmal. Im Ergebnis fand die Gruppe zu dem Konsens,<br />

dass bei der Registrierung nur die rechtlich erforderlichen Daten erhoben<br />

werden sollten, während die Nutzerprofile optional mit weitergehenden<br />

<strong>Information</strong>en angereicht werden können.<br />

Besonders im Kontext des Umgangs mit persönlichen Daten wurde von<br />

allen Teilnehmenden der Fokusgruppe die Meinung geäußert, es sei<br />

wichtig, ein System zu schaffen, das durch einen öffentlichen, nicht kommerziellen<br />

<strong>und</strong> in Deutschland angesiedelten Dienstleister zur Verfügung<br />

gestellt wird.<br />

3. Unter dem Aspekt der Tagginghilfen wurden klar konkrete Tag-Vorschläge<br />

gefordert, die sich aus den eigenen Tags der User, den Tags der<br />

Gruppen, denen die User angehören, <strong>und</strong> den Tags, die andere für eine<br />

bestimmte Ressource verwendet haben, zusammensetzen. Die Steuerung<br />

<strong>frei</strong>er Tags durch Autovervollständigung mit einer hinterlegten Taxonomy<br />

wurde weder positiv noch negativ gewertet. Hier zeigt die Fokusgruppe<br />

eine abwartende, aber offene Haltung.<br />

4. Im Rahmen der Konzeptvorstellung wurden Ideen präsentiert, Suchergebnisse<br />

als Scorm-Paket, als RSS-Feeds oder in einer anderen Form,<br />

die zum Import in ein LMS geeignet ist, zu entwickeln. Ebenso wurde<br />

angeregt, Hilfe für einen teilautomatisierten Import bestehender Sammlungen<br />

in das System zu entwickeln. Beide Angebote wurden von der<br />

Fokusgruppe nicht positiv bewertet. Hingegen wurde eine intuitiv bedienbare<br />

<strong>und</strong> differenzierte Suchfunktion gefordert. Begründet wurde<br />

dies damit, dass es zur Zeit kaum importgeeignete Ressourcensammlun-


120 Richard Heinen, Ingo Blees<br />

gen gebe. Auch beim Export setzen die Teilnehmenden eher auf manuelle<br />

Übertragung, da hier viele unterschiedliche Szenarien genannt wurden,<br />

wie die Verwendung in Arbeitsblättern oder in Webquests, die Einbindung<br />

in Aufgaben etc.<br />

Die Ergebnisse der Diskussion der Fokusgruppe bestätigten die bisherige<br />

Entwicklung des Prototypen, setzten aber an einigen Stellen wichtige Akzente,<br />

die nun in die Weiterentwicklung des Prototypen einfließen.<br />

2.2.3 Erprobungsszenarien<br />

Eine zweite Version des Prototypen, die dann auch bereits zum produktiven<br />

Einsatz einer betreuten Gruppen geeignet ist, wird seit November 2010 mit<br />

verschiedenen Testgruppen erprobt. Hierbei werden drei Szenarien realisiert:<br />

• Nutzung durch eine Gruppe in einer Schule;<br />

• Nutzung durch Einzellehrer mit einem Thema in einer Region;<br />

• Nutzung durch eine Gruppe von Einzellehrkräften b<strong>und</strong>esweit.<br />

Die Leitfragen für diese Phase orientieren sich an den Erkenntnissen zur Lehrerkooperation,<br />

die am Anfang des Artikels dargestellt wurden:<br />

• Kann ein Social-Bookmarking-Dienst die Kooperation von Lehrkräften<br />

unterstützen?<br />

• Welche Rolle spielt dabei die Unterstützung durch die Schulleitung?<br />

• Welche Rolle spielt die konkrete Aufgabenstellung der Kooperation?<br />

• Kommt es zu einer differenzierten Rollenaufteilung?<br />

• Ist der gemeinsame Arbeitskontext für die Kooperation wichtig?<br />

3 Ausblick<br />

Mit edutags wird ein passgenaues Tool für die Kooperation von Lehrkräften<br />

bei der Sammlung, inhaltlichen Erschließung <strong>und</strong> Bewertung für den Unterrichtseinsatz<br />

entwickelt. Der Deutsche Bildungsserver kann zugleich das<br />

Kernangebot an redaktionellen Inhalten in seinen Themenkatalogen mit einem<br />

Pool von mit fachlicher Expertise ausgewählten Online-Ressourcen<br />

anreichern. Die selektive Übernahme des mit edutags aggregierten <strong>und</strong> er-


Social Bookmarking als Werkzeug für die Kooperation von Lehrkräften 121<br />

schlossenen Contents in den redaktionellen Bestand wird erleichtert durch<br />

die Verbindung von Folksonomy <strong>und</strong> Taxonomie.<br />

Vom Social Tagging auf edutags wird eine Verbesserung des Vokabulars<br />

zur inhaltlichen Erschließung hinsichtlich Aktualität <strong>und</strong> Berücksichtigung<br />

von Nutzerinteressen ebenso erwartet wie Einsatzmöglichkeiten der Folksonomy<br />

für Retrieval [Hotho, Jäschke, Schmitz & Stumme, 2006] <strong>und</strong> Browsing,<br />

z.B. in Form von Suchtermvorschlägen <strong>und</strong> tag-generierten Empfehlungen<br />

[Peters, 2009]. Diese Einsatzfelder werden Gegenstand weiterer Untersuchungen<br />

im Projektkontext sein.<br />

Literaturverzeichnis<br />

Bauer, K. O. (2008). Lehrerinteraktion <strong>und</strong>- kooperation. In: Helsper, W., Böhme, J.<br />

(Hrsg.). Handbuch der Schulforschung, 839–856. Heidelberg: Springer.<br />

Bertram, J. (2009). Social Tagging – Zum Potential einer neuen Indexiermethode. In:<br />

<strong>Information</strong>: <strong>Wissen</strong>schaft <strong>und</strong> Praxis, 60(1), 19–26.<br />

Bianco, T. & Reinmann, G. (2008). Bloggen – Pflichtübung oder Passion? Eine empirische<br />

Untersuchung von Knowledge Blogs als Tool des persönlichen <strong>Wissen</strong>smanagements<br />

vor dem Hintergr<strong>und</strong> der Selbstbestimmungstheorie.<br />

http://www.imb-uni-augsburg.de/files/TamaraBianco_Masterarbeit_KnowledgeBlogs_Web.pdf<br />

(Zugriffsdatum: 10.1.2011)<br />

Eickelmann, B. (2009). Digitale Medien in Schule <strong>und</strong> Unterricht erfolgreich implementieren:<br />

Eine empirische Analyse aus Sicht der Schulentwicklungsforschung.<br />

Münster: Waxmann.<br />

Heinen, R. (2010). Nachhaltige Integration digitaler Medien in Schulen aus Sicht der<br />

Educational Governance. In: Schroeder, U. (Hrsg.). Interaktive Kulturen – Workshop-Band,<br />

231–238. Berlin: Logos Verlag.<br />

Hotho, A., Jäschke, R., Schmitz, C. & Stumme, G. (2006). <strong>Information</strong> Retrieval in<br />

Folksonomies: Search and Ranking. In: Sure, Y., Domingue, J. (eds.): The Semantic<br />

Web: Research and Applications. Lecture Notes in Computer Science,<br />

Volume 4011, 411–426.<br />

Ihme, T. A., Möller, J. & Pohlmann, B. (2009). Effekte von Kooperation auf die<br />

Qualität von Lehrmaterial. In: Zeitschrift für Pädagogische Psychologie, 23(3),<br />

259–263.


122 Richard Heinen, Ingo Blees<br />

Kolbe, F. U., Reh, S., Coelen, T. & Otto, H. (2008). Kooperation unter Pädagogen.<br />

In: Coelen, T., Otto, H.-U. (Hrsg). Gr<strong>und</strong>begriffe Ganztagsbildung, 799–808.<br />

Heidelberg: Springer.<br />

Legters, N. E. (1999). Teacher collaboration in a restructuring urban high school.<br />

Center for Research on the Education of Students Placed at Risk, Johns Hopkins<br />

University & Howard University.<br />

Little, J. (1990). The persistence of privacy: Autonomy and initiative in teachers’<br />

professional relations. In: The Teachers College Record, 91(4), 509–536.<br />

Morgan, D. L. (1997). Focus groups as qualitative research. Sage Publications, Inc.<br />

Noll, M. G., Au Yeung, C., Gibbins, N., Meinel, C. & Shadbolt, N. (2009). Telling<br />

experts from spammers: Expertise ranking in folksonomies. In: Proceedings of<br />

the 32nd international ACM SIGIR conference on Research and development in<br />

information retrieval, 612–619.<br />

Obolenski, A. (2006). Kooperation von Pädagoginnen <strong>und</strong> Pädagogen als Bestandteil<br />

professionellen Handelns. In: Spies, A., Tredop, D. (Hrsg). „Risikobiografien“ –<br />

Benachteiligte Jugendliche zwischen Ausgrenzung <strong>und</strong> Förderprojekten, 267 bis<br />

280. Heidelberg: Springer.<br />

Peters, I. (2009): Folksonomies. Indexing and Retrieval in Web 2.0. Berlin: De<br />

Gruyter Saur.<br />

Schönknecht, G. (1997). Innovative Lehrerinnen <strong>und</strong> Lehrer. Weinheim: Dt. Studien-<br />

Verlag.<br />

Westrup, D., Vervenne, M. & Kerres, M. (2010). Die Implementierung des SCORM<br />

Standards <strong>und</strong> dessen Implikationen für zukünftige Lehr-/Lernszenarien auf Basis<br />

von Drupal. In: Schroeder, U. (Hrsg.), Interaktive Kulturen – Workshop-Band,<br />

275–280. Berlin: Logos Verlag.


T-Index als Stabilitätsindikator für dokument-spezif. Tag-Verteilungen 123<br />

Der T-Index als Stabilitätsindikator für<br />

dokument-spezifische Tag-Verteilungen<br />

Jens Terliesner, Isabella Peters<br />

Heinrich-Heine-Universität, Abteilung für <strong>Information</strong>swissenschaft<br />

Universitätsstr. 1, D-40225 Düsseldorf<br />

{jens.terliesner | isabella.peters}@uni-duesseldorf.de<br />

Zusammenfassung<br />

Studien zeigen, dass die Form von dokument-spezifischen Tag-Verteilungen<br />

in Broad Folksonomies nach einem gewissen Zeitraum stabil bleibt, sich also<br />

auch mit steigender Anzahl von Tags <strong>und</strong> Taggern nicht ändert. Die Frage,<br />

welche Bedingungen zur Stabilität führen, ist dagegen noch nicht in der Forschung<br />

geklärt. Daher wird hier eine Methode zur Bestimmung von Stabilität<br />

erläutert sowie der T-Index als Stabilitätsindikator eingeführt.<br />

Abstract<br />

Research shows that in broad folksonomies the shape of document-specific<br />

tag distributions remains stable after a certain point in time and that it is not<br />

influenced by increasing numbers of tags or taggers. The question <strong>und</strong>er<br />

which particular conditions tag distributions become stable is not well discussed<br />

yet. The paper presents an approach for determination of stability and<br />

introduces the t-index as an indicator for stability.<br />

1 Einführung<br />

Im Web 2.0 sind immer mehr Dienste anzutreffen, die bei der Erschließung<br />

der durch die Nutzer bereitgestellten Dokumente auf Folksonomies (Peters,<br />

2009) setzen. Unterscheiden können wir hier nach Vander Wal (2005) Broad<br />

Folksonomies, die die Mehrfachvergabe von gleichen Tags für ein Dokument<br />

erlauben, <strong>und</strong> Narrow Folksonomies, die lediglich aus den Tags des Autors


124 Jens Terliesner, Isabella Peters<br />

bestehen. Daher ist auch nur bei Broad Folksonomies die Bildung einer dokument-spezifischen<br />

Tag-Verteilung möglich. Dokument-spezifische Tag-<br />

Verteilungen nennen wir „Docsonomy“.<br />

Zahlreiche Studien (Maass, Kowatsch & Münster, 2007; Maier & Thalmann,<br />

2007; Robu, Halpin & Shepherd, 2009) zu Tag-Verteilungen haben ergeben,<br />

dass sobald eine kritische Masse von Dokumenten mit einer hinreichenden<br />

Menge an Tags versehen ist, die Tag-Zuordnung auch über längere<br />

Zeiträume weitestgehend konstant bleibt: “the objects will stabilize once<br />

enough objects are tagged” (Maarek et al., 2006). Kipp <strong>und</strong> Campbell (2006)<br />

beobachten ebenfalls diesen Zusammenhang: “Furthermore, early research<br />

suggests that when a URL acquires a certain number of taggers, the most<br />

common terms tend to remain stable”. Die Stabilität betrifft dabei die Form<br />

der Tag-Verteilung. Die relative Häufigkeit der indexierten Tags, jedoch<br />

nicht ihre absolute Zahl, bleibt nach Erreichen der Verteilungsform konstant<br />

bzw. verhält sich skaleninvariant.<br />

Welche Bedingungen zur Stabilität von Docsonomies führen können bzw.<br />

mit welchen Kennwerten sie festgestellt werden kann, wurde in der Forschungsliteratur<br />

noch nicht detailliert diskutiert. Lediglich Robu, Halpin <strong>und</strong><br />

Shepherd (2009) präsentieren mithilfe der Kullback-Leibler-Divergenz einen<br />

Ansatz zur Berechnung der Stabilität von Tag-Verteilungen. Mit dieser<br />

Methode, die auf der relativen Entropie von zwei Verteilungen basiert, konnten<br />

sie die Skaleninvarianz von Tag-Verteilungen bestätigen: “If the Kullback-Leibler<br />

divergence between two consecutive time points or between<br />

each step and the final one becomes zero (or close to zero), it indicates that<br />

the shape of the distribution has stopped evolving” (Robu, Halpin & Shepherd,<br />

2009, 12).<br />

Das <strong>Wissen</strong> um die Stabilität von Docsonomies hat immensen Nutzen für<br />

die informationswissenschaftliche Praxis <strong>und</strong> den effektiven Umgang mit<br />

<strong>Wissen</strong>sbeständen im Web 2.0. Denn können die Ergebnisse der oben genannten<br />

Studien bestätigt werden <strong>und</strong> können Kennwerte (z.B. Gesamtzahl<br />

der Tagger, Gesamtzahl der Tags, Anzahl der Unique Tags 1 oder Anzahl Monate<br />

nach dem ersten Tagger) ermittelt werden, die den Zeitpunkt der Stabilität<br />

markieren bzw. ihn vorhersagen, wäre es bspw. möglich, das Tag-<br />

Inventar der Docsonomy als ihr kontrolliertes Vokabular anzusehen. Dieses<br />

wäre dann durch die kollektive Intelligenz (Surowiecki, 2004) der Nutzer-<br />

1 „Unique Tags“ spiegeln die Anzahl der Rangplätze der Docsonomy wider.


T-Index als Stabilitätsindikator für dokument-spezif. Tag-Verteilungen 125<br />

schaft geprüft <strong>und</strong> bestimmt worden (Kipp & Campbell, 2006). Auch das<br />

Ausnutzen von sog. „Power Tags“ im <strong>Information</strong> Retrieval (Peters & Stock,<br />

2010) wäre so möglich. Der umgekehrte Fall, also das Bemerken eines Bruches<br />

in der Stabilität von Tag-Verteilungen, kann ebenso in der Praxis hil<strong>frei</strong>ch<br />

sein, weist er doch auf eine veränderte Nutzung der sprachlichen Bezeichnungen<br />

innerhalb der Docsonomies hin. Hier ließen sich dann möglicherweise<br />

Trends, Phänomene des Sprachwandels oder Änderungen in den<br />

Sichtweisen auf Dokumente erkennen.<br />

Daher wird im Folgenden ein Ansatz zur Berechnung der Stabilität von<br />

Docsonomies vorgestellt <strong>und</strong> der T-Index als Kennwert eingeführt, der das<br />

Verhältnis von Unique Tags zu der Gesamtanzahl der vergebenen Tags in der<br />

Docsonomy wiedergibt. Darüber hinaus können wir durch die Analyse von<br />

116 Docsonomies zeigen, dass der mit unserer Methode ermittelte Wert der<br />

Stabilität stark positiv mit dem T-Index korreliert <strong>und</strong> der T-Index deswegen<br />

als Stabilitätsindikator für Docsonomies eingesetzt werden kann.<br />

2 Studie zur Stabilität von Docsonomies<br />

Um Berechnungen zu <strong>und</strong> Aussagen über die Stabilität von Docsonomies<br />

treffen zu können, muss zunächst definiert werden, was Stabilität in diesem<br />

Kontext meint. Wir können in Tagging-Systemen niemals davon ausgehen,<br />

dass Docsonomies absolute Stabilität erreichen, da Nutzer immer wieder auf<br />

sie zugreifen <strong>und</strong> Tags hinzufügen werden. Zum Zwecke der Operationalisierung<br />

von Docsonomies werden wir zunächst vereinfachte Annahmen treffen,<br />

um später eine Bewertungsgr<strong>und</strong>lage für den T-Index zu haben.<br />

2.1 Erstellung des Datensatzes<br />

Für die Analyse wird aus dem Social-Bookmarking-Dienst delicious 2 eine<br />

zufällige Auswahl von 116 Docsonomies heruntergeladen, in denen mindestens<br />

einmal der Tag „folksonomy“ verwendet wurde <strong>und</strong> die mindestens<br />

100 Tagger aufweisen.<br />

2 http://www.delicious.com.


126 Jens Terliesner, Isabella Peters<br />

Die Docsonomies des Datensatzes unterscheiden sich in der Anzahl der<br />

Tagger (siehe Tabelle 1), nach der Anzahl der Unique Tags <strong>und</strong> der Gesamtzahl<br />

der vergebenen Tags (siehe Tabelle 2). Nach genau 1.000 Taggern variiert<br />

die Anzahl der Unique Tags stark <strong>und</strong> liegt zwischen 325 <strong>und</strong> 882; gleiches<br />

gilt für die Gesamtzahl der vergebenen Tags. Zu einem ähnlichen<br />

Ergebnis sind auch Dellschaft <strong>und</strong> Staab (2010) gekommen, welche nach<br />

5.000 vergebenen Tags zwischen 430 <strong>und</strong> 1.900 Unique Tags gezählt haben.<br />

Tabelle 1: Charakteristika der Docsonomies: Anzahl der Docsonomies.<br />

# Tagger 100–200 200–500 500–1.000 1.000–2.000<br />

# Docsonomies 26 29 25 36<br />

Tabelle 2: Charakteristika der Docsonomies: Anzahl der Tags.<br />

# Tagger exakt 100 200 500 1.000<br />

# Unique Tags (min/max) 40/159 83/247 181/448 325/882<br />

# Gesamttags (min/max) 176/551 336/1.021 921/2.520 2.311/4.629<br />

# Dokumente mit mindestens<br />

x Taggern<br />

116 90 61 36<br />

2.2 Definition von Stabilität<br />

Stabilität bedeutet hier, dass eine Konsolidierung der relativen Häufigkeit<br />

aller Tags einer Docsonomy stattfindet. Die relative Häufigkeit eines Tags<br />

wird dabei bestimmt als Quotient aus Vergabehäufigkeit des Tags <strong>und</strong> der<br />

Gesamtzahl der vergebenen Tags der Docsonomy. Dadurch erhält man für<br />

jeden Tag seinen Anteil an der Gesamtmenge. Dies entspricht der Formel<br />

at(x)<br />

w t(x)<br />

=<br />

gt<br />

wobei t der untersuchte Zeitpunkt ist. Der Rangplatz, der immer denselben<br />

Tag repräsentiert, ist x, der Wert an Rangplatz x zum Zeitpunkt t ist wt(x).<br />

Die Anzahl des Auftretens von Tag x zum Zeitpunkt t ist at(x) <strong>und</strong> die Gesamtzahl<br />

aller Tags zum Zeitpunkt t ist gt.<br />

Um die Stabilität von Tag-Verteilungen bestimmen zu können, müssen<br />

zunächst Vergleichsobjekte geschaffen werden. Wir sehen die Tag-Verteilung<br />

zum Downloadzeitpunkt (samt Rangfolge der Tags) als Referenzverteilung<br />

an. Es wird mit Maier <strong>und</strong> Thalmann (2007) <strong>und</strong> Golder <strong>und</strong> Huberman<br />

(2005) angenommen, dass eine Docsonomy umso stabiler ist, je mehr Benut-


T-Index als Stabilitätsindikator für dokument-spezif. Tag-Verteilungen 127<br />

zer Tags hinzugefügt haben. Daher hat die letzte bekannte Verteilung die<br />

größte Wahrscheinlichkeit stabil zu sein <strong>und</strong> gilt deshalb als Referenz.<br />

Ein anderer Indikator für die Stabilität von Docsonomies wurde in der<br />

Anzahl der Rangvertauschungen innerhalb einer Docsonomy vermutet. Die<br />

Vertauschungen werden berechnet, indem zu jedem Zeitpunkt alle Tags nach<br />

Häufigkeit des Auftretens sortiert werden. Nun wird nach jedem hinzugefügten<br />

Tag überprüft, ob sich nach erneuter Sortierung die Reihenfolge der<br />

Tags geändert hat. Bei diesen Berechnungen wurden Tags, die gleich häufig<br />

genutzt wurden, als ein Rangplatz angesehen. Durch das Hinzufügen eines einzelnen<br />

Tags kann daher nur eine einzige Rangplatzvertauschung ausgelöst<br />

werden. Daraus folgt, dass durch einen Tagger maximal so viele Rangvertauschungen<br />

ausgelöst werden können, wie Tags vom Tagger hinzugefügt wurden.<br />

Die Analyse der 116 Docsonomies hat ergeben, dass die Anzahl der<br />

Rangvertauschungen nicht signifikant abnimmt, umso öfter eine Docsonomy<br />

getaggt wurde. Vielmehr scheinen die Vertauschungen nahezu zufällig im<br />

Verlauf einer Docsonomy zu sein. Maier <strong>und</strong> Thalmann (2007) haben in<br />

einem Versuch nur die ersten 10% bzw. die ersten 20% aller Rangplätze beobachtet<br />

<strong>und</strong> im Laufe einer Folksonomy einen deutlichen Rückgang der<br />

Vertauschungen festgestellt. Das deutet daraufhin, dass die meisten Rangvertauschungen<br />

auf den hinteren Rangplätzen der Verteilung stattfinden.<br />

Da hier die Stabilität der gesamten Docsonomy bestimmt werden soll,<br />

kann die Anzahl der Rangvertauschungen somit nicht als Indikator für Stabilität<br />

gelten.<br />

2.3 Berechnung von Docsonomies <strong>und</strong> ihrer Stabilität<br />

Nach jedem Tagger, der einer Docsonomy Tags hinzufügt, kann sich die<br />

Tag-Verteilung einer Docsonomy geändert haben. Jede Tag-Verteilung, die<br />

beim Hinzukommen weiterer Tags durch einen Tagger entsteht, wird mit der<br />

Referenzverteilung abgeglichen. Bei der Erstellung der Tag-Verteilungen ist<br />

zu beachten, dass die Rangfolge der Tags durch die Verteilung zum Downloadzeitpunkt<br />

vorgegeben ist. Das bedeutet, ein Tag befindet sich zu jedem<br />

Zeitpunkt auf demselben Rangplatz. Der Abgleich kann stattfinden indem die<br />

Fläche 3 zwischen den beiden Graphen ermittelt wird. Dabei gilt: je kleiner<br />

die Fläche, desto ähnlicher sind sich die beiden Tag-Verteilungen (siehe Abbildung<br />

1). Die Berechnung der Fläche erfolgt durch die Summierung der<br />

3 Zum Zwecke der Anschaulichkeit wird hier von Fläche gesprochen.


128 Jens Terliesner, Isabella Peters<br />

Differenzen (als Betrag) der beiden relativen Tag-Häufigkeiten an jedem<br />

Rangplatz. So ergibt sich für jeden Verteilungsvergleich ein einziger Wert,<br />

den wir hier als „Differenz“ bezeichnen.<br />

Die Differenz d(t1,t2) entspricht der Formel<br />

u 1<br />

d ( t1,<br />

t 2 ) = ∑ | w t1( x)<br />

− w t 2(<br />

x)<br />

|<br />

2 x=<br />

1<br />

Die Anzahl der Unique Tags zum Zeitpunkt t2 ist u. Es werden die Zeitpunkte<br />

t1 <strong>und</strong> t2 einer Tag-Verteilung betrachtet, wobei stets gilt t1 ist kleiner<br />

als t2. t1 <strong>und</strong> t2 ergeben sich aus den Zeitpunkten an denen Nutzer Tags zu der<br />

Docsonomy hinzufügen. Diese werden durchnummeriert <strong>und</strong> nehmen die<br />

Werte von 1 bis u an. Um zu verhindern, dass Werte von d(t1,t2) > 1 entstehen,<br />

wird eine Division durch 2 vorgenommen. Der Wert der Differenz liegt<br />

daher im Intervall zwischen 0 <strong>und</strong> 1 4 . Die Flächen unter den Graphen einer<br />

einzelnen Verteilung zu verschiedenen Zeitpunkten sind immer gleich groß<br />

(da sich die Werte aller Rangplätze zu 1 aufsummieren). Verteilungen derselben<br />

Docsonomy sind vergleichbar, da es sich bei den Verteilungen um<br />

relative Tag-Häufigkeiten handelt.<br />

Abbildung 1: Die Tag-Verteilungen einer Docsonomy zu zwei verschiedenen Zeitpunkten<br />

t1 <strong>und</strong> t2.<br />

4 Dies hat später auch den Vorteil, dass die Differenz für dasselbe Intervall wie der T-<br />

Index definiert ist.


T-Index als Stabilitätsindikator für dokument-spezif. Tag-Verteilungen 129<br />

Da wir mit dieser Methode immer die letzte bekannte Verteilung als Referenz<br />

nehmen, wird der Wert der Differenz zum letzten bekannten Zeitpunkt<br />

zu 0. Daher kann die Differenz nicht als alleiniger Indikator für die Stabilität<br />

von Tag-Verteilungen gelten <strong>und</strong> ein anderer Indikator muss für die Stabilitätsbestimmung<br />

eingeführt werden. Die Einführung eines Schwellenwertes<br />

würde nur bedingt Abhilfe schaffen, da hier zunächst empirisch ermittelt<br />

werden müsste, ab welchen Werten zwei Docsonomies noch ähnlich <strong>und</strong><br />

damit stabil bzw. nicht mehr ähnlich <strong>und</strong> damit nicht mehr stabil sind. Außerdem<br />

besteht bei dieser Methode das Problem, dass die Referenzverteilung<br />

nur für einen Zeitpunkt gültig ist. Zukünftige Änderungen der Docsonomy<br />

können nicht berücksichtigt werden. Nichtsdestotrotz haben wir mit dieser<br />

Methode die gr<strong>und</strong>legenden Daten geschaffen, die die Evaluation des T-<br />

Index ermöglichen.<br />

3 Berechnung des T-Indexes<br />

Der Quotient aus der Anzahl der Unique Tags <strong>und</strong> der Anzahl der insgesamt<br />

vergebenen Tags wird im Rahmen dieses Artikels als T-Index bezeichnet.<br />

Der Buchstabe T steht für tariert (im Gleichgewicht). Der T-Index ist unabhängig<br />

von einer Referenzverteilung <strong>und</strong> kann zu jedem beliebigen Zeitpunkt<br />

mit folgender Formel berechnet werden:<br />

Anzahl Unique Tags<br />

T ( t)<br />

=<br />

Anzahl Gesamttags<br />

Der Kehrwert von T entspricht der durchschnittlichen Nutzung jedes Unique<br />

Tags. T


130 Jens Terliesner, Isabella Peters<br />

immer weniger neue Tags zu einer Docsonomy hinzugefügt, dass bedeutet,<br />

es kommen immer weniger neue <strong>Information</strong>en hinzu. Dieses Verhältnis<br />

spiegelt sich ebenfalls im T-Index wider.<br />

Um zu zeigen, dass der T-Index als Indikator für Stabilität gelten kann,<br />

wird die Beziehung zwischen der Differenz <strong>und</strong> dem T-Index bei jedem<br />

Zeitpunkt t mittels des Pearson-Korrelationskoeffizienten geprüft.<br />

4 Ergebnisse der Studie<br />

Wenn der T-Index die Stabilität einer Docsonomy wiedergibt, so muss auch<br />

der Wert des T-Indexes stabil werden. Um diese These zu überprüfen, werden<br />

für die 116 Docsonomies Grafiken erzeugt, die den Wert des T-Indexes<br />

<strong>und</strong> den Wert der Differenz zur Referenzverteilung aufzeigen. Auf der x-<br />

Achse ist die Anzahl der Tagger aufgetragen. Auf der y-Achse sind die Werte<br />

des T-Indexes bzw. die Werte der Differenz aufgetragen (siehe Abbildungen<br />

2 <strong>und</strong> 3).<br />

Es lässt sich erkennen, dass die Differenz zwischen einer Verteilung <strong>und</strong><br />

der Referenzverteilung <strong>und</strong> der Wert des T-Indexes in vielen Docsonomies<br />

sehr ähnlich verlaufen. Der Graph des T-Indexes verläuft in den meisten<br />

Docsonomies zum Ende nahezu waagerecht. Eine gruppenweise Analyse der<br />

Graphen nach Anzahl der Tagger hat ergeben, dass der Graph des T-Indexes<br />

in vielen Docsonomies aus der ersten Gruppe (100–200 Tagger) nicht waagerecht<br />

ist. In den folgenden Gruppen wird der Anteil von waagerecht verlaufenden<br />

Graphen höher. In der letzten Gruppe (1.000–2.000 Tagger) verlaufen<br />

alle Graphen für den T-Index waagerecht (siehe Abbildungen 2 <strong>und</strong> 3). Das<br />

bedeutet, dass der T-Index sich auf ein stabiles Niveau eingependelt hat. Das<br />

heißt auch, dass bei einem stabilen T-Wert von 0,2 durchschnittlich jeder<br />

fünfte Tag ein neuer Unique Tag ist, der von den Nutzern zur Docsonomy<br />

hinzugefügt wird.


T-Index als Stabilitätsindikator für dokument-spezif. Tag-Verteilungen 131<br />

Abbildung 2: T-Index <strong>und</strong> Differenz aus der ersten Gruppe (100–200 Tagger; links)<br />

<strong>und</strong> aus der zweiten Gruppe (200–500 Tagger; rechts).<br />

Abbildung 3: T-Index <strong>und</strong> Differenz aus der dritten Gruppe (500–1.000 Tagger;<br />

links) <strong>und</strong> aus der vierten Gruppe (1.000–2.000 Tagger; rechts).<br />

Der Anteil von Unique Tags zur Gesamtzahl vergebener Tags ist nahezu<br />

fest <strong>und</strong> ändert sich nur noch wenig (Abweichung


132 Jens Terliesner, Isabella Peters<br />

5 Fazit<br />

Die Form von Docsonomies wird im Laufe der Zeit stabil, d.h. trotz hinzukommender<br />

Tags ändert sich ihre Erscheinung nicht wesentlich. Die Bestimmung<br />

des Zeitpunkts wann diese Stabilität eintritt wurde bislang wenig<br />

diskutiert. Wir haben gezeigt, dass man die Stabilität einer Docsonomy mittels<br />

relativer Häufigkeit der Tags bestimmen sollte. Zudem wurde der T-<br />

Index als Stabilitätsindikator eingeführt, der unabhängig von einer Referenzverteilung<br />

berechnet werden kann. Die Studie hat gezeigt, dass alle Verläufe<br />

des T-Indexes waagerecht werden. Daher kann davon ausgegangen werden,<br />

dass der T-Index im Laufe einer Docsonomy immer stabil wird. Das bedeutet<br />

auch, dass in allen untersuchten Docsonomies der Wert des T-Indexes nahezu<br />

stetig sinkt oder er einen nahezu konstanten Wert erreicht. Für eine Implementierung<br />

des T-Indexes als Stabilitätsindikator muss ein Schwellenwert<br />

eingeführt werden, der sich entweder auf eine Anzahl von Taggern bezieht<br />

(bspw. n Tagger, bei denen sich der Wert des T-Indexes nahezu nicht ändert)<br />

oder der festgesetzt wird (bspw. n < 0,2).<br />

Darüber hinaus konnte durch die Überprüfung mit dem Pearson-Korrelationskoeffizienten<br />

festgestellt werden, dass die Differenz zweier Docsonomies<br />

basierend auf der Summe von relativen Tag-Häufigkeiten stark positiv<br />

mit dem T-Index in Beziehung steht. Daher lässt sich auch hier die Schlussfolgerung<br />

ziehen, dass der T-Index geeignet ist, die Stabilität von Docsonomies<br />

widerzuspiegeln.<br />

Es kann durchaus sein, dass der Wert des T-Indexes im weiteren Verlauf<br />

einer Docsonomy weiter sinken wird. Wodurch die Unterschiede des Wertes<br />

des T-Indexes in stabilen Docsonomies entstehen, kann an dieser Stelle nur<br />

vermutet werden. Es kann an dokumentspezifischen Eigenschaften liegen,<br />

wie der Anzahl an Tags, die eine Ressource beschreiben, an der Art des Dokuments<br />

(z.B. Foto, Webseite oder Video), am Content des Dokuments (z.B.<br />

unterschiedlich viele abgebildete Gegenstände im Foto) oder am unterschiedlichen<br />

Taggingverhalten der Nutzer. Weitere Forschungen sollten diese Fraugestellung<br />

bearbeiten. Dies könnte geschehen, indem verschiedene Arten von<br />

Ressourcen getrennt analysiert werden.


T-Index als Stabilitätsindikator für dokument-spezif. Tag-Verteilungen 133<br />

Danksagung<br />

Wir danken unseren Kollegen der HHU Düsseldorf für die Unterstützung bei<br />

der Erstellung dieser Studie sowie der Förderung durch die Deutsche Forschungsgemeinschaft<br />

(Kennzeichen STO 764/4-1).<br />

Literaturverzeichnis<br />

Dellschaft, C. & Staab, S. (2010). On Differences in the Tagging Behavior of Spammers<br />

and Regular Users. In Proceedings of the Web Science Conference, Raleigh,<br />

USA.<br />

Golder, S. & Huberman, B. (2005). The Structure of Collaborative Tagging Systems.<br />

Retrieved October, 25, 2010, from http://arxiv.org/abs/cs.dl/ 0508082.<br />

Kipp, M. & Campbell, D. (2006). Patterns and Inconsistencies in Collaborative Tagging<br />

Systems: An Examination of Tagging Practices. In Proceedings of the 17 th<br />

Annual Meeting of the American Society for <strong>Information</strong> Science and Technology,<br />

Austin, Texas, USA.<br />

Maarek, Y., Marnasse, N., Navon, Y. & Soroka, V. (2006). Tagging the Physical<br />

World. In Proceedings of the Collaborative Web Tagging Workshop at WWW<br />

2006, Edinburgh, Scotland.<br />

Maass, W., Kowatsch, T. & Münster, T. (2007). Vocabulary Patterns in Free-for-all<br />

Collaborative Indexing Systems. In Proceedings of International Workshop on<br />

Emergent Semantics and Ontology Evolution, Busan, Korea (pp. 45–57).<br />

Maier, R. & Thalmann, S. (2007). Kollaboratives Tagging zur inhaltlichen Beschreibung<br />

von Lern- <strong>und</strong> <strong>Wissen</strong>sressourcen. In R. Tolksdorf & J. Freytag (Eds.), Proceedings<br />

of XML Tage, Berlin, Germany (pp. 75–86). Berlin: Freie Universität.<br />

Peters, I. (2009). Folksonomies: Indexing and Retrieval in Web 2.0. Berlin: De<br />

Gruyter, Saur.<br />

Peters, I. & Stock, W. G. (2010). “Power Tags” in <strong>Information</strong> Retrieval. Library Hi<br />

Tech, 28(1), 81–93.<br />

Robu, V., Halpin, H. & Shepherd, H. (2009). Emergence of Consensus and Shared<br />

Vocabularies in Collaborative Tagging Systems. ACM Transactions on the Web,<br />

3(4), 1–34.<br />

Surowiecki, J. (2004). The Wisdom of Crowds. London: Little, Brown Book Group.<br />

Vander Wal, T. (2005). Explaining and Showing Broad and Narrow Folksonomies,<br />

Retrieved October 20, 201.<br />

http://www.vanderwal.net/random/entrysel.php?blog=1635


134 Jens Terliesner, Isabella Peters


T-Index als Stabilitätsindikator für dokument-spezif. Tag-Verteilungen 135<br />

Session 4:<br />

Infometrics & Representations


136 S. Hennicke, M. Olensky, V. de Boer, A. Isaac, J. Wielemaker<br />

A data model for cross-domain<br />

data representation<br />

The “Europeana Data Model”<br />

in the case of archival and museum data<br />

Steffen Hennicke 1 , Marlies Olensky 1 , Viktor de Boer 2 ,<br />

Antoine Isaac 2,3 , Jan Wielemaker 2<br />

1 Humboldt-Universität zu Berlin<br />

Institut für Bibliotheks- <strong>und</strong> <strong>Information</strong>swissenschaft<br />

Dorotheenstrasse 26, 10117 Berlin<br />

steffen.hennicke@ibi.hu-berlin.de, marlies.olensky@ibi.hu-berlin.de<br />

Abstract<br />

2<br />

Vrije Universiteit Amsterdam – Department of Computer Science<br />

De Boelelaan 1081a, 1081 HV Amsterdam<br />

v.de.boer@cs.vu.nl, aisaac@few.vu.nl, j.wielemaker@cs.vu.nl<br />

3 Europeana – Koninklijke Bibliotheek<br />

Prins Willem-Alexanderhof 5, 2509 LK Den Haag<br />

This paper reports on ongoing work about heterogeneous and cross-domain<br />

data conversion to a common data model in EuropeanaConnect. The “Europeana<br />

Data Model” (EDM) provides the means to accommodate data from<br />

different domains while mostly retaining the original metadata notion. We<br />

give an introduction to the EDM and demonstrate how important metadata<br />

principles of two different metadata standards can be represented by EDM:<br />

one from the library domain (“Bibliopolis”), and one from the archive domain<br />

based on the “Encoded Archival Description” (EAD) standard. We<br />

conclude that the EDM offers a feasible approach to the issue of heterogeneous<br />

data interoperability in a digital library environment.


A data model for cross-domain data representation 137<br />

1 Introduction<br />

The project Europeana was set up as part of the EU policy framework for the<br />

information society and media (i2010 strategy) aiming at the establishment of<br />

a single access point to the distributed European (digital) cultural heritage<br />

covering all four different domains: libraries, museums, archives and audiovisual<br />

archives. In November 2008 a first prototype of Europeana was released<br />

providing basic search functionalities over about two million digital<br />

object representations. Among other projects Europeana v1.0 and EuropeanaConnect<br />

work on completing Europeana’s technical components and architecture<br />

(cf. Concordia et al., 2010).<br />

2 Cross-domain interoperability<br />

Europeana will be a digital library, a digital museum, a digital archive and a<br />

digital audio-visual archive. Its object representations come from heterogeneous<br />

sources. Data heterogeneity is a general problem, whenever digital<br />

libraries need to interoperate. Thus, issues of cross-domain data representation<br />

and different structural and semantic problems need to be addressed.<br />

Previous efforts on metadata harmonization include standardization and mappings/crosswalks<br />

(cf. Chan et al., 2006 and Zeng et al., 2006). Haslhofer et<br />

al. (2010) distinguish between three categories of interoperability approaches:<br />

agreement on a certain model, agreement on a certain metamodel, and<br />

model reconciliation.<br />

The current metadata schema in use, the Europeana Semantic Elements<br />

(ESE) has solved the interoperability problem by agreeing on a common<br />

model and standardizing as well as converting the object metadata into flat,<br />

Dublin Core based representations. Thus, the original, richer metadata from<br />

the provider is lost during the conversion process. However, in the light of<br />

data enrichment, contextualization and semantic search functionalities it is<br />

important to use a data model that is able to reflect the richness of metadata<br />

from the original provider.<br />

The Europeana Data Model (EDM) was developed as a co-effort of Europeana<br />

v1.0 and EuropeanaConnect (Isaac et al., 2010). It is an approach


138 S. Hennicke, M. Olensky, V. de Boer, A. Isaac, J. Wielemaker<br />

which combines two categories of interoperability techniques: the agreement<br />

on a common meta-data model and model reconciliation, i.e. mappings<br />

(Haslhofer et al., 2010).<br />

In the following sections we will explain Europeana’s approach to overcome<br />

cross-domain data heterogeneity in order to provide useful access to<br />

Europe’s digital cultural heritage. To illustrate that this data model truly<br />

works across domains we will expand on two use cases taken from EuropeanaConnect’s<br />

ongoing work on data conversion. We have converted the<br />

Bibliopolis’ 1 metadata schema and the Encoded Archival Description 2 (EAD)<br />

standard into the EDM as part of proofing exercises. Bibliopolis is a database<br />

about the national history of the printed book in the Netherlands. The Encoded<br />

Archival Description (EAD) standard is maintained by the Library of<br />

Congress and is an established XML standard in the archival area.<br />

3 The Europeana Data Model<br />

To solve the problem of cross-domain data interoperability the EDM builds<br />

on the reuse of existing standards from the Semantic Web environment but<br />

does not specialize in any community standard (Doerr et al., 2010). The<br />

EDM acts as a top-level ontology consisting of elements from standards like<br />

OAI-ORE 3 , RDF(S) 4 , DC 5 and SKOS 6 and allows for specializations of these<br />

elements. Thus, richer metadata can be expressed through specializations of<br />

classes and properties. Some elements were defined in the Europeana namespace,<br />

yet contain referrals to other metadata standards. This allows for correct<br />

mappings and cross-domain interoperability.<br />

1 “Bibliopolis”: http://www.bibliopolis.nl/ [7.10.2010].<br />

2 “Encoded Archival Description”: http://www.loc.gov/ead/ [7.10.2010].<br />

3 “Open Archives Initiative Protocol – Object Exchange and Reuse”: http://www.openarchives.org/ore/<br />

[7.10.2010].<br />

4 “Resource Description Framework (Schema)”: http://www.w3.org/RDF/ [7.10.2010].<br />

5 “Dublin Core”: http://dublincore.org/ [7.10.2010].<br />

6 “Simplified Knowledge Organization System”: http://www.w3.org/2004/02/skos/<br />

[7.10.2010].


A data model for cross-domain data representation 139<br />

RDF(S) is used as an overall meta-model to represent the data. The ORE<br />

approach is used to structure the different information snippets belonging to<br />

an object and its representation. It follows the concept of aggregations<br />

(ore:Aggregation) and allows to distinguish between digital representations<br />

which are accessible on the Web and thus modeled as ens:Web-<br />

Resource and the provided object, e.g., represented as a ens:Physical-<br />

Thing. Furthermore, different, possibly conflicting views from more than<br />

one provider on the same object can be handled in EDM by using the proxy<br />

mechanism (ore:Proxy). The DCMI Metadata Terms describe the objects.<br />

SKOS is used to model controlled vocabularies which annotate the digital<br />

objects (Isaac et al., 2010).<br />

The EDM will replace the current metadata schema Europeana Semantic<br />

Elements (ESE) (Europeana v1.0, 2010) in the next release of Europeana<br />

(“Danube” release, scheduled for 2011). The ESE will then become an application<br />

profile of the EDM, which will thus be backwards compatible.<br />

4 Bibliopolis<br />

Bibliopolis is the electronic national history of the printed book in the Netherlands<br />

curated by the Dutch National Library. The collection consists of<br />

1,645 images related to book-printing. These images are described by metadata<br />

records and are accompanied by a thesaurus containing 1,033 terms used<br />

as keywords for describing and indexing the images. Both thesaurus and<br />

metadata are bilingual (English and Dutch).<br />

Figure 1 shows an example of a Bibliopolis object image and its metadata<br />

record. The Bibliopolis metadata is presented in an XML format and has a<br />

relatively simple ‘flat’ structure. Each object is represented by one metadata<br />

record inm:Record. 7 Individual metadata elements are denoted by single<br />

XML tags. The values of the metadata fields are free text terms, which can be<br />

present in the Bibliopolis thesaurus.<br />

The Bibliopolis example represents both the simple and the common case<br />

as many cultural heritage institutions have similarly structured metadata and<br />

7 “inm” is the original namespace of Bibliopolis. “bib” is the new namespace for the<br />

Bibliopolis data created during the conversion process.


140 S. Hennicke, M. Olensky, V. de Boer, A. Isaac, J. Wielemaker<br />

thesauri. This example shows how such ‘flat’ metadata is represented in<br />

EDM and demonstrates the use of some of the central features of the model.<br />

Figure 1: Example Bibliopolis metadata record and the described image<br />

Each inm:Record in the original metadata becomes a PhysicalThing-<br />

Proxy-Aggregation cluster in the EDM representation (cf. Figure 2). Each of<br />

these three EDM resources receives a URI, constructed by concatenating the<br />

Bibliopolis namespace prefix, the resource type (proxy-, etc.) and a guaranteed<br />

unique identifier, in this case the number (inm:NUMMER). By having a<br />

uniform URI creation scheme, objects referring to other objects can be easily<br />

represented in RDF by using URIs as objects. EDM specifies the relations<br />

that hold between these resources (ore:proxyIn, ore:aggregates, etc.)<br />

and these are added to the data.<br />

In EDM, the metadata describing the cultural heritage resource itself (e.g.,<br />

painting, book…) is attached to the ore:Proxy using DC Terms properties.<br />

The Bibliopolis metadata fields can be represented in EDM in two ways: In<br />

the case where an original field exactly matches a DC Terms property (for<br />

example inm:TITEL and dcterms:title), the DC Terms property is<br />

used directly. In the case where the match is not exact, a Bibliopolis property<br />

is created in RDF which is specified as being a sub-property of the appropriate<br />

DC Terms property (for example inm:TECHNIEK is a rdfs:subPro-


A data model for cross-domain data representation 141<br />

pertyOf of dcterms:medium). Interoperability at the EDM level is ensured<br />

through RDFS semantics by using this sub-property method.<br />

Some Bibliopolis metadata fields are actually the identical properties with<br />

different language values (for example inm:TITEL and inm:TITEL_EN).<br />

In EDM/RDF these are represented using the same property and a language<br />

tagged-RDF literal as value. Figure 2 shows an example.<br />

Figure 2:<br />

This RDF graph shows part of the converted metadata of a Bibliopolis object.<br />

In EDM associated web pages, thumbnail images and other web resources<br />

are attached to the aggregation. As Figure 2 shows, in the case of Bibliopolis,<br />

the landing page (the main access page for an object) is represented by<br />

bib:landingPage which is a sub-property of ens:landingPage and<br />

has the aggregation as subject. In EDM, the ens:PhysicalThing resource<br />

of the triangle does not have any properties itself and is only used to relate<br />

objects as described by multiple aggregators and represented then through<br />

multiple proxies. Also, the relation to a thesaurus (skos:Concept) is depicted.<br />

5 Encoded Archival Description (EAD)<br />

While Bibliopolis exemplifies a simple and very common case of object centric<br />

data representation, EAD represents finding aids which describe one or


142 S. Hennicke, M. Olensky, V. de Boer, A. Isaac, J. Wielemaker<br />

more archival collections which themselves consist of many files or items<br />

organized according to provenance in sequential order and in a contextualizing<br />

hierarchy. In other, non-archival terms we can say that an EAD file is one<br />

huge record containing many single objects which are contextualized by a<br />

hierarchical and sequential order.<br />

Several different EAD dialects exist each of which are subsets of the full<br />

EAD model. We use APEnet-EAD which is currently developed by the AP-<br />

Enet project 8 within the context of Europeana. However, the core notion and<br />

structure of an EAD representation remains the same.<br />

The eadheader element contains bibliographic and descriptive information<br />

to identify a finding aid document. Its sibling element archdesc holds<br />

information about the archival collection as a whole and – within subsequent<br />

descendant c elements – information about classes, series, subseries, files,<br />

and items represented in a hierarchical and sequential order. Files or items<br />

generally constitute the smallest unit within the archival description and potentially<br />

hold digital representations of the possibly many single items (e.g.,<br />

paper pages) it contains. All other intermediate levels normally structure the<br />

context for a file. The described structure is intrinsic to archival documentation<br />

practice and theory. The single file loses most of its information<br />

value if it is not properly represented within its context of provenance.<br />

The Bibliopolis example demonstrates central and standard features of the<br />

EDM and the conversion process like the mechanism of sub-properties for<br />

descriptive metadata or the creation and assignment of URIs to resources.<br />

Here we will focus on advanced features for the representation of hierarchical<br />

and sequential order in EDM.<br />

Figure 3 shows a simplified snippet from an EAD-XML representation of<br />

a finding aid of the Nationaal Archief in Den Haag. 9 The archdesc element<br />

contains several descriptive metadata fields which hold information about the<br />

title of the whole archival fond (unittitle), the time span the material<br />

covers (unitdate), a call number (unitid), the name of the repository<br />

where the material is kept (repository), and a summary of the contents<br />

8 APEnet project homepage: http://www.apenet.eu/ [18.10.2010].<br />

9 The original presentation of this archival fond can be fo<strong>und</strong> at http://tinyurl.com/EAD-<br />

NatArch [6.11.2010], the equivalent representation in ESE is at http://tinyurl.com/<br />

EAD-EurSemEle [6.11.2010], and a first technical demo of the EDM representation is<br />

available at http://tinyurl.com/EAD-EurDataMod [6.11.2010].


A data model for cross-domain data representation 143<br />

(scopecontent). Further down the hierarchy we see several c levels which<br />

are of different types: a series which contains a file which holds two items.<br />

All these levels have a call number and a title which are constitutive parts of<br />

the contextual description. The two items also link to digital representations<br />

(dao), e.g. digital images, of their contents.<br />

Figure 3: Simplified snippet from an EAD-XML representation of a finding aid of<br />

the Nationaal Archief in Den Haag.<br />

Figure 4 pictures a simplified graph representation of the example in figure<br />

3 which shows how hierarchies and sequences are modeled in EDM.<br />

Archdesc and each c level are represented by an aggregation with a proxy<br />

for the descriptive metadata. 10 The URI of a resource indicates the type of<br />

each level.<br />

10 All ens:PhysicalThing are omitted, ens:WebResource are displayed only for<br />

one of the items and the ens:Proxy only hold the title of each level.


144 S. Hennicke, M. Olensky, V. de Boer, A. Isaac, J. Wielemaker<br />

Figure 4: Simplified EDM representation of an EAD structure.<br />

During conversion the EAD hierarchy has been translated into a double<br />

hierarchy: The ore:aggregates properties between the aggregations mirror<br />

the XML-hierarchy of the documentation in the EAD file. At the same<br />

time these relations represent, on a more abstract level, the different level of<br />

genericity of digital object “packages” submitted via the EAD file to Europeana.<br />

The dct:hasPart properties between the proxies conceptually reflect<br />

the documented physical hierarchy of the archival material as it exists in<br />

the actual archive. This line of hierarchy says that the archival fond (archdesc)<br />

incorporates a series which has a file which holds two item as parts.


A data model for cross-domain data representation 145<br />

This way the original hierarchical context of description is retained and every<br />

part of the complex object EAD file is represented distinctively.<br />

In the XML structure the two item elements are in an intentional and<br />

meaningful sequence. To express that the item with title “Pagina 2” is second<br />

in sequence with regard to the item with title “Pagina 1” we assert an<br />

ens:isNextInSequence statement.<br />

This small example shows how EDM models complex hierarchical objects.<br />

The archdesc level and each c level from the EAD file have been<br />

converted to aggregations constituting objects in their own right which have<br />

been linked together with inter-object properties. In the same way other interobject<br />

relations can be modeled, for instance derivative relations between<br />

different translations of a book with the property ens:isDerivativeOf.<br />

From a data modeling point of view no structural issues arose. EDM easily<br />

represents complex, hierarchical, and sequential objects. The EDM leaves<br />

room for data providers to consider different modeling options: For example,<br />

with regard to search and retrieval, it is possible to include the eadheader<br />

as a separate aggregation which describes a printed finding aid as a separate<br />

object. It is also possible to consider only levels which hold digital representations<br />

worth finding and therefore dismiss all other levels from the EDM<br />

representation. In our example above each c level in an EAD file is considered<br />

as a retrievable object in its own right.<br />

6 Conclusion<br />

Four community workshops 11 confirmed the feasibility of the EDM for the<br />

different domains represented in Europeana. It is important to stress that<br />

EDM does not make assumptions about the domain models. The two examples<br />

discussed in this paper focus on the difference of flat and hierarchical<br />

structures of the metadata, but EDM also accommodates, for example, eventcentric<br />

models. It is designed to be applied to different metadata structures<br />

and our examples provide the proof of concept for two of them.<br />

11 Held for archives and museums in Berlin, libraries in Amsterdam, and audiovisual<br />

archives in Pisa during March and April of 2010.


146 S. Hennicke, M. Olensky, V. de Boer, A. Isaac, J. Wielemaker<br />

Currently prototyping continues and additional data sets are converted to<br />

EDM. These data sets will be integrated into a demonstrator called Thought-<br />

Lab 12 which shows the use of the cross-domain data representation in search<br />

and retrieval functionalities envisioned for Europeana.<br />

This work is part of the current development of the EDM and the restructuring<br />

of the Europeana information space, which enables new functionalities<br />

like semantic search (Gradmann, 2010). It is important to note that the issue<br />

of data modeling is a separate step from the issue of data visualization: not all<br />

complex data needs to be rendered in end-user interfaces.<br />

The EDM is an approach to interoperability of heterogeneous data in a<br />

digital library environment. We showed how EDM accommodates metadata<br />

representations from two different domains while building on existing standards<br />

and leaving room for specializations. The EDM is aggregation-oriented<br />

and abstracts from the domains by remaining minimal in its modeling approach.<br />

It demonstrates how a domain-independent ontology defined by an<br />

RDF model is a feasible approach to integrate different metadata perspectives<br />

by providing a layer of generic properties and classes which at the same time<br />

can be specialized. Thus, it is possible to accommodate flat metadata representations<br />

like in the case of Bibliopolis but at the same time very complex<br />

structures like in the case of APEnet-EAD.<br />

References<br />

Chan, L. M., Marcia L. Z. (2006). Metadata Interoperability and Standardization – A<br />

Study of Methodology. Part I: Achieving Interoperability at the Schema Level.<br />

D-Lib Magazine 12 (6) June 2006.<br />

http://www.dlib.org/dlib/june06/chan/06chan.html (Retrieved January 12, 2011)<br />

Concordia, C., Gradmann, S., Siebinga, S. (2010). Not just another portal, not just<br />

another digital library: A portrait of Europeana as an application program interface.<br />

In: International Federation of Library Associations and Institutions 36 (1),<br />

pp. 61–69. http://dx.doi.org/10.1177/0340035209360764<br />

12 “Semantic Searching Prototype, ThoughtLab”: http://www.europeana.eu/portal/<br />

thought-lab.html [18.10.2010].


A data model for cross-domain data representation 147<br />

Doerr, M., Gradmann, S., Hennicke, S. et al. (2010). The Europeana Data Model<br />

(EDM). Paper presented at the World Library and <strong>Information</strong> Congress: 76th<br />

IFLA General Conference and Assembly 10–15 August 2010, Gothenburg, Sweden.<br />

http://www.ifla.org/files/hq/papers/ifla76/149-doerr-en.pdf (Retrieved October 29,<br />

2010)<br />

Europeana v1.0 (2010). Europeana Semantic Elements Specification, Version 3.3.<br />

http://www.version1.europeana.eu/web/guest/technical-requirements (Retrieved<br />

October 18, 2010)<br />

Gradmann, S. (2010). Knowledge = <strong>Information</strong> in Context. On the Importance of<br />

Semantic Contextualisation in Europeana. Europeana White Paper, 1.<br />

http://version1.europeana.eu/web/europeana-project/whitepapers (Retrieved October<br />

18, 2010)<br />

Haslhofer, B., Klas, W. (2010). A survey of techniques for achieving metadata interoperability.<br />

In: ACM Computing Surveys 42 (2), S. 1–37.<br />

http://portal.acm.org/citation.cfm?doid=1667062.1667064 (Retrieved January 4, 2011)<br />

Isaac, A. (ed.) (2010). Europeana Data Model Primer.<br />

http://version1.europeana.eu/web/europeana-project/technicaldocuments/ (Retrieved<br />

October 18, 2010)<br />

Zeng, M. L., Chan, L. M. (2006). Metadata Interoperability and Standardization – A<br />

Study of Methodology. Part II: Achieving Interoperability at the Schema Level.<br />

D-Lib Magazine 12(6) June 2006.<br />

http://www.dlib.org/dlib/june06/zeng/06zeng.html (Retrieved January 12, 2011)


148 Stefanie Haustein<br />

<strong>Wissen</strong>schaftliche Zeitschriften<br />

im Web 2.0<br />

Die Analyse von Social Bookmarks<br />

zur Evaluation wissenschaftlicher Journale<br />

Stefanie Haustein 1,2<br />

1<br />

Forschungszentrum Jülich, Zentralbibliothek<br />

52425 Jülich<br />

2 Heinrich-Heine-Universität Düsseldorf<br />

Institut für Sprache <strong>und</strong> <strong>Information</strong> – Abt. <strong>Information</strong>swissenschaft<br />

Universitätsstr. 1, 40225 Düsseldorf<br />

s.haustein@fz-juelich.de<br />

Zusammenfassung<br />

Die Evaluation wissenschaftlicher Zeitschriften wird größtenteils auf den<br />

Impact Factor reduziert, welcher die durchschnittliche Anzahl der erhaltenen<br />

Zitate pro Artikel misst. Im Gegensatz zu diesem Zitationsindikator können<br />

Nutzungsstatistiken den Einfluss eines Journals zeitnah <strong>und</strong> auf die gesamte<br />

Leserschaft (auch die nicht-zitierende) abbilden. Mit dem Aufkommen des<br />

E-Publishing ist das Erheben dieser Statistiken auf Gr<strong>und</strong>lage von Download-<br />

<strong>und</strong> Klickraten technisch möglich geworden. Jedoch werden weltweite<br />

Nutzungsdaten nicht flächendeckend zur Verfügung gestellt <strong>und</strong> lokale Daten<br />

sind oft inkonsistent <strong>und</strong> nicht vergleichbar. Dieser Beitrag beschreibt die alternative<br />

Erhebung von <strong>global</strong>en Zeitschriftennutzungsdaten auf der Gr<strong>und</strong>lage<br />

von Social Bookmarks.<br />

Abstract<br />

For the most part, the evaluation of scientific journals is limited to the Impact<br />

Factor, which normalizes the number of received citations by the number of<br />

publications. Compared to this citation indicator, usage statistics can measure<br />

the impact of a journal in realtime and account for the whole readership – not


<strong>Wissen</strong>schaftliche Zeitschriften im Web 2.0 149<br />

just the citing authors. With the rise of e-publishing, these statistics can be<br />

computed on the basis of download and click rates. However, <strong>global</strong> usage<br />

statistics are not made available and local data often lacks consistency and<br />

comparability. This contribution describes an alternative way to compute<br />

<strong>global</strong> journal usage on the basis of social bookmarks.<br />

Einleitung<br />

Bei der Bewertung wissenschaftlicher Zeitschriften kommt mit dem Impact<br />

Factor ein quantitativer Indikator zum Einsatz, der den Einfluss eines Journals<br />

an der durchschnittlichen Anzahl an Zitaten pro Publikation misst. Die<br />

Probleme im Umgang mit diesem Kennwert sind dabei genauso zahlreich<br />

wie bekannt (Seglen 1997). Mit der Umstellung von Print auf Online wird<br />

der Einfluss einer Zeitschrift auf die Leserschaft durch die Erhebung von<br />

Download- <strong>und</strong> Klickraten direkt <strong>und</strong> unmittelbar messbar (Bollen et al.<br />

2005).<br />

Nutzungsstatistiken geben Auskunft über die Anzahl der heruntergeladenen<br />

Publikationen <strong>und</strong> erfassen so die Diffusion der Zeitschrifteninhalte innerhalb<br />

der gesamten wissenschaftlichen Community. Im Gegensatz zur<br />

Zitationsanalyse wird so auch der Einfluss auf reine Leser analysiert, den<br />

Teil der Leserschaft, der selbst nicht publiziert <strong>und</strong> damit die Quelle der <strong>Information</strong><br />

nicht mit einem Zitat kennzeichnet (Roick 2006). Ein weiterer<br />

Vorteil besteht in der Unmittelbarkeit dieses Indikators: die <strong>Information</strong> ist<br />

über die Logfiles kurze Zeit nach dem Download verfügbar, wohingegen das<br />

Zitat erst nach einem oft langwierigen Publikationsprozess messbar wird<br />

(Bollen et al 2005). Obwohl sich im Hinblick auf die Vereinheitlichung von<br />

Nutzungsstatistiken in den letzten Jahren viel durch die Einführung von<br />

Standards wie COUNTER getan hat, bleibt die Anwendung in der Zeitschriftenevaluierung<br />

problematisch (Baker & Read 2008).<br />

Zwar wird im COUNTER Code of Practice die zu zählende Nutzung genau<br />

definiert, damit gelieferte Zahlen vergleichbar sind, jedoch wird dem<br />

Verlag <strong>frei</strong>gestellt, ob er die Statistiken in Version 1a oder 5 des Journal Reports<br />

zur Verfügung stellt (COUNTER 2008). Journal Report 1a umfasst<br />

dabei die „Number of Successful Full-Text Article Requests from an Archive<br />

by Month and Journal“ (COUNTER 2008). Dort wird aufgeschlüsselt, in<br />

welchem Monat es wie viele Volltextzugriffe pro Zeitschrift gab, jedoch


150 Stefanie Haustein<br />

bleibt unklar auf welche Artikel, Ausgaben oder Publikationsjahre sich die<br />

Nutzung bezieht (Shepherd 2005). Eine Normalisierung <strong>und</strong> damit der Vergleich<br />

von verschiedenen Journalen sind so nicht möglich. Leider lassen sich<br />

in der Praxis viele Institutionen <strong>und</strong> Bibliotheken nicht davon abhalten auf<br />

Gr<strong>und</strong>lage der absoluten Zahlen Vergleichsstatistiken zur Zeitschriftennutzung<br />

zu erstellen. Obwohl die Verlage detaillierte Daten über alle Zugriffe<br />

auf ihre elektronischen Inhalte sammeln <strong>und</strong> für die Nutzungsanalyse aufbereiten,<br />

werden die Ergebnisse unter Verschluss gehalten. Nutzungsdaten werden<br />

im Rahmen der geforderten Standards ausschließlich den abonnierenden<br />

Institutionen auf lokaler Ebene zur Verfügung gestellt. Statistiken über die<br />

weltweite Nutzung von Zeitschriften werden nicht veröffentlicht (Gorraiz &<br />

Gumpenberger 2010).<br />

Social Bookmarks als Datengr<strong>und</strong>lage<br />

für alternative Nutzungsstatistiken<br />

Aufgr<strong>und</strong> der problematischen Datenlage werden alternative Wege benötigt,<br />

um den Einfluss wissenschaftlicher Periodika auf die internationale wissenschaftliche<br />

Community zu untersuchen. Daher wird vorgeschlagen, die Lesezeichen<br />

bei Social Bookmarking Services zu analysieren. Dabei wird in Analogie<br />

zu Download- <strong>und</strong> Klickstatistiken davon ausgegangen, dass das<br />

Abspeichern eines Artikels mit der Nutzung der Zeitschrift, in welcher der<br />

Artikel erschienen ist, gleichzusetzen ist (Haustein et al. 2010). Auf dieser<br />

Annahme beruhen weitere Projekte wie ReaderMeter 1 <strong>und</strong> Altmetrics 2 . Konzeptionelle<br />

Gr<strong>und</strong>lagen zur Anwendung von Web 2.0-generierten Daten in<br />

der Szientometrie liefern Taraborelli (2008) <strong>und</strong> Priem <strong>und</strong> Hemminger<br />

(2010).<br />

Nach dem Vorbild von Delicious 3 sind seit 2004 mehrere Bookmarking<br />

Dienste entstanden, die sich den speziellen Anforderungen von akademischen<br />

Nutzern angepasst haben. Nutzer von Social Bookmarking Plattformen<br />

1 http://readermeter.org.<br />

2 http://altmetrics.org/manifesto/<br />

3 http://www.delicious.com.


<strong>Wissen</strong>schaftliche Zeitschriften im Web 2.0 151<br />

können online wissenschaftliche Literatur abspeichern, verschlagworten <strong>und</strong><br />

mit anderen Usern teilen (Priem & Hemminger 2010, Reher & Haustein<br />

2010, Hammond et al. 2005). CiteULike 4 war der erste Dienst, der sich auf<br />

akademische Zwecke spezialisiert hat, jedoch gibt es mit BibSonomy 5 , Connotea<br />

6 <strong>und</strong> 2collab 7 Plattformen, die denselben Service anbieten. Da 2collab<br />

seit nunmehr einem Jahr keine neuen Nutzer zulässt, beschränkt sich die<br />

Datenerhebung auf die drei übrigen Dienste. Plattformen wie Mendeley 8 <strong>und</strong><br />

Zotero 9 bieten ihren Usern mittlerweile ebenfalls die Möglichkeit, Bibliografien<br />

online zu teilen. Da diese Dienste jedoch primär als Social Collection<br />

Management als als Social Bookmarking Plattformen zum Einsatz kommen<br />

<strong>und</strong> ihre Inhalte erst langsam für das Web 2.0 „auftauen“ (Priem & Hemminger<br />

2010), werden sie in dieser Studie nicht berücksichtigt. Durch das enorme<br />

Wachstum der Nutzerzahlen wird sich aber besonders Mendeley in Zukunft<br />

auch als Quelle für alternative Nutzungsstatistiken etablieren können<br />

(Priem & Hemminger 2010).<br />

Ablauf der Studie<br />

Um die Nutzung bei Social Bookmarking Diensten vergleichbar zu machen,<br />

dienen 45 Zeitschriften aus dem Bereich der Festkörperphysik als Datengr<strong>und</strong>lage.<br />

Um die Nutzung dieser Journale detailliert analysieren zu können,<br />

wurden für die 168.109 Artikel, die in diesen Zeitschriften zwischen 2004<br />

<strong>und</strong> 2008 veröffentlicht wurden, die bibliografischen Datensätze aus dem<br />

Web of Science heruntergeladen. Da sich die Bookmarking-Einträge als lücken-<br />

<strong>und</strong> fehlerhaft erwiesen, wurden verschiedene Suchstrategien definiert,<br />

um möglichst alle Bookmarks zu finden. Über die ZDB 10 wurden alle bekannten<br />

Formulierungen <strong>und</strong> Schreibweisen für Zeitschriftentitel <strong>und</strong> Abkürzungen<br />

<strong>und</strong> ISSNs ermittelt. Zusätzlich wurde über die DOIs auf Ebene der<br />

einzelnen Artikel gesucht. Für 95% aller Dokumente waren die DOIs bereits<br />

44 http://citeulike.org.<br />

45 http://www.bibsonomy.org.<br />

46 http://connotea.org.<br />

47 http://www.2collab.com.<br />

48 http://www.mendeley.com.<br />

49 http://www.zotero.org.<br />

10 http://www.zeitschriftendatenbank.de.


152 Stefanie Haustein<br />

über die Web of Science-Daten verfügbar. Da die Einträge allerdings Fehler<br />

enthielten, wurden alle DOIs über http://www.dx.doi.org überprüft. Fehlende<br />

<strong>und</strong> fehlerhafte DOIs wurden mithilfe der bibliografischen Angaben der Artikel<br />

über CrossRef 11 ermittelt, sodass schließlich 98,6% der Dokumente über<br />

die DOIs gesucht werden konnten (Haustein et al. 2010).<br />

Download der Bookmarks<br />

Die Erhebung der Bookmarking-Daten musste an die unterschiedlichen<br />

Such- <strong>und</strong> Schnittstellenfunktionalitäten der drei Dienste angepasst werden.<br />

Bei bibsonomy.org konnte die API für das Retrieval der Daten im XML-<br />

Format genutzt werden. Da über die API allerdings keine Feldsuche zur Verfügung<br />

stand, mussten Titel, Titelabkürzungen, ISSNs <strong>und</strong> DOIs zunächst<br />

über die Volltextsuche erhoben werden. Anschließend wurde die Treffermenge<br />

auf die Einträge reduziert, bei denen der Suchterm im gesuchten Feld<br />

vorkam <strong>und</strong> welche auf Publikationen aus dem gesuchten Fünfjahreszeitraum<br />

verwiesen (Haustein et al. 2010). CiteULike bietet zwar keine Schnittstelle,<br />

um die gesuchten Bookmarks direkt herunterladen zu können, dafür aber<br />

ausführliche Suchfunktionen an, sodass das direkte Retrieval der gesuchten<br />

Einträge für jedes Journal möglich war (Reher & Haustein 2010). Die Treffermengen<br />

wurden von der Website geparst, im RIS-Format gespeichert <strong>und</strong><br />

in einer Datenbank abgelegt. Connotea bietet weder eine umfangreiche Feldnoch<br />

eine Volltextsuche an. Zwar ist eine API verfügbar, über die Treffermengen<br />

heruntergeladen werden können, allerdings kann hier nur nach Tags,<br />

Nutzern oder Erstellungsdatum des Bookmarks gesucht werden (Reher &<br />

Haustein 2010). Die einzige Möglichkeit, die Bookmarks zu den gesuchten<br />

Artikeln ermitteln zu können, war daher, alle Datenbankeinträge nach ihren<br />

Erstellungsdaten herunterzuladen <strong>und</strong> in einer durchsuchbaren Feldstruktur<br />

abzulegen.<br />

Erstellen der Nutzungsstatistiken<br />

Wegen der fehler- <strong>und</strong> lückenhaften Metadaten der Bookmarks ging der Web<br />

2.0-Effekt, verschiedene Nutzer der Plattformen über gemeinsame Ressourcen<br />

miteinander zu verbinden, oft verloren. Wenn bibliografische Angaben<br />

mehrerer Nutzer zu einer Publikation Fehler enthielten oder unvollständig<br />

waren, wurde diese nicht als gemeinsame Ressource erkannt. Da die Nutzung<br />

aus Normalisierungsgründen jedoch auch auf Artikelebene untersucht wer-<br />

11 http://www.crossref.org.


<strong>Wissen</strong>schaftliche Zeitschriften im Web 2.0 153<br />

den sollte, wurden die Bookmarks über die DOIs mit den Web of Science-<br />

Einträgen verb<strong>und</strong>en, um eine korrekte Zuordnung garantieren zu können.<br />

Fehlende DOI-<strong>Information</strong>en wurden mithilfe von CrossRef <strong>und</strong> manueller<br />

Recherche ergänzt.<br />

q<br />

BibSonomy<br />

CiteULike<br />

Connotea<br />

145 users<br />

802 articles<br />

313 users<br />

2054 users<br />

1995 articles<br />

8082 articles<br />

Abbildung 1 Anzahl der Nutzer <strong>und</strong> gespeicherten Artikel von 45 Zeitschriften bei<br />

den verschiedenen Plattformen BibSonomy, CiteULike <strong>und</strong> Connotea.<br />

Die meisten Bookmarks zu den 168.109 Artikeln wurden bei CiteULike<br />

ermittelt: 10.640 Einträge konnten 8.082 Publikationen aus allen 45 Zeitschriften<br />

zugeordnet werden. Bei Connotea wurden 1.995 Artikel 2.042mal<br />

<strong>und</strong> bei BibSonomy 802 Dokumente 940mal hinterlegt (Abb. 1). Auch bei<br />

der Anzahl eindeutiger Nutzer liegt CiteULike vorne: Dort speicherten 2.054<br />

User die Artikel der gesuchten Zeitschriften im Untersuchungszeitraum. Bei<br />

Connotea waren es 313 <strong>und</strong> BibSonomy 145 Nutzer (Abb. 1). Die Annahme,<br />

dass User sich generell für eine der drei Plattformen entscheiden, wurde<br />

durch einen Dublettencheck 12 der Nutzernamen zwischen den verschiedenen<br />

Services bestätigt. Von 2.441 unterschiedlichen Nutzernamen erschienen<br />

lediglich 71 in zwei Services. Die Bookmarking-Daten der drei Plattformen<br />

wurden daher kombiniert <strong>und</strong> dienen als Datenbasis für die Erhebung der<br />

Nutzungsstatistiken. Insgesamt wurden 13.608 Bookmarks analysiert (Haustein<br />

et al. 2010).<br />

12 An dieser Stelle sei angemerkt, dass es sich bei dem Dublettencheck um den Abgleich<br />

von Nutzernamen <strong>und</strong> nicht der dahinterstehenden Personen handelt. Theoretisch kann<br />

sich ein Nutzer bei den verschiedenen Diensten (oder sogar beim selben Dienst) mit<br />

mehreren Namen angemeldet haben, genauso wie sich hinter demselben Alias auch<br />

mehrere Personen verbergen können.


154 Stefanie Haustein<br />

Ergebnisse<br />

Auf Gr<strong>und</strong>lage der Bookmarking-Daten werden vier Indikatoren generiert,<br />

die die <strong>global</strong>e Nutzung der Zeitschriften aus verschiedenen Perspektiven<br />

abbilden sollen: Nutzungsrate (Usage Ratio), Nutzungsbreite (Usage Diffusion),<br />

<strong>und</strong> die Nutzungsintensität auf Artikel- (Article Usage Intensity) <strong>und</strong><br />

auf Zeitschriftenebene (Journal Usage Intensity). Zusätzlich zu den quantitativen<br />

Kennwerten können die Tags, mit denen die Nutzer die Dokumente<br />

verschlagwortet haben, ausgewertet werden, um die Sicht der Leser auf die<br />

Zeitschrifteninhalte abbilden zu können (Haustein et al. 2010).<br />

Mit 2.214 Artikeln war Applied Physics A die Zeitschriften mit der<br />

höchsten Anzahl genutzter Publikationen, gefolgt von Physical Review E<br />

(1.822) <strong>und</strong> Physical Review A (1.259). Da die Anzahl der Bookmarks abhängig<br />

vom Output der Zeitschrift ist <strong>und</strong> dieser im Fall der 45 Zeitschriften<br />

im Untersuchungszeitraum von 173 bis 25.983 (Tab. 1; s. Anhang) variiert,<br />

bedarf es einer Normalisierung. Anders als geläufige Download-Statistiken<br />

(COUNTER Journal Report 1a) ermöglichen die Bookmarking-Daten adäquate<br />

Normalisierungsmethoden.<br />

Nutzungsrate<br />

Die Nutzungsrate (Usage Ratio) beschreibt den Anteil der Publikationen<br />

einer Zeitschrift mit mindestens einem Nutzer gegenüber dem Gesamtoutput.<br />

Die Anzahl der genutzten Artikel wird dabei durch die Anzahl aller Veröffentlichungen<br />

der Zeitschrift im Untersuchungszeitraum dividiert. Mit 0,63<br />

hat Reviews of Modern Physics die höchste Nutzungsrate (Tab. 1). 63% aller<br />

Artikel, die Reviews of Modern Physics zwischen 2004 <strong>und</strong> 2008 veröffentlicht<br />

hat, wurden mindestens einmal bei CiteULike, Connotea oder BibSonomy<br />

abgespeichert. Der Mittelwert für alle Zeitschriften beträgt 0,06 <strong>und</strong><br />

der Median ist 0,07.<br />

Nutzungsbreite<br />

Die Nutzungsbreite (Usage Diffusion) bildet die Anzahl der eindeutigen Nutzer<br />

einer Zeitschrift <strong>und</strong> damit die Verbreitung einer Zeitschrift innerhalb der<br />

wissenschaftlichen Community ab. Da die Anzahl der Leser unabhängig von<br />

der Anzahl der veröffentlichten Dokumente ist, wird hier die absolute Größe<br />

verwendet. Durchschnittlich nutzten 115 eindeutige User eine Zeitschrift.<br />

Der Median beträgt 52 (Tab. 1). Die Power-Law-Verteilung von Nutzern auf


<strong>Wissen</strong>schaftliche Zeitschriften im Web 2.0 155<br />

Zeitschriften reichte von drei (Journal of Rheology) bis 820 (Physical Review<br />

E).<br />

Nutzungsintensität auf Artikelebene<br />

Article Usage Intensity untersucht die Intensiät der Nutzung der Artikel,<br />

indem pro Zeitschrift die Anzahl der Bookmarks durch die Anzahl der unterschiedlichen<br />

gespeicherten Artikel dividiert wird. Die mittlere Nutzungsintensität<br />

auf Artikelebene für alle 45 Zeitschriften beträgt 1,32 <strong>und</strong> der<br />

Median 1,17. Da 84% aller Dokumente nur einen Nutzer hatten, war die Nutzungsintensität<br />

durchschnittlich also sehr gering. Mit durchschnittlich 3,89<br />

Nutzern (d.h. Bookmarks) pro Publikation war Reviews of Modern Physics<br />

die Zeitschrift mit den am intensivsten genutzten Artikeln. Der Artikel mit<br />

den meisten (67) Nutzern wurde in Physics Reports veröffentlicht (Tab. 1).<br />

Nutzungsintensität auf Zeitschriftenebene<br />

Im Gegensatz zur Article Usage Intensity untersucht Journal Usage Intensity<br />

nicht, ob Dokumente einer Zeitschrift von vielen verschiedenen Lesern genutzt<br />

werden, sondern überprüft, wie intensiv ein einzelner User die Zeitschrift<br />

nutzt. Dabei wird pro Zeitschrift die Anzahl der Bookmarks durch die<br />

Anzahl der verschiedenen Nutzer geteilt. Dieser Wert untersucht damit, wie<br />

treu ein Leser die Inhalte einer Zeitschrift verfolgt. Durchschnittlich lag der<br />

Wert bei 1,89 (Median: 1,63) Artikeln pro User. Am intensivsten wurde Physical<br />

Review A gelesen: 278 eindeutige User nutzten durchschnittlich 5,67<br />

Dokumente (Tab. 1).<br />

Auswertung der Tags<br />

Zusätzlich zur Auswertung der Anzahl der Bookmarks <strong>und</strong> Nutzer können<br />

die Tags, mit denen die User die Artikel verschlagwortet haben, ausgewertet<br />

werden. So kann die Sicht der Leser auf die Inhalte der Zeitschriften analysiert<br />

werden. Jüngste Untersuchungen haben gezeigt, dass diese sich weitgehend<br />

von anderen Indexierungsmethoden unterscheiden. 88% aller Bookmarks<br />

enthielten Tags. Dies zeigt, dass die Leser diese Funktion nutzen, um<br />

die für sie relevanten Inhalte der Publikationen zu beschreiben. Nach der<br />

Bereinigung der Tags (Vereinheitlichung von Sonderzeichen, Singular- <strong>und</strong><br />

Pluralformen, englischer <strong>und</strong> amerikanischer Schreibweisen etc.) wurden<br />

insgesamt 8.208 verschiedene Tags 38.241mal vergeben. Die Tag-Frequenz<br />

folgt einer Power-Law-Verteilung: Der Begriff mit der höchsten Frequenz


156 Stefanie Haustein<br />

(„network“) wurde in der gesamten Datenmenge 687mal vergeben, der<br />

zweithöchste („quantum“) 344mal. 4.494 Wörter wurden hingegen nur einmal<br />

genannt.<br />

Werden die Tags auf Ebene der Zeitschriften kumuliert, können verschiedene<br />

thematische Schwerpunkte der Journale kenntlich gemacht werden.<br />

Hierzu eignen sich vor allem sogenannte Tag-Clouds, die die Wörter nach<br />

der Anzahl der Nennungen in unterschiedlichen Größen darstellen. Es können<br />

aber nicht nur unterschiedliche Themenbereiche zwischen verschiedenen<br />

Zeitschriften dargestellt werden. Wenn die Tags den Publikationsjahren der<br />

jeweiligen Artikel zugeordnet werden, lassen sich thematische Trends erkennen.<br />

Abbildung 2 zeigt die Tag-Cloud zu den Veröffentlichungen des Journal<br />

of Physics – Condensed Matter aus dem Jahr 2008.<br />

Abbildung 2 Tag-Cloud für Artikel, die 2008 im Journal of Physics – Condensed<br />

Matter publiziert wurden.<br />

Fazit<br />

Analog zu auf Download- <strong>und</strong> Klickraten basierenden Statistiken wurde gezeigt,<br />

dass das Abspeichern wissenschaftlicher Artikel bei spezialisierten


<strong>Wissen</strong>schaftliche Zeitschriften im Web 2.0 157<br />

Plattformen wie CiteULike, Connotea oder BibSonomy Nutzung signalisiert.<br />

Auf Gr<strong>und</strong>lage von 13,608 Bookmarks <strong>und</strong> 10,280 Artikeln wurde mithilfe<br />

vier verschiedener Indikatoren beispielhaft die <strong>global</strong>e Nutzung von 45 physikalischen<br />

Zeitschriften analysiert. Die detaillierte Datenstruktur ermöglichte<br />

im Gegensatz zu herkömmlichen Downloadstatistiken den normalisierten<br />

Vergleich wissenschaftlicher Journale. Die bislang geringe Nutzung verhindert<br />

bislang zwar generelle Aussagen zur Zeitschriftennutzung, jedoch zeigt<br />

der Trend einen starken Nutzeranstieg bei den Social Bookmarking Plattformen,<br />

sodass die vorgestellten Indikatoren in Zukunft als alternative Nutzungskennwerte<br />

angewendet werden können (Priem & Hemminger 2010).<br />

Gegenüber der Zitationsanalyse messen sie den Einfluss eines Journals auf<br />

die gesamte Leserschaft in Echtzeit <strong>und</strong> sind gegenüber Downloadstatistiken<br />

<strong>frei</strong> verfügbar. Tags, mit denen die Nutzer die gespeicherten Artikel verschlagworten,<br />

geben zusätzlich Auskunft über Lesersicht auf den Zeitschrifteninhalt.<br />

Anhang<br />

Tabelle 1<br />

Nutzungsindikatoren, Impact Factor <strong>und</strong> Publikationszahl für 45 Zeitschriften<br />

Zeitschrift<br />

Impact Factor<br />

Publikationen<br />

(2004 bis 2008)<br />

Bookmarks<br />

gespeicherte<br />

Artikel<br />

Nutzungsrate<br />

Nutzungsbreite<br />

Nutzungsintensität<br />

(Artikel)<br />

Nutzungsintensität<br />

(Zeitschrift)<br />

Act Cryst A 2,051 326 39 29 0,09 21 1,34 1,86<br />

Act Cryst B 2,341 493 10 9 0,02 8 1,11 1,25<br />

Ann Phys 1,161 296 21 18 0,06 17 1,17 1,24<br />

Appl Phys A 1,884 2685 94 88 0,03 75 1,07 1,25<br />

Appl Phys Let 3,726 25983 2587 2214 0,09 581 1,17 4,45<br />

Comput Mater Sci 1,549 1299 50 46 0,04 32 1,09 1,56<br />

EPL 2,203 3291 414 316 0,10 223 1,31 1,86<br />

Eur Phys J B 1,568 2056 229 140 0,07 155 1,64 1,48<br />

Eur Phys J E 1,943 707 104 79 0,11 56 1,32 1,86<br />

Hyperfine Interact -- 1006 9 9 0,01 6 1,00 1,50<br />

IEEE Nanotechnol 2,154 519 28 19 0,04 15 1,47 1,87


158 Stefanie Haustein<br />

Zeitschrift<br />

Impact Factor<br />

Publikationen<br />

(2004 bis 2008)<br />

Bookmarks<br />

gespeicherte<br />

Artikel<br />

Nutzungsrate<br />

Nutzungsbreite<br />

Nutzungsintensität<br />

(Artikel)<br />

Nutzungsintensität<br />

(Zeitschrift)<br />

Int J Thermophys 0,889 757 15 14 0,02 8 1,07 1,88<br />

J Appl Phys 2,201 17827 1002 909 0,05 327 1,10 3,06<br />

J Low Temp Phys 1,034 1260 38 36 0,03 20 1,06 1,90<br />

J Magn Magn Mater 1,283 7549 128 111 0,02 73 1,15 1,75<br />

J Phys A 1,540 5244 299 225 0,04 186 1,33 1,61<br />

J Phys Condens Matter 1,900 7427 558 438 0,06 244 1,27 2,29<br />

J Phys D 2,104 4554 199 177 0,04 125 1,12 1,59<br />

J Rheol 2,676 347 5 4 0,01 3 1,25 1,67<br />

J Stat Mech 2,758 958 222 134 0,14 136 1,66 1,63<br />

J Stat Phys 1,621 1049 79 67 0,06 52 1,18 1,52<br />

J Vac Sci Technol A 1,173 1580 28 27 0,02 17 1,04 1,65<br />

JETP Lett 1,418 1487 31 28 0,02 21 1,11 1,48<br />

Nanotechnol 3,446 4852 311 276 0,06 177 1,13 1,76<br />

New J Phys 3,440 1926 436 307 0,16 239 1,42 1,82<br />

Nucl Instrum Meth A 1,019 7670 235 215 0,03 91 1,09 2,58<br />

Nucl Instrum Meth B 0,999 5973 129 122 0,02 52 1,06 2,48<br />

Phys Fluids 1,738 2702 259 220 0,08 101 1,18 2,56<br />

Phys Lett A 2,174 5328 159 137 0,03 99 1,16 1,61<br />

Phys Rep 18,522 341 221 76 0,22 164 2,91 1,35<br />

Phys Rev A 2,908 11027 1575 1259 0,11 278 1,25 5,67<br />

Phys Rev E 2,508 12117 2916 1822 0,15 820 1,60 3,56<br />

Phys Scr 0,970 2543 57 54 0,02 38 1,06 1,50<br />

Phys Solid State 0,682 1970 6 6 0,00 6 1,00 1,00<br />

Phys Stat Sol A 1,205 2721 73 66 0,02 50 1,11 1,46<br />

Phys Stat Sol B 1,166 2691 81 76 0,03 56 1,07 1,45<br />

Phys Today 3,674 1780 43 35 0,02 36 1,23 1,19<br />

Physica B 0,822 5561 65 64 0,01 40 1,02 1,63<br />

Physica C 0,740 3947 65 55 0,01 29 1,18 2,24<br />

Pramana 0,274 1258 14 14 0,01 13 1,00 1,08<br />

Rep Prog Phys 12,090 220 184 89 0,41 134 2,07 1,37<br />

Rev Mod Phys 33,985 173 424 109 0,63 240 3,89 1,77<br />

Soft Matter 4,586 654 109 93 0,14 51 1,17 2,14<br />

Solid State Ion 2,425 2270 12 12 0,01 9 1,00 1,33<br />

Supercond Sci Technol 1,847 1685 45 36 0,02 31 1,25 1,45


<strong>Wissen</strong>schaftliche Zeitschriften im Web 2.0 159<br />

Literaturverzeichnis<br />

Baker, G. & Read, E. J. (2008). Vendor supplied usage data for electronic resources:<br />

a survey of academic libraries. Learned Publishing 21, 48–57.<br />

Bollen, J., Van de Sompel, H., Smith, J. A. & Luce, R. (2005). Toward alternative<br />

metrics of journal impact: A comparison of download and citation data. <strong>Information</strong><br />

Processing & Management 41, 1419–1440.<br />

COUNTER (2008). Code of Practice for Journals and Databases Release 3, August<br />

2008. http://www.projectcounter.org/code_practice.html<br />

Gorraiz, J. & Gumpenberger C. (2010). Going beyond citations: SERUM – a new<br />

tool provided by a network of libraries. Liber Quarterly 20, 80–93.<br />

Hammond, T., Hannay, T., L<strong>und</strong>, B. & Scott, J. (2005). Social bookmarking tools<br />

(I). D-Lib Magazine 11.<br />

Haustein, S., Golov, E., Luckanus, K., Reher, S. & Terliesner, J. (2010). Journal evaluation<br />

and science 2.0: Using social bookmarks to analyze reader perception.<br />

Proceedings of the 11 th International Conference on Science and Technology Indicators,<br />

Leiden, 117–119.<br />

Priem, J. & Hemminger, B. M. (2010). Scientometrics 2.0: Toward new metrics of<br />

scholarly impact on the social Web. First Monday 15.<br />

Reher, S. & Haustein, S. (2010). Social bookmarking in STM: Putting services to the<br />

acid test. ONLINE 34 (6), 34–42.<br />

Roick, C. (2006). Medical journals for authors and/or readers? Opinions of different<br />

reader groups about the journal “Psychiatrische Praxis”. Psychiatrische Praxis 33,<br />

287–295.<br />

Seglen, P. O. (1997). Citations and journal impact factors: questionable indicators of<br />

research quality. Allergy 52, 1050–1056.<br />

Shepherd. P. T. (2005). COUNTER 2005. A new Code of Practice and new applications<br />

of COUNTER usage statistics. Learned Publishing 18, 287–293.<br />

Taraborelli, D. (2008). Soft peer review: Social software and distributed scientific<br />

evaluation. Proceedings of the 8 th International Conference on the Design of Cooperative<br />

Systems.


160 Philipp Leinenkugel, Werner Dees, Marc Rittberger<br />

Abdeckung erziehungswissenschaftlicher<br />

Zeitschriften in Google Scholar<br />

Philipp Leinenkugel 1 , Werner Dees 2 , Marc Rittberger 2<br />

1 Langbehnstraße 15, 83022 Rosenheim<br />

ph.leinenkugel@googlemail.com<br />

2<br />

Deutsches Institut für Internationale Pädagogische Forschung (DIPF)<br />

Schloßstraße 29, 60486 Frankfurt am Main<br />

dees@dipf.de; rittberger@dipf.de<br />

Zusammenfassung<br />

Der vorliegende Beitrag untersucht den Abdeckungsgrad erziehungswissenschaftlicher<br />

Fachzeitschriften in Google Scholar <strong>und</strong> verdeutlicht, inwieweit<br />

die Nutzung des kostenlosen Suchdienstes für diese Disziplin sinnvoll ist.<br />

Insgesamt wurden 712 Artikel aus sechs ausgewählten Fachzeitschriften der<br />

Erziehungswissenschaft überprüft. Als Ergebnis kann festgehalten werden,<br />

dass Google Scholar vor allem aufgr<strong>und</strong> eines mangelhaften Abdeckungsgrades<br />

(noch) keine ernsthafte Alternative zu herkömmlichen Fachdatenbanken<br />

darstellt.<br />

Abstract<br />

This paper investigates the range of coverage of educational science journals<br />

in Google Scholar and indicates to what extent the free scientific search engine<br />

is appropriate for this discipline. A total of 712 articles taken from six<br />

selected pedagogic journals were examined. The results indicate that due to<br />

an inadequate range of coverage Google Scholar does not (presently) constitute<br />

a viable alternative to traditional educational research databases.


Abdeckung erziehungswissenschaftlicher Zeitschriften in Google Scholar 161<br />

1 Einleitung<br />

Seit der Einführung von Google Scholar im November 2004 (die deutschsprachige<br />

Version im April 2006) wird dieser Dienst mit viel Lob für das<br />

Angebot eines kosten<strong>frei</strong>en Zugangs zu einer immensen Menge an bibliografischen<br />

Daten <strong>und</strong> zum Teil auch Volltexten bedacht, aber auch mit viel<br />

Kritik für die oft äußerst mangelhafte Qualität der präsentierten Metadaten<br />

[vgl. Fell 2010, Jacsó 2010].<br />

Da Google keine konkreten Angaben zu den indexierten Inhalten macht,<br />

wurde schon kurze Zeit nach der Einführung von Google Scholar die als<br />

Beta-Version gestartete „wissenschaftliche Suchmaschine“ eingehend geprüft.<br />

So wurde eine Reihe von Studien durchgeführt, die Auskunft über den<br />

Abdeckungsgrad wissenschaftlicher Fachartikel <strong>und</strong> Zeitschriftenbeiträge in<br />

verschiedenen Disziplinen geben sollten, bspw. von Lewandowski [2007] für<br />

die Bibliotheks- <strong>und</strong> <strong>Information</strong>swissenschaft, Meier <strong>und</strong> Conkling [2008]<br />

für die Ingenieurwissenschaften oder Clermont [2010] für die Betriebswirtschaft.<br />

Die Schlussfolgerungen dieser Studien unterscheiden sich v.a. in Abhängigkeit<br />

von den untersuchten Disziplinen <strong>und</strong> Publikationssprachen. Während<br />

sich Google Scholar nach Lewandowski [2007: 166ff.] „nicht als Ersatz<br />

für bibliografische Datenbanken im Bereich Bibliotheks- <strong>und</strong> <strong>Information</strong>swissenschaft<br />

eignet“, zieht Clermont [2010: 84] das Fazit, „dass Google<br />

Scholar bei entsprechender Beachtung von Einschränkungen <strong>und</strong> durch einen<br />

genauen ‚Expertenblick‘ zur Literaturrecherche genutzt werden kann.“ Insbesondere<br />

im Vergleich mit der traditionellen Zitationsdatenbank Web of<br />

Science könnte Google Scholar nach Harzing <strong>und</strong> van der Wal [2008] aufgr<strong>und</strong><br />

der breiteren Erfassung von Zeitschriften <strong>und</strong> darüber hinaus auch Büchern<br />

<strong>und</strong> Tagungsbänden gerade für die Sozial- <strong>und</strong> Geisteswissenschaften<br />

sowie die Ingenieurwissenschaften von Vorteil sein.<br />

Viele der bisher durchgeführten Studien zur Abdeckung von Google<br />

Scholar beziehen sich auf die Natur-, Wirtschafts- oder Ingenieurwissenschaften.<br />

Für die Erziehungswissenschaft mit ihrem Fokus auf Publikationsorgane<br />

aus dem deutschsprachigen Raum ist es von besonderem Interesse,<br />

wie sich der Abdeckungsgrad deutscher Fachzeitschriften der Erziehungswissenschaft<br />

darstellt.


162 Philipp Leinenkugel, Werner Dees, Marc Rittberger<br />

Daher wurde eine Studie durchgeführt, welche den Abdeckungsgrad<br />

von bedeutenden erziehungswissenschaftlichen Fachzeitschriften aus dem<br />

deutschsprachigen Raum in Google Scholar ermitteln sollte.<br />

Hauptziel dieser Studie war es, zum einen die akademische Nutzbarkeit<br />

des Google Dienstes für die genannte <strong>Wissen</strong>schaftsdisziplin zu testen. Anhand<br />

der Ergebnisse sollte festgestellt werden, ob <strong>und</strong> inwieweit der kosten<strong>frei</strong>e<br />

Google-Dienst als Alternative zu kostenpflichtigen Fach- <strong>und</strong> Zitationsdatenbanken<br />

in Frage kommen kann.<br />

Da Google Scholar knapp fünf Jahre nach der offiziellen Einführung in<br />

Deutschland nach wie vor den Zusatz „Beta-Version“ trägt, sollte außerdem<br />

festgestellt werden, inwieweit sich nach einer mehrjährigen Aufbau- <strong>und</strong><br />

Entwicklungsphase die bisher geäußerten positiven <strong>und</strong> negativen Ansichten<br />

auf die zu untersuchende Disziplin übertragen lassen.<br />

2 Abdeckung <strong>und</strong> Arten des Nachweises<br />

Die meiste Kritik erhielt Google Scholar bisher aufgr<strong>und</strong> einer unklaren <strong>und</strong><br />

ungleichmäßigen Abdeckung von Inhalten, einer mangelnden Qualität der<br />

Ergebnisse <strong>und</strong> der fehlerbehafteten Suchfunktion. Die Unsicherheit über die<br />

Inhalte betrifft vor allem die Frage, welche Zeitschriften überhaupt indexiert<br />

werden, welche Fachgebiete <strong>und</strong> welche Zeiträume gut abgedeckt sind, <strong>und</strong><br />

wie die <strong>Wissen</strong>schaftlichkeit der nachgewiesenen Literatur (etwa mit Blick<br />

auf Hausarbeiten oder Kursmaterialien) einzuschätzen ist. Im Hinblick auf<br />

die Datenqualität lässt sich feststellen, dass Treffer häufig fehlerhafte bibliografische<br />

Angaben aufweisen <strong>und</strong> die Ergebnislisten zudem Dubletten enthalten<br />

[Clermont 2010].<br />

Gr<strong>und</strong>sätzlich wird in Google Scholar zwischen vier Nachweisformaten<br />

unterschieden, welche in den meisten Fällen zu Beginn eines jeden Treffers<br />

ersichtlich sind [Mayr/Walter 2006].<br />

• Volltexte im PDF-Format, welche kosten<strong>frei</strong> von Verlags- oder Open-<br />

Access-Servern heruntergeladen werden können. Zum Teil werden auch<br />

Beiträge im MS Word-, HTML- oder Postscript-Format indexiert. Erkennbar<br />

ist diese Form des Nachweises durch die vorangestellte Kennzeichnung<br />

[PDF], [DOC], [HTML] bzw. [PS].


Abdeckung erziehungswissenschaftlicher Zeitschriften in Google Scholar 163<br />

• Direkte Verlinkungen auf das zitierte Dokument, welches in den meisten<br />

Fällen zumindest auf Abstract-Level verfügbar <strong>und</strong> für Lizenznehmer im<br />

Volltext abrufbar ist. Diese Form stellt die Mehrheit der in Google Scholar<br />

gef<strong>und</strong>enen Ergebnisse dar.<br />

• Zitierte Zeitschriftenartikel, die lediglich als Zitation <strong>und</strong> ohne eine direkte<br />

Verlinkung auf den Volltext vorliegen <strong>und</strong> mit dem Präfix [ZITA-<br />

TION] gekennzeichnet sind.<br />

• Nachweise von Büchern, welche u.a. über die Büchersuche von Google<br />

abgerufen werden <strong>und</strong> durch das vorangestellte [BUCH] erkennbar sind.<br />

Da diese Form des Nachweises für die vorliegende Untersuchung irrelevant<br />

ist, wurden sie bei der Ergebnisermittlung nicht weiter berücksichtigt.<br />

3 Aufbau der Untersuchung<br />

Für die vorliegende Untersuchung wurden insgesamt sechs Fachzeitschriften<br />

aus der Erziehungswissenschaft berücksichtigt. Konkret wurden die Jahrgänge<br />

2006 bis 2009 abgeprüft <strong>und</strong> die zurückgelieferten Daten analysiert. 1<br />

Zeitschriften gehören zu den zentralen Publikationsmedien wissenschaftlicher<br />

Erkenntnisse <strong>und</strong> Fachdiskussionen, weshalb sich diese Studie zur<br />

Überprüfung der akademischen Nutzbarkeit von Google Scholar auf den Abdeckungsgrad<br />

von Zeitschriften <strong>und</strong> dort wiederum auf Fachartikel beschränkte.<br />

Andere Beiträge wie Themeneinleitungen, Kommentare, Rezensionen<br />

oder Vorworte hingegen blieben bei der Untersuchung unberücksichtigt.<br />

Die methodische Vorgehensweise der Untersuchung gliederte sich wie<br />

folgt:<br />

• Schritt 1: Für die Untersuchung wurden zentrale deutschsprachige Zeitschriften<br />

der allgemeinen Erziehungswissenschaft gewählt. Mit der Zeitschrift<br />

für Erziehungswissenschaft, der Zeitschrift für Pädagogik <strong>und</strong> der<br />

Zeitschrift für Soziologie der Erziehung <strong>und</strong> Sozialisation wurden die<br />

drei deutschen Zeitschriften der Kategorie „Education & Educational research“<br />

der Journal Citation Reports des Web of Science ausgewählt.<br />

1 Für die Mitwirkung an Datenerhebung <strong>und</strong> -analyse sei Luise Likow <strong>und</strong> Michaela<br />

Sieber gedankt.


164 Philipp Leinenkugel, Werner Dees, Marc Rittberger<br />

Darüber hinaus wurden mit Bildung <strong>und</strong> Erziehung <strong>und</strong> Unterrichtswissenschaft<br />

zwei Zeitschriften einbezogen, die sowohl auf der Initial list<br />

„Pedagogical and Educational Research“ des European Reference Index<br />

for the Humanities (ERIH) [European Science Fo<strong>und</strong>ation 2011] als auch<br />

auf der Liste „führender Fachzeitschriften“ des Datenreport Erziehungswissenschaft<br />

2004 [Tippelt u.a. 2004: 255f.] vertreten sind <strong>und</strong> die<br />

zugleich in einer unveröffentlichten Befragung von Mitgliedern der<br />

Deutschen Gesellschaft für Erziehungswissenschaft aus dem Jahr 2004<br />

unter den ersten zehn Zeitschriften gerankt wurden. Die Auswahl wurde<br />

mit der Harvard Educational Review um eine bedeutende US-amerikanische<br />

Zeitschrift ergänzt, um den Abdeckungsgrad deutschsprachiger<br />

Zeitschriften mit dem einer englischsprachigen vergleichen zu können.<br />

• Schritt 2: Die bibliografischen Angaben der in die Untersuchung einbezogenen<br />

Fachartikel wurden zunächst über die erziehungswissenschaftliche<br />

Literaturdatenbank „FIS Bildung“ recherchiert. Um die Vollständigkeit<br />

dieser Artikelmenge sicherzustellen, wurden die Inhaltsverzeichnisse<br />

der relevanten Jahrgänge auf den Verlagsseiten überprüft. In<br />

den Fällen, in denen keine Inhaltsverzeichnisse auf den Verlagsseiten zu<br />

finden waren, wurden die gedruckten Zeitschriftenausgaben herangezogen.<br />

Die Prüfung stellte sicher, dass einerseits die exakte Artikelanzahl<br />

<strong>und</strong> anderseits auch deren korrekte bibliografischen Angaben vorlagen.<br />

Fehlende oder inkorrekte Datensätze wurden eigenhändig übertragen<br />

bzw. korrigiert, sodass alle Angaben vollständig zur Verfügung standen.<br />

• Schritt 3: Auf dieser Basis erfolgte nun die eigentliche Recherche in<br />

Google Scholar. Hierbei wurde die Suchstrategie so festgelegt, dass auch<br />

Treffer gef<strong>und</strong>en werden konnten, deren bibliografische Angaben stark<br />

von den Inhaltsverzeichnissen der Zeitschriften abwichen. So wurde im<br />

Anschluss an die einfache Titelsuche eine „Gegenprobe“ durchgeführt, in<br />

welcher der Name des Verfassers bzw. der Verfasser, der Titel der Zeitschrift<br />

<strong>und</strong> der passende Jahrgang berücksichtigt wurden. Somit sollte<br />

verhindert werden, dass möglicherweise nur aufgr<strong>und</strong> von fehlerhaften<br />

bibliografischen Angaben in Google Scholar die Ergebnisse dieser Untersuchung<br />

beeinträchtigt werden.


Abdeckung erziehungswissenschaftlicher Zeitschriften in Google Scholar 165<br />

4 Ergebnisse<br />

Die Ergebnisse der Untersuchung sind in den nachfolgenden Tabellen 1 (für<br />

die deutschsprachigen Zeitschriften) <strong>und</strong> 2 (für die englischsprachige) detailliert<br />

beschrieben. Aufgeführt ist sowohl die Gesamtanzahl der Artikel pro<br />

Zeitschrift <strong>und</strong> Jahrgang sowie die jeweilige Anzahl an Zitationen, Verlinkungen<br />

<strong>und</strong> Volltexten. Zusätzlich ist der prozentuale Anteil pro Nachweisart<br />

<strong>und</strong> Zeitschrift für den gesamten Untersuchungszeitraum angegeben.<br />

Von den insgesamt 603 überprüften Fachartikeln aus deutschsprachigen<br />

Zeitschriften konnten mehr als die Hälfte (58,4%) nicht in Google Scholar<br />

ausfindig gemacht werden. Demgegenüber werden 24,5% durch eine Verlinkung<br />

nachgewiesen, etwa 13,4% anhand einer Zitation <strong>und</strong> lediglich 3,6%<br />

aller gesuchten Artikel standen als Volltexte kosten<strong>frei</strong> zur Verfügung.<br />

Über die untersuchten Jahrgänge hinweg weist die Abdeckung teilweise<br />

größere Unterschiede auf. So lässt sich feststellen, dass 9,0% der Artikel des<br />

Erscheinungsjahres 2009 kosten<strong>frei</strong> als Volltext zur Verfügung stehen, während<br />

dieser Anteil für Artikel der Erscheinungsjahre 2006 bis 2008 nur zwischen<br />

0 <strong>und</strong> 4,7% liegt.<br />

Der Anteil an Verlinkungen ist für den Jahrgang 2006 am höchsten <strong>und</strong><br />

nimmt danach ab, was vor allem auf die Zeitschrift Bildung <strong>und</strong> Erziehung<br />

zurückzuführen ist, deren Beiträge dieses Jahres in der französischen bibliografischen<br />

Datenbank CAT.INIST dokumentiert wurden, die wiederum in<br />

Google Scholar indexiert ist. Für die folgenden Jahre war dies nicht mehr der<br />

Fall, wodurch die Abnahme zu erklären ist. Die Anzahl an Nachweisen durch<br />

Zitationen ist im Jahr 2009 erwartungsgemäß am geringsten (es benötigt eine<br />

gewisse Zeit, bis Artikel in späteren Publikationen als Zitationen auftauchen).<br />

Tabelle 1: Abdeckung der deutschsprachigen Zeitschriften in Google Scholar<br />

Zeitschrift<br />

Jahrgänge gesamt Anteil in %<br />

2006 2007 2008 2009 (2006–2009)<br />

alle deutschsprachigen<br />

Zeitschriften<br />

Anzahl Artikel 156 143 149 155 603 100,0<br />

Kein Nachweis<br />

in Google Scholar<br />

61 91 95 105 352 58,4<br />

Nachgewiesen durch Verlinkung 58 40 25 25 148 24,5<br />

Nachgewiesen durch Zitation 36 12 22 11 81 13,4<br />

Nachgewiesen durch Volltext 1 0 7 14 22 3,6


166 Philipp Leinenkugel, Werner Dees, Marc Rittberger<br />

Zeitschrift<br />

Jahrgänge gesamt Anteil in %<br />

2006 2007 2008 2009 (2006–2009)<br />

Zeitschrift für<br />

Erziehungswissenschaft<br />

Anzahl Artikel 30 29 29 31 119 100,0<br />

Kein Nachweis<br />

in Google Scholar<br />

0 0 1 2 3 2,5<br />

Nachgewiesen durch Verlinkung 30 29 25 23 107 89,9<br />

Nachgewiesen durch Zitation 0 0 0 0 0 0,0<br />

Nachgewiesen durch Volltext<br />

Unterrichtswissenschaft<br />

0 0 3 6 9 7,6<br />

Anzahl Artikel 17 18 19 22 76 100,0<br />

Kein Nachweis<br />

in Google Scholar<br />

5 9 14 16 44 57,9<br />

Nachgewiesen durch Verlinkung 1 0 0 1 2 2,6<br />

Nachgewiesen durch Zitation 11 9 4 3 27 35,5<br />

Nachgewiesen durch Volltext<br />

Zeitschrift für Pädagogik<br />

0 0 1 2 3 3,9<br />

Anzahl Artikel 56 37 44 51 188 100,0<br />

Kein Nachweis<br />

in Google Scholar<br />

40 27 27 43 137 72,9<br />

Nachgewiesen durch Verlinkung 1 10 0 0 11 5,8<br />

Nachgewiesen durch Zitation 15 0 14 6 35 18,6<br />

Nachgewiesen durch Volltext<br />

Bildung <strong>und</strong> Erziehung<br />

0 0 3 2 5 2,7<br />

Anzahl Artikel 27 29 35 27 118 100,0<br />

Kein Nachweis<br />

in Google Scholar<br />

2 29 34 24 89 75,4<br />

Nachgewiesen durch Verlinkung 25 0 0 0 25 21,2<br />

Nachgewiesen durch Zitation 0 0 1 0 1 0,8<br />

Nachgewiesen durch Volltext<br />

Zeitschrift für Soziologie der<br />

Erziehung <strong>und</strong> Sozialisation<br />

0 0 0 3 3 2,5<br />

Anzahl Artikel 26 30 22 24 102 100,0<br />

Kein Nachweis<br />

in Google Scholar<br />

14 26 19 20 79 77,4<br />

Nachgewiesen durch Verlinkung 1 1 0 1 3 2,9<br />

Nachgewiesen durch Zitation 10 3 3 2 18 17,6<br />

Nachgewiesen durch Volltext 1 0 0 1 2 2,0


Abdeckung erziehungswissenschaftlicher Zeitschriften in Google Scholar 167<br />

Tabelle 2: Abdeckung der englischsprachigen Zeitschrift in Google Scholar<br />

Zeitschrift<br />

Harvard Educational Review<br />

Jahrgänge<br />

2006 2007 2008 2009<br />

gesamt Anteil in %<br />

(2006–2009)<br />

Anzahl Artikel 23 17 22 47 109 100,0<br />

Kein Nachweis<br />

in Google Scholar<br />

0 1 0 0 1 0,9<br />

Nachgewiesen durch Verlinkung 19 16 22 43 100 91,7<br />

Nachgewiesen durch Zitation 0 0 0 0 0 0,0<br />

Nachgewiesen durch Volltext 4 0 0 4 8 7,3<br />

4.1 Abdeckung in Google Scholar<br />

Im Hinblick auf die Auffindbarkeit der Artikel der deutschsprachigen Zeitschriften<br />

lässt sich feststellen, dass vor allem eine Zeitschrift einen besonders<br />

hohen Abdeckungsgrad aufweist. Die Zeitschrift für Erziehungswissenschaft<br />

ist mit einem Abdeckungsgrad von 97,5% die am besten nachgewiesene<br />

deutsche Fachzeitschrift im Bereich der allgemeinen Erziehungswissenschaft.<br />

Die recherchierten Artikel werden fast ausschließlich über die Online-<br />

Bibliothek „Springer Link“ indexiert. Während bei der Zeitschrift Unterrichtswissenschaft<br />

weniger als die Hälfte der Artikel nachgewiesen werden<br />

(42,0%), liegt die Abdeckungsquote bei den restlichen Zeitschriften noch<br />

niedriger. Die Zeitschrift für Pädagogik weist ebenso wie die Bildung <strong>und</strong><br />

Erziehung mit 27,1% bzw. 24,5% einen niedrigen Abdeckungsgrad auf, wobei<br />

noch r<strong>und</strong> ein Viertel der Artikel in Google Scholar nachgewiesen wird.<br />

Das Schlusslicht dieser Untersuchung bildet die Zeitschrift für Soziologie der<br />

Erziehung <strong>und</strong> Sozialisation, bei der lediglich 22,5% der gesuchten Artikel in<br />

Google Scholar auffindbar sind. Im Vergleich dazu ist die US-amerikanische<br />

Zeitschrift Harvard Educational Review mit einer Gesamtabdeckung von<br />

99% die am besten nachgewiesene Fachzeitschrift der Untersuchung. Die<br />

Beiträge werden vor allem durch den Verlag <strong>und</strong> die dort verfügbaren Inhaltsverzeichnisse<br />

auffindbar gemacht, die im Gegensatz zu den Inhaltsverzeichnissen<br />

der meisten deutschsprachigen Zeitschriften von Google Scholar<br />

indexiert werden.


168 Philipp Leinenkugel, Werner Dees, Marc Rittberger<br />

4.2 Verteilung der Nachweisformate<br />

Von den insgesamt 712 in Google Scholar gesuchten Artikeln aus allen sechs<br />

Zeitschriften entfallen 248 (34,8%) auf Verlinkungen, die hauptsächlich zu<br />

kostenpflichtigen Volltexten auf Verlagsseiten oder wissenschaftlichen <strong>Information</strong>sanbietern<br />

führen. Die Gesamtanzahl an Zitationen, also nicht eigenständiger<br />

Literaturnachweise, sondern lediglich aus Dokumenten extrahierter<br />

Referenzen mit minimalen bibliografischen Angaben, beläuft sich auf<br />

81 Stück, was einem Anteil von 11,4% entspricht. Insbesondere die Artikel<br />

der Zeitschrift Unterrichtswissenschaft, der Zeitschrift für Pädagogik <strong>und</strong> der<br />

Zeitschrift für Soziologie der Erziehung <strong>und</strong> Sozialisation weisen für den<br />

Untersuchungszeitraum 2006 bis 2009 eine relativ hohe Quote an Zitationen<br />

von 35,5%, 18,6% <strong>und</strong> 17,6% auf. Die Anzahl der kosten<strong>frei</strong>en Volltexte<br />

hingegen erweist sich als minimal. Von 712 Artikeln stehen lediglich 30<br />

kosten<strong>frei</strong> zur Verfügung, was einem Anteil von 4,2% entspricht. In der Zeitschrift<br />

für Erziehungswissenschaft <strong>und</strong> der Harvard Educational Review<br />

konnten 8 bzw. 9 Volltexte kosten<strong>frei</strong> genutzt werden, die jedoch nicht durch<br />

die Verlage, sondern durch alternative Quellen zugänglich gemacht wurden.<br />

In den übrigen Zeitschriften wurden noch weniger kosten<strong>frei</strong> zugängliche<br />

Artikel aufgef<strong>und</strong>en. In wenigen Fällen gab es zu einem Artikel in Google<br />

Scholar mehrere Nachweisformate (z.B. sowohl Zitation als auch Volltext),<br />

wobei hier jeweils das Format mit dem höchsten <strong>Information</strong>sgehalt (also<br />

Volltext vor Zitation) gezählt <strong>und</strong> in der Auswertung berücksichtigt wurde.<br />

Im Hinblick auf die Dokumentenformate lässt sich feststellen, dass alle <strong>frei</strong><br />

zugänglichen Volltexte als PDF vorliegen.<br />

5 Fazit<br />

Die empirische Untersuchung des Abdeckungsgrades von Google Scholar<br />

zeigt, dass sich dieser Dienst, so wie es Lewandowski [2007] schon für die<br />

Bibliotheks- <strong>und</strong> <strong>Information</strong>swissenschaft festgestellt hat, auch für die<br />

deutschsprachige Erziehungswissenschaft nicht als Ersatz für bibliografische<br />

Datenbanken eignet. Lediglich eine der untersuchten fünf deutschsprachigen<br />

Zeitschriften wird fast vollständig nachgewiesen, während von den anderen<br />

vier nur etwa ein Viertel der Artikel des Zeitraums 2006 bis 2009 in Google


Abdeckung erziehungswissenschaftlicher Zeitschriften in Google Scholar 169<br />

Scholar zu finden sind. Im Gegensatz dazu werden die Artikel der Harvard<br />

Educational Review zu praktisch 100% nachgewiesen. Zwar werden die Inhaltsverzeichnisse<br />

aller untersuchten Zeitschriften (mit Ausnahme der Bildung<br />

<strong>und</strong> Erziehung) über die Verlagsseiten im Internet bereitgestellt, aber<br />

nur jene der Zeitschrift für Erziehungswissenschaft <strong>und</strong> der Harvard Educational<br />

Review werden auch von Google Scholar indexiert. Das Beispiel der<br />

Zeitschrift für Erziehungswissenschaft macht zugleich deutlich, dass die geringe<br />

Abdeckung vieler Zeitschriften nicht in einer generellen Nichtbeachtung<br />

deutschsprachiger Literatur begründet liegt, sondern auf die fehlenden<br />

oder unzulänglichen Onlineangebote der kleinen deutschen Zeitschriftenverlage<br />

zurückzuführen ist.<br />

Noch deutlich niedriger als in der Bibliotheks- <strong>und</strong> <strong>Information</strong>swissenschaft<br />

liegt der Anteil der elektronischen Volltexte, die in Google Scholar zu<br />

finden sind. Nur zwei der sechs Zeitschriften (Zeitschrift für Erziehungswissenschaft<br />

<strong>und</strong> Harvard Educational Review) bieten die Artikel ihrer aktuellen<br />

Jahrgänge kostenpflichtig in elektronischer Form an. Bei weiteren drei<br />

liegen zumindest ältere, vor dem Untersuchungszeitraum liegende, Jahrgänge<br />

retrodigitalisiert über DigiZeitschriften vor. Insgesamt zeigt die Untersuchung,<br />

dass sich Studierende oder andere an erziehungswissenschaftlicher<br />

Fachliteratur Interessierte nicht alleine auf die beliebte Suchmaschine Google<br />

Scholar verlassen, sondern auch Fachdatenbanken wie FIS Bildung oder andere<br />

wissenschaftliche Suchmaschinen wie BASE (wobei deren Abdeckungsgrad<br />

erst noch zu untersuchen wäre) berücksichtigen sollten. Gleichzeitig<br />

sollten erziehungswissenschaftliche Verlage <strong>und</strong> Autoren versuchen, in größerem<br />

Maße in Google Scholar nachgewiesen zu werden, um in diesem internationalen,<br />

multidisziplinären Angebot eine bessere Sichtbarkeit zu erreichen.<br />

Literaturverzeichnis<br />

Clermont, M. (2010): Darstellung <strong>und</strong> Güteprüfung von Google Scholar zur Literatur-<br />

<strong>und</strong> Zitationsauswertung.<br />

http://www.lut.rwth-aachen.de/Arbeitsberichte?action=AttachFile&do=view&target=Darstellung+<strong>und</strong>+G%C3%BCtepr%C3%BCfung+von+Google+Scholar.pdf<br />

(16.09.2010)


170 Philipp Leinenkugel, Werner Dees, Marc Rittberger<br />

European Science Fo<strong>und</strong>ation (2011): ERIH ‘Initial’ lists.<br />

http://www.esf.org/research-areas/humanities/erih-european-reference-index-for-thehumanities/erih-initial-lists.html<br />

(09.01.2011)<br />

Fell, C. (2010): Publish or Perish <strong>und</strong> Google Scholar – ein Segen? Leibniz-Zentrum<br />

für Psychologische <strong>Information</strong> <strong>und</strong> Dokumentation (ZPID), Trier.<br />

http://www.zpid.de/pub/research/2010_Fell_Publish-or-Perish.pdf (21.09.2010)<br />

Harzing, A.; van der Wal, R. (2008): Google Scholar as a new source for citation<br />

analysis. In: Ethics in Science and Environmental Politics 2008(8): 61–73.<br />

Jascó, P. (2010): Metadata mega mess in Google Scholar. In: Online <strong>Information</strong><br />

Review 34(1), 175–191.<br />

Lewandowski, D. (2007): Nachweis deutschsprachiger bibliotheks- <strong>und</strong> informationswissenschaftlicher<br />

Aufsätze in Google Scholar. In: <strong>Information</strong>, <strong>Wissen</strong>schaft<br />

& Praxis, 58(3), 165–168.<br />

Mayr, P.; Walter, A. (2006): Abdeckung <strong>und</strong> Aktualität des Suchdienstes Google<br />

Scholar. In: <strong>Information</strong>, <strong>Wissen</strong>schaft & Praxis, 57(3), 133–140.<br />

Meier, J. J.; Conkling, T. W. (2008): Google Scholar’s Coverage of the Engineering<br />

Literature: In: The Journal of Academic Librarianship 34(3), 196–01.<br />

Tippelt, R.; Rauschenbach, T.; Weishaupt, H. (Hg.) (2004): Datenreport Erziehungswissenschaft<br />

2004. Wiesbaden: VS Verlag für Sozialwissenschaften.


Abdeckung erziehungswissenschaftlicher Zeitschriften in Google Scholar 171<br />

Session 5:<br />

<strong>Information</strong> Retrieval


172 Ari Pirkola<br />

Abstract<br />

Constructing Topic-specific Search<br />

Keyphrase Suggestion Tools for<br />

Web <strong>Information</strong> Retrieval<br />

Ari Pirkola<br />

Department of <strong>Information</strong> Studies and Interactive Media<br />

University of Tampere<br />

Kanslerinrinne 1, Tampere 33014<br />

ari.pirkola@uta.fi<br />

We devised a method to extract keyphrases from the Web pages to construct<br />

a keyphrase list for a specific topic. The keyphrases are identified and out-oftopic<br />

phrases removed based on their frequencies in the text corpora of various<br />

densities of text discussing the topic. The list is intended as a search aid<br />

for Web information retrieval, so that the user can browse the list, identify<br />

different aspects of the topic, and select from it keyphrases (e.g. find synonymous<br />

phrases) for a query. A keyphrase list containing a large set of keyphrases<br />

related to climate change was constructed using the proposed<br />

method. We argue that there is a need for such keyphrase suggestion tools,<br />

because the major Web search engines do not provide users with such terminological<br />

search aids that help them identify different topic aspects and find<br />

synonyms.<br />

1 Introduction<br />

The major Web search engines Bing, Google, Yahoo, and many others are<br />

necessary tools to find information from the Web, and they often provide<br />

users with good results. However, the users are often faced with the problem<br />

of finding such query keys that correctly represent their information needs.<br />

Formulating a good query requires that the user knows what aspects are re-


Constructing Topic-specific Search Keyphrase Suggestion Tools … 173<br />

lated to the topic (s)he is interested in, so that (s)he can modify the query<br />

narrower or broader. As an example of an aspect, some of the aspects of climate<br />

change are glacier melting, sea-level rise, drought, adaptation, and political<br />

consequences – to mention a few among h<strong>und</strong>reds of aspects. Even<br />

though the user is interested in an aspect with which (s)he is familiar with, it<br />

is impossible to know all alternative expressions referring to the aspect used<br />

by the Web page authors. The user may use the query sea level rise but may<br />

lose the documents (s)he needs because in many relevant documents this<br />

concept is expressed differently, e.g. rising sea level, rising seas, or higher<br />

sea level. Moreover, authors often use elliptical expressions, i.e., phrases<br />

where one component is omitted (e.g. after introducing the full phrase sea<br />

level rise the author may refer to it by the elliptical phrase the level rise), and<br />

even such short forms may strengthen the query and affect document ranking<br />

positively.<br />

Obviously, a list containing the most important phrases related to a particular<br />

topic would be an advantageous tool for Web searchers, helping to<br />

find good query keys. In this study, we devise a method to construct such a<br />

list, which is called Topic-specific Search Keyphrase Suggestion Tool. We<br />

are interested in scientific topics but the proposed method can be generalized<br />

to any reasonable topic. Here the keyphrase of the topic means a phrase that<br />

is often used in texts dealing with the topic and which refers to one of its<br />

aspects. The list is intended as an aid for Web information retrieval, so that<br />

the user can browse the list and select from it keys for a query. Each phrase<br />

in the list is assigned an importance score based on its frequencies in the text<br />

corpora of various densities of text discussing the topic. The keyphrases are<br />

extracted from pages relevant to the topic in question, and are thus known to<br />

appear in pages discussing the topic when used as search keys. Hence, the<br />

proposed approach implicitly involves the idea of reciprocity: keyphrases are<br />

extracted from relevant Web pages, and the phrases in turn can be used in<br />

queries to find relevant pages.<br />

We encountered two main challenges when devising the keyphrase list:<br />

(1) How to identify pages that are relevant to the topic for use as keyphrase<br />

source data? (2) How to identify the keyphrases among all phrases in the<br />

relevant pages and prune out out-of-topic phrases?<br />

In the first case, the method uses an information retrieval system to assign<br />

relevance scores to pages fetched by a focused crawler from the Web sites of<br />

universities and other research organizations investigating the topic. The


174 Ari Pirkola<br />

keyphrases of the topic are extracted from the pages assigned a high relevance<br />

score by the retrieval system.<br />

Second, we introduce a novel method to identify keyphrases and to clean<br />

the keyphrase list from out-of-topic phrases. The method calculates importance<br />

scores for phrases on the basis of the frequencies of the phrases in the<br />

corpora of various densities of relevant text. The most obvious out-of-topic<br />

phrases receive a low importance score and are removed from the final list.<br />

An ideal case would be a large corpus that is dense in relevant text, but it is<br />

not easy to access large amounts of such texts. We therefore use a very dense<br />

corpus and an irrelevant corpus containing documents on a different topic<br />

than the topic for which the keyphrase list is constructed, and two corpora<br />

that are in-between these extremes. The dense corpora are built on the basis<br />

of the occurrences of the topic title phrase (e.g. climate change) and a few<br />

known keyphrases in the original corpus crawled from the Web. This approach<br />

allows us to separate between the keyphrases and out-of-topic phrases<br />

based on the fact that the relative frequencies of keyphrases decrease as the<br />

density decreases. After these automatic phases the list still contains some<br />

<strong>und</strong>esirable phrases which are removed manually (Section 3.2).<br />

Using the proposed method, we constructed a keyphrase list for the topic<br />

climate change. The list is primarily intended for use in the scientific-based<br />

search system dealing with climate change (http://kastanja.uta.fi:8988/<br />

CLICS/) that was implemented in our earlier study, but it can be used as well<br />

together with general Web search engines to facilitate retrieving climate<br />

change related pages from the Web. The list is available on the Web at<br />

http://kastanja.uta.fi:8988/CLICS/about_index.html, and it contains 2533<br />

two-word phrases and 848 three-word phrases.<br />

The quality of the climate change keyphrase list was evaluated by determining<br />

(using samples) what proportion of the keyphrases and what proportion<br />

of all phrases in the crawled corpus (i.e., when keyphrase identification<br />

is not done) occur in the core content fields (title, abstract, keywords) of<br />

journal articles and conference papers dealing with climate change. The results<br />

showed that the proportion of keyphrases was higher than the proportion<br />

of phrases systematically selected from the crawled corpus.


Constructing Topic-specific Search Keyphrase Suggestion Tools … 175<br />

2 Related Work<br />

The proposed idea to construct a search keyphrase suggestion tool allowing<br />

searchers to see all important phrases related to a particular topic is novel.<br />

The new methodological idea behind our approach is to utilize the corpora of<br />

various densities of relevant text. Conventionally, keyphrase extraction refers<br />

to a process where phrases that describe the contents of a document are extracted<br />

and are assigned to the same document to facilitate e.g. information<br />

retrieval. Most conventional approaches are based on machine learning techniques.<br />

KEA (Witten et al., 1999), GenEx (Turney, 2003), and KP-Miner<br />

(El-Beltagy and Rafea, 2009) are three well-known keyphrase extraction systems.<br />

In these systems, keyphrases are identified and scored based on their<br />

length and their positions in documents, and using the TF-IDF weight.<br />

Muresan and Harper (2004) also developed a terminological support for<br />

searchers’ query construction in Web searching. However, unlike our study<br />

they did not focus on keyphrases but proposed an interaction model based on<br />

system-based mediation through structured specialized collections. The system<br />

assists the user in investigating the terminology and the structure of the<br />

topic of interest by allowing the user to explore a specialized source collection<br />

representing the problem domain. The user may indicate relevant documents<br />

and clusters on the basis of which the system automatically constructs<br />

a query representing the user’s information need. The starting point of the<br />

approach is the ASK (Anomalous State of Knowledge) model where the user<br />

has a problem to solve but does not know what information is needed (Belkin<br />

et al., 1982). Lee (2008) showed that the mediated system proposed by<br />

Muresan and Harper (2004) was better than a direct IR system not including<br />

a source collection in terms of effectiveness, efficiency and usability. The<br />

more search tasks the users conducted, the better were the results of the mediated<br />

system.<br />

We crawled the relevant documents from the Web sites of research organizations<br />

using a focused crawler. Focused crawlers are programs that<br />

fetch Web documents that are relevant to a pre-defined domain or topic<br />

(Hersovici et al., 1998; Diligenti et al., 2000; Pirkola and Talvensaari, 2010).<br />

Only documents assessed to be relevant by the system are downloaded and<br />

made accessible to the users e.g. through a digital library or a topic-specific<br />

search engine. During crawling link URLs are extracted from the pages and<br />

are added into a URL queue. The queue is ordered based on the probability


176 Ari Pirkola<br />

of URLs (i.e., pages pointed to by the URLs) being relevant to the topic in<br />

question. Pages are assigned probability scores e.g. using a topic-specific<br />

terminology, and high-score pages are downloaded first. Focused crawling<br />

research has focused on improving crawling techniques and crawling effectiveness<br />

(Diligenti et al., 2000; Bergmark et al., 2002; Pirkola and Talvensaari,<br />

2010), and we are not aware of any study investigating the use of focused<br />

crawling for keyphrase extraction. Perhaps the closest work to our<br />

research is that of Talvensaari et al. (2008) who also constructed word lists<br />

using focused crawling. However, they used focused crawling as a means to<br />

acquire German-English and Spanish-English comparable corpora in biology<br />

for statistical translation in cross-language information retrieval.<br />

3 Methods<br />

3.1 The Crawler<br />

We implemented a focused crawler in which the relevance of the pages during<br />

crawling is determined by matching a topic-defining query against the<br />

retrieved pages using a search engine. We used the Lemur search engine<br />

(http://www.lemurproject.org/) which allows the use of a proximity operator<br />

and weighted queries. The topic-defining query contained the following<br />

query keys: #3(climate change), #3(climate research), climate, climatic,<br />

#3(research project), research. The words combined by the proximity operator<br />

#3 are not allowed to be more than three words apart from each other to<br />

match. The keys were combined by Lemur’s weighted #sum operator to give<br />

more weight to the first keys above than the last two keys that relate to research<br />

activity in general. The pages with relevance scores higher than a<br />

given threshold were kept in the crawling results. The irrelevant corpus was<br />

crawled similarly to the relevant corpus, except that now we fetched Web<br />

documents on genetics, and the topic-defining query contained genetics related<br />

words and phrases. In all, crawling gave some 3100 documents deemed<br />

to be relevant and some 3600 irrelevant documents.<br />

A focused crawler does not follow all links on a page but it will assess<br />

which links to follow to find relevant pages. Our crawler assigns the prob-


Constructing Topic-specific Search Keyphrase Suggestion Tools … 177<br />

ability of relevance to an unseen page v using the following formula, which<br />

gave good results in a preliminary experiment.<br />

Pr(T|v) = (α * rel(u) * (1/log(Nu)) + ((1 – α) * rel()),<br />

where α is a weighting parameter (0 < α < 1), rel(u) is the relevance of the<br />

seen page u, calculated by Lemur, Nu the number of links on page u, and<br />

rel() the relevance of the link between u and the unseen page v. The<br />

relevance of the link is calculated by matching the context of the link against<br />

the topic query. The context is the anchor text, and the text immediately surro<strong>und</strong>ing<br />

the anchor. The context is defined with the help of the Document<br />

Object Model (DOM): all text that is within five DOM tree nodes of the link<br />

node is considered belonging to the context. The Document Object Model is<br />

a convention for representing and interacting with objects in HTML,<br />

XHTML and XML documents (http://en.wikipedia.org/wiki/Document_Object_Model).<br />

As can be seen, Pr(T|v) is a sum that consists of two terms: one that depends<br />

on the relevance of the page, and one that depends on the relevance of<br />

the link. The relative importance of the two terms is determined by the<br />

weight α. Based on our crawling experiment we selected for the α parameter<br />

we used the value of α = 0.3. Also, the number of links on page u inversely<br />

influences the probability. If rel(u) is high, we can think that the page “recommends”<br />

page v. However, if the page also recommends lots of other pages<br />

(i.e., Nu is high), we can rely less on the recommendation.<br />

3.2 Constructing the Climate Change Keyphrase List<br />

We now describe how the climate change keyphrase list was constructed. In<br />

the first phase, Web pages dealing with climate change were crawled using<br />

the focused crawler described in Section 3.1. The start URL set contained<br />

some 80 URLs of the most productive organizations engaged in climate<br />

change research, which were identified using the Scopus citation database<br />

(http://www.scopus.com/). The crawling scope of the crawler was limited so<br />

that the crawler was only allowed to visit the pages on these start sites, and<br />

their subdomains (for example, research.university.edu is a subdomain of<br />

www.university.edu), as well as sites that are one link apart from the start<br />

domain. These restrictions ensured that the crawling results do not degrade<br />

but crawling keeps in scientific sites.


178 Ari Pirkola<br />

The first phase of the processing of the crawled data was to extract all bigrams<br />

(i.e., two consecutive words) and trigrams (i.e., three consecutive<br />

words) from the crawled relevant and irrelevant corpora, and to recognize<br />

which bi- and trigrams are phrases. For phrase identification we used the<br />

small word (stop-word) technique (Jaene and Seelbach, 1975) and kept those<br />

bi- and trigrams only that were surro<strong>und</strong>ed by small words and that did not<br />

include a small word. The small word list was a standard stop-word list of an<br />

information retrieval system, and it contained 856 words. In scientific documents<br />

words related to research (e.g. study, author) are intermixed with the<br />

keyphrases of the topic, and the best way to remove them is to handle them<br />

as if they were stop-words. We therefore supplemented the list with a small<br />

set of research-related words (N=18), and removed all phrases that include<br />

such a word.<br />

In this study, we introduce a novel method to identify keyphrases and to<br />

clean the keyphrase list from out-of-topic phrases. The crawled relevant corpus<br />

was divided into three separate corpora based on the occurrences of the<br />

topic title phrase (climate change) and a few known keyphrases related to<br />

climate change. The three corpora differ from each other in the density of<br />

text portions containing keyphrases. We first identified the known keyphrases<br />

(N=10) that well represent the topic, such as <strong>global</strong> warming and sea<br />

level. The three corpora were as follows: (1) The whole relevant corpus; (2)<br />

A corpus where each text line contains the topic title phrase; (3) A corpus<br />

where each text line contains, in addition to the topic title phrase, at least one<br />

of the known keyphrases. The second corpus is denser in relevant text portions<br />

than the whole corpus, and the third one is denser than the second. The<br />

fourth corpus was the irrelevant corpus, which obviously only contains a few<br />

keyphrases. It can also be assumed that the frequency of keyphrases is relatively<br />

higher in the third corpus than in the first two corpora. The second<br />

corpus, in turn, is assumed to contain relatively more keyphrases than the<br />

first one. Out-of-topic phrases occur in the irrelevant corpus. They can be<br />

expected to be infrequent in the dense corpora simply because there is not<br />

much room for them in text portions that have many keyphrases.<br />

After these automatic phases, the list still contained some <strong>und</strong>esirable<br />

phrases, in particular non-specific phrases (such as take action) and phrases<br />

containing non- or weakly informative verbs (such as addressing climate<br />

change). These phrases were removed manually. Generally, the number of<br />

removals depends on the applied importance score (Section 3.3) threshold.<br />

All phrases in the crawled corpus could be assigned an importance score and


Constructing Topic-specific Search Keyphrase Suggestion Tools … 179<br />

if a very low threshold would be applied, the percentage of removals would<br />

be high. In the case of a high threshold none or only a few phrases need to be<br />

removed.<br />

3.3 Importance Score<br />

Below we introduce notational conventions used in the importance score<br />

calculations.<br />

Notational Conventions.<br />

Let P2 be some two-word phrase in the first document corpus DC(1), i.e.,<br />

P2 ∈ DC(1). We denote its frequency in the corpus by FDC(1)(P2). Correspondingly,<br />

the frequency of a three-word phrase in the first corpus is denoted<br />

by FDC(1)(P3). The frequencies of the two- and three-word phrases in the second,<br />

third and fourth corpora are denoted similarly, e.g. three-word phrases<br />

in the fourth corpus: FDC(4)(P3).<br />

Assumedly, a phrase which has a high frequency in the three relevant corpora<br />

and a low frequency in the fourth corpus deserves a high score. Therefore,<br />

the importance score for the two- and three-word phrases is calculated<br />

as follows (in the calculations the value 0 is converted into 1):<br />

IS(P2) = ln(FDC(1)(P2) * FDC(2)(P2) * FDC(3)(P2) / FDC(4)(P2))<br />

IS(P3) = ln(FDC(1)( P3) * FDC(2)( P3) * FDC(3)( P3) / FDC(4)( P3))<br />

Table 1 shows the 20 highest ranked two- and three word phrases in the<br />

climate change keyphrase list and their importance scores. The whole list is<br />

available at http://kastanja.uta.fi:8988/CLICS/about_index.html. Most of the<br />

keyphrases are established phrases. The phrase change impacts is an example<br />

of an elliptical phrase. Such short forms are <strong>und</strong>erstandable in the context of<br />

climate change, and as argued in Section 1 they may be good query keys.<br />

Table 1. The highest ranked keyphrases in the climate change keyphrase list.<br />

Two-word phrases IS(P2) Three-word phrases IS(P3)<br />

change impacts 19.0 climate change impacts 18.5<br />

greenhouse gases 17.9 greenhouse gas emissions 17.5<br />

<strong>global</strong> warming 17.6 climate change adaptation 16.6<br />

climate changes 16.8 future climate change 16.3<br />

future climate 16.5 <strong>global</strong> climate change 16.2<br />

greenhouse gas 15.9 climate change projections 16.2


180 Ari Pirkola<br />

Two-word phrases IS(P2) Three-word phrases IS(P3)<br />

carbon dioxide 15.7 <strong>global</strong> environmental change 16.1<br />

<strong>global</strong> climate 15.5 fourth assessment report 15.7<br />

adaptation strategies 15.4 climate change issues 14.4<br />

earth system 15.3 climate change mitigation 14.3<br />

potential impacts 15.3 induced climate change 14.2<br />

greenhouse effect 15.2 sea level rise 14.1<br />

food security 15.0 climate change scenarios 13.6<br />

climate adaptation 15.0 regional climate change 13.5<br />

sustainable development<br />

15.0 climate change policy 13.4<br />

climate policy 14.8 dangerous climate change 12.7<br />

potential impact 14.7 abrupt climate change 12.6<br />

climate action 14.6 climate change report 12.3<br />

climate system 14.6 climate change program 12.2<br />

ozone layer 14.4 greenhouse gas concentrations 12.2<br />

4 Evaluation<br />

The quality of the climate change keyphrase list was evaluated by determining<br />

(1) what proportion of the keyphrases in the list (test situation) and (2)<br />

what proportion of phrases selected from the relevant corpus (baseline situation)<br />

occur in the core content fields (title, abstract, keywords) of journal<br />

articles and conference papers dealing with climate change. In the first case,<br />

a systematic sample of keyphrases (N=50 both for two- and three-word<br />

phrases) was selected from the keyphrase list. In the second case, similarly to<br />

the first case, a systematic sample of two- and three-word phrases (N=50 for<br />

both) was selected from the relevant corpus (containing both keyphrases and<br />

out-of-topic phrases). If the proposed method effectively identifies keyphrases,<br />

as is expected, their proportion will be considerably higher than that<br />

of corpus phrases. On the other hand, of all the corpus phrases a large proportion<br />

is keyphrases, so they are not infrequent in the core fields of relevant<br />

articles and papers. Hence, the main question in the evaluation is whether the<br />

second stage of the proposed approach (the use of corpora of various densi-


Constructing Topic-specific Search Keyphrase Suggestion Tools … 181<br />

ties of relevant text) improves the effectiveness compared to the first stage<br />

alone (constructing the relevant corpus by means of focused crawling).<br />

In this evaluation experiment we used the Web of Science citation database<br />

(http://thomsonreuters.com/products_services/science/science_products/<br />

a-z/web_of_science). In the Web of Science, each journal article and a conference<br />

paper is represented by a record that contains the core content fields<br />

title, abstract, and keywords and several other fields. The query used in the<br />

evaluation was expressed as follows: Find documents where the keyphrase<br />

(test situation) / corpus phrase (baseline situation) and the topic title phrase<br />

(climate change) occur in the same record in the title, abstract, or keyword<br />

field. For example, we searched for documents that contain in their core<br />

fields both the phrase abrupt change and the title phrase climate change.<br />

The results of the evaluation experiment are reported in Table 2. As described<br />

above, in each four cases we selected 50 phrases, and column 2<br />

shows how many of them occur in the core fields of articles and papers together<br />

with the phrase climate change. As shown, the number of keyphrases<br />

is remarkably higher than that of corpus phrases. In the case of two-word<br />

keyphrases, all 50 have occurrences (at least one occurrence) whereas only<br />

26 two-word corpus phrases have occurrences. Column 3 indicates the total<br />

number of occurrences for the 50 keyphrases and for the 50 corpus phrases.<br />

Column 4 indicates the average number of occurrences per keyphrase and per<br />

corpus phrase. For keyphrases the total number of occurrences and the average<br />

are considerably higher. Two-word keyphrases appear more frequently<br />

than three-word keyphrases.<br />

Table 2. The results of the evaluation experiment.<br />

Phrase type<br />

N:o keyphrases;<br />

N:o corpus phrases<br />

N:o occurrences<br />

Average n:o<br />

occurrences<br />

2-word keyphrases 50 11 992 239,8<br />

2-word corpus phrases 26 11 609 112,2<br />

3-word keyphrases 43 22 743 154,9<br />

3-word corpus phrases 14 11 184 113,7


182 Ari Pirkola<br />

5 Conclusions<br />

Conventionally, keyphrase extraction refers to a process where phrases that<br />

describe the contents of a document are extracted and are assigned to the<br />

same document to facilitate e.g. information retrieval. We presented a novel<br />

approach which differs from the conventional approach in that we do not<br />

handle individual documents but a set of documents discussing a particular<br />

topic. From these documents we extract keyphrases that describe different<br />

aspects of the topic. The proposed method is based on the use of several<br />

document corpora of different densities of relevant text.<br />

Our project plan involves building a multi-topic search keyphrase suggestion<br />

tool dealing with many <strong>global</strong>ly significant topics. The climate change<br />

keyphrase list will be a part of the larger tool. We believe that such a multitopic<br />

tool is needed in scientifically-oriented Web information retrieval. It<br />

will serve users such as researchers and journalists searching for information<br />

on scientifically and <strong>global</strong>ly important information. It may also be possible<br />

to apply the keyphrase list in areas other than information retrieval (e.g.<br />

document clustering), which may be one direction of our future research.<br />

Acknowledgments<br />

This study was f<strong>und</strong>ed by the Academy of Finland (research projects 130760,<br />

218289).<br />

References<br />

Belkin, N. J., Oddy, R. N., Brooks, H. M. (1982). ASK for information retrieval: Part<br />

I. Backgro<strong>und</strong> and history. Journal of Documentation, 38 (2), pp. 61–71.<br />

Bergmark, D., Lagoze, C., Sbityakov, A. (2002). Focused crawls, tunneling, and<br />

digital libraries. Sixth European Conference on Research and Advanced Technology<br />

for Digital Libraries, Rome, Italy, September 16–8, pp. 91–106.


Constructing Topic-specific Search Keyphrase Suggestion Tools … 183<br />

Diligenti, M., Coetzee, F. M., Lawrence, S., Giles, C. L., Gori, M. (2000). Focused<br />

crawling using context graphs. Twenty-sixth International Conference on Very<br />

Large Databases (VLDB), pp. 527–534.<br />

El-Beltagy, S. and Rafea, A. (2009). KP-Miner: A keyphrase extraction system for<br />

English and Arabic documents. <strong>Information</strong> Systems, 34(1), pp. 132–144.<br />

Hersovici, M., Jacovi, M., Maarek, Y., Pelleg, D., Shtalhaim, M., Ur, S. (1998). The<br />

shark-search algorithm – an application: tailored Web site mapping. Seventh International<br />

Conference on World Wide Web, Brisbane, Australia.<br />

Jaene, H. and Seelbach, D. (1975). Maschinelle Extraktion von zusammengesetzten<br />

Ausdrücken aus englischen Fachtexten. Report ZMD-A-29. Beuth Verlag, Berlin.<br />

Lee, H. J. (2008). Mediated information retrieval in Web searching. Proceedings of<br />

the American Society for <strong>Information</strong> Science and Technology, 45(1), pp. 1–10.<br />

Muresan, G. and Harper, D. J. (2004). Topic modeling for mediated access to very<br />

large document collections. Journal of the American Society for <strong>Information</strong> Science<br />

and Technology, 55 (10), pp. 892–910.<br />

Pirkola, A. and Talvensaari, T. (2010). Addressing the limited scope problem of<br />

focused crawling using a result merging approach. Proceedings of the 25th Annual<br />

ACM Symposium on Applied Computing (ACM SAC), Sierre, Switzerland,<br />

March 22–6, pp. 1735–1740.<br />

Talvensaari, T., Pirkola, A., Järvelin, K., Juhola, M., Laurikkala, J. (2008). Focused<br />

Web crawling in the acquisition of comparable corpora. <strong>Information</strong> Retrieval,<br />

11(5), pp. 427–445.<br />

Turney, P. D. (2003). Coherent keyphrase extraction via Web mining. Proceedings of<br />

the Eighteenth International Joint Conference on Artificial Intelligence (IJCAI-<br />

03), Acapulco, Mexico, pp. 434–439.<br />

Witten, I. H., Paynter, G.W., Frank, E., Gutwin, C., Nevill-Manning, C. G. (1999).<br />

KEA: Practical automatic keyphrase extraction. Proceedings of the 4th ACM<br />

conference on Digital Libraries, Berkeley, California, pp. 254–255.


184 P. Mayr, P. Mutschke, V. Petras, P. Schaer, Y. Sure<br />

Applying Science Models for Search<br />

Philipp Mayr 1 , Peter Mutschke 1 , Vivien Petras 2 ,<br />

Philipp Schaer 1 , York Sure 1<br />

1<br />

GESIS – Leibniz Institute for the Social Sciences<br />

Lennéstr. 30, 53113 Bonn, Germany<br />

philipp.mayr | peter.mutschke | philipp.schaer | york.sure@gesis.org<br />

2<br />

Humboldt-Universität, Institut für Bibliotheks- <strong>und</strong> <strong>Information</strong>swissenschaft<br />

Unter den Linden 6, 10099 Berlin, Germany<br />

vivien.petras@ibi.hu-berlin.de<br />

Abstract<br />

The paper proposes three different kinds of science models as value-added<br />

services that are integrated in the retrieval process to enhance retrieval quailty.<br />

The paper discusses the approaches Search Term Recommendation, Bradfordizing<br />

and Author Centrality on a general level and addresses implementation<br />

issues of the models within a real-life retrieval environment.<br />

Introduction<br />

Scholarly information systems often show three major points of failures, as<br />

pointed out in various studies: (1) the vagueness between search and indexing<br />

terms, (2) the information overload by the amount of result records<br />

listed, and (3) the problem that pure term text based rankings, such as tf-idf,<br />

often do not meet the users’ information need. Moreover, retrieval evaluations<br />

such as TREC and CLEF have shown that simple text-based retrieval<br />

methods scale up very well but do not progress anymore in terms of significant<br />

relevance improvements (Fuhr 2010, Armstrong et al. 2009).


Applying Science Models for Search 185<br />

The goal of the IRM 1 project therefore is to improve retrieval quality by<br />

value-added services that are based on computational models of the science<br />

system <strong>und</strong>er study. The overall approach of IRM is to use models focusing<br />

on non-textual attributes of the research field, the scientific community respectively,<br />

as enhanced search stratagems (Bates 1990) within a scholarly<br />

information retrieval (IR) environment. This strongly meets the suggestion of<br />

Fuhr (2010) to move towards a more science model driven approach in IR<br />

which would lead to a broader view, an <strong>und</strong>erstanding of limitations of current<br />

models, and therefore the ability to open up alternative access paths into<br />

a field (Ingwersen & Järvelin 2005). The paper discusses the concepts of<br />

models on a general level and addresses implementation issues of the models<br />

within a real-life retrieval environment.<br />

Model Discussion<br />

Science models usually address issues in statistical modeling and visualization<br />

2 . As a further dimension, that should be considered in science modeling<br />

as well, the paper focuses on the application of science models in IR<br />

(Mutschke et al. 2011). Supposing that searching in a scholarly information<br />

system can be seen as a particular way of interacting with the science system,<br />

the overall assumption of our approach is that a user’s search should improve<br />

by using science model driven search tactics. This approach meets the fact<br />

that the frequency of many structural attributes of the science system usually<br />

follows some type of power-law distribution. These highly frequent attributes<br />

which are produced when applying the science models have a strong selectivity<br />

in the document space which can be utilized for IR.<br />

The paper proposes three different kinds of science models as valueadded<br />

services that are integrated in the retrieval process to enhance retrieval<br />

quality (see Figure 1): (1) a co-word analysis model for search term recommendations<br />

(STR), (2) a bibliometric model of re-ranking, called Bradfordizing,<br />

determining core journals for a field (BRAD), and (3) a network model<br />

1 http://www.gesis.org/irm/<br />

2 See e.g. the workshop “Modelling Science” <br />

and a forthcoming Special Issue in Scientometrics.


186 P. Mayr, P. Mutschke, V. Petras, P. Schaer, Y. Sure<br />

of re-ranking examining the centrality of authors in scientific community<br />

(AUTH). In the following the models are discussed on a general conceptual<br />

level.<br />

Figure 1: A simple search example (query term: “Unemployment”) and typical structural<br />

attributes/outputs of implemented science models in our retrieval system. From<br />

left: Search Term Recommendation (STR) producing highly associated indexing<br />

terms, Author Networks (AUTH) with centrality-ranked author names and<br />

Bradfordizing based on Core Journals (BRAD) with highly frequent journal<br />

names/ISSNs.<br />

A Co-Word-Analysis Model for Query Expansion<br />

Metadata-driven Digital Libraries share a common problem which Furnas<br />

(1987) addressed as the “Language Problem in IR”. Whenever a query is<br />

formalized the searcher has to come up with the “right” terms to best match<br />

the terms used in the index. Two language domains have to match: (1) the<br />

language of scientific discourse which is used by the scientists who formulate<br />

the queries and (2) the language of documentation which is used by the database<br />

vendors. To overcome this query formulation problem and to provide a<br />

direct mapping between the language of discourse and the language of<br />

documentation, Petras (2006) proposed a so called Search Term Recommender<br />

(STR). These recommenders are based on statistical co-word analysis<br />

and build associations between free terms (i.e. from title or abstract) and<br />

controlled terms (i.e. from a thesaurus). The co-word analysis implies a se-


Applying Science Models for Search 187<br />

mantic association between the free terms as instances of the language of<br />

discourse and the controlled terms as instances of the language of documentation.<br />

The more often terms co-occur in the text the more likely it is that<br />

they share a semantic relation. So, the model proposed focuses on the relationships<br />

among the terminological concepts describing the scientific discourse<br />

within a research field.<br />

These semantic relations can be used to implement a query expansion<br />

mechanism where the initial query is expanded with a number of related controlled<br />

terms. Different evaluations of the Search Term Recommender as an<br />

approach for query expansion have shown (Petras 2005, Schaer et al. 2010)<br />

that co-word analysis based term suggestions significantly improve the precision<br />

of the retrieval process. Additionally, they can provide an overview over<br />

different areas of discussion, which deal with particular concepts (perhaps<br />

assuming different meanings or directions of thought) when presented as an<br />

interaction method – for example in the form of a term cloud or a confidence<br />

ranked list.<br />

This is especially true when domain-specific STR modules are used. A<br />

STR trained with a social science related document set will propose different<br />

terms and therefore concepts than e.g. a STR trained with documents from<br />

the domain of sport science. We may think of an query on “financial crisis”:<br />

While the social science module will suggest terms like “stock market”,<br />

“economic problems” or “international economic organizations” the other<br />

recommender will come up with relations to “sport economy”, “player transfer”<br />

and “influence on performance”. Each academic field has its own languages<br />

of discourse and documentation, so therefore the query suggestion<br />

methods have to adapt theses languages. The assumption is that term suggestions<br />

from several fields of research or information resources can provide a<br />

new view or different domain perspective on a topic (mainly in the interactive<br />

application of STRs). When used as an automatic query expansion<br />

mechanism this can lead to a phenomenon named “query drifts” where the<br />

query and therefore the result set is transformed in a way the user didn’t intend.<br />

Beside query drifting, expanded queries tend to generate very large result<br />

sets. Nevertheless, in combination with a normal tf-idf ranking model positive<br />

effects which are related to the general concept of relevancy-ranking can<br />

be seen. By ranking the occurrences of both the user entered words and suggested<br />

terms from the STR, documents with a higher frequency are much<br />

more likely to be ranked in a top position (despite the fact that the result set


188 P. Mayr, P. Mutschke, V. Petras, P. Schaer, Y. Sure<br />

gets bigger). This can be explained with the significantly higher discriminating<br />

power of the added terms and concepts in comparison to the terms of the<br />

original query which especially influences the term frequency part of the tfidf<br />

formula.<br />

A Bibliometric Re-Ranking Model<br />

For the problem of oversized result sets we propose a re-ranking model that<br />

applies a bibliometric law called Bradford law. Modeling science based on<br />

Bradford law is motivated by the necessity for researchers to concentrate on a<br />

small fraction of topically relevant literature output in a field. F<strong>und</strong>amentally,<br />

Bradford law states that literature on any scientific field or subject-specific<br />

topic scatters in a typical way. In the literature we can find different names<br />

for this type of distribution, e.g. “long tail distribution”, “extremely skewed”,<br />

“law of the vital few” or “power law” which all show the same properties of<br />

a self-similar distribution. A Bradford distribution typically generates a core<br />

or nucleus with the highest concentration of papers – normally situated in a<br />

set of few so-called core journals – which is followed by zones with loose<br />

concentrations of paper frequencies. The last zone covers the so-called peripheral<br />

journals which are located in the model far distant from the core<br />

subject and normally contribute just one or two topically relevant papers.<br />

Bradfordizing, originally described by White (1981), is a utilization of the<br />

Bradford law of scattering model which sorts/re-ranks a result set accordingly<br />

to the rank a scientific journal gets in a Bradford distribution. The journals<br />

in a search result are ranked by the frequency of their listing in the result<br />

set (number of articles in a certain journal). Bradfordizing assures that the<br />

central publication sources for any query are sorted to the top positions of the<br />

result set (Mayr 2010).<br />

On an abstract level, re-ranking by Bradfordizing can be used as a compensation<br />

mechanism for enlarged search spaces with interdisciplinary<br />

document sets. Bradfordizing can be used in favor of its structuring and filtering<br />

facility. Our analyses show that the hierarchy of the result set after<br />

Bradfordizing is a completely different one compared to the original ranking.<br />

Furthermore, Bradfordizing can be a helpful information service to positively<br />

influence the search process, especially for searchers who are new on a research<br />

topic and don’t know the main publication sources in a research field.<br />

The opening up of new access paths and possibilities to explore document


Applying Science Models for Search 189<br />

spaces can be a very valuable facility. Additionally, re-ranking via bradfordized<br />

document sets offer an opportunity to switch between term-based search<br />

and the search mode browsing. It is clear that the approach will be provided<br />

as an alternative ranking option, as one additional way or stratagem to access<br />

topical documents (cf. Bates 1990).<br />

Interesting in this context is a statement by Bradford where he explains<br />

the utility of the typical three zones. The core and zone 2 journals are in his<br />

words “obviously and a priori relevant to the subjects”, whereas the last zone<br />

(zone 3) is a very “mixed” zone, with some relevant journals, but also journals<br />

of “very general scope” (Bradford 1934). Pontigo and Lancaster (1986)<br />

come to a slightly different conclusion of their qualitative study. They investigated<br />

that experts on a topic always find a certain significant amount of<br />

relevant items in the last zone. This is in agreement with quantitative analyses<br />

of relevance assessments in the Bradford zones (Mayr 2010). The study<br />

shows that the last zone covers significantly less often relevant documents<br />

than the core or zone 2. The highest precision can very constantly be fo<strong>und</strong> in<br />

the core.<br />

To conclude, modeling science into a core and a periphery – the Bradford<br />

approach – always runs the risk and critic of disregarding important developments<br />

outside the core. Hjorland and Nicolaisen (2005) recently started a<br />

first exploration of possible side effects and biases of the Bradford methods.<br />

They criticized that Bradfordizing favors majority views and mainstream<br />

journals and ignores minority standpoints. This is a serious argument, because<br />

by definition, journals which publish few papers on specific topics<br />

have very little chance to get into the core of a more general topic.<br />

A Network Model of Re-Ranking<br />

Author centrality is a network model approach of re-ranking taking the social<br />

structure of a scientific community into account. The approach is motivated<br />

by the perception of “science (as) a social institution where the production of<br />

scientific knowledge is embedded in collaborative networks of scientists”<br />

(He 2009). The increasing significance of collaboration in science correlates<br />

with an increasing impact of collaborative papers (Beaver 2004), due to the<br />

complexity of nowadays research issues that require more collaboration (cf.<br />

Jiang 2008).


190 P. Mayr, P. Mutschke, V. Petras, P. Schaer, Y. Sure<br />

Collaboration in science is mainly represented by co-authorships between<br />

two or more authors who write a publication together. Transferred to a whole<br />

community, co-authorships form a co-authorship network as a particular<br />

“prototype of a social network” (Yin et al. 2006) that reflects the overall collaboration<br />

structure of a community. As inequality of positions is a structural<br />

property in social networks in general, locating strategic positions in scientific<br />

collaboration structures becomes an important issue also in examining<br />

the relevance of authors for a field (cf. Jiang 2008, Lu and Feng 2009, Liu et<br />

al. 2005). This perception of collaboration in science corresponds directly<br />

with the idea of structural centrality (Freeman 1977). Many authors characterize<br />

collaboration in science in terms that match a concept of centrality<br />

widely used in social network analysis (Chen et al. 2009, Yin et al. 2006),<br />

namely the betweenness centrality measure which evaluates the degree to<br />

which a node is positioned between others on shortest paths and thus emphasizes<br />

the node’s brokerage role in the network’s information flow (Freeman<br />

1977, cf. Mutschke 2010).<br />

As collaboration inherently implies the share of knowledge, high betweenness<br />

authors can be therefore seen as “pivot points of knowledge flow<br />

in the network” (Yin et al. 2006) and, by bringing different authors together,<br />

as the driving forces of the community making processes itself. The general<br />

assumption of the proposed model therefore is that the authors’ impact on a<br />

scientific field can be quantified by their betweenness in co-authorship networks<br />

(cf. Yan and Ding 2009) and is therefore taken as an index of their<br />

publications. In short, this is done as follows (Mutschke 1994, 2004): (1) A<br />

co-authorship network is calculated on-the-fly on the basis of the result set to<br />

a specific query. (2) For each individual author in the network the betweenness<br />

is computed. (3) Each publication in the result set is weighted by the<br />

highest betweenness value of its authors (yielding a relevance value for each<br />

publication in the result set). (4) The result set is then re-ranked in descending<br />

order by that relevance values of the publications such that publications<br />

of central authors appear on top of the ranking.<br />

The adequacy of this approach was confirmed by a number of empirical<br />

studies that turned out a high correlation between betweenness and other<br />

structural attributes, such as citation counts (Yan and Ding 2009), program<br />

committee membership (Liu et al 2005) and centrality of author topics in<br />

keyword networks (Mutschke and Quan-Haase 2001). Accordingly, an evaluation<br />

of the proposed ranking model (see below) has shown a higher precision<br />

than the text-based ranking. But, more importantly, it turned out that it


Applying Science Models for Search 191<br />

favors quite other relevant documents. Thus, the true benefit of such a network<br />

model based ranking approach is that it provides a quite different view<br />

on the document space than pure text-based rankings.<br />

However, two particular problems also emerge from that model. One is<br />

the conceptual problem of author name ambiguity (homonymy, synonymy)<br />

in bibliographic databases. In particular, the potential homonymy of names<br />

may misrepresent the true social structure of a scientific community. The<br />

other problem is the computation effort needed for calculating betweenness<br />

in large networks that may bother, in case of long computation times, the<br />

retrieval process and finally user acceptance.<br />

Evaluation Results<br />

To evaluate the general feasibility and performance of the models, we conducted<br />

a user assessment where 369,397 single documents from the SOLIS<br />

database on Social Science topics were evaluated by 73 information science<br />

students for 10 topics. The documents include title, abstract, controlled keywords<br />

etc. The assessment system was built on top of the IRM prototype.<br />

The three services were compared to a tf-idf ranked result set from the <strong>und</strong>erlying<br />

Solr search engine. Since the assessments were conducted with students<br />

instead of domain experts, Fleiss’ Kappa values were calculated to measure<br />

the degree of inter-rater agreement (Schaer et al. 2010). Since there is no<br />

general accepted threshold for Fleiss’ Kappa (cp. Sim and Wright, 2005), a<br />

custom threshold of 0.40 was selected and the values for three topics were<br />

dropped. The average precision among the top 10 documents for each service<br />

was: AUTH: 61%, BRAD: 56%, SOLR 52% and STR: 64% (according to a<br />

t-test the differences between the service are not statistical significant). A<br />

comparison of the intersection of the relevant top 10 documents between<br />

each pair of retrieval service shows that the result sets are nearly disjoint. 400<br />

assessed documents (4 services * 10 per service * 10 topics) only had 36<br />

intersections in total. AUTH and SOLR as well as AUTH and BRAD have<br />

just three relevant documents in common (for all 10 topics), and AUTH and<br />

STR have only five documents in common. BRAD and SOLR have six, and<br />

BRAD and STR have five relevant documents in common. The largest, but<br />

still low overlap is between SOLR and STR, which have 14 common docu-


192 P. Mayr, P. Mutschke, V. Petras, P. Schaer, Y. Sure<br />

ments. Thus, there is no or very little overlap between the sets of relevant<br />

top-ranked documents obtained from different rankings.<br />

Two results can be clearly seen: (1) The measured precision values of the<br />

evaluated services are at least the same or slightly better than the tf-idf based<br />

SOLR baseline (based on the degree of data cleaning) and (2) the services<br />

returned clearly disjoint result sets emphasizing that the three services provide<br />

quite different views on the document space. This strongly suggests<br />

thinking about a combination of the different services.<br />

Model Combination<br />

As a next step in the IRM project we are dealing with combinations of the<br />

three models in various ways: (1) by using one model output as a filter<br />

mechanism for further iterations, (2) by computing combined ranking scores.<br />

The first combination method works in a similar way as faceted search approaches<br />

where items returned by different search services are used to filter<br />

the result set. Accordingly, AUTH can be applied on the set of publications<br />

assigned to core journals determined by BRAD. Our prototype allows every<br />

combination of the three services. Typically the more filter steps are taken,<br />

the smaller the result set gets.<br />

A more sophisticated approach is to create a combined ranking score (cf.<br />

the popular ‘learning to rank’ methods). As discussed before, an inherent<br />

problem of both re-ranking mechanisms BRAD and AUTH is the lack of an<br />

“inner group” ranking. When a journal is detected as a core journal its corresponding<br />

documents are ranked to the top but the rank of each single document<br />

within this group is not defined. To solve this problem, a combination<br />

of the original tf-idf score (mapped on [0,1]) and a journal or author specific<br />

weighting factor is applied. To compute the weighting factor for a<br />

document d with respect to a journal j and a query q, the document count for<br />

j is multiplied with a factor of 1/ where is the maximum count<br />

for all journals J obtained for q. This yields a score within [0,1]. The factor<br />

is 1 when d is assigned to the journal having the highest coreness and it is<br />

0 when d is not published in a journal. The same approach is applied for the<br />

weighting factor for author centrality . Here all centrality values are<br />

mapped in [0,1] by multiplying each centrality value with 1/ where


Applying Science Models for Search 193<br />

is the highest centrality value q. The factor is 1 when d is assigned<br />

to the most central author and it is 0 when d’s author is isolated.<br />

The actual score, which is used for the final ranking process, is now computed<br />

with the following formula:<br />

,<br />

where tf-idf could be complemented by STR. When one of the factors is 0 the<br />

score is 0 and the document is discarded. Thus, the combined score tends to<br />

be a strong filtering method since it focuses on documents loading on all<br />

relevance indicators used.<br />

Outlook:<br />

A Service-Oriented Architecture of Retrieval Models<br />

The proposed models are implemented in an interactive web-based prototype<br />

3 using Solr for searching, Recommind Mindserver for the STR, own<br />

Java classes for BRAD and AUTH and the Grails Web framework for the<br />

interface. The user can dynamically modify the retrieval process by applying<br />

one of the models proposed either for the initial search or on the result set<br />

obtained. Moreover, the services can be combined to enhance the effects<br />

provided and in addition we tend to give more control over the services to the<br />

user. Currently, the prototype is going to be re-implemented as a serviceoriented<br />

architecture (SOA) of re-usable, combinable and scalable web services<br />

(see this approach also in Daffodil 4 ). The major goal here is to have an<br />

architecture that provides services not only within the bo<strong>und</strong>aries of a single<br />

IR system (as Private Services) but also as Public Services via the web such<br />

that the services can be used also by external information systems (see Figure<br />

2). The other way aro<strong>und</strong>, this architecture allows for an easier integration of<br />

further value-added services provided by external partners.<br />

3 http://www.gesis.org/beta/prototypen/irm<br />

4 http://www.daffodil.de/


194 P. Mayr, P. Mutschke, V. Petras, P. Schaer, Y. Sure<br />

Figure 2: Retrieval services as loosely coupled Web Services in a service-oriented<br />

architecture. The three proposed services are used internally as private services. They<br />

are also available as public services on the web and are free to be integrated in other<br />

retrieval systems. At the same time external services e.g. from social networks or<br />

public services like Word Net can be integrated in our own system.<br />

In this paper we have shown a further dimension of using science models,<br />

the application of science models for search. We have discussed and implemented<br />

three science model driven retrieval services to improve search in<br />

scholarly information systems. As a next step, our proposed SOA architecture<br />

might be an appropriate open framework for an integration and combination<br />

of further science models. This approach might be also a novel paradigm<br />

for enhanced <strong>Information</strong> Retrieval.<br />

References<br />

Armstrong, T. G.; Moffat, A.; Webber, W. & Zobel, J. (2009). Improvements that<br />

don’t add up: ad-hoc retrieval results since 1998. In: Proceeding of the CIKM<br />

’09, pp. 601–610.<br />

Bates, J. (1990). ‘Where should the person stop and the information search interface<br />

start?’, <strong>Information</strong> Processing & Management 26 (5), pp. 575–591.<br />

Beaver, D. (2004). Does collaborative research have greater epistemic authority?<br />

Scientometrics 60 (3), pp. 399–408.<br />

Bradford, S. C. (1934). Sources of information on specific subjects. Engineering,<br />

137(3550), pp. 85–86.


Applying Science Models for Search 195<br />

Chen, C., Chen, Y., Horowitz, M., Hou, H., Liu, Z. & Pellegrino, D. (2009). Towards<br />

an explanatory and computational theory of scientific discovery. Journal of Informetrics<br />

3, pp. 191–209.<br />

Freeman, L. C. (1977). A set of measures of centrality based on betweenness. Socioetry<br />

40, pp. 35–41.<br />

Fuhr, N. (2010). IR Between Science and Engineering, and the Role of Experimentation.<br />

Keynote talk at CLEF 2010, Padua, Italy.<br />

Furnas, G. W.; Landauer, T. K.; Gomez, L. M. & Dumais, S. T. (1987). The Vocabulary<br />

Problem in Human-System Communication, Communications of the ACM<br />

30 (11), pp. 964–971.<br />

He, Z.-L. (2009). International collaboration does not have greater epistemic authority.<br />

JASIST 60(10), pp. 2151–2164.<br />

Hjørland, B., and Nicolaisen, J. (2005). Bradford’s law of scattering: ambiguities in<br />

the concept of “subject”. 5th International Conference on Conceptions of Library<br />

and <strong>Information</strong> Science.<br />

Ingwersen, P. and Järvelin, K. (2005), The turn: integration of information seeking<br />

and retrieval in context. Springer.<br />

Jiang, Y. (2008). Locating active actors in the scientific collaboration communities<br />

based on interaction topology analysis. Scientometrics 74(3), pp. 471–482.<br />

Liu, X., Bollen, J., Nelson, M. L. & Sompel, H. van de (2005). Co-Authorship Networks<br />

in the Digital Library Research Community. <strong>Information</strong> Processing &<br />

Management 41 (2005), pp. 1462–1480.<br />

Mayr, P. (2010). <strong>Information</strong> Retrieval Mehrwertdienste für Digitale Bibliotheken:<br />

Crosskonkordanzen <strong>und</strong> Bradfordizing. GESIS-Schriftenreihe, Bd. 5.<br />

Mutschke, P., Mayr, P., Schaer, P & Sure, Y. (2011 to appear). Science Models as<br />

Value-Added Services for Scholarly <strong>Information</strong> Systems. Scientometrics. Special<br />

Issue on “Modelling science – mathematical models of knowledge dynamics”.<br />

Mutschke, P. (1994): Processing Scientific Networks in Bibliographic Databases. In:<br />

Bock, H. H., et al. (eds.): <strong>Information</strong> Systems and Data Analysis, Heidelberg<br />

Berlin, S. 127–133.<br />

Mutschke, P. and Quan-Haase, A. (2001). Collaboration and Cognitive Structures in<br />

Social Science Research Fields: Towards Socio-Cognitive Analysis in <strong>Information</strong><br />

Systems. Scientometrics 52 (3), pp. 487–502.<br />

Mutschke, P. (2004). Autorennetzwerke: Netzwerkanalyse als Mehrwertdienst für<br />

<strong>Information</strong>ssysteme. In: <strong>Information</strong> zwischen Kultur <strong>und</strong> Marktwirtschaft: Proceedings<br />

ISI 2004. Konstanz, S. 141–162.


196 P. Mayr, P. Mutschke, V. Petras, P. Schaer, Y. Sure<br />

Mutschke, P. (2010). Zentralitäts- <strong>und</strong> Prestigemaße. In: Häußling, Roger; Stegbauer,<br />

Christian (Eds.): Handbuch Netzwerkforschung. Wiesbaden: VS-Verlag für<br />

Sozialwissenschaften.<br />

Petras, V. (2005). How one Word can make all the Difference – Using Subject<br />

Metadata for Automatic Query Expansion and Reformulation. Working Notes for<br />

the CLEF 2005 Workshop, 21–23 September.<br />

Petras, V. (2006). Translating Dialects in Search: Mapping between Specialized<br />

Languages of Discourse and Documentary Languages. University of California,<br />

Berkley.<br />

Pontigo, J. and Lancaster, F. W. (1986). Qualitative aspects of the Bradford distribution.<br />

Scientometrics, 9(1–2), 59–70.<br />

Schaer, P.; Mayr, P. & Mutschke, P. (2010). Implications of Inter-Rater Agreement<br />

on a Student <strong>Information</strong> Retrieval Evaluation. Proceedings of LWA2010.<br />

Sim, J. and Wright, C. C. (2005). The Kappa Statistic in Reliability Studies: Use,<br />

Interpretation, and Sample Size Requirements. Physical Therapy. Vol. 85, pp.<br />

257–268.<br />

Yan, E. and Ding, Y. (2009). Applying Centrality Measures to Impact Analysis: A<br />

Coauthorship Network Analysis. JASIST 60(10), pp. 2107–2118.<br />

Yin, L., Kretschmer, H., Hannemann, R. A. & Liu, Z. (2006). Connection and stratification<br />

in research collaboration: An analysis of the COLLNET network. <strong>Information</strong><br />

Processing & Management 42, pp. 1599–1613.<br />

White, H. D. (1981). ‘Bradfordizing’ search output: how it would help online users.<br />

Online Review, 5(1), 47–54.


Spezielle Anforderungen bei d. Evaluierung von Patent-Retrieval-Syst. 197<br />

Spezielle Anforderungen<br />

bei der Evaluierung von<br />

Patent-Retrieval-Systemen<br />

Daniela Becks, Thomas Mandl, Christa Womser-Hacker<br />

Universität Hildesheim<br />

Institut für <strong>Information</strong>swissenschaft <strong>und</strong> Sprachtechnologie<br />

Marienburger Platz 22, 31141 Hildesheim<br />

{daniela.becks, mandl, womser}@uni-hildesheim.de<br />

Zusammenfassung<br />

Innerhalb der informationswissenschaftlich geprägten Fachinformation nimmt<br />

die Patentdomäne eine gewisse Sonderstellung ein, da sie über eine Reihe<br />

von Besonderheiten verfügt, die es notwendig machen, die klassischen Methoden<br />

der Bewertung zu überarbeiten bzw. zu adaptieren. Dies belegen unter<br />

anderem die Ergebnisse des Intellectual Property Track, der seit 2009 im<br />

Rahmen der Evaluierungskampagne CLEF 1 stattfindet. Der vorliegende Artikel<br />

beschreibt die innerhalb des zuvor genannten Track erzielten Ergebnisse.<br />

Darüber hinaus werden die Konsequenzen für die Evaluierung von Patent-Retrieval-Systemen<br />

herausgearbeitet.<br />

Abstract<br />

Within the area of specialized information, the patent domain is considered to<br />

be quite unique, because it has a number of characteristics, which long for a<br />

change or the adaption of traditional evaluation methods. This fact is, for<br />

example, shown by the results of the Intellectual Property Track, which since<br />

2009 takes place in the context of the CLEF evaluation campaign. This paper<br />

presents the results gained within the above mentioned track. Furthermore,<br />

the consequences for the evaluation of patent retrieval systems are pointed<br />

out.<br />

1 Cross-Language Evaluation Forum: http://www.clef-campaign.org


198 Daniela Becks, Thomas Mandl, Christa Womser-Hacker<br />

1 Einleitung<br />

Für Forschung <strong>und</strong> Bildung innerhalb aller wissenschaftlichen Disziplinen<br />

stellt die Fachinformation bzw. <strong>Information</strong>sinfrastruktur eine wichtige<br />

Gr<strong>und</strong>lage dar. Besondere Beachtung findet dabei die Patentinformation. Es<br />

zeigt sich vermehrt, dass sich diese in der <strong>Information</strong>swissenschaft zu einem<br />

interessanten Forschungsgegenstand entwickelt, da sie über besondere Charakteristika<br />

verfügt, die sie von anderen Domänen deutlich unterscheiden. In<br />

der Patentinformation laufen die Ergebnisse verschiedener Disziplinen zusammen,<br />

was sich in der Heterogenität dieses Bereichs widerspiegelt. Zu den<br />

Besonderheiten zählen unter anderem die Terminologie innerhalb von Patentschriften<br />

(vgl. z.B. Graf/Azzopardi 2008; Schamlu 1985), das Suchverhalten<br />

der Nutzergruppen <strong>und</strong> die Nutzer selbst (vgl. z.B. Graf/Azzopardi 2008).<br />

Infolgedessen liefert die Patentdomäne auch für die <strong>Information</strong>swissenschaft,<br />

die sich u.a. mit Fachinformation, <strong>Information</strong>ssystemen <strong>und</strong> deren<br />

Evaluierung sowie dem <strong>Information</strong>ssuchverhalten beschäftigt, interessante<br />

Ansatzpunkte.<br />

Die Bedeutung der Patentinformation für die <strong>Wissen</strong>schaft erhöht sich mit<br />

der Anzahl der Patentierungen. Gleichzeitig steigt auch die Anzahl an Forschungsaktivitäten<br />

im Bereich Patent <strong>Information</strong> Retrieval an. Dieses hat<br />

sich mittlerweile zu einem selbstständigen Forschungsgebiet etabliert, das es<br />

sich zur Aufgabe macht, die traditionellen Methoden <strong>und</strong> Werkzeuge des<br />

<strong>Information</strong> Retrieval an diese spezielle Domäne anzupassen. Die zuvor genannten<br />

Charakteristika von Patenten stellen dabei in nahezu allen Bereichen<br />

des Retrieval-Prozesses eine große Herausforderung dar. Hier sei zunächst<br />

auf die Indexierung der Patentdokumente <strong>und</strong> den eigentlichen Suchprozess<br />

verwiesen. Für die Evaluierung entsprechender <strong>Information</strong>ssysteme stellen<br />

sich weitere Anforderungen, auf die im zweiten Kapitel dieses Beitrags eingegangen<br />

wird. Eine genaue Betrachtung der Schwierigkeiten, die im Rahmen<br />

des Retrieval-Prozesses auftreten können, folgt in Kapitel 3. Der Beitrag<br />

schließt mit einer Diskussion dieser Erkenntnisse.


Spezielle Anforderungen bei d. Evaluierung von Patent-Retrieval-Syst. 199<br />

2 Patent Retrieval im Rahmen von CLEF<br />

Im Jahre 2009 hielt das Patent <strong>Information</strong> Retrieval erstmals Einzug in die<br />

europäische Evaluierungsinitiative CLEF, welche die Mehrsprachigkeitsproblematik<br />

in die <strong>Information</strong>-Retrieval-Evaluierung einbezieht. Zuvor waren<br />

Patent-Retrieval-Verfahren bereits in TREC 2 <strong>und</strong> NTCIR 3 involviert. Das<br />

Ziel des sogenannten Intellectual Property Track (CLEF-IP Track) besteht<br />

darin, <strong>Information</strong>-Retrieval-Techniken für Patente in verschiedenen Sprachen<br />

zu evaluieren (vgl. Roda et al. 2010: 385).<br />

2.1 Testkollektion <strong>und</strong> Topics<br />

Die Experimente im Rahmen des CLEF-IP Track basieren auf dem Einsatz<br />

einer speziellen Testkollektion, die sich aus einer Vielzahl an Patenten des<br />

Europäischen Patentamtes (EPO) zusammensetzt (vgl. Roda et al. 2010:<br />

387 f.; Piroi 2010b: 17). Da es sich um eine cross-linguale Evaluierungsinitiative<br />

handelt, beinhaltet die Testkollektion sowohl englischsprachige Dokumente<br />

als auch Patent- <strong>und</strong> Anmeldeschriften in Deutsch <strong>und</strong> Französisch<br />

(vgl. Roda et al. 2010: 389; Piroi 2010b: 17). Während sich die Kollektion<br />

im Falle des CLEF-IP Track 2009 aus ungefähr 1,6 Millionen Dokumenten<br />

zusammensetzt (vgl. Roda et al. 2009: 388), umfasst das Korpus 2010 bereits<br />

2,6 Millionen Patent- <strong>und</strong> Anmeldeschriften (vgl. Piroi 2010a: 3).<br />

Im Rahmen von Evaluierungsinitiativen wird eine Aufgabe typischerweise<br />

durch ein sogenanntes Topic beschrieben (vgl. z.B. Mandl 2010:<br />

341 f.). Es sei angemerkt, dass die automatische Generierung von Queries aus<br />

Anfragedokumenten bereits ein erhebliches Problem darstellt, da die Anfrageformulierung<br />

im Rahmen der Patentrecherche den wahrscheinlich wichtigsten<br />

Prozess darstellt. Es kommt erschwerend hinzu, dass innerhalb der<br />

Patentdomäne wenig <strong>Information</strong> über die eigentliche Anfrageformulierung<br />

öffentlich gemacht wird. Für die automatische Evaluierung bedeutet dies,<br />

dass die Anfrage häufig ohne explizites <strong>Wissen</strong> modelliert werden muss.<br />

Bereits in diesem Schritt können jedoch erhebliche Fehler auftreten, die sich<br />

auf die Retrieval-Ergebnisse auswirken.<br />

2 Text Retrieval Conference: http://trec.nist.gov/<br />

3 Asiatische Evaluierungsinitiative: http://research.nii.ac.jp/ntcir/index-en.html


200 Daniela Becks, Thomas Mandl, Christa Womser-Hacker<br />

Im Kontext des Intellectual Property Track stehen unterschiedliche Sets<br />

von Anfragedokumenten, deren Umfang von 500 (small set) bis hin zu<br />

10.000 (large set) variiert (vgl. Roda et al. 2010: 390; Piroi 2010a: 4), zur<br />

Verfügung. Sowohl die Dokumente in der Kollektion als auch die Topics<br />

weisen die typische Patentstruktur auf. In Anlehnung an Graf <strong>und</strong> Azzopardi<br />

untergliedert sich ein Patent in folgende Abschnitte:<br />

• Bibliografische Daten (z.B.: Name des Erfinders)<br />

• Offenlegung (z.B.: Titel, Beschreibung)<br />

• Ansprüche<br />

(vgl. Graf/Azzopardi 2008: 63 f.)<br />

Die bereits angedeuteten terminologischen Besonderheiten finden sich vor<br />

allem in den textuellen Abschnitten wieder. Abschnitt eins umfasst ausschließlich<br />

Metadaten. Von besonderer Bedeutung sind zudem die Klassifikationsangaben<br />

wie die IPC 4 -Klassen. (vgl. Becks et al. 2010a: 492)<br />

2.2 Aufgaben im Rahmen des CLEF-IP Track<br />

Im Jahre 2009 startete der Intellectual Property Track mit der Prior Art-<br />

Suche, die darauf abzielt, festzustellen, ob eine Erfindung oder auch nur ein<br />

Teil dieser bereits existiert oder nicht (vgl. Graf/Azzopardi 2008: 64; Roda et<br />

al. 2010: 390). Sie stellt eine der am häufigsten praktizierten Recherchearten<br />

dar (vgl. Graf/Azzopardi 2008: 64). In Anlehnung an Roda et al. nutzen Patentanmelder<br />

diese Form der Suche, bevor sie eine Anmeldung einreichen,<br />

um zu prüfen, ob die geplante Erfindung in der Literatur bereits dargelegt<br />

wurde. Patentprüfer führen die Prior-Art-Recherche hingegen aus, um festzustellen,<br />

ob die in der Anmeldung beschriebene Erfindung den Anspruch<br />

der Neuheit erfüllt <strong>und</strong> somit patentierfähig ist. (vgl. Roda et al. 2010: 390)<br />

Diese Retrieval-Aufgabe wurde 2010 beibehalten, jedoch durch eine<br />

Klassifikationsaufgabe mit dem Ziel, ein gegebenes Patent entsprechend<br />

seiner IPC-Klassen einzuordnen, ergänzt (vgl. Piroi 2010b: 17; Piroi 2010a:<br />

4).<br />

4 Internation Patent Classification


Spezielle Anforderungen bei d. Evaluierung von Patent-Retrieval-Syst. 201<br />

3 Besonderheiten der Patentdomäne<br />

Sowohl im Jahr 2009 als auch in 2010 wurden im Rahmen des CLEF-IP<br />

Track vom Institut für <strong>Information</strong>swissenschaft <strong>und</strong> Sprachtechnologie der<br />

Universität Hildesheim Experimente durchgeführt. Zu diesem Zweck entwickelte<br />

man eine Retrieval-Umgebung auf der Basis der Open-Source-<br />

Suchmaschine Lucene 5 . Eine detaillierte Beschreibung dieses Retrieval-<br />

Systems findet sich beispielsweise in Becks et al. 2010a.<br />

Des Weiteren wurde innerhalb eines Kooperationsprojektes mit FIZ<br />

Karlsruhe untersucht, wie der Retrieval-Prozess innerhalb dieser Domäne<br />

gezielt unterstützen werden kann (vgl. Hackl-Sommer 2010).<br />

Wie bereits angedeutet, verfügt die Patentdomäne über einige Charakteristika,<br />

die sie von anderen Domänen unterscheidet. Im nachfolgenden Kapitel<br />

werden einige dieser Besonderheiten herausgearbeitet <strong>und</strong> vor dem Hintergr<strong>und</strong><br />

der Experimente innerhalb des CLEF-IP Track diskutiert. Der Fokus<br />

liegt dabei insbesondere auf den Schwierigkeiten, die sich aufgr<strong>und</strong> dieser<br />

domänenspezifischen Eigenschaften ergeben.<br />

3.1 Terminologie<br />

Im Falle von Patentdokumenten handelt es sich um eine sehr spezielle <strong>und</strong> in<br />

sich heterogene Textsorte, bei der verschiedene Arten von Begrifflichkeiten<br />

aufeinander treffen. So finden sich einerseits sehr allgemeine Terme (vgl. u.a.<br />

Graf/Azzopardi 2008: 64) wie „System“, „Ansatz“ oder „Methode“. Da derartige<br />

Terme in der Patentschrift vermehrt auftreten, bringen sie innerhalb<br />

des Retrieval-Prozesses wenig Nutzen. Eine Anfrage, die sich ausschließlich<br />

aus vagen Termen oder Phrasen zusammensetzt, resultiert meist in einer sehr<br />

umfangreichen Ergebnisliste (vgl. auch Becks et al. 2010a: 492). Aus der<br />

Sicht der Patentanmelder eignen sich diese Terme, um den genauen Inhalt zu<br />

verschleiern <strong>und</strong> das Auffinden zu beeinträchtigen. Um diesem Problem entgegenzuwirken,<br />

kam im Rahmen der Experimente im Jahre 2009 <strong>und</strong> 2010<br />

eine domänenspezifische Stoppwortliste zum Einsatz. Dabei handelt es sich<br />

um eine Standardstoppwortliste 6 , die um die zuvor genannten allgemeinen<br />

5 http://lucene.apache.org/<br />

6 http://members.unine.ch/jacques.savoy/clef/index.html


202 Daniela Becks, Thomas Mandl, Christa Womser-Hacker<br />

Terme erweitert wurde. Innerhalb der Patentschrift können zudem Fachtermini<br />

in folgenden Ausprägungen vorliegen:<br />

• Komplexe Phrasen in verschiedenen linguistischen Relationen<br />

• Komposita <strong>und</strong> Wortzusammensetzungen mit Bindestrich<br />

• Zahlen, Formeln <strong>und</strong> physikalische Einheiten (auch als Bestandteil in<br />

komplexeren Einheiten)<br />

• Akronyme<br />

(Becks et al. 2010a: 493)<br />

Technische Fachbegriffe wie „AGR-System“ (EP-1114924-B1) stellen insbesondere<br />

während des Indexierungsprozesses eine Schwierigkeit dar, denn<br />

sie bedürfen spezieller Werkzeuge für die Vorverarbeitung <strong>und</strong> Normierung.<br />

Einen Sonderfall bilden vor allem Zahlen, die in diesem Artikel ebenfalls zu<br />

der Kategorie Technisches Vokabular zählen. Sie tauchen innerhalb der Patentschrift<br />

beispielsweise in Form von Verweisen auf, aber auch als Mengenangaben<br />

treten sie in Erscheinung. Liegen Zahlen in Form von Verweisen<br />

(beispielsweise auf Abbildungen oder Claims) vor, so besitzen sie eher<br />

Stoppwortcharakter <strong>und</strong> resultieren ebenfalls in einer sehr umfangeichen Ergebnisliste.<br />

Zahlen, die jedoch gemeinsam mit Einheiten, z.B. „1.2288 MHz“<br />

(EP-1117189-B1) oder innerhalb von chemischen Elementen auftreten, beispielsweise<br />

„Cis-Diamminoplatin(II)chlorid“ (EP-1520870-B1), können das<br />

Retrieval hingegen entscheidend beeinflussen. Infolgedessen erscheint es<br />

problematisch, Zahlen im Zuge der Stoppworteliminierung zu entfernen.<br />

Aufgr<strong>und</strong> der zuvor genannten Problematik stellt sich die Frage, ob sich<br />

einfache Terme für das Patent <strong>Information</strong> Retrieval überhaupt eignen oder ob<br />

man Phrasen den Vorzug gewähren sollte. Dieser Fragestellung wurde im Rahmen<br />

der CLEF-Experimente im Jahre 2010 nachgegangen. Dabei zeigte sich<br />

deutlich, dass sich Recall <strong>und</strong> Mean Average Precision eines Patent Retrieval<br />

Systems durch den Einsatz von Phrasen erhöhen lassen (siehe Tabelle 1).<br />

Tab. 1: Retrieval-Ergebnisse CLEF-IP Track 2010 (aus Becks et al. 2010b)<br />

Run Recall Precision MAP P@5 7<br />

EN_BM25_Terms_allFields 0.3298 0.0125 0.0414 0.0914<br />

EN_BM25_Phrases_title 0.4816 0.0124 0.0493 0.0870<br />

EN_BM25_Phrases_des_cl 0.3665 0.0109 0.0415 0.0922<br />

EN_BM25_Phrases_allFields 0.3605 0.0116 0.0422 0.0938<br />

7 Die P@5gibt die Precision nach 5gef<strong>und</strong>enen Dokumenten an.


Spezielle Anforderungen bei d. Evaluierung von Patent-Retrieval-Syst. 203<br />

Ein Vergleich der Ergebnisse des ersten (EN_BM25_Terms_allFields)<br />

<strong>und</strong> vierten (EN_BM25_Phrase_allFields) Experiments, indem jeweils die<br />

Inhalte aus den Abschnitten Titel, Ansprüche <strong>und</strong> Beschreibung in die Anfrage<br />

einfließen, zeigt, dass die Verwendung von Phrasen anstelle einfacher<br />

Terme eine leichte Erhöhung der Mean Average Precision <strong>und</strong> des Recall<br />

bewirken. Diese ist jedoch sehr gering. Darüber hinaus belegen die Ergebnisse<br />

innerhalb der Tabelle deutlich, dass die Mean Average Precision im<br />

Falle des zweiten Experiments (EN_BM25_Phrases_title), in dem ausschließlich<br />

Phrasen aus dem Titel der Patentschrift zum Einsatz kamen, mit<br />

4,93% am höchsten ist. Es zeigt sich zudem, dass der Recall mit r<strong>und</strong> 48%<br />

die Werte der übrigen Experimente deutlich übersteigt. Insgesamt zeigt sich,<br />

dass die Retrieval-Ergebnisse sehr niedrig ausfallen <strong>und</strong> Verbesserungen<br />

möglich <strong>und</strong> auch notwendig sind.<br />

3.2 Retrieval-Parameter<br />

Als Retrieval-Parameter werden an dieser Stelle alle Variablen bezeichnet,<br />

die auf den Retrieval-Prozess Einfluss haben. Hierzu zählt unter anderem das<br />

zugr<strong>und</strong>e liegende Modell bzw. der verwendete Ranking-Algorithmus.<br />

Der Retrieval-Prozess wird innerhalb der Patentdomäne im Wesentlichen<br />

von den folgenden zwei übergeordneten Zielen dominiert:<br />

• Maximierung des Recall<br />

• Erhöhung der Precision<br />

(vgl. Kando 2000: 40 f.).<br />

Als elementar wird die Maximierung des Recall im Rahmen der Prior-Art-<br />

Suche (siehe Kapitel 2.2) angesehen, da in diesem Szenario alle Dokumente<br />

von Bedeutung sind, die belegen, dass eine geplante oder schon angemeldete<br />

Erfindung bereits existiert oder nicht (vgl. Graf/Azzopardi 2008: 64; Roda et<br />

al. 2010: 390). Allein ein fehlendes Dokument kann in diesem Fall zu einer<br />

Patentverletzung führen. Im Rahmen der Experimente im Jahre 2009 <strong>und</strong><br />

2010 wurde versucht, dieser Forderung nachzukommen. Dabei zeigte sich,<br />

dass die Internationale Patentklassifikation ein geeignetes Instrument zur<br />

Maximierung des Recall darstellt. Es wurden die ersten acht Stellen des<br />

Klassifikationscodes berücksichtigt, was der Patenthauptgruppe entspricht.<br />

Weiterhin wurde die Annahme zugr<strong>und</strong>e gelegt, dass ein relevantes Dokument<br />

mindestens einen Klassifikationscode mit dem Anfragedokument teilen


204 Daniela Becks, Thomas Mandl, Christa Womser-Hacker<br />

muss. Im CLEF-IP Track 2010 konnten auf diese Weise etwa 48% der relevanten<br />

Dokumente abgedeckt werden (vgl. Becks et al. 2010b: 4).<br />

Im Hinblick auf das zweite übergeordnete Ziel lässt sich festhalten, dass<br />

die Erhöhung der Precision vor allem für den sich an die Recherche anschließenden<br />

Analyseprozess eine große Rolle spielt, denn Patentrechercheure<br />

investieren in der Regel sehr viel Zeit in diesen Schritt (vgl. Azzopardi<br />

et al. 2010: 15). Je höher die Precision eines Patent-Retrieval-Systems,<br />

desto weniger irrelevante Dokumente enthält die Ergebnisliste. Dies hätte<br />

wiederum zur Folge, dass sich der Aufwand, der für die Sichtung <strong>und</strong> Analyse<br />

der Ergebnisliste notwendig ist, erheblich reduziert. Im Hinblick auf die<br />

Suchergebnisse sollte zudem angestrebt werden, alle für den Rechercheur<br />

relevanten Patentschriften an der Spitze der Ranking-Liste zu platzieren. In<br />

diesem Zusammenhang stellte sich im Rahmen der CLEF-IP Experimente<br />

heraus, dass die Implementierung des Okapi-Algorithmus (BM25) (vgl. z.B.<br />

Robertson/Spärck 1994), dieser Forderung Rechnung trägt. Insbesondere die<br />

Precision nach fünf gef<strong>und</strong>enen Dokumenten (P@5) konnte deutlich erhöht<br />

werden (vgl. Becks et al. 2010b). Ein Vergleich der Ergebnisse beider Jahre<br />

belegt diese Tatsache.<br />

Tab. 2: Retrieval-Ergebnisse BM25/tf-idf (nach Becks et al. 2010a <strong>und</strong> 2010b)<br />

Run Recall Precision MAP P@5<br />

Run CLEF-IP 2009 (tf-idf) 0.2052 0.0026 0.0200 0.0000<br />

Run CLEF-IP 2010 (bm25) 0.3298 0.0125 0.0414 0.0914<br />

Anhand der vorliegenden Tabelle zeigt sich der Vorteil des BM25-Gewichtungsmodells<br />

sehr deutlich, denn der Run CLEF-IP 2010 weist mit etwa<br />

9% eine weitaus höhere P@5 auf. Beide Experimente wurden unter nahezu<br />

identischen Versuchsbedingungen durchgeführt, die nachfolgend kurz dargestellt<br />

sind:<br />

• Suche auf der Basis eines englischen Index<br />

• Stemming erfolgt mithilfe des Porter Stemmer<br />

• Anfrage wird aus allen Feldern generiert<br />

• Verwendung einfacher Terme innerhalb der Anfrage<br />

Lediglich der Ranking-Algorithmus variierte. Im Rahmen des CLEF-IP<br />

Tracks 2009 basierte das verwendete Retrieval-System auf der Standardimplementierung<br />

von Lucene. Hierbei handelt es sich um eine modifizierte<br />

Variante des Vektorraummodells. Das Ranking der Ergebnisdokumente erfolgt<br />

somit mithilfe der tf-idf-Gewichtung. (vgl. Becks et al. 2010a) Im Jahre


Spezielle Anforderungen bei d. Evaluierung von Patent-Retrieval-Syst. 205<br />

2010 zeigte sich hingegen, dass die Umstellung auf BM25 erfolgreich war.<br />

Die Ergebnisse in Tabelle 2 belegen deutlich, dass dieser Schritt sowohl eine<br />

Steigerung der Mean Average Precision als auch der P@5 bewirkt hat. Im<br />

Hinblick auf die Eingangshypothese lässt sich zusammenfassen, dass die<br />

Implementierung des Okapi-Algorithmus in diesem Fall eine Zeitersparnis<br />

innerhalb des Analyseprozesses herbeiführen würde, da sich mehr relevante<br />

Dokumente in den obersten Positionen der Ranking-Liste befinden.<br />

3.3 Relevanzmodell<br />

Wie bereits erwähnt, basieren die Experimente im Rahmen des CLEF-IP<br />

Track auf einer vom IRF bereitgestellten Testkollektion. Diese beinhaltet<br />

neben den Dokumenten <strong>und</strong> Topics auch Relevanzurteile, die in der Regel<br />

intellektuell durch Juroren generiert werden (vgl. z.B. Mandl 2010: 342). Im<br />

Rahmen der Patentdomäne ist diese Aufgabe nicht trivial, da das inhaltliche<br />

Verständnis einer Patentschrift ein erhöhtes Maß an Domänenwissen erfordert.<br />

Durch die Breite der vertretenen Disziplinen ist sehr unterschiedliche<br />

Expertise gefragt. Dies hat zur Folge, dass für die einzelnen Domänen (z.B.<br />

Chemie oder Physik) jeweils ein entsprechender Experte zur Verfügung stehen<br />

muss. Des Weiteren erweist sich die manuelle Bewertung einer gegebenen<br />

Menge an Dokumenten häufig als sehr ressourcenintensiv. (vgl. auch<br />

Roda et al. 2010: 386, 392) Es kommt erschwerend hinzu, dass insbesondere<br />

im Falle von Patenten eine Relevanzentscheidung auf der Basis des Titels<br />

häufig nicht möglich ist, da sich dieser in der Regel als sehr vage erweist, wie<br />

das folgende Beispiel verdeutlicht.<br />

Beispiel: „Schneidplatte“ (EP-1125660-B1)<br />

Von den Organisatoren wurde daher auf einen alternativen Ansatz zurückgegriffen,<br />

der auf den innerhalb der Patentschrift vorliegenden Zitationen basiert.<br />

Diese können folgende zwei Ausprägungen annehmen:<br />

• Zitationen von Patentanmeldern<br />

• Zitationen von Patentprüfern<br />

(vgl. Roda et al. 2010: 393)<br />

Während erstere eher subjektiv sind, da die Anmelder selbst auswählen, welche<br />

Quellen sie zitieren, handelt es sich im Falle der Zitationen von Patentprüfern<br />

streng genommen bereits um Expertenurteile. Die in der Kollektion<br />

enthaltenen Relevanzurteile beinhalten beide Formen der Relevanz. Die Eig-


206 Daniela Becks, Thomas Mandl, Christa Womser-Hacker<br />

nung dieses Verfahrens wurde durch Patentexperten unterstützt (vgl. Roda et<br />

al. 2010: 393). Insgesamt ist dieses Bewertungsmodell dennoch kritisch zu<br />

sehen, da es sich um ein konstruiertes Szenario handelt. Gemäß dem zuvor<br />

beschriebenen Ansatz besitzt ein Anfragedokument in der Regel immer relevante<br />

Dokumente, da die Zitationen in jeder Patentschrift vorliegen. Für das<br />

betrachtete Retrieval-Szenario der Prior-Art-Suche erscheint diese Annahme<br />

allerdings untypisch, da der Fall, dass eine Erfindung tatsächlich neu ist <strong>und</strong><br />

keinen State of the Art vorweist, unbeachtet bleibt. Abschließend sei angemerkt,<br />

dass sich die in den Patentschriften enthaltenen Zitationen auch innerhalb<br />

des Retrievals einsetzen ließen. Im Rahmen der Experimente sollte jedoch<br />

auf diese Vorgehensweise verzichtet werden.<br />

4 Diskussion<br />

Dieser Artikel macht deutlich, dass die Patentdomäne über zahlreiche Besonderheiten<br />

verfügt, die es notwendig machen, die klassischen Ansätze der<br />

<strong>Information</strong>-Retrieval-Evaluierung zu überarbeiten bzw. an die Domänenspezifika<br />

anzupassen. Dies belegen auch die Ergebnisse im Rahmen des<br />

CLEF-IP Track, die insgesamt eher schlecht ausgefallen sind (vgl. z.B. Roda<br />

et al. 2010). In diesem Kontext zeigten sich insbesondere die Schwächen<br />

einfacher Baseline-Ansätze, jedoch konnten auch Patent-Retrieval-Systeme,<br />

die zum Teil auf linguistischen Verfahren aufsetzen (vgl. z.B. Herbert et al.<br />

2010), lediglich durchschnittliche Ergebnisse erzielen. Daher liegt die Vermutung<br />

nahe, dass patentspezifisches <strong>Wissen</strong> notwendig ist, um die Ergebnisse<br />

weiter zu verbessern. Ein erster wichtiger Schritt bestünde darin, Methoden<br />

<strong>und</strong> Werkzeuge für die Vorverarbeitung zu entwickeln, die gezielt an<br />

den Spezifika dieser Textsorte ansetzen. An dieser Stelle sei erneut an die<br />

Problematik der heterogenen Begrifflichkeiten erinnert (siehe Kapitel 3.1).<br />

Für entsprechende Werkzeuge bedeutet dies, dass diese sowohl im Hinblick<br />

auf eine Allgemein- als auch verschiedene Fachsprachen trainiert werden<br />

müssen. Darüber hinaus erscheint es notwendig, verfügbare Ressourcen (z.B.<br />

Stoppwortlisten) umfangreich zu überarbeiten bzw. zu erweitern. Am kritischsten<br />

erweist sich jedoch das vorgestellte Relevanzmodell, da es auf Expertenurteile<br />

im engeren Sinne verzichtet. Die Einbeziehung von Patentexperten<br />

erscheint jedoch zwingend notwendig. Eine Art Expertenpool wäre<br />

im Rahmen des Evaluierungsprozesses von sehr großem Vorteil.


Spezielle Anforderungen bei d. Evaluierung von Patent-Retrieval-Syst. 207<br />

Literaturverzeichnis<br />

Azzopardi, Leif; Joho, Hideo; Vanderbauwhede, Wim (2010): Report: A Survey on<br />

Patent Users Search Behavior, Search Functionality and System Requirements.<br />

Becks, Daniela; Womser-Hacker, Christa; Mandl, Thomas; Kölle, Ralph (2010a):<br />

Patent Retrieval Experiments in the Context of the CLEF IP Track 2009. In: Multilingual<br />

<strong>Information</strong> Access Evaluation I. Text Retrieval Experiments. Proceedings<br />

of the 10 th Workshop of the Cross-Language Evaluation Forum 2009. Berlin,<br />

Heidelberg: Springer (LNCS 6241), S.491–496.<br />

Becks, Daniela; Mandl, Thomas; Womser-Hacker, Christa (2010b): Phrases or<br />

Terms? – The Impact of Different Query Types. In: Online Proceedings of the<br />

CLEF-IP Track 2010, September 20–23, 2010, Padua, Italy.<br />

http://clef2010.org/resources/proceedings/clef2010labs_submission_99.pdf<br />

Graf, Erik; Azzopardi, Leif (2008): A methodology for building a test collection for<br />

prior art search. In: Proceedings of the 2 nd International Workshop on Evaluating<br />

<strong>Information</strong> Access (EVIA), December 16, 2008, Tokyo, Japan, S.60–71.<br />

Hackl-Sommer, René (2010): Patentretrieval – Unterstützende Verfahren <strong>und</strong> Transparenz<br />

bei der Patentrecherche, Fachinformationszentrum Karlsruhe.<br />

Herbert, Benjamin; Szarvas, György; Gurevych, Iryna (2010): Prior Art Search Using<br />

International Patent Classification Codes and All-Claims-Queries. In: Multilingual<br />

<strong>Information</strong> Access Evaluation I. Text Retrieval Experiments. Proceedings<br />

of the 10 th Workshop of the Cross-Language Evaluation Forum 2009. Berlin,<br />

Heidelberg: Springer (LNCS 6241), S.452–459.<br />

Kando, Noriko (2000): What Shall We Evaluate? – Preliminary Discussion for the<br />

NTCIR Patent IR Challenge (PIC) Based on the Brainstorming with the Specialized<br />

Intermediaries in Patent Searching and Patent Attorneys. In: ACM-SIGIR<br />

Workshop on Patent Retrieval, July 28, 2000, Athens, Greece, S.37–42.<br />

Mandl, Thomas (2010): Evaluierung im <strong>Information</strong> Retrieval. In: <strong>Information</strong> <strong>Wissen</strong>schaft<br />

<strong>und</strong> Praxis, Jahrgang 61, Nr.6–7, 2010, S. 341–348.<br />

Piroi, Florina; Tait, John (2010a): CLEF-IP 2010: Retrieval Experiments in the Intellectual<br />

Property Domain. In: Online Proceedings of the CLEF-IP Track 2010,<br />

September 20–23, 2010, Padua, Italy.<br />

http://clef2010.org/resources/proceedings/clef2010labs_submission_122.pdf<br />

Piroi, Florina; Tait, John (2010b): CLEF-IP 2010: Retrieval Experiments in the Intellectual<br />

Property Domain. In: CLEF 2010 Labs and Workshops Abstracts of the<br />

Notebook Papers, September 20–23, 2010, Padua, Italy, S.17.


208 Daniela Becks, Thomas Mandl, Christa Womser-Hacker<br />

Robertson, Stephen E.; Spärck Jones, Karen (1994): Simple, proven approaches to<br />

text retrieval. Technical Report (Nr. 356), December 1994 version with updates<br />

1996, 1997, 2006, University of Cambridge, Computer Laboratory.<br />

Roda, Giovanna; Tait, John; Piroi, Florina; Zenz, Veronika (2010): CLEF-IP 2009:<br />

Retrieval Experiments in the Intellectual Property Domain. In: Multilingual <strong>Information</strong><br />

Access Evaluation I. Text Retrieval Experiments. Proceedings of the<br />

10 th Workshop of the Cross-Language Evaluation Forum 2009. Berlin, Heidelberg:<br />

Springer (LNCS 6241), S.385–409.<br />

Schamlu, Mariam (1985): Patentschriften – Patentwesen. Eine argumentationstheoretische<br />

Analyse der Textsorte Patent am Beispiel der Patentschriften zu Lehrmitteln.<br />

München: Iudicium.


Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung ... 209<br />

Entwicklung einer Benutzeroberfläche zur<br />

interaktiven Regelgenerierung für die Suche<br />

in historischen Dokumenten<br />

Andrea Ernst-Gerlach, Dennis Korbar, Ara Awakian<br />

Zusammenfassung<br />

Universität Duisburg-Essen<br />

Lotharstr. 65, 47048 Duisburg<br />

{ernst, korbar, awakian}@is.inf.uni-due.de<br />

Für Retrieval in historischen Dokumenten wird eine Abbildung der Suchbegriffe<br />

auf ihre historischen Varianten in den Dokumenten benötigt. Hierfür<br />

wurde ein regelbasierter Ansatz entwickelt. Mit dem RuleGenerator wurde<br />

dafür eine Benutzeroberfläche entworfen, die es dem Anwender selbst ermöglicht,<br />

automatisch Belege zu erstellen <strong>und</strong> daraus Regeln zu generieren<br />

<strong>und</strong> zu bearbeiten. Im Rahmen einer eyetrackergestützten Benutzerstudie<br />

wurde die Benutzerfre<strong>und</strong>lichkeit des Werkzeugs evaluiert.<br />

Abstract<br />

Retrieval in historic documents with non-standard spelling requires a mapping<br />

from search terms onto the terms in the document. For describing this<br />

mapping, a rule-based approach has been developed. The RuleGenerator user<br />

interface enables the user to create evidences automatically and hence to generate<br />

and edit rules. With an eyetracker-based user evaluation the usability<br />

of this tool has been demonstrated.<br />

Einleitung<br />

Trotz verfügbarer Volltextsuche für die wachsende Zahl an digitalen, historischen<br />

Kollektionen werden viele Dokumente nicht gef<strong>und</strong>en, weil die<br />

Schreibweise in vielen Ländern über Jahrh<strong>und</strong>erte hinweg nicht festgelegt


210 Andrea Ernst-Gerlach, Dennis Korbar, Ara Awakian<br />

war. Die nicht-standardisierte Schreibweise führt zu Fehlern, da die meisten<br />

Benutzer den Suchbegriff in moderner Sprache eingeben, <strong>und</strong> diese sich von<br />

der historischen Sprache in den Dokumenten unterscheidet. Z. B. ist akzeptieren<br />

die moderne Form der Schreibvariante acceptieren. Um dieses Problem<br />

zu lösen, wurde eine regelbasierte Suchmaschine entwickelt, bei der der Benutzer<br />

seine Anfragen in zeitgemäßer Schreibweise eingeben kann, wenn er<br />

in historischen Texten suchen möchte [Ernst-Gerlach/Fuhr 07].<br />

Mit wörterbuchbasierten Methoden (z. B. [Hauser et al. 07]) können nur<br />

Wörter gef<strong>und</strong>en werden, die im Wörterbuch enthalten sind. Außerdem ist<br />

der zeitliche Aufwand für den Aufbau der Wörterbücher relativ hoch. Werden<br />

Ähnlichkeitsmaße (z. B. [Pilz 09]) verwendet, muss der Suchbegriff mit<br />

jedem Wort aus dem Index verglichen werden. Die entwickelte Suchmaschine<br />

überwindet diesen Nachteil mit einem regelbasierten Ansatz, um das<br />

gesamte Vokabular abzudecken <strong>und</strong> dadurch den Recall zu erhöhen. Dafür<br />

werden Transformationsregeln generiert, die aus einem Suchbegriff die historischen<br />

Varianten generieren [Ernst-Gerlach/Fuhr 06].<br />

Die automatische Regelgenerierung benötigt als Trainingsdaten Belege<br />

aus modernem Lemma <strong>und</strong> zugehöriger historischer Variante. Daraus werden<br />

die sogenannten Regelkerne bestimmt. Diese beinhalten die notwendigen<br />

Transformationen <strong>und</strong> identifizieren den zugehörigen Kontext. Z. B. ergibt<br />

sich für die moderne Wortform unnütz <strong>und</strong> die historische Form unnuts<br />

die folgende Menge, die aus zwei Regelkernen besteht: {(unn(ü→u)t),<br />

(t(z→s))}. Im zweiten Schritt werden für jeden Regelkern die zugehörigen<br />

Regelkandidaten (z. B. ü→u, nü→ nu, üt→ ut, nüt→ nut, Cü→ Cu, z$→s$)<br />

bestimmt. Diese berücksichtigen auch die Kontextinformationen (z. B. Konsonant<br />

(C) oder Wortende ($)) der modernen Schreibweise. Im letzten Schritt<br />

werden die nützlichen Regeln durch Pruning der Regelmenge bestimmt. Dazu<br />

wird eine modifizierte Version des PRISM-Algorithmus [Cenderowska<br />

87] eingesetzt.<br />

Durch die Zeit- <strong>und</strong> Ortsabhängigkeit der Regeln müssen die Regelsätze<br />

jeweils neu generiert werden, wenn ein neues Korpus verfügbar wird. Zur<br />

Vereinfachung dieses Prozesses ist eine Benutzeroberfläche erstellt worden,<br />

die dem Benutzer sowohl bei der Belegerstellung als auch bei der Regelerstellung<br />

interaktive Unterstützung bietet. Da in [Nguyen et al. 06] für den<br />

Bereich des Data Mining gezeigt wurde, dass eine Visualisierung den Benutzer<br />

bei der Bildung von neuen Regeln unterstützt, werden insbesondere<br />

geeignete Übersichten über die Belege sowie die Regelmengen <strong>und</strong> -kandidaten<br />

visualisiert. Dabei soll der Benutzer keine Informatikkenntnisse zur


Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung ... 211<br />

Bedienung benötigen. Ausgehend von seinen Bedürfnissen wird sich der<br />

Benutzer mehr auf den Recall oder die Precision seiner Suche konzentrieren.<br />

Das Werkzeug bietet an dieser Stelle die notwendige Flexibilität. Dabei wird<br />

dem Benutzer automatische Unterstützung für den gesamten Prozess der Regelgenerierung<br />

angeboten.<br />

Im folgenden Artikel wird zunächst ein kurzer Überblick über die verwandten<br />

Arbeiten im Bereich der Regelerstellung gegeben. Anschließend<br />

wird in Abschnitt 3 der RuleGenerator vorgestellt. Das Werkzeug wird in<br />

Abschnitt 4 evaluiert. Der letzte Abschnitt fasst den Artikel zusammen <strong>und</strong><br />

gibt einen Ausblick auf zukünftige Arbeiten.<br />

Verwandte Arbeiten<br />

[Gotscharek et al. 09] haben mit dem LeXtractor ein Werkzeug zur Konstruktion<br />

von historischen Lexika entwickelt. Die Lexikoneinträge können<br />

auch als Belege aufgefasst werden. Da Lexikoneinträge eine hohe Präzision<br />

aufweisen sollen, muss ein Experte alle unbekannten Wörter der Kollektion<br />

überprüfen. Zur Unterstützung wird eine Liste mit Textstellen angeboten,<br />

wenn ein Wort für die Konstruktion eines Lexikoneintrags ausgewählt wird.<br />

Der LeXtractor verwendet manuell erstellte Regeln (sog. Patterns), um potenzielle<br />

moderne Formen in einem aktuellen Lexikon zu finden.<br />

Pilz <strong>und</strong> Luther [Pilz/Luther 09] unterstützen die Sammlung von Belegen<br />

in ihrem Evidencer Werkzeug mit einem Bayes’schem Klassifizierer, der die<br />

Wahrscheinlichkeit schätzt, ob es sich um eine Schreibvariante handelt. Nach<br />

einer Trainingsphase mit bekannten Belegen wird eine Liste mit unbekannten<br />

Wörtern präsentiert, welche absteigend nach der Wahrscheinlichkeit für<br />

Schreibvarianten sortiert werden. Der Benutzer kann den Klassifizierer anpassen,<br />

indem er den Grenzwert für mögliche Varianten verändert.<br />

VARD 2 [Baron/Rayson 08] ist ebenfalls in der Lage, moderne Formen<br />

für Schreibvarianten in historischen Dokumenten zu finden. Das Werkzeug<br />

markiert alle Varianten, die nicht in einem modernen Lexikon zu finden sind.<br />

Für jedes markierte Wort wird dem Benutzer eine Liste mit potenziellen zugehörigen<br />

modernen Schreibungen angeboten. Der Benutzer kann aus der<br />

Liste die passende moderne Form auswählen. Ein zweiter Modus bietet zudem<br />

die Möglichkeit, automatisch die Vorschläge mit dem höchsten Ranking


212 Andrea Ernst-Gerlach, Dennis Korbar, Ara Awakian<br />

zu akzeptieren, wenn der Wert über einem vom Benutzer festgelegten Mindestwert<br />

liegt. Um diese Vorschläge zu generieren, werden eine manuelle<br />

Liste mit Belegen, eine modifizierte Version des So<strong>und</strong>Ex-Algorithmus <strong>und</strong><br />

eine manuell erstellte Liste von Ersetzungsregeln verwendet.<br />

Zusammenfassend lässt sich feststellen, dass alle betrachteten Ansätze einen<br />

hohen manuellen Aufwand benötigen, bevor sie zur Suche nach Schreibvarianten<br />

eingesetzt werden können. Deswegen würde ein automatisches<br />

Werkzeug den Zugang zu historischen Dokumenten für den Benutzer deutlich<br />

erleichtern.<br />

RuleGenerator<br />

Mit dem RuleGenerator [Awakian 2010] (s. Abb. 1) wurde ein Werkzeug<br />

entwickelt, das dem Benutzer die automatische Generierung von Belegen <strong>und</strong><br />

Regeln ermöglicht.<br />

Abbildung 1: RuleGenerator Applikation


Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung ... 213<br />

Vor der Erstellung des RuleGenerators wurde zunächst eine Anforderungsanalyse<br />

durchgeführt. Darauf aufbauend wurde ein Design-Konzept<br />

entwickelt. Hierfür wurden zunächst mit einer hierarchischen Aufgaben-<br />

Analyse die Teilaufgaben festgelegt. Anschließend wurde das konzeptionelle<br />

Modell der Benutzeroberfläche mithilfe von Mockups umgesetzt <strong>und</strong> mit<br />

kognitiven Durchgängen getestet, bevor das Konzept implementiert wurde.<br />

Bei der Analyse ergaben sich die Schwerpunkte Bildung <strong>und</strong> Bearbeitung<br />

von Belegen sowie die Generierung <strong>und</strong> Bearbeitung von Regeln. Deswegen<br />

wurde zunächst eine horizontale Zweiteilung in die Komponenten SmartEvidencer<br />

(oben) für die Belege <strong>und</strong> Rule-Modification (unten) [Korbar 2010]<br />

für die Regeln vorgenommen. Der SmartEvidencer gliedert sich wiederum in<br />

die Komponenten Evidences (rechts oben) zur Belegsammlung <strong>und</strong> -<br />

bearbeitung <strong>und</strong> Historic Text (links oben) mit den Textquellen. Die Rule-<br />

Modification gliedert sich in die Rule-Selector- <strong>und</strong> die Rule-Visualization-<br />

Komponenten. Die Rule-Selector-Komponente (links unten) erlaubt es dem<br />

Benutzer, durch die Regelmenge zu browsen <strong>und</strong> bestimmte Regeln zu finden.<br />

Wird eine konkrete Regel ausgewählt, wird sie rechts unten in der Visualisierungs-Komponente<br />

dargestellt. Sowohl beim SmartEvidencer als auch<br />

bei der Rule-Modification wird jeweils in der linken Teilkomponente der<br />

Überblick gegeben <strong>und</strong> entsprechend der Lese- <strong>und</strong> Interaktionsrichtung<br />

werden rechts weitere Details zur Verfügung gestellt. Wird ein neuer Beleg<br />

in der Evidencer-Komponente erstellt bzw. ausgewählt, werden die daraus<br />

erstellten Regeln in der darunter liegenden Komponente Rule-Selector angezeigt.<br />

Die einzelnen Komponenten werden im Folgenden näher erläutert.<br />

SmartEvidencer<br />

Mit dem SmartEvidencer werden zunächst die Belege gesammelt, aus denen<br />

dann die Regeln generiert werden. Hierfür wurde die automatische Belegegenerierung<br />

[Ernst-Gerlach/Fuhr 2010a/b] integriert, die aus den unbekannten<br />

Wörtern <strong>und</strong> Vorschlägen der Rechtschreibprüfung Belege bildet. Daraus<br />

werden wie gewohnt Regelkerne generiert <strong>und</strong> die häufigsten (für die Belegbildung)<br />

akzeptiert. Basierend auf diesen Regeln werden schrittweise Belege<br />

vom System akzeptiert. Die Ergebnisse dieses Prozesses werden dem Benutzer<br />

in einer Liste präsentiert (s. Abb. 2). Diese zeigt die modernen <strong>und</strong> historischen<br />

Formen sowie den Regelkern an. Der Benutzer kann anschließend<br />

einzelne Belege oder alle Belege akzeptieren. Experimentelle Ergebnisse ha-


214 Andrea Ernst-Gerlach, Dennis Korbar, Ara Awakian<br />

ben gezeigt, dass ein großer Teil der Belege <strong>und</strong> letztendlich auch der Regelkerne<br />

auf diese Weise generiert werden kann. Dadurch können die Trainingsdaten<br />

deutlich schneller <strong>und</strong> mit geringerem manuellen Aufwand erzeugt<br />

werden. Der Benutzer kann diesen Prozess beeinflussen, indem er die minimale<br />

Wortlänge, die minimale Anzahl an Regelvorkommen sowie die maximale<br />

Anzahl der Regelanwendungen pro Wort als Parameter einstellt.<br />

Abbildung 2: Automatische Belege<br />

Im Anschluss an die Bearbeitung der automatischen Belege kann der Benutzer<br />

in dem Unmatched-Reiter (s. Abb. 1 oben links) aus den noch nicht<br />

zugeordneten Wörtern weitere Belege bilden. Dazu werden dem Benutzer die<br />

unbekannten Wörter in einer Liste angezeigt. Zu einem ausgewählten Wort


Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung ... 215<br />

kann der Benutzer entweder einen Vorschlag der Rechtschreibprüfung akzeptieren<br />

oder selbst einen Vorschlag eingeben.<br />

Im Matched-Reiter werden die akzeptierten Belege mit den Regeln angezeigt.<br />

Zudem besteht in dieser Ansicht auch die Möglichkeit, bereits akzeptierte<br />

Regeln noch weiter zu bearbeiten. Belege, die in dieser Ansicht mit<br />

einem Fragezeichen erscheinen, wurden automatisch generiert <strong>und</strong> mit dem<br />

Later-Button anstatt mit dem Accept-Button akzeptiert. Diese Unterscheidung<br />

ermöglicht es dem Benutzer, Belege vorläufig zu akzeptieren, wenn er<br />

schnell eine Suche ermöglichen will. Diese Belege kann er bei Bedarf zu<br />

einem späteren Zeitpunkt überprüfen.<br />

In der Historic-Text-Komponente werden die möglichen Schreibvarianten<br />

in einem kurzen Textauszug hervorgehoben dargestellt. Auf diese Weise<br />

kann der Benutzer bei Bedarf aus den Kontextinformationen die genaue Bedeutung<br />

des Wortes erschließen. Falls der Textauszug nicht ausreichend ist,<br />

kann auch eine Anzeige des gesamten Textes erfolgen.<br />

Rule-Modification<br />

Der Rule-Selector soll dem Benutzer einen Überblick über die gesamte Regelmenge<br />

verschaffen <strong>und</strong> ihn bei der Suche nach einer bestimmten Regel<br />

unterstützen. Zu diesem Zweck wurde ein Filter implementiert, der es ermöglicht,<br />

die vorhandene Regelmenge nach verschiedenen Regelkriterien<br />

(z. B. Regeltyp oder find- <strong>und</strong> replace-Teil) zu filtern. Die Rule-Visualization-Komponente<br />

ermöglicht es dem Benutzer, die im Rule-Selector ausgewählte<br />

Regel im Detail zu betrachten. Außerdem erlaubt sie es, die selektierte<br />

Regel zu modifizieren, zu löschen oder neue Regeln in Abhängigkeit<br />

der ausgewählten Regel zu erstellen. Für die Visualisierung wurden zunächst<br />

die im JUNG-Framework 1 vorhandenen Layout-Algorithmen für Graphen<br />

evaluiert. Da diese Algorithmen nicht direkt für die gegebenen Daten geeignet<br />

waren, wurde ein Konzept für ein eigenes Layout erstellt (s. Abb. 1 unten<br />

rechts), welches Ansätze aus den bestehenden Verfahren übernimmt. Zur<br />

optischen Platzierung der Knoten des Graphen wurde die hierarchische Einordnung<br />

von Knoten des Sugiyama-Layouts mit der rekursiven Zeichenweise<br />

von üblichen Tree-Layouts kombiniert. Dabei wird der Wurzelknoten auf<br />

Ebene 0 angeordnet, während alle anderen Knoten in Abhängigkeit zur maximalen<br />

Anzahl passierter Kanten bis zum Wurzelknoten angeordnet werden.<br />

1 http://jung.sourceforge.net – Stand 13.01.2011


216 Andrea Ernst-Gerlach, Dennis Korbar, Ara Awakian<br />

Daraus ergibt sich ein Layout, bei dem alle Kanten nach unten gerichtet sind.<br />

Um die Übersichtlichkeit der Visualisierung zusätzlich zu verbessern, werden<br />

nur die Regeln angezeigt, die für die ausgewählte Regel relevant sind.<br />

Weitere Regeln werden in expandierbaren Knoten zusammengefasst <strong>und</strong><br />

können bei Bedarf zusätzlich angezeigt werden.<br />

Innerhalb der Rule-Visualization-Komponente stellt eine Toolbar die verschiedenen<br />

Möglichkeiten zur Modifikation der Regelmenge zur Verfügung.<br />

Der Benutzer kann vorhandene Regeln editieren <strong>und</strong> löschen oder neue Regeln<br />

erstellen. Zur Erstellung von neuen Regeln gibt es Dialoge mit unterschiedlichen<br />

Unterstützungsmöglichkeiten. Der Benutzer kann z. B. eine Regel<br />

<strong>frei</strong> eingeben oder einen Dialog verwenden, der ihn dabei unterstützt,<br />

Regeln zu erstellen, die die selektierte Regel spezialisieren oder diese generalisieren.<br />

Bei der Durchführung von Modifikationen wird der Benutzer von einem<br />

Preview-Modus unterstützt. Dieser wird aktiviert, sobald der Benutzer einen<br />

Modifizierungs-Dialog öffnet. Der Preview-Modus visualisiert den Graphen<br />

in dem Zustand, in dem er wäre, wenn die aktuell vorhandene Änderung<br />

durchgeführt würde. Jegliche Eingabe innerhalb eines Modifizierungs-Dialogs<br />

löst eine Aktualisierung des Preview-Modus aus. So sieht der Benutzer<br />

sofort die Konsequenzen seiner Änderung <strong>und</strong> wird bei der Entscheidungsfindung<br />

unterstützt. Dies ist in Abbildung 3 zu sehen. Links wurde die Regel<br />

uot → uet ausgewählt <strong>und</strong> der Modifizierungs-Button betätigt. Daraufhin<br />

wurde sowohl im find- als auch im replace-Teil der Regel das u durch ein a<br />

ersetzt. Nach dieser Änderung wurde die Visualisierung des Preview-Modus<br />

aktualisiert. Dieser zeigt nun die ursprüngliche Form der Regel an (old rule)<br />

sowie die Form der Regel, die vorliegt, sofern diese Änderung bestätigt wird<br />

(new rule). Zusätzlich werden die Änderungen auch farblich markiert.<br />

Abbildung 3: Preview-Modus


Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung ... 217<br />

Evaluation<br />

Die Benutzerfre<strong>und</strong>lichkeit der vorgestellten RuleGenerator-Applikation<br />

wurde innerhalb einer eyetrackergestützten Benutzerstudie evaluiert. An der<br />

Evaluation nahmen zehn Studenten der Universität Duisburg-Essen teil. Unter<br />

den Testpersonen befanden sich sieben Informatiker, zwei Sozialwissenschaftler<br />

<strong>und</strong> ein Erziehungswissenschaftler. Mit einem Computer arbeiteten<br />

die Testpersonen seit acht bis zwanzig Jahren <strong>und</strong> alle Testpersonen gaben<br />

an, den Computer täglich zu verwenden. Ziel der im Folgenden dargestellten<br />

Evaluation war der generelle Test der Abläufe.<br />

Vor der Evaluation bekamen die Benutzer zunächst eine kurze Anleitung<br />

sowie eine mündliche Einführung in die Applikation. Es war den Testpersonen<br />

gestattet, während der Evaluation Fragen zu stellen. Die Fragen sowie<br />

die Maus- <strong>und</strong> Augenbewegung der Personen wurden beobachtet <strong>und</strong> protokolliert<br />

bzw. aufgezeichnet. Die Evaluation bestand aus einer Reihe von Aufgaben,<br />

die die Testpersonen innerhalb der RuleGenerator-Applikation durchführen<br />

sollten. Im Anschluss daran gab es ein kurzes Interview <strong>und</strong> die<br />

Probanden füllten einen Fragebogen aus. Auf diesem gab es verschiedene<br />

Aussagen zur RuleGenerator-Applikation, die die Probanden mit 1 (= trifft<br />

nicht zu) bis 5 (= trifft voll zu) bewerten sollten. Die Ergebnisse der wichtigsten<br />

Aussagen sind in Abbildung 4 zu sehen. Die ersten vier Aussagen in<br />

der Abbildung beziehen sich auf die Applikation insgesamt. Wie dort zu<br />

sehen ist, wurde die Applikation im allgemeinen positiv bewertet. Der Median<br />

von „Tool übersichtlich“, „Bedienung einfach“ <strong>und</strong> „Bedienung flüssig“<br />

liegt jeweils bei vier <strong>und</strong> auch die weiteren Werte liegen bis auf die Ausreißer<br />

im positiven Bereich. Lediglich die Icons der Applikation wurden in<br />

der Aussage „Icons eindeutig“ mittelmäßig bewertet. Im Interview mit den Probanden<br />

bestätigten sich diese Ergebnisse <strong>und</strong> es stellte sich heraus, dass die<br />

Probanden vor allem Probleme mit den Icons in der Rule-Modification hatten.<br />

Die nächsten vier Aussagen in der Abbildung 4 beziehen sich auf den Evidencer-Teil<br />

der Applikation. Dort wurde von den Benutzern „Belegfilter<br />

hil<strong>frei</strong>ch“, „Erzeugung Belege einfach“ sowie „Manuelle Belegerstellung<br />

einfach“ im Median ebenfalls mit 4 bewertet. Die Aussage „Beleg editieren<br />

einfach“ wurde etwas schlechter bewertet. Im Interview zeigte sich, dass<br />

einige Personen Probleme hatten, den Zugang zu dieser Funktion zu finden.<br />

Sie erwarteten, dass die Operation ebenfalls über die Toolbar erreichbar ist,<br />

diese konnte jedoch lediglich über einen Doppelklick aktiviert werden.


218 Andrea Ernst-Gerlach, Dennis Korbar, Ara Awakian<br />

Abbildung 4: Aussagenbewertung der Probanden<br />

Die letzten vier Aussagen beziehen sich auf den Teil Rule-Modification.<br />

Dort bewerteten die Probanden die Aussagen „Expandierbare Knoten verbessern<br />

Übersicht“, „Regelfilter hil<strong>frei</strong>ch“ sowie „Regelvisualisierung bei<br />

Modifizierung hil<strong>frei</strong>ch“ ebenfalls mit einem Median von vier. Die Aussage<br />

„Regel finden einfach“ wurde von den Benutzern mit einem Median von drei<br />

bewertet. Im Interview <strong>und</strong> bei der Auswertung der Eyetracker-Daten ergab<br />

sich, dass die Benutzer beim Finden von Regeln vor allem Probleme damit<br />

hatten, dass der Regelbaum bei der Benutzung des Filters nicht automatisch<br />

expandiert wurde.<br />

Durch die Verwendung des Eyetrackers wurde deutlich, dass viele Teilnehmer<br />

den Bestätigungsdialog bei Modifikationen erst sehr spät bemerkten.<br />

Nachdem der Benutzer die ausgewählte Regel gelöscht hatte, schaute er auf<br />

den Belegteil oben, ohne den Dialog, der noch bestätigt werden musste, zu<br />

bemerken. Weitere Mängel, wie der fehlende Edit-Button im Belegteil, konnten<br />

anhand der gesammelten Eyetracker-Daten untersucht <strong>und</strong> bestätigt werden.<br />

Dadurch war z. B. ersichtlich, dass Probanden bei der Bearbeitung von<br />

Aufgaben, in denen Belege zu editieren waren, den Belegteil sequentiell nach<br />

einer Möglichkeit zum Editieren absuchten, anstatt einen Doppelklick auf<br />

dem Beleg durchzuführen.<br />

Die bei der Benutzerstudie gef<strong>und</strong>enen Probleme wurden in einer Anpassung<br />

der Implementierung behoben. So wird für den Bestätigungsdialog


Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung ... 219<br />

der Regelmodifizierung der Hintergr<strong>und</strong> zunächst rot eingefärbt, um die<br />

Aufmerksamkeit des Benutzers zu erregen. Des Weiteren wurden eindeutigere<br />

Icons für einige Funktionen gewählt <strong>und</strong> die mittelmäßig bewerteten<br />

Filterfunktionen überarbeitet. Bei der Auswertung der aufgezeichneten Eyetracker-Daten<br />

wurden weitere Probleme gef<strong>und</strong>en, wie etwa fehlende alternative<br />

Möglichkeiten, um bestimmte Funktionen auszuführen. Diese wurden<br />

behoben, indem zusätzliche Möglichkeiten – wie etwa Kontextmenüs – implementiert<br />

wurden.<br />

Zusammenfassung<br />

In diesem Artikel wurde eine Benutzeroberfläche zur automatischen Konstruktion<br />

von Belegen <strong>und</strong> Regeln vorgestellt. Die Benutzeroberfläche versetzt<br />

Benutzer in die Lage, ohne Programmierkenntnisse eigenständig Regeln<br />

für historische Korpora zu erzeugen <strong>und</strong> ermöglicht somit Retrieval auf Texten<br />

mit nicht-standardisierter Rechtschreibung. Dem Benutzer wird dabei die<br />

Gelegenheit gegeben, die automatischen Vorschläge für Belege <strong>und</strong> Regeln<br />

zu löschen, zu editieren sowie neue zu erstellen. Dadurch ist der Ansatz sehr<br />

flexibel, weil der Benutzer den Prozess entsprechend seinen Erwartungen an<br />

Recall <strong>und</strong> Precision der Suchmaschine beeinflussen kann.<br />

Die Evaluation hat gezeigt, dass neuen Benutzern die Bedienung der Applikation<br />

leicht fällt <strong>und</strong> die gr<strong>und</strong>legenden Konzepte der Applikation verstanden<br />

werden. Die bei der Evaluation gef<strong>und</strong>enen Probleme wurden in<br />

einer Anpassung der Implementierung behoben. Dies soll im Rahmen einer<br />

weiteren Evaluation mit späteren Benutzern wie z. B. Historikern <strong>und</strong> Linguisten<br />

überprüft werden.<br />

Literaturverzeichnis<br />

Awakian, A. (2010). Development of a user-interface for an interactive rule development.<br />

Masterarbeit, Universität Duisburg-Essen


220 Andrea Ernst-Gerlach, Dennis Korbar, Ara Awakian<br />

Baron, A.; Rayson, P. (2008). VARD 2: A tool for dealing with spelling variation in<br />

historical corpora. Proc. of the „Postgraduate Conference in Corpus Linguistics“.<br />

Aston University, Birmingham<br />

Cendrowska, J. (1987). An Algorithm for Inducing Modular Rules. „International<br />

Journal on Man-Machine Studies“. Volume 27, Nummer 4, Seiten 349–370<br />

Ernst-Gerlach, A.; Fuhr, N. (2006). Generating Search Term Variants for Text Collections<br />

with Historic Spellings. Proc. of the “Advances in <strong>Information</strong> Retrieval<br />

– 28th European Conference on IR Research, ECIR 2006, London, UK, April<br />

10–12, 2006”<br />

Ernst-Gerlach, A.; Fuhr, N. (2010a). Advanced Training Set Construction for Retrieval<br />

in Historic Documents. Proc. of the “Sixth Asia <strong>Information</strong> Retrieval Societies<br />

Conf. (AIRS 2010)”<br />

Ernst-Gerlach, A.; Fuhr, N. (2010b). Semiautomatische Konstruktion von Trainingsdaten<br />

für historische Dokumente. Proc. of the „<strong>Information</strong> Retrieval 2010 Workshop<br />

LWA 2010“, Kassel, Germany<br />

Gotscharek, A.; Neumann, A.; Reffle, U.; Ringlstetter, Ch.; Schulz, K. U. (2009).<br />

Enabling information retrieval on historical document collections: the role of<br />

matching procedures and special lexica. Proc. of „The Third Workshop on Analytics<br />

for Noisy Unstructured Text Data“, Barcelona, Spain<br />

Hauser, A.; Heller, M.; Leiss, E.; Schulz, K. U.; Wanzeck, C. (2007). <strong>Information</strong><br />

Access to Historical Documents from the Early New High German Period. Proc.<br />

of the „International Joint Conference on Artificial Intelligence (IJCAI-2007)<br />

Workshop on Analytics for Noisy Unstructured Text Data“, Hyderabad, India<br />

Korbar, D. (2010). Visualisierung von Regelstrukturen <strong>und</strong> Modifikationsmöglichkeiten<br />

für die Suche in Texten mit nicht-standardisierter Rechtschreibung. Diplomarbeit,<br />

Universität Duisburg-Essen<br />

Nguyen, DucDung, T. Ho, Kawasaki (2006). Knowledge visualization in hepatitis<br />

study. In: APVis ’06: Proc. of the 2006 „Asia-Pacific Symposium on <strong>Information</strong><br />

Visualization“, S. 59–62, Darlinghurst, Australia. Australian Computer Society,<br />

Inc.<br />

Pilz, T. (2009). Nichtstandardisierte Rechtschreibung – Variationsmodellierung <strong>und</strong><br />

rechnergestützte Variationsverarbeitung. Dissertation, Universität Duisburg-Essen<br />

Pilz, T. and Luther, W. (2009). Automated support for evidence retrieval in documents<br />

with nonstandard orthography. In „The Fruits of Empirical Linguistics<br />

Process“, Sam Featherston, S; Winkler, S.; Volume 1, S. 211–228, Mouton de<br />

Gruyter Berlin


Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung ... 221<br />

Session 6:<br />

Multimedia


222 Peter Schultes , Franz Lehner , Harald Kosch<br />

Effects of real, media and presentation time<br />

in annotated video<br />

Abstract<br />

1 2 3<br />

Peter Schultes , Franz Lehner , Harald Kosch<br />

University of Passau – Innstrasse 43, Passau<br />

1 Business Administration II – schult16@stud.uni-passau.de<br />

2 Business Administration II – franz.lehner@uni-passau.de<br />

3 Distributed <strong>Information</strong>systems – harald.kosch@uni-passau.de<br />

In recent years, annotated video became a major factor of our multimedia<br />

world. As we can see using the example of YouTube, annotating an existing<br />

video with graphical objects seems to get very popular these days. But a lot<br />

of technical problems are not solved yet or are still even not identified. One<br />

of these issues is dynamic behavior of (graphical) annotations, which current<br />

platforms generally do not support at all (for instance YouTube). This work<br />

deals with a question that is of inherent importance for dynamism: how can<br />

we synchronize media, real and presentation time in interactive video? Current<br />

platforms typically support media time dependencies, but discount the<br />

fact that user interactivity takes place at presentation time. Our approach of<br />

handling different time systems enables interactive video to expand to a<br />

much greater field of application.<br />

1 Introduction<br />

Just a few years ago, video was a linear presentation medium. We generally<br />

interacted more with our remote control of our video players than with the<br />

media itself. Then in the mid-nineties the DVD came up and interactive multimedia<br />

presentations emerged: additional material, alternative endings, audio<br />

comments and so on. After suitable technologies like Adobe Flash and Microsoft<br />

Silverlight took up the internet at the beginning of the twentieth century,<br />

clickable video appeared. Illustration-, advertising- and entertainment-


Effects of real, media and presentation time in annotated video 223<br />

videos are enriched with interactive features for the viewers since then.<br />

Nowadays – in times of web 2.0 – we can see an ongoing development:<br />

Video users themselves publish videos, annotate existing material and even<br />

enrich the videos with interactive features. Especially due to YouTube (c.f.<br />

[YouTube, 2009]) it became very popular for users to add graphical shapes,<br />

interactive hotspots or links to other media into an existing video. As we can<br />

see, the traditional observer role of video spectators seems to break up more<br />

and more. Interactive media on the one hand and user generated content on<br />

the other hand are the two main trends in the area of internet video. However,<br />

the possibilities for user generated video annotations are still limited. Of<br />

course we merely can do everything we want with a video by using programming<br />

technologies like Adobe Flash. But the majority of the video<br />

community cannot handle these technologies, because they require a lot of<br />

technical knowhow and experience. And YouTube annotations are certainly<br />

not the best answer either: only three different graphical shapes, as good as<br />

no dynamic and interactive behavior – this appears more to be the first step<br />

but not the final state.<br />

The main focus of our current work is to develop an annotation tool for<br />

online videos that everybody can easily use. The primary application field of<br />

our video annotation tool is eLearning. We would like to give our students<br />

the possibility to add additional material, references, notes etc. into their<br />

(customized) online lecture videos and share them within a peer group or a<br />

public domain. One of our research aspects here is to explore how far video<br />

is a suitable base media for user generated content. The supported video annotations<br />

include all kinds of graphical information (not metadata) like text,<br />

shapes, freehand drawings, audio, images or even video. Currently we are<br />

still in realization stage but we already identified some key issues of user<br />

generated video annotations. One issue is dynamic video annotations. Dynamism<br />

in this context contains changes of visual properties of annotation elements<br />

during video presentation. Visual properties are for example the<br />

bo<strong>und</strong>ary or backgro<strong>und</strong> color of an element. A property change can be<br />

evoked by either a timer (e.g. media time progress) or the user, who interacts<br />

with an annotation element.<br />

In this article we worked out the main fields of problems that came up<br />

when realizing dynamic video annotations. The main challenge here was to<br />

bring media time dynamics and real time interactivity together. In the next<br />

sections we explain technical issues and semantic concepts on how to achieve<br />

dynamic and interactive video annotations in a consistent and generic way.


224 Peter Schultes , Franz Lehner , Harald Kosch<br />

2 Related work<br />

In recent years, the number of projects dealing with the topic of interactive<br />

video enormously increased. The following list gives a brief overview of the<br />

priorities in latest research and industrial projects including the main features<br />

– making no claims of being complete.<br />

non-linear video<br />

The Fraunhofer Institute has presented their “nonlinear-video” project at the<br />

cebit 2010. By own accounts, nonlinear-video enables us to “re-experience<br />

the content of moving pictures”. The main feature here is a whole video environment.<br />

The environment provides us with the possibility to interact with<br />

annotated video objects and retrieve sensitive information about the video<br />

content (c.f. [Fraunhofer, 2010]). Additional to the desktop presentation, developers<br />

at the Fraunhofer Institute are also working on a hardware set-top<br />

box. This could bring interactive television into our living rooms.<br />

ADIVI<br />

The ADIVI project (cf. [InnoTeamS, 2009]) – which is also a commercial<br />

software solution – focuses on additional video annotations. The system consists<br />

of fixed video and annotation areas. The content of the annotation area<br />

is determined by sensitive regions in the video. If the viewer clicks on a specific<br />

region, annotation area shows up all kind of additional media resources<br />

(text, images, videos, URLs).<br />

Microsoft Video Hyperlinks<br />

Microsoft adCenter Labs published Video Hyperlinks (see [Microsoft, 2008])<br />

in 2008. Here, hotspots can be placed in an existing video to mark regions of<br />

interest with rectangular frames. The hotspots appear at certain media time<br />

points and change their bo<strong>und</strong>ing according to the backgro<strong>und</strong> objects. After<br />

the users clicks inside the rectangle, additional information is shown.<br />

SIVA Suite<br />

SIVA Suite is one of the latest research projects of the University of Passau.<br />

Basically SIVA is a comprehensive collection of software tools, which can<br />

be used to create and play interactive videos. As well as the previous projects<br />

SIVA provides synchronous presentation of all kinds of media annotations


Effects of real, media and presentation time in annotated video 225<br />

(c.f. [Meixner, 2009]). But furthermore SIVA enables us to build alternating<br />

storylines through a graphical scene graph editor.<br />

3 F<strong>und</strong>amentals<br />

In a previous project, we already identified three basic components that make<br />

up a dynamic video-annotation system (c.f. [Schultes (1), 2010]) in addition<br />

to the video player: first of all, the annotation elements which appear upon<br />

the actual video content. At second, the environment which manages the<br />

containing elements. And third, the abstract screenplay which defines interactivity<br />

and dynamics during the presentation. These essential concepts are<br />

summed up in the next sections, because they serve as the basis for all further<br />

considerations.<br />

3.1 Elements and Environment<br />

The focus of our work lies on visual annotation elements like shapes, text,<br />

images, videos, or interactive elements. All this video annotation elements<br />

are instances of a common interface. The exact nature of this interface should<br />

not be discussed further at this point (you can find more details in [Schultes<br />

(1), 2010]). For further explanations we can simply assume the following<br />

prerequisite: Each annotation element provides the same generic mechanism<br />

to implement element specific behavior. We can also control and manipulate<br />

the state of an element via the interface without having detailed information<br />

about the particular element. The controlling of all annotation elements is<br />

done by the runtime environment of the collaborative video player/editor. So<br />

the annotation environment is the connection between video and user generated<br />

content and has three major functions: The first task is managing the<br />

graphical annotation context. The second task is to interpret the abstract<br />

screenplay and so insert/hide the annotation elements at certain time points.<br />

And at last the environment is responsible for forwarding all changes and<br />

events – for instance user inputs – to the annotation elements (see next section).


226 Peter Schultes , Franz Lehner , Harald Kosch<br />

3.2 Events<br />

The annotation environment has to react on multiple kinds of events and state<br />

changes:<br />

• the ongoing position in video, thus the current media time<br />

• timing events from the system clock<br />

• system events from user input devices (e.g. mouse clicks)<br />

• element specific events (e.g. selection of a button shape)<br />

After the annotation environment noticed an event or an element state<br />

change, all detail information is packed into a standard event object. This<br />

generally consists of an event type identifier, an explicit source element and<br />

arbitrary detail objects (e.g. which mouse button was pressed etc). This proceeding<br />

is required, because the common element interface can only deal<br />

with one particular (generic) event object. The event object must then be<br />

interpreted by all involved elements. An element is usually involved in an<br />

event, if it represents a user interface event, which occurred in the graphical<br />

bo<strong>und</strong>s of the element. The next step is to inform appropriate event handlers<br />

about the occurrence of the event (see next section).<br />

3.3 Actions and Dynamics<br />

Dynamics and actions are defined in the abstract annotation screenplay. The<br />

screenplay has to be created by the author of an interactive video prior to or<br />

during its presentation – in our case the screenplay is collaboratively created<br />

by the users of an internet community. Its evaluation is done by the environment<br />

at video runtime. Realization issues of the screenplay are not part of<br />

this work – you can read further details about our “event tree”-approach<br />

which deals with the question on how users can define and manage complex<br />

screenplays graphically in [Schultes (2), 2010]. Basically, the screenplay<br />

holds an amount of actions which will be executed in response to particular<br />

events. The connection of runtime event and predefined action is called an<br />

event handler. An event handler specifies its trigger event by an appropriate<br />

event prototype. An example event handler could possibly be something like:<br />

After selection of button ‘xy’ annotation element ‘yz’ should set its backgro<strong>und</strong><br />

colour to blue.


Effects of real, media and presentation time in annotated video 227<br />

Therefore, the event prototype would map to all runtime events whose<br />

type is “selection” and arise from element “xy”. The related action would<br />

change the backgro<strong>und</strong> property of element “yz”.<br />

In this context, an action is a container for an arbitrary amount of instructions.<br />

Each instruction always references a target element and defines an<br />

explicit command directly affecting this target. A command can easily be<br />

realized via the generic element interface (see section 3.1). Usually instructions<br />

(and so actions) change the state of their target elements which can lead<br />

to the occurrence of new element events. Further to the event handlers, an<br />

abstract screenplay contains all appearing and disappearing time points of<br />

every visual annotation element. This is essential because the elements usually<br />

do not remain visible across the entire video.<br />

4 Real time and media time<br />

The annotation environment initiates the execution of certain actions at particular<br />

time points. These time points always have an explicit timestamp depending<br />

on the system clock of the <strong>und</strong>erlying hardware system. By default<br />

this timestamp corresponds to a real time point in the existing time continuum.<br />

Since video is a time based medium, each real time execution point can<br />

be mapped to a corresponding media time point. Media time points are in<br />

contrast to real time points singletons and so recoverable. For example,<br />

viewers can jump back and forth in media time by adjusting the current position<br />

in the video. This certainly does not apply to real time unless time machines<br />

get affordable in the near future. The presence of several execution<br />

time points arise the question of which time point is decisive for the execution<br />

time of an action.<br />

4.1 Media time actions<br />

Media time events primarily include frame updates in the video player but<br />

also derived events like “element xy is now shown” (since media time points<br />

which change the hide/show states of annotation elements are explicitly listed<br />

in the screenplay, these events can be treated like “real” media time events).<br />

In order to give the impression that the annotation elements are an integral


228 Peter Schultes , Franz Lehner , Harald Kosch<br />

part of the <strong>und</strong>erlying video they strictly have to behave synchronously with<br />

the video content. Let’s consider the screenplay contains an event handler<br />

which changes the backgro<strong>und</strong> color of an annotation shape at media time<br />

00:05:15. It seems obvious that the backgro<strong>und</strong> color must be reset to its<br />

original value in case of a media time setback, to keep synchronous with the<br />

video. This demand is getting even more obvious, if we take a look at moving<br />

elements (which often appear in connection with hotspots). Let’s assume<br />

that the screenplay contains several different location requests targeting one<br />

particular annotation shape at certain media time points. As a result, the element<br />

acts synchronously with a backgro<strong>und</strong> object in the video. Considering<br />

that, a media time step back inevitably forces a location update, unless user<br />

generated content and video lose their synchronicity. Figure 1 shows this circumstance:<br />

Nice car Nice car Nice car<br />

t = 1<br />

mt = 1<br />

= play<br />

= step back<br />

t = 6<br />

mt = 6<br />

t = relative real time point<br />

mt = absolute media time point<br />

t = 10<br />

mt = 2<br />

Figure 1:<br />

Loss of synchronism due to moving elements, when ignoring a media time step back.<br />

So, in case of a media time backward jump, each annotation element has<br />

to restore the most recent valid state before the target media time. Therefore,<br />

the annotation environment has to manifest the state of the target element<br />

before executing a media time action. This is the only way to ensure proper<br />

element states in case of future media time jumps. In terms of software engineering<br />

this approach is called Memento (c.f. [Gamma, 1995]) and is used in<br />

similar circumstances: realizing <strong>und</strong>o-redo mechanism in graphical user interfaces.<br />

As we have seen, backward steps require a special treatment. But how to<br />

handle forward steps? Of course we would lose synchronicity of annotation


Effects of real, media and presentation time in annotated video 229<br />

elements and video, if we ignored forward steps. For example, if the viewer<br />

(in respect of the scenario in figure 1) jumped from media time point 2 to 7,<br />

the location update would fail to appear. The required action will only be<br />

executed on media time event 6, which was skipped due to the forward jump.<br />

Thus, the annotation environment has to predetermine the skipped state transitions<br />

and manifest them at the given media time points respectively. The<br />

environment can achieve this easily by using the given event prototypes details<br />

in the abstract screenplay. Forward calculation is done in three sequential<br />

steps:<br />

• Calculation of all media time actions which occur in the skipped time<br />

span.<br />

• Sorting of the selected actions according to their execution time points.<br />

• Sequential execution of the actions and state manifestation of affected<br />

elements according to execution time points.<br />

4.2 Real time actions<br />

In contrast to media time actions, real time actions do not depend on the<br />

video presentation at all. Real time actions change the state of an annotation<br />

element at a certain time point triggered by the system clock. An example<br />

real time event would be: “12:00:35 on 01-05-2010”. Since it is not possible<br />

to reset the real time, we do not have to care about element state manifestation<br />

and so on and only have to evaluate the necessary system clock events.<br />

However, the environment must ensure the correct initial state of all elements<br />

at the beginning of the video presentation: if an event handler updates the<br />

colour of an annotation shape at 12:00:35 and presentation starts at 13:00:00,<br />

the environment should catch up on the missed real time event and update the<br />

element before presentation starts. This guarantees consistent behaviour of<br />

user generated annotations, no matter at which time of day the presentation<br />

starts.<br />

In general, real time actions as described here would not make much<br />

sense for normal use cases. They are more an issue for commercials on top of<br />

the video, which are dynamically shown at particular times of day. But certainly,<br />

real time actions only play a minor role. However, we should consider<br />

the idea as useful for element specific behaviour. Let’s take a look at an interactive<br />

door-shape: a mouse click could trigger a visual opening- or closing-animation.<br />

Animations are usually real time based, and must continue


230 Peter Schultes , Franz Lehner , Harald Kosch<br />

even if the user pauses the video. So here we do not have absolute timestamps<br />

but relative ones, dependent on the system timestamp of the trigger<br />

event.<br />

4.3 Presentation time actions<br />

The previous considerations dealt with actions that are triggered by any sort<br />

of time events. All further events belong to the presentation time category:<br />

for one thing there are events fired by input devices (e.g. mouse pointer<br />

movements/clicks or keystrokes ...), for another thing element specific events<br />

(e.g. “selection performed” in an interactive multiple choice element). These<br />

events occur in the annotation layer, thus outside the actual video context, but<br />

mostly depend on the video content. For instance, a mouse click on a video<br />

object always relates to current media time – the viewer would probably not<br />

have clicked on this particular location, if the video content had been a differed<br />

one. This is also transferable to user interactions with the annotation<br />

layer: annotation elements are always closely linked to the video content and<br />

media time due to their dis-/appearing (media) time points. This raises the<br />

question of whether presentation time actions have to be rolled back as well<br />

as media time actions in case of backward jumps. Forward calculations do<br />

not make sense at all, since the environment cannot estimate possible interaction<br />

events during the skipped time span (which might have occurred in a<br />

continuous presentation). But if the annotation environment manifested the<br />

element states in case of presentation time actions, too, they could be restored<br />

after a backward jump. The following example scenario should help us to<br />

<strong>und</strong>erstand this problem:<br />

In an interactive video project, viewers should receive additional information<br />

to objects they selected with the mouse pointer. Therefore we have a<br />

text field, which always stays visible during the entire video presentation.<br />

Furthermore, annotation shapes appear and disappear at specific mediatime<br />

points. These elements act as hotspots for corresponding objects in the<br />

video. After the viewer clicks on such a hotspot element, the text field presents<br />

additional information about the enclosed video object.<br />

Let’s assume a viewer has watched the first part of the interactive video<br />

and has already selected some hotspot elements. Now he wants to set back<br />

media time to watch the last scene again. This leads us to two different posi-


Effects of real, media and presentation time in annotated video 231<br />

tions whether the content of the text filed has to be reset or not (after the<br />

backward jump):<br />

• Position 1: Mouse click occurs at real time, but the corresponding action<br />

is executed at media time.<br />

The environment must reset the text field after a media time setback, because<br />

its content changed through (video-) content sensitive actions. This<br />

ensures synchronicity with the video.<br />

• Position 2: Mouse click occurs at real time and corresponding action is<br />

executed in real time context, too.<br />

The content of the text field is still valid, because the last user selection<br />

took place before the media time setback. So no rollback is required.<br />

This ensures correct real time behaviour.<br />

One consequence of position two is that the text field may contain information<br />

about a video object, which has not been shown yet. This could lead to<br />

uncertainty among the viewers. But position one also shows a similar weakness:<br />

after the media time setback, all elements states suit to the current video<br />

content. If the user performs a forward jump right after the setback, the elements<br />

cannot restore their previous state again (since forward calculation is<br />

generally not possible – even if the target time point was recently shown).<br />

So which of the positions is the “right” one? In general, we cannot predict<br />

the correct handling of media time changes, if we do not know the particular<br />

use case. If there is a strong connection between video content and user action<br />

(as in the example scenario), viewpoint one seems to be the best suitable.<br />

If not – for instance in case of element events like button selections etc. –<br />

viewpoint two would be a better choice. Due to the fact that the annotation<br />

system cannot calculate the correct handling, the best solution here seems to<br />

be a preliminary commitment in the abstract screenplay. The author of an<br />

interactive video should have the possibility to specify the desired handling<br />

for each presentation time action by himself.<br />

4.4 Special cases<br />

One special case needs to be discussed further at this point: media time actions<br />

can change the state of an element. This can evoke new element events<br />

at the target element(s). As far as one or more of these (possible) events are<br />

connected with other actions, “action chains” arise. Regardless of whether<br />

position one or two is taken for media time handling, action chains whose


232 Peter Schultes , Franz Lehner , Harald Kosch<br />

start event is a media time event, have to be completely rolled back. So the<br />

context of action chains is always determined through the start event. This<br />

dependency seems to be obvious, since there would not be any further events<br />

without the start event. But there is one exception: if the implementation of a<br />

chained action adjusts the current video position, the context switches at this<br />

chain index. So any further action of the chain will require element state<br />

manifestations. This may lead to pretty obscure behaviour, which we have<br />

not considered so far. It could even be possible that a chained action triggers<br />

another action chain. A lot of problems with action chains are not considered<br />

so far and will be part of future work.<br />

5 Conclusions and future work<br />

In this work we introduced the basic concepts of handling dynamics and interactivity<br />

of graphical video annotations. As we have seen, different action<br />

types may require a different treatment for media time jumps. In case of<br />

presentation time actions the environment even cannot determine, whether a<br />

roll back is necessary or not. So here we need information from the author on<br />

how to treat each particular presentation time action. Due to the results of our<br />

work, we were able to implement the logic for handling dynamics in annotated<br />

interactive videos.<br />

In our future work we will concentrate on unresolved problems when media<br />

time affects video annotations (for example the above mentioned action<br />

chains). In the next step we will finish up implementing our annotation tool<br />

for internet videos. We expect a lot of problems when realizing collaborative<br />

viewing and editing of annotated videos, because this area is still only insufficiently<br />

explored. We will then integrate the final collaborative video annotation<br />

player in our online lecture courses. After having sufficient user content<br />

we will launch a study about the quality and different types of the<br />

generated user content. This should help us to get a sustainable estimation on<br />

how far video is a suitable media for user generated content.


Effects of real, media and presentation time in annotated video 233<br />

References<br />

Fraunhofer Fokus (2010): Non Linear Video. In Fraunhofer Fokus, Future Applications<br />

and Media 02/2010.<br />

http://www.fraunhofer.de/Images/fokus_non-linear-video_de_tcm7-61560.pdf (Retrieved<br />

03.01.2011)<br />

E. Gamma, R. Helm, R. Johnson, J. Vlissides (1995): Elements of Reusable Object-Oriented<br />

Software. Amsterdam: Addison-Wesley Longman, 1995<br />

InnoTeamS (2009): ADIVI Instructional Guide, Version 3.0.<br />

http://www.adivi.net/Materialien/ADIVI_3_help_en.pdf (Retrieved 03.01.2011)<br />

Meixner, B., Siegel, B., Hölbling, G., Kosch, H., Lehner, F. (2009): SIVA Producer<br />

– A Modular Authoring System for Interactive Videos. In Proceedings of<br />

I-KNOW, 9th International Conference on Knowledge Management and Knowledge<br />

Technologies, Graz, 2009<br />

Microsoft adCenter Labs (2008): Video and Interactive.<br />

http://adlab.msn.com/Video-Hyperlink/ (Retrieved 03.01.2011 from)<br />

Schultes, P., Lehner, F., Kosch, H. (2010): Videomarkup – Vom Videonutzer zum<br />

Produzent. In Eibl, M. et al (Hrsg.): Workshop Audiovisual Media WAM 2010.<br />

Chemnitz, 2010<br />

Schultes, P., Lehner, F., Kosch, H. (2010): A user-centred approach to define interactive<br />

and dynamic video annotations via event trees. In 10th International Conference<br />

on Knowledge Management and Knowledge Technologies, Graz, 2010<br />

YouTube 2009: YouTube Video Annotations, 2009.<br />

http://www.youtube.com/t/annotations_about (Retrieved 03.01.2011 from)


234 Marc Ritter, Maximilian Eibl<br />

Ein erweiterbares Tool<br />

zur Annotation von Videos<br />

Marc Ritter, Maximilian Eibl<br />

Technische Universität Chemnitz – Professur Medieninformatik<br />

09107 Chemnitz<br />

{marc.ritter|eibl}@informatik.tu-chemnitz.de<br />

Zusammenfassung<br />

Die Beschreibung audiovisueller Medien durch Metadaten bedarf aufgr<strong>und</strong><br />

der Masse der Daten einer Unterstützung für die manuelle Annotation sowie<br />

eine möglichst weitgreifende automatische Annotation. Das vorgestellte<br />

Werkzeug unterstützt Markierung, interaktive Vorsegmentierung <strong>und</strong> Objekterkennung<br />

<strong>und</strong> -verfolgung. Mithilfe der integrierten Shot Detection kann ein<br />

Video strukturell zerlegt werden, um beispielsweise die halbautomatische<br />

Objektverfolgung über Szenengrenzen hinweg zu unterbinden. Die Anbindung<br />

des Forschungsframeworks AMOPA gestattet dem Nutzer beliebige<br />

Ketten von Operationen zur Bild- <strong>und</strong> Videoverarbeitung zu erstellen. Der<br />

Datenexport erfolgt über MPEG-7-DAVP.<br />

Abstract<br />

We introduce an extensible annotation tool for videos. It allows marking,<br />

interactive segmentation and semi-automatic tracking of objects in video<br />

images as well as preprocessing steps like shot bo<strong>und</strong>ary detection. The<br />

combination with the research framework AMOPA enables the user to create<br />

arbitrary custom image processing chains depending on the <strong>und</strong>erlying field<br />

of research. All data may be exported to MPEG-7-DAVP.


Ein erweiterbares Tool zur Annotation von Videos 235<br />

1 Einführung<br />

Systeme zum Einsatz audiovisueller Medien, seien es Medienarchive, Mediatheken,<br />

Knowledge Management Systeme, E-Learningsysteme oder andere<br />

sehen sich in den letzten Jahren einer zunehmenden Flut von Daten gegenüber.<br />

Diese durch Beschreibungsdaten sinnvoll recherchierbar zu machen,<br />

entwickelt sich zu einer immer stärkeren Herausforderung an Kapazität <strong>und</strong><br />

Zeit. Hier greifen Versuche, die Annotationsprozesse weitgehend zu automatisieren<br />

bzw. die Anwender in der Annotation zu unterstützen. So werden<br />

Algorithmen der Audio-, Bild- <strong>und</strong> Video-Verarbeitung speziell im Anwendungsgebiet<br />

des Maschinellen Lernens entwickelt <strong>und</strong> eingesetzt, indem<br />

Klassifikatoren zum Auffinden von Objekten trainiert werden. Deren Training<br />

erfordert jedoch oftmals zuvor aufbereitete, d.h. annotierte Trainingsdaten,<br />

die bereits Beispiele der zu klassifizierenden Objekte enthalten. Die<br />

Annotation derartiger Objekte in Bild- <strong>und</strong> Videodaten erfolgt zumeist manuell,<br />

ist mit wiederholten Arbeitsprozessen verb<strong>und</strong>en, zeitaufwendig <strong>und</strong><br />

verlangt zudem eine hohe menschliche Aufmerksamkeit. Einfache, schnelle<br />

<strong>und</strong> zuverlässige Annotationsvorgänge können die Entwicklungszeit von Algorithmen<br />

positiv beeinflussen sowie die Aussagekraft über die Performanz<br />

von wissenschaftlichen Verfahren auf größeren Testdatensätzen erhöhen.<br />

1.1 Related Work<br />

In der Vergangenheit wurden zahlreiche Tools entwickelt, die Annotationen<br />

in Bildern <strong>und</strong> Videos erleichtern sollten. Das ViPER-Toolkit (Doermann &<br />

Mihalcik 2000) erlaubt die Markierung von Einzelobjekten in Videos <strong>und</strong> die<br />

Kreation von Deskriptoren mittels Schema-Editor <strong>und</strong> findet bei der TREC<br />

Video Retrieval Evaluation Anwendung (Smeaton 2006). Die Handlung von<br />

Bildinhalten lässt sich in Caliph mit einem gerichteten Graphen erfassen,<br />

jedoch nicht mit einem Bildobjekt vereinen. Die Komplementäranwendung<br />

Emir findet ähnliche Bilder mithilfe von MPEG-7 Low-Level-Deskriptoren<br />

(Lux 2009). Mit diesen durchsucht (Vezzani 2006) Videos nach zuvor trainierten<br />

Objekten. Deskriptoren finden auch beim M-OntoMat-Annotizer Anwendung,<br />

der es erlaubt, in Bildern Regionen zu segmentieren, um aus diesen<br />

dann Objekte <strong>und</strong> deren Eigenschaften zu bestimmen (Petridis 2006). Das<br />

Multimedia Analysis and Retrieval System (MARVEL) tauscht die übliche<br />

Annotationszeichenfläche gegen statistische Analysealgorithmen <strong>und</strong> ordnet


236 Marc Ritter, Maximilian Eibl<br />

vorhandene Bilder in eine komplexe Taxonomie ein, um so die Fehlerrate<br />

einer zeitaufwendigen manuellen Annotation zu minimieren (Columbia<br />

2004). Einen ähnlichen Weg verfolgt das VideoAnnEx Annotation Tool. Es<br />

hält vordefinierte Lexika zur Annotation von Schlüsselobjekten, Ereignissen<br />

<strong>und</strong> statischen Szenen bereit (Naphade 2002). In einer MATLAB-GUI verbindet<br />

(Kounoudes 2008) eine Szenenwechselerkennung mit der Möglichkeit<br />

Frames mit Kategorien erweiterbarer XML-Wörterbücher semantisch zu<br />

taggen. Eine semi-automatische Segmentierung von Objekten durch aktive<br />

Konturen <strong>und</strong> deren Verfolgung durch Interpolation verfolgt (Luo & Eleftheriadis<br />

1999). (Goldmann 2008) modifiziert ein 2D-Trackingverfahren, um<br />

Bildobjekte zu transformieren <strong>und</strong> deren Position im Video zu ändern. Ursprünglich<br />

zur Annotation von Sprachdialogen entwickelt, gestattet ANVIL<br />

die Definition <strong>und</strong> Annotation diverser Kodierungsschemata auch für die<br />

Videoverarbeitung. Daten können XML-basiert abgespeichert <strong>und</strong> in der statistischen<br />

Toolbox SPSS weiterverarbeitet werden. (Kipp 2008) erweitert die<br />

Kodierungsschemata um eine räumlich-zeitliche Funktion zur Markierung<br />

von Objekten über den eigenen Frame hinaus. Das für Mac OS X verfügbare<br />

Tool VCode and VData ermöglicht die Verarbeitung multipler Videoquellen<br />

<strong>und</strong> verschiedener Sensorformate mittels Objektmarkierung auf einem Zeitstrahl.<br />

Als Besonderheit können Annotationssequenzen syntaktisch auf Konsistenz<br />

geprüft werden (Hagedorn 2008). Einen anderen Weg schlägt<br />

(Schroeter 2008) mit FilmEd ein, wo mehrere über heterogene Netzwerke<br />

verb<strong>und</strong>ene Nutzer interaktiv gleichzeitig Annotationen durchführen können.<br />

Selbst mobile Geräte werden inzwischen mit allerdings sehr rudimentären<br />

Annotationsfunktionen ausgestattet (Concejero 2008).<br />

1.2 Motivation<br />

Zahlreiche Anstrengungen wurden unternommen, den mühsamen <strong>und</strong> weit<br />

verbreiteten Prozess der Frame-by-Frame-Annotation zu erleichtern. Einerseits<br />

ist es möglich, die Objektsegmentierung <strong>und</strong> -verfolgung zu automatisieren,<br />

was nur von wenigen Tools angeboten wird. Andererseits werden<br />

mehrere Bilder einer Sequenz mit einem semantischen Begriff versehen.<br />

Obgleich die Begriffswahl durch maschinelle Vorverarbeitung eingegrenzt<br />

werden kann, leidet doch oftmals die Exaktheit der Annotation aufgr<strong>und</strong> der<br />

Spezifität der zugr<strong>und</strong>eliegenden <strong>Wissen</strong>stransferfunktion. So versucht<br />

(Fan 2008) die semantische Lücke zwischen Low-Level-Merkmalen <strong>und</strong><br />

High-Level-Konzepten zu schließen, indem saliente Objekte in Bildern er-


Ein erweiterbares Tool zur Annotation von Videos 237<br />

kannt <strong>und</strong> mit atomaren Bildkonzepten konzeptbasiert abgeglichen werden.<br />

In vereinfachter Form ist dies auch in der Videoannotation wünschenswert.<br />

Zudem lassen einige Tools die Möglichkeit zum Datenexport zur anwendungsspezifischen<br />

Weiterverarbeitung vermissen. Das vorliegende Annotationstool<br />

versucht nun die Vorteile zu vereinen. Dazu wird es an das effiziente<br />

<strong>und</strong> flexible Lehr- <strong>und</strong> Forschungsframework AMOPA (Ritter & Eibl<br />

2009) angeb<strong>und</strong>en, dessen Verarbeitungsketten auf Geschwindigkeit optimiert<br />

sind <strong>und</strong> sich bei Bedarf skalierbar auf andere Rechner über Java RMI<br />

verteilen lassen. Somit können Videos nicht nur schnell strukturell zerlegt,<br />

sondern auch Objekte markiert, segmentiert <strong>und</strong> verfolgt werden. Da Videos<br />

im Gegensatz zu Bildern in der Regel Bewegungen <strong>und</strong> unterschiedliche<br />

Kameraperspektiven aufzeigen, lassen sich Variationen von Objekten leichter<br />

erfassen, erhöhen die Anzahl verfügbarer Trainingsdaten <strong>und</strong> präzisieren<br />

zugleich deren Qualität für die Weiterverarbeitung. Einhergehend verringert<br />

sich der Annotationsaufwand.<br />

2 Systembeschreibung<br />

Das Annotationstool besteht aus zwei Komponenten. Erstere bildet das Framework<br />

Automated MOving Picture Annotator (kurz: AMOPA), das (Ritter<br />

2009) ausführlich beschreibt. Es wurde als Lehr- <strong>und</strong> Forschungsinstrument<br />

zum Entwurf <strong>und</strong> zur Implementierung von beliebigen prozessgesteuerten<br />

Workflow-Konzepten konzipiert. Der Zugriff auf Videodaten wird durch die<br />

offene C-Bibliothek FFMPEG <strong>und</strong> über das Interface von Streambaby in<br />

Java gekapselt (siehe Abb. 1).<br />

Abbildung 1: Architektur des Annotationstools (rechts). Dieses tauscht Daten mit<br />

AMOPA (Mitte) aus, welches die Funktionen von JMU <strong>und</strong> Streambaby aggregiert.


238 Marc Ritter, Maximilian Eibl<br />

Neueste Erweiterungen des Prozesskonzeptes von Java Media Utility<br />

(kurz: JMU) erlauben die Verwirklichung von Prozessketten mit nichtlinearem<br />

Verlauf, womit Workflows nahezu beliebiger Topologie umgesetzt<br />

werden können.<br />

Die Verschaltung der einzelnen Bildverarbeitungsschritte erfolgt in der<br />

Prozesskette wahlweise per Editor oder XML, wobei jeder Schritt als eigenständiger<br />

Thread gestartet wird, um Multi-Core-Rechnerarchitekturen besser<br />

zu unterstützen. Die zweite Komponente umfasst das eigentliche Annotationstool.<br />

Durch den Einsatz von Java-RCP als Entwicklungsplattform ist das<br />

Tool portierbar <strong>und</strong> unter Windows <strong>und</strong> Linux anwendbar. Eine schnelle<br />

Bilddarstellung wird durch JFace <strong>und</strong> SWT erreicht. In Abb. 2 wird die grafische<br />

Benutzungsoberfläche gezeigt.<br />

Abbildung 2: Darstellung des Annotationstools mit einer bereits halbautomatisch<br />

vorsegmentierten Person in der Mitte (weiße Polygonlinie).<br />

Sie enthält zunächst die Menüleiste mit Funktionen zum Laden, Speichern,<br />

Exportieren, Szenenwechselerkennung, Objektsegmentierung <strong>und</strong> -verfolgung.<br />

Unter der Menüleiste befinden sich Buttons zur manuellen Markie-


Ein erweiterbares Tool zur Annotation von Videos 239<br />

rung von Objekten. Hier stehen Rechteck, Kreis, offenes sowie geschlossenes<br />

Polygonen zur Verfügung. Um die Sichtbarkeit der Markierung in jedem<br />

beliebigen Videomaterial zu gewährleisten, können Strichstärke <strong>und</strong> -farbe<br />

individuell gesetzt werden. Der aktuelle Annotationsframe ist in der Mitte<br />

dargestellt. Links reflektiert der SceneView in einer Baumstruktur die dazugehörige<br />

durch Annotationen erzeugte Objekthierarchie. Im unteren Bereich<br />

der GUI schließt sich das ControlView an, das über entsprechende Steuerelemente<br />

die Navigation in Videos ermöglicht. Der Zugriff auf Einzelbilder<br />

wird sequentiell in der oberen Zeile ermöglicht. Nach Ausführung der Szenenwechselerkennung<br />

kann zu den Einzelbildern einer kontinuierlichen Kameraeinstellung<br />

(engl. shot) über Klicken der repräsentativen Schlüsselbilder<br />

(unterste Zeile) navigiert werden. Zu annotierende Frames werden durch<br />

einen Doppelklick in die Annotationszeichenfläche transferiert.<br />

3 Algorithmen<br />

Die nachfolgenden Abschnitte geben einen Einblick in die im Annotationstool<br />

verwendeten Algorithmen. Deren Umsetzung erfolgt in separaten Verarbeitungsketten<br />

ausschließlich durch AMOPA. Gesteuert werden sie über eine<br />

Schnittstelle gemeinsamer Objekte.<br />

3.1 Navigation in Videos<br />

In der Navigation kann unter allen Abspielfunktionen die Sprungfunktion an<br />

eine bestimmte Position des Videos unter Umständen problematisch erscheinen,<br />

da sie die sequentielle Abtastung (Streaming) eines Videos durchbricht.<br />

Das trifft in der aktuell angeb<strong>und</strong>enen Version von FFMPEG besonders auf<br />

das MPEG-Format zu. Wird beim Ladevorgang ein solches Format festgestellt,<br />

werden alle Videoframes momentan serialisiert als Java-Objekte auf<br />

Festplatte ausgelagert. Im Gegensatz dazu funktioniert das Springen im Container-Format<br />

AVI reibungslos <strong>und</strong> benötigt lediglich die Verwendung eines<br />

internen Ringpuffers.


240 Marc Ritter, Maximilian Eibl<br />

3.2 Szenenwechselerkennung<br />

Die Detektion von Szenenübergängen erfolgt in Anlehnung an das Verfahren<br />

von (Liu 2006), nutzt jedoch nur wenige ausgewählte Merkmale zur Detektion<br />

von harten Schnitten (vgl. (Ritter & Eibl 2009)) <strong>und</strong> erreicht somit eine<br />

Verarbeitungsgeschwindigkeit von bis zu 2,2-facher Echtzeit (Testsystem:<br />

Dual Quad Core, 3 GHz mit Ø 65% Prozessor-Auslastung) unabhängig von<br />

der Auflösung des Videomaterials. Dazu wird das Bild zuerst auf halbe PAL-<br />

Auflösung skaliert <strong>und</strong> in 48 × 48 große Blöcke zerlegt. Zu jedem Block<br />

werden die individuellen Bewegungsvektoren bestimmt. Der Fehler zwischen<br />

dem eigentlichen Block <strong>und</strong> seinem bewegungskompensierten Pendant ergibt<br />

sich über die minimale absolute Distanz aller Pixel. Der Quotient über das<br />

Verhältnis aus kumulativer Summe der Fehler aller Blöcke <strong>und</strong> einer additiven<br />

Glättungsfunktion über die Fehlersumme vergangener Bilder löst letztlich<br />

die Detektion eines Szenenübergangs aus. Gegenüber der Evaluation von<br />

(Zwicklbauer 2010) wurde die Genauigkeit des vorliegenden Verfahrens<br />

nochmals verbessert, indem MPEG-7-Kantenhistogramme innerhalb einer ε-<br />

Umgebung eines wahrscheinlichen Szenenwechsels auf je fünf benachbarten<br />

Frames berechnet <strong>und</strong> auf Unähnlichkeit geprüft werden. Auf dem getesteten<br />

Realmaterial kooperierender Fernsehsender (> 100 St<strong>und</strong>en) erreicht dieses<br />

Verfahren in eigenen Testreihen Detektionsquoten um die 99% mit einer<br />

Falsch-Positiv-Rate von max. 1,5%.<br />

3.3 Objektsegmentierung<br />

Die Erfassung von genauen Konturen eines Objektes kann für dessen Merkmalsextraktion<br />

<strong>und</strong> Weiterverarbeitung von entscheidender Bedeutung sein.<br />

Die manuelle Annotation von beliebigen Objekten mittels Freiform- oder<br />

Polygon-Tools ist oftmals zeitintensiv. Das Annotationstool verwendet zur<br />

semi-automatischen Segmentierung die Implementierung des GrabCut nach<br />

(Talbot & Xu 2006). Zur Anwendung genügt es, die zu segmentierende Fläche<br />

mit einer Bo<strong>und</strong>ing-Box geschlossen zu umranden. Zwei Gaußsche<br />

Mischverteilungsmodelle (GMM) werden für Vorder- <strong>und</strong> Hintergr<strong>und</strong> modelliert.<br />

Die Pixel innerhalb der Markierung werden dem Vordergr<strong>und</strong>-GMM<br />

zugeführt. Das Farbreduktionsverfahren nach (Orchard & Bouman 1991)<br />

bestimmt die Verteilungen innerhalb der GMMs. Danach werden alle Vordergr<strong>und</strong>pixel<br />

der wahrscheinlichsten GMM zugeordnet. Aus der neuen Pi-


Ein erweiterbares Tool zur Annotation von Videos 241<br />

xelverteilung wird mit den beiden GMMs als Quelle <strong>und</strong> Senke ein Graph<br />

aufgebaut <strong>und</strong> der minimale Schnitt nach (Boykov & Kolmogorov 2004)<br />

berechnet. Dieser Prozess wird iteriert bis sich die Pixelzuordnungen zur<br />

jeweiligen GMM nicht mehr ändern. Die Ergebnisse des Verfahrens visualisieren<br />

Abb. 3 <strong>und</strong> Tab. 1. Die Methode erzielt akzeptable Resultate, wenn die<br />

Farbunterschiede innerhalb des Objektes nicht zu groß sind. Probleme bereiten<br />

ausgeprägte Muster, Schatten <strong>und</strong> inhomogener Hintergr<strong>und</strong>, der keine<br />

scharfkantige Abgrenzung des Objektes zulässt.<br />

Abbildung 3: Evaluation der Genauigkeit des GrabCut-Algorithmus: Originalbilder<br />

mit rechteckiger Objektselektion (oben), Unterschiede zum manuell erstellten<br />

Gro<strong>und</strong> Truth (graue Bereiche im unteren Bild). (modifiziert aus: Höhlig 2010)<br />

Tabelle 1: Genauigkeitsanalyse GrabCut (Angaben in Pixel) (aus: Höhlig 2010)<br />

Bild aus<br />

Abb. 3<br />

Gesamtfläche<br />

GrabCut-<br />

Segmentation<br />

Manuelle<br />

Segmentation<br />

Fehl-<br />

detektionen<br />

Fehler-<br />

quote<br />

Buddhist 151.526 24.826 24.501 575 2,35%<br />

Leopard 150.416 19.973 24.510 4.669 19,05%<br />

Blume 152.044 67.627 68.259 632 0,93%<br />

3.4 Objektverfolgung <strong>und</strong> Datenexport<br />

Das Annotationstool bietet die Möglichkeit, markierte Objekte wahlweise<br />

durch Angabe einer <strong>frei</strong> zu definierenden Anzahl von Bildern oder bis zum<br />

Ende des aktuellen Shots zu verfolgen. Dazu wird ein entsprechendes Objekt<br />

mit einer Bo<strong>und</strong>ing-Box markiert (Abb. 4 links). Das weiße Rechteck bildet<br />

den Rahmen des Suchfensters, in dem das zu verfolgende Objekt innerhalb


242 Marc Ritter, Maximilian Eibl<br />

des nächsten Bildes aufgef<strong>und</strong>en werden sollte. In Anlehnung an (Beck<br />

1999) wird ein einfaches Block-Matching-Verfahren mit n-Schrittsuche unter<br />

Nutzung minimaler absoluter Distanz angewendet. Der Export aller Annotationen<br />

erfolgt bisher wahlweise in das Format MPEG-7-DAVP gemäß (Bailer<br />

2007) als Plain Text oder über <strong>frei</strong> konfigurierbares XML. Eine Konvertierungsfunktion<br />

in das gegenüber MPEG-7 hierarchisch flachere ViPER-<br />

Dateiformat (Doermann & Mihalcik 2000) ist angestrebt.<br />

Abbildung 4: Tracking des markierten Objekts (schwarze Bo<strong>und</strong>ing-Box) im Initialbild<br />

(links). Resultat der automatischen Objektverfolgung 24 Frames später (rechts).<br />

Die Videosequenz stammt aus einer Überwachungssequenz aus TRECVID 2009<br />

(Smeaton 2006). (entnommen aus: (Höhlig 2010))<br />

4 Ausblick<br />

Das beschriebene Annotationstool wird in aktuellen Forschungsarbeiten stetig<br />

weiter entwickelt. Dies umfasst sowohl die Bereitstellung einer zukünftigen<br />

Ontologie- <strong>und</strong> Thesauri-Funktion zur vereinheitlichten <strong>und</strong> konsistenteren<br />

Kennzeichnung von markierten Objekten als auch Suche <strong>und</strong> Navigation<br />

nach annotierten Objekten mittels eines Objektbrowser über Frame- <strong>und</strong><br />

Shotgrenzen hinweg. Eine weniger speicherintensive Lösung zur Bearbeitung


Ein erweiterbares Tool zur Annotation von Videos 243<br />

von MPEG-Dateien ist über Ankopplung von externen Tools zur Indexierung<br />

der IFrames möglich. Die Einbindung von Algorithmen zur Shot Composition,<br />

die Dialoge <strong>und</strong> Nachrichtenszenen gleichen Inhalts strukturell zusammenfassen,<br />

ist ebenso angedacht wie eine Verbesserung der Segmentierungs-<br />

<strong>und</strong> Verfolgungstechniken (vgl. (Price 2009)). Verfahren zur Erkennung von<br />

Bildtexten, Sprecherwechsel <strong>und</strong> Sprache sowie zur Detek-tion von Gesichtern<br />

liegen in separaten Verarbeitungsketten in AMOPA vor <strong>und</strong> stehen zur<br />

Integration in das Annotationstool bereit, um zukünftig umfassendere Möglichkeiten<br />

zu Annotation <strong>und</strong> Analyse anzubieten.<br />

Danksagung<br />

Diese Arbeit entstand partiell innerhalb des Projekts sachsMedia –Cooperative<br />

Producing, Storage and Retrieval, das im Rahmen des Programms<br />

Unternehmen Region vom BMBF gefördert wird.<br />

Literaturverzeichnis<br />

Bailer, Werner; Schallauer, Peter; Neuschmied, Helmut (2007). Description of the<br />

MPEG-7 Detailed Audiovisual Profile (DAVP), Techn. Bericht, Joanneum Research,<br />

Graz, Austria.<br />

Beck, Peter. (1999). Implementierung eines flexiblen Algorithmus zum Tracking von<br />

Objekten in Java. Studienarbeit, TU Darmstadt.<br />

Boykov, Yuri; Kolmogorov, Vladimir (2004). An experimental comparison of mincut/max-flow<br />

algorithms for energy minimization in vision. IEEE Trans. on Pattern<br />

Analysis and Machine Intelligence, 26(9):1124–1137.<br />

Concejero, Pedro; Munuera, Jorge; Lorenz, Mirko (2008). The MESH mobile video<br />

annotation tool. In: Proc. of the 5 th ACM Nordic conference on Human-computer<br />

interaction: building bridges, NordiCHI 2008. Schweden.<br />

Columbia University (2004). IBM T. J. Watson Research Center: MARVEL: Multimedia<br />

Analysis and Retrieval System.<br />

http://domino.research.ibm.com/comm/research_people.nsf/pages/jsmith.projects.html,<br />

25.10.2010


244 Marc Ritter, Maximilian Eibl<br />

Doermann, David; Mihalcik, David (2000). Tools and techniques for video performance<br />

evaluation. In: Proceedings 15 th International Conference on Pattern Recognition,<br />

vol.4, pp.167–170.<br />

Fan, Jianping; Gao, Yuli; Hangzai, Luo; Jain, Ramesh (2008). Mining Multilevel<br />

Image Semantics via Hierarchical Classification. In: IEEE Transactions on Multimedia,<br />

10(2), pp. 167–187.<br />

Goldman, Dan B.; Gonterman, Chris; Curless, Brian; Salesin, David; Seitz, Steven<br />

M. (2008). Video object annotation, navigation, and composition. In: Proceedings<br />

of the 21 st annual ACM symposium on User interface software and technology,<br />

Monterey, CA, USA.<br />

Hagedorn, Joey; Hailpern, Joshua; Karahalios, Karrie G. (2008). VCode and VData:<br />

Illustrating a new Framework for Supporting the Video Annotation Workflow.<br />

In: AVI 2008, pp. 317–321, Neapel, Italien.<br />

Höhlig, Sebastian (2010). Analyse <strong>und</strong> Implementierung eines Verfahrens zur interaktiven<br />

semi-automatischen Objektmarkierung <strong>und</strong> -verfolgung. Bachelorarbeit,<br />

Technische Universität Chemnitz.<br />

Kipp, Michael (2008). Spatiotemporal Coding in ANVIL. Proc. of the 6 th International<br />

Conference on Language Resources and Evaluation (LREC).<br />

Kounoudes, Anastasis; Tsapatsoulis, Nicolas; Theodosiou, Zenonas; Milis, Marios<br />

(2008). A multi-level Video Annotatin Tool based on XML-dictionaries. In: Proceedings<br />

of the 10 th WSEAS international conference on Mathematical methods,<br />

computational techniques and intelligent systems, Corfu, Griechenland.<br />

Liu, Zhu; Gibbon, David; Zavesky, Eric; Shahraray, Behzad; Haffner, Patrick (2006).<br />

AT&T RESEARCH AT TRECVID 2006. Workshop Contribution, AT&T Labs-<br />

Research.<br />

Luo, Huitao; Eleftheriadis, Alexandros (1999). Designing an interactive tool for<br />

video object segmentation and annotation. In: Proceedings of the 7 th ACM international<br />

conference on Multimedia. Orlando, FL, USA, pp. 265–269.<br />

Lux, Mathias. (2009). Caliph & Emir: MPEG-7 photo annotation and retrieval. Proceedings<br />

of the 17 th ACM international conference on Multimedia, pp. 925–926,<br />

Beijing, China.<br />

Naphade, Milind R.; Lin, Ching-Yung; Smith, John R.; Tseng, Belle; Basu, Sankar<br />

(2002). Learning to annotate video databases. In: Proc. SPIE Vol. 4676, pp. 264<br />

bis 275, Storage and Retrieval for Media Databases.<br />

Orchard, Michael; Bouman, Charles (1991). Color quantization of images. IEEE<br />

Transactions on Signal Processing, 39(12), pp. 2677–2690.<br />

Petridis, Kosmas; Anastasopoulos, Dionysios; Saathoff, Carsten; Timmermann, Norman;<br />

Kompatsiaris, Yiannis; Staab, Steffen (2006). M-OntoMat-Annotizer: Image<br />

Annotation. In: Linking Ontologies and Multimedia Low-Level Features. En-


Ein erweiterbares Tool zur Annotation von Videos 245<br />

gineered Applications of Semantic Web Session at the 10 th International Conference<br />

on Knowledge-Based & Intelligent <strong>Information</strong> & Engineering Systems<br />

(KES 2006), Bournemouth, U.K.<br />

Price, Brian L.; Morse, Bryan S.; Cohen, Scott (2009). LIVEcut: Learning-based<br />

Interactive Video Segmentation by Evaluation of Multiple Propagated Cues. In:<br />

Proc. International Conference on Computer Vision (ICCV), Kyoto, Japan.<br />

Ritter, Marc (2009). Visualisierung von Prozessketten zur Shot Detection. In Workshop<br />

Audiovisuelle Medien: WAM 2009, Chemnitzer Informatik-Berichte, pp.<br />

135–150. Technische Universität Chemnitz, Germany.<br />

Ritter, Marc; Eibl, Maximilian (2009). Visualizing steps for shot detection. In: LWA<br />

2009: Lernen – <strong>Wissen</strong> – Adaption, Workshop Proceedings, pp. 98–100, Darmstadt,<br />

Germany.<br />

Schroeter, Ronald; Hunter, Jane; Kosovic, Douglas (2004). FilmEd: Collaborative<br />

Video Indexing, Annotation and Discussion Tools Over Broadband Networks. In:<br />

Proceedings of the 10 th IEEE International Conference on Multimedia Modeling,<br />

pp. 346–353. Los Alamitos, California.<br />

Smeaton, Alan F.; Over, Paul; Kraaij, Wessel (2006). Evaluation campaigns and<br />

trecvid. In MIR ’06: Proceedings of the 8 th ACM International Workshop on<br />

Multimedia <strong>Information</strong> Retrieval, pages 321–330, New York, NY, USA.<br />

Talbot, Justin F.; Xu, Xiaoqian (2006). Implementing GrabCut. Brigham Young<br />

University, Provo, UT, USA. http://www.justintalbot.com/course-work/, 06.11.2010<br />

Vezzani, Roberto; Grana Costantino; Bulgarelli, Daniele; Cucchiara, Rita (2006). A<br />

Semi-Automatic Video Annotation tool with MPEG-7 Content Collections. In:<br />

Proceedings of the 8 th IEEE International Symposium on Multimedia, San Diego,<br />

CA, USA.<br />

Zwicklbauer, Stefan (2010). Evaluierung <strong>und</strong> Implementierung von Shot-Bo<strong>und</strong>ary-<br />

Detection-Algorithmen zur automatischen Video-Annotation. Bachelorarbeit,<br />

Universität Passau, pp. 48–52.


246 Margret Plank<br />

AV-Portal für wissenschaftliche Filme:<br />

Analyse der Nutzerbedarfe<br />

Zusammenfassung<br />

Margret Plank<br />

Technische <strong>Information</strong>sbibliothek<br />

D-30167 Hannover<br />

E-Mail: Margret.plank@tib.uni-hannover.de<br />

Die Technische <strong>Information</strong>sbibliothek (TIB) entwickelt derzeit ein innovatives<br />

AV-Portal für wissenschaftliche Filme. Hierfür soll eine Auswahl von<br />

in der Forschung vorliegenden Methoden der visuellen Suche, Visualisierung<br />

<strong>und</strong> der automatischen Inhaltsanalyse auf den Bereich der digitalen Bibliotheken<br />

übertragen werden. Für die Entwicklung der Benutzerschnittstelle des<br />

AV-Portals wurden die Bedarfe der Nutzer analysiert. Auf der Basis der Ergebnisse<br />

wurde ein low-fidelity Prototyp entwickelt <strong>und</strong> in mehreren Designstufen<br />

optimiert.<br />

Abstract<br />

The German National Library of Science and Technology (TIB) is developing<br />

an innovative AV-Portal which allows web-based access to scientific<br />

films. Therefore the TIB would like to transfer existing methods of visual<br />

search, visualisation and automatic content analysis into the field of digital<br />

libraries. In order to ensure optimum usability of the AV-Portal, the development<br />

has been accompanied by user-centred processes. A needs analysis<br />

has been carried out and on that basis a low-fidelity prototype was developed<br />

and optimised in several iterative design steps.


AV-Portal für wissenschaftliche Filme: Analyse der Nutzerbedarfe 247<br />

Hintergr<strong>und</strong><br />

Die Technische <strong>Information</strong>sbibliothek (TIB) (http://www.tib-hannover.de)<br />

sieht angesichts der Zunahme der Bedeutung multimedialer Objekte in Forschung<br />

<strong>und</strong> Lehre eine Notwendigkeit ihr Service- <strong>und</strong> Forschungsspektrum<br />

um ein Kompetenzzentrum für multimediale Objekte (http://www.tib-hannover.de/de/die-tib/kompetenzzentrum-fuer-multimediale-objekte-kmo/)<br />

zu erweitern.<br />

Vorrangiges Ziel des Kompetenzzentrums wird es sein, die Bedingungen<br />

für den Zugang zu <strong>und</strong> die Nutzung von multimedialen Objekten in<br />

Forschung <strong>und</strong> Lehre gr<strong>und</strong>legend zu verbessern <strong>und</strong> neue Formen der Nutzung<br />

vorhandener Bestände zu ermöglichen. In diesem Zusammenhang wird<br />

derzeit ein innovatives AV-Portal entwickelt, das einen webbasierten Zugang<br />

zu wissenschaftlichen Filmen aus Technik <strong>und</strong> Naturwissenschaften ermöglicht,<br />

wie z.B. Simulationen, Animationen, aufgezeichnete Experimente,<br />

Vorlesungen <strong>und</strong> Konferenzen. Die AV-Medien sollen über das TIB- Suchportal<br />

GetInfo mit weitergehenden Forschungsinformationen wie digitalen<br />

Volltexten, numerischen Daten <strong>und</strong> Fakten sowie Forschungsdaten verknüpft<br />

sein. Darüber hinaus soll das Portal effiziente Such- <strong>und</strong> Präsentationsverfahren<br />

hinsichtlich multimedialer Objekte unterstützen. Die Zielgruppen eines<br />

AV-Portals in einer wissenschaftlichen Bibliothek sind in erster Linie Produzenten<br />

<strong>und</strong> Rezipienten aus Forschung, Lehre <strong>und</strong> Praxis.<br />

Videoretrieval<br />

Bisherige Such- <strong>und</strong> Präsentationsverfahren orientieren sich in erster Linie an<br />

textuellen Dokumenten, beispielsweise durch die kontrollierte Vergabe von<br />

Metadaten. Für AV-Medien ist eine Adaption dieser Verfahren durch den<br />

Einsatz (semi-)automatischer Medienanalyse sowie medienspezifischer Ein-<br />

<strong>und</strong> Ausgabeschnittstellen notwendig. Aus dem Bereich der automatischen<br />

Extraktion von Metadaten stehen beispielsweise eine Reihe von Methoden<br />

der automatischen Daten- <strong>und</strong> Medienanalyse für viele wichtige Medientypen<br />

wie Bilder, Audio, Videos, 3D-Modelle etc. zur Verfügung. Diese erlauben<br />

eine automatische Extraktion von Metadaten in Form von sogenannten<br />

Merkmalsvektoren oder anderen inhaltsbeschreibenden Strukturen,


248 Margret Plank<br />

welche für die inhaltsbasierte Suche <strong>und</strong> Visualisierung herangezogen werden<br />

können (vgl. Lews et al. 2005) (vgl. Petkovic, Jonker 2004) (vgl. Marques,<br />

Furth 2002). So können solche Strukturen beispielsweise im Bereich<br />

Video durch Verfahren der automatischen Shot-, Szenen-, Gesichter-, Kontext-,<br />

Genre-, Event- <strong>und</strong> Spracherkennung oder OCR gewonnen werden.<br />

Neben einer textuellen Suche spielen visuelle Eingabeschnittstellen eine<br />

entscheidende Rolle bei der Suche in AV-Datenbeständen. Gemeint sind<br />

hierbei etwa Editoren, mittels derer Beispielsskizzen eingegeben werden<br />

können (Query by Sketch) oder Features, die die Navigation <strong>und</strong> Selektion<br />

anhand von Beispielobjekten (Query by Example) (vgl. Chamlers et al. 1992)<br />

ermöglichen (vgl. Hearst 2000).<br />

Eine medienspezifische Ergebnispräsentation ist von großer Bedeutung<br />

um das Ergebnis einer Suchanfrage beurteilen zu können. Für den Bereich<br />

der AV-Medien liegen eine Reihe von Verfahren vor, die es den Benutzern<br />

erleichtert gezielt innerhalb dieses Medientyps zu recherchieren (vgl. Lews et<br />

al. 2005). Dazu gehört ein visuelles Inhaltsverzeichnis, wie u. a. das vom<br />

Fraunhofer Heinrich-Hertz-Institut im THESEUS-Projekt entwickelte Softwaremodul<br />

zur Videostrukturanalyse, das auf der Basis von Strukturerkennung<br />

das AV-Medium in Szenen <strong>und</strong> Shots unterteilt <strong>und</strong> eine Navigation<br />

innerhalb der Objekte ermöglicht (http://www.shotdetection.de). Darüber<br />

hinaus ist die Abbildung des Sprechertextes auf der Basis von automatischer<br />

Spracherkennung zum Auffinden einer konkreten Bildsequenz möglich, wie<br />

u.a. vom Fraunhofer IAIS (http://www.iais.fraunhofer.de/mmprec.html) entwickelt.<br />

Das OSTI (Office of Scientific and Technical <strong>Information</strong>) im Energieministerium<br />

der USA (Department of Energy, DOE) hat gemeinsam mit<br />

Microsoft einen Audio Indexing Prototypen als Update des Multimedia<br />

Such- <strong>und</strong> Retrievalwerkzeugs SiencePix entwickelt. Das System verfügt<br />

über eine Spracherkennungssoftware, die ein Retrieval innerhalb der Sprechertexte<br />

möglich macht. Der gewünschte Suchterm wird zudem in den Audio-Snippets<br />

gehighlightet.<br />

Kommerzielle Anwendungen<br />

Für die Suche nach Bildern bieten die großen kommerziellen Suchmaschinen<br />

wie Google (http://video.google.de), Yahoo (http://de.video.search.yahoo.com)<br />

<strong>und</strong> Bing (http://www.bing.com/videos) eigene Plattformen an, auf<br />

denen der Nutzer das Suchergebnis mit medienspezifischen Parametern eingrenzen<br />

kann (z. B. Format, Auflösung). Bei Google ist zudem die Bildrecherche<br />

nach visueller Ähnlichkeit möglich, allerdings nur mit zuvor dort


AV-Portal für wissenschaftliche Filme: Analyse der Nutzerbedarfe 249<br />

gef<strong>und</strong>enen Bildern. Eine Ähnlichkeitssuche, in die Nutzer durch Hochladen<br />

auch eigene Bilder einbeziehen können, bieten GazoPa (http://www.gazopa.com/)<br />

<strong>und</strong> die Betaversion von Retrievr (http://labs.systemone.at/retrievr).<br />

Beide verfügen zudem über die Möglichkeit einer Query by Sketch. Firmen<br />

wie Betaface (http://www.betaface.com/) <strong>und</strong> seit kurzem auch Picasa<br />

(http://picasa.google.de/) haben sich auf die Suche per Gesichtserkennung<br />

spezialisiert. Picasa nutzt diese Technik um die Fotoverwaltung mit automatischer<br />

Bilderkennung <strong>und</strong> -klassifizierung zu ergänzen <strong>und</strong> bietet zudem die<br />

Möglichkeit des Geotaggings an. TinEye (http://www.tineye.com) erlaubt<br />

den Upload eigener Bilder, alternativ zur Eingabe einer Internetadresse als<br />

Bildquelle <strong>und</strong> findet ausschließlich solche, die dem Original entsprechen.<br />

Damit lassen sich beispielsweise Urheberrechtsverletzungen aufspüren. Voxalead<br />

News (http://voxaleadnews.labs.exalead.com/) sucht in den gesprochenen<br />

Inhalten von Radio- <strong>und</strong> Fernsehsendungen <strong>und</strong> ermöglicht so eine<br />

innovative Navigation innerhalb eines Videos.<br />

Der erfolgreiche Transfer von ausgewählten Retrieval-Lösungen aus der<br />

Forschung in die Praxis stellt die Gr<strong>und</strong>lage für die Entwicklung des geplanten<br />

AV-Portals an der TIB dar.<br />

Nutzerbedarfe AV-Portal<br />

Im Frühjahr 2010 hat die TIB gemeinsam mit einer auf Usability spezialisierten<br />

Agentur eine Analyse durchgeführt, die die Anforderungen der o.g.<br />

Zielgruppen in Bezug auf Sammlung <strong>und</strong> Bereitstellung von wissenschaftlichen<br />

AV-Medien in der TIB ermitteln sollte <strong>und</strong> die folgende Maßnahmen<br />

umfasste:<br />

• Experteninterviews mit Vertretern aus wissenschaftlichen Instituten,<br />

Filminstituten, Bibliotheken <strong>und</strong> Hochschulen<br />

• Umfeldanalyse: Recherche öffentlich verfügbarer AV-Portale, inhaltsbasierter<br />

Suchmethoden <strong>und</strong> Visualisierung<br />

• Entwicklung eines prototypischen AV-Portals auf Basis der Ergebnisse<br />

• Fokusgruppen mit Benutzern aus den Zielgruppen


250 Margret Plank<br />

Experteninterviews<br />

Die Experteninterviews wurden telefonisch durchgeführt <strong>und</strong> dauerten ca. 60<br />

Minuten. Die 6 Teilnehmer wurden gebeten, aus ihrer Sicht relevante Verfahren,<br />

Techniken <strong>und</strong> Aktivitäten aus dem Videoretrieval zu beschreiben<br />

<strong>und</strong> deren Einsatz im geplanten Vorhaben der TIB zu bewerten.<br />

Die Experten sehen einen großen Bedarf in einem wissenschaftlich ausgerichteten<br />

AV-Portal in Deutschland <strong>und</strong> empfehlen u. a. folgende Verfahren<br />

<strong>und</strong> Techniken anzuwenden bzw. in den Prototyp zu integrieren:<br />

• K<strong>und</strong>enfre<strong>und</strong>liche Benutzeroberfläche<br />

• Verknüpfung der Videos mit dem Kontext, z.B. Volltexte oder Forschungsdaten<br />

bzw. medienübergreifende Suche<br />

• Leistungsstarke textuelle Suchfunktionen (einfache Suche, erweiterte<br />

Suche)<br />

• Visuelle Suchfunktionen (z.B. ähnlichkeitsbasierte Suche)<br />

• Semantische Suche<br />

• Visuelles Inhaltsverzeichnis auf der Basis von Shot-/Szenendetektion<br />

• Faceted Search<br />

• Navigation über den Audiotext auf der Basis von Spracherkennung<br />

• Kanäle (Fächer, Institutionen etc.) analog zu YouTube<br />

• Einfaches Hochladen eigener Videos inkl. Vergabe von Nutzungsrechten<br />

• Benutzergenerierte Web 2.0-Dienste wie Tagging <strong>und</strong> Bewertung<br />

Fokusgruppen mit Benutzern aus den Zielgruppen<br />

Auf der Basis der o.g. Experteninterviews in Verbindung mit einer Umfeldanalyse<br />

zum Thema „Öffentlich verfügbare AV-Portale“ wurde ein Prototyp<br />

entwickelt, der mit zwei Fokusgruppen aus den Bereichen Physik <strong>und</strong> Maschinenbau<br />

von insgesamt 15 Teilnehmern diskutiert <strong>und</strong> anschließend optimiert<br />

wurde (vgl. Plank 2010).<br />

Analog zu den Zielgruppen der TIB wurden die Teilnehmer aus den Bereichen<br />

Industrie, Forschung <strong>und</strong> Lehre rekrutiert <strong>und</strong> setzen sich folgendermaßen<br />

zusammen: <strong>Wissen</strong>schaftliche Mitarbeiter (3), Doktoranden (2), LfbA<br />

(1), Akademischer Oberrat (1), Studenten (3), Technischer Angestellter (1),<br />

Dipl. Bibliothekarin (1), Ingenieur (1), ohne Angabe (2)<br />

Es folgen die wichtigsten Ergebnisse in der Übersicht:


AV-Portal für wissenschaftliche Filme: Analyse der Nutzerbedarfe 251<br />

Anreize <strong>und</strong> Voraussetzungen für die Nutzung des Portals<br />

Die 15 Teilnehmer sehen in dem Portal einen großen Mehrwert für ihre wissenschaftliche<br />

Arbeit. Sie erwarten einen großen bereits vorhandenen Gr<strong>und</strong>stock<br />

an AV-Medien, wobei die Qualität der Inhalte entscheidend ist. Die<br />

Referenzierbarkeit der selbsteingestellten Medien durch die Vergabe eines<br />

DOI stellt einen großen Anreiz dar. Eine überregionale Wahrnehmung der<br />

Medien sowie die Möglichkeit für das eigene Institut/Institution zu werben<br />

wird positiv vermerkt. Eine Kontrollinstanz, die eingestellte Medien <strong>und</strong><br />

Benutzeraktionen überprüft, wird ebenso erwartet wie die Verknüpfung der<br />

AV-Materialien mit anderen Medien im TIB-Suchportal GetInfo.<br />

Suchmöglichkeiten (Text, Bild, Zeichnung)<br />

Auf der Startseite werden über die Möglichkeit einer gezielten Suche hinaus<br />

Zugänge wie z.B. Stöbern, Einstieg nach Themen/Zielgruppen erwartet. Weiterhin<br />

wünschen die Nutzer die Integration von Kanälen analog zu YouTube<br />

(http://www.youtube.de) sowie eine sprachenübergreifende Suchmöglichkeit.<br />

Die Teilnehmer zeigten sich sehr offen für innovative Suchmöglichkeiten<br />

(Suche mit Bild, Suche mit Zeichnung), aber würden diese gern mit textueller<br />

Suche kombinieren.<br />

Zum Video gehörige Daten <strong>und</strong> <strong>Information</strong>en<br />

Alle gängigen Videoformate werden erwartet (wmv, avi, …). Die <strong>Information</strong><br />

darüber, in welchem Format ein Video vorliegt, sollte bereits in der Ergebnisliste<br />

ersichtlich sein. Neben der Möglichkeit den Source Code bei Java-Applets<br />

einsehen zu können, würden es die Benutzer begrüßen, wenn zu<br />

erkennen ist, mit welcher Software eine Simulation erstellt wurde <strong>und</strong> ein<br />

Link zu der Software bereitgestellt würde. Es wird gewünscht, die Ergebnisliste<br />

nach Dateigröße sortieren zu können, auch wenn diese für die Benutzer<br />

erst spät im Recherchevorgang eine interessante <strong>Information</strong> ist. Wichtige<br />

Detailinformationen zu den AV-Medien sollen zentral auf der Detailseite<br />

eines Videos ersichtlich sein.<br />

Navigation innerhalb eines Videos<br />

Die Möglichkeit einer Suche bzw. der Navigation im Video über den abgebildeten<br />

Audiotext erscheint den Nutzern sehr interessant. Dasselbe gilt für<br />

die Navigation über ein visuelles Inhaltsverzeichnis. Eine manuelle Kapitel-<br />

Segmentierung durch die Einstellenden wäre ebenfalls interessant. Auf diese<br />

Weise könnte der Hochladende selbst entscheiden, in welche Kapitel er sei-


252 Margret Plank<br />

nen Film einteilen würde. Weiterhin möchten die Teilnehmer auch von einer<br />

Folie in einer Präsentation an die entsprechende Stelle im Video springen<br />

können.<br />

Filter Faceted Search<br />

Der Aufbau des Filters wurde von allen Teilnehmern begrüßt. Insbesondere<br />

die Möglichkeit uninteressante Kategorien zuklappen zu können <strong>und</strong> dafür<br />

mehr Platz für relevante Kategorien zu haben, wurde positiv bewertet.<br />

Sprachoptionen sollten nicht im Filter, sondern in der Suche untergebracht<br />

werden. „Relevanz“ als Begriff im Dropdown war den Benutzern unklar <strong>und</strong><br />

„Verfügbarkeit“ im Sinne von rechtlicher Verfügbarkeit wird als Filterkategorie<br />

erwartet. Um die Seriosität der Videos zu erkennen, wünschten sich<br />

die Teilnehmer die Möglichkeit, Ergebnislisten nach Quellen zu filtern.<br />

Videos abspielen <strong>und</strong> bearbeiten<br />

Die Benutzer wünschen sich die Möglichkeit, ein Video nicht nur in der<br />

Standard- <strong>und</strong> in der Vollbild-Ansicht abspielen zu können, sondern wie bei<br />

YouTube zusätzlich mindestens eine Zwischenstufe zur Auswahl zu haben.<br />

Bezüglich der Online-Bearbeitung von Videos würde es den Teilnehmern<br />

ausreichen von einem Video eine Szene auswählen zu können, die sie als<br />

Ausschnitt herunterladen <strong>und</strong> somit von einem langen Video nicht die volle<br />

Datenmenge auf ihrem Rechner speichern müssen. Ein vollständiges Schnittwerkzeug<br />

zum Neu-Kombinieren von Szenen wird nicht gewünscht.<br />

Benutzergenerierte Inhalte/Web 2.0<br />

Die Nutzung von Social Networks wie Facebook (http://www.facebook.com)<br />

etc. scheint vorrangig für Studierende interessant zu sein, die auch eine Verknüpfung<br />

mit E-Learning-Plattformen wie StudIP wünschen.<br />

Die Produzenten sollen ihr eigenes Video mit Tags versehen können, aber<br />

ein Benutzer soll auch Schlagwörter ergänzen können. Schlagwörter, die<br />

vom Autor oder Bereitsteller des Videos vergeben wurden, sollen von anderen<br />

unterscheidbar sein. Beim Thema Tagging wurde außerdem noch einmal<br />

die Notwendigkeit einer Kontrollinstanz diskutiert: „Nutzertags sind<br />

wichtig, sollten aber nicht ungefiltert <strong>und</strong> unkontrolliert vergeben werden<br />

können.“ Die Teilnehmer waren zudem gegenüber den meisten reinen Community-Features<br />

(wie Profile, Vernetzung mit anderen etc.) eher skeptisch<br />

eingestellt. Darüber hinaus erschloss sich den Teilnehmern zunächst nicht, ob<br />

mit „bewerten“ die Aufzeichnungsqualität eines Videos oder die Anschau-


AV-Portal für wissenschaftliche Filme: Analyse der Nutzerbedarfe 253<br />

lichkeit des Inhalts gemeint ist. Einig waren sich die Teilnehmer darin, dass<br />

eine einzige Bewertungskategorie (beispielsweise durch die Vergabe von<br />

Sternen) zu grob für die Komplexität eines Films sei <strong>und</strong> man deshalb die<br />

Bewertung aufteilen sollte (z.B. Bewertung des Inhalts, Bewertung der technischen<br />

Qualität etc.).<br />

Optimierter Prototyp<br />

Auf Basis der Ergebnisse der Fokusgruppen wurde der Prototyp optimiert. Es<br />

folgt ein Überblick über die nutzerseitigen Funktionen des geplanten AV-<br />

Portals:<br />

• Von zentraler Bedeutung ist die textbasierte Suche (z.B. nach Autor,<br />

Titel, Abstract), die sich bei Bedarf zusätzlich anhand von vordefinierten<br />

Kategorien <strong>und</strong> Optionen weiter einschränken lässt. Neben der gezielten<br />

Suche ist der Sucheinstieg auch über Stöbern möglich. Nutzer finden die<br />

AV-Medien nach Fachgebieten sortiert oder können sich die neuesten,<br />

bestbewertesten, meistgesehenen oder zuletzt angesehenen AV-Medien<br />

anzeigen lassen. Zudem kann das Ergebnis anhand von Filtern eingeschränkt<br />

werden (z.B. nach Fächern, Themen, Formaten, rechtlicher Verfügbarkeit,<br />

Institutionen, Medientypen, Autoren, Verlage, Erscheinungsjahre,<br />

Datenbanken). In einer Ausbaustufe soll das AV-Portal auch die<br />

Suche nach ähnlichen AV-Medien anhand eines Bildes oder Screenshots<br />

möglich machen (Query by Example).<br />

• Die Trefferliste zeigt neben Detailinformationen zum AV-Medium auch<br />

Bewertungen <strong>und</strong> Rezensionen anderer Nutzer. Zusätzlich kann über eine<br />

TagCloud in verwandten Themen gesucht werden. Mithilfe eines visuellen<br />

Inhaltsverzeichnisses kann der Nutzer im Video navigieren <strong>und</strong> die<br />

gesuchte Bildsequenz gezielt ermitteln. Alternativ soll über den visualisierten<br />

Sprechertext mittels Suchterm-Highlighting im Video navigiert<br />

werden können. Angezeigt wird das Video über einen Preview Player,<br />

der einen Vollbildmodus bietet. Zudem werden die Treffer aus dem TIB-<br />

Fachportal GetInfo angezeigt, wie z.B. digitale Volltexte <strong>und</strong> Forschungsdaten.<br />

Die AV-Medien werden sequenzgenau mit Digital Object<br />

Identifiers (DOI) versehen, sodass deren Referenzierbarkeit gewährleistet<br />

ist.<br />

• Registrierte Nutzer können eigene AV-Medien in das Portal hochladen,<br />

sowie deren Kapitel entweder manuell oder auch automatisch segmentieren<br />

<strong>und</strong> mit einem Logo/Wasserzeichen versehen.


254 Margret Plank<br />

Weitere Schritte<br />

Mit der Entwicklung eines innovativen AV-Portals an der TIB soll ein Beitrag<br />

dazu geleistet werden, den wachsenden Bestand der AV-Medien optimal<br />

zu erschließen, effizient zu verwalten <strong>und</strong> nutzergerecht zugänglich zu machen.<br />

Um die Anforderungen <strong>und</strong> Bedürfnisse aller Benutzergruppen optimal<br />

zu bedienen <strong>und</strong> zu berücksichtigen, wird die Entwicklung auch weiterhin<br />

mit Methoden des benutzerzentrierten Designs begleitet. So sollen in der<br />

Umsetzungsphase umfangreiche Usabilitytests in mehreren Iterationsstufen<br />

stattfinden. 2011 ist ein teilfunktionaler Prototyp geplant, 2012 eine Pilotphase<br />

<strong>und</strong> bis Ende 2013 die Überführung in die Systemumgebung der TIB.<br />

Abbildung 1: Optimierter Prototyp (Startseite) http://www.tib.uni-hannover.de/fileadmin/avportal-wireframe/2010-06-14_Wireframes_Videoportal_Start.html


AV-Portal für wissenschaftliche Filme: Analyse der Nutzerbedarfe 255<br />

Literaturverzeichnis<br />

Chamlers, M.; Chitson, P. (1992). Bead: Explorations in <strong>Information</strong> Visualization.<br />

In: Belkin, N. (Hg.): SIGIR ’92.<br />

Hearst, M. (2000). User Interfaces and Visualization. In: Baeza-Yates, R.; Ribeiro-<br />

Nato, B. (Hg.): Modern information retrieval. Harlow: Addison-Wesley.<br />

Lews, M. S.; Sebe, N.; Djeraba, C.; Jain, R. (2005): Content-based Multimedia <strong>Information</strong><br />

Retrieval: State of the Art and Challenges. In: ACM transactions on<br />

multimedia computing, communications, and applications. TOMCCAP. New<br />

York, NY: ACM, Bd. 2/1, S. 1–19.<br />

Marques, O.; Furht, B. (2002): Content-based image and video retrieval. Boston:<br />

Kluwer Acad. Publ.<br />

Petkovic, M.; Jonker, W. (2004): Content-based video retrieval. A database perspective.<br />

Boston, Mass.: Kluwer Acad. Publ.<br />

Proceedings of the Fifteenth Annual International ACM SIGIR Conference on Research<br />

and Development in <strong>Information</strong> Retrieval. New York, NY: ACM Press.<br />

Internetquellen (Verifizierungsdatum: 17. Januar 2011)<br />

Betaface http://www.betaface.com/<br />

Bing Bilder- <strong>und</strong> Videosuche www.bing.com/images <strong>und</strong> http://www.bing.com/videos<br />

Fraunhofer HHI http://www.hhi.fraunhofer.de/ <strong>und</strong> http://www.shotdetection.de<br />

Fraunhofer IAIS http://www.iais.fraunhofer.de/mmprec.html<br />

GazoPa http://www.gazopa.com<br />

Google Bilder- <strong>und</strong> Videosuche http://images.google.de <strong>und</strong> http://video.google.de<br />

Kompetenzzentrum für multimediale Objekte<br />

http://www.tib-hannover.de/de/die-tib/kompetenzzentrum-fuer-multimediale-objektekmo/<br />

OSTI (Office of Scientific and Technical <strong>Information</strong>)<br />

http://www.msravs.com/audiosearch_demo/<br />

Picasa http://picasa.google.de/<br />

Plank, M. (2010) Abschlussbericht: Anforderungsspezifikation AV-Portal für wissenschaftliche<br />

Filme, Technische <strong>Information</strong>sbibliothek (TIB)<br />

http://www.tib-hannover.de/fileadmin/kmo/Abschlussbericht_Studie_AVPortal.pdf<br />

Retrievr http://labs.systemone.at/retrievr<br />

Technische <strong>Information</strong>sbibliothek (TIB) http://www.tib-hannover.de/


256 Margret Plank<br />

TIB Prototyp AV-Portal<br />

http://www.tib.uni-hannover.de/fileadmin/av-portal-wireframe/2010-06-<br />

14_Wireframes_Videoportal_Start.html<br />

TinEye http://www.tineye.com<br />

Voxalead News http://voxaleadnews.labs.exalead.com/<br />

Yahoo Bilder- <strong>und</strong> Videosuche<br />

http://de.images.search.yahoo.com <strong>und</strong> http://de.video.search.yahoo.com


Significant properties digitaler Objekte 257<br />

Significant properties digitaler Objekte<br />

Ergebnisse aus Fallstudien<br />

Achim Oßwald<br />

<strong>Fachhochschule</strong> Köln – Institut für <strong>Information</strong>swissenschaft<br />

Claudiusstraße 1, 50678 Köln<br />

achim.osswald@fh-koeln.de<br />

Zusammenfassung<br />

Im Rahmen von 30 Fallstudien wurden von Praktikern aus dem Bibliotheks-<br />

<strong>und</strong> <strong>Information</strong>sbereich – unter Bezugnahme auf den Bedarf zukünftiger<br />

Nutzergruppen aus ihrem Arbeitsumfeld – wesentliche Eigenschaften digitaler<br />

Objekte für die Langzeitarchivierung ermittelt. Diese Ergebnisse wurden<br />

mit den im Rahmen des InSPECT-Projektes ermittelten Objekttypen <strong>und</strong> den<br />

für sie als wesentlich erachteten Eigenschaften verglichen. Die Ergebnisse<br />

der Fallstudien zeigen, dass für die Langzeitarchivierung solcher Objekte, die<br />

von InSPECT in Betracht gezogenen Objekttypen erweitert bzw. differenziert<br />

werden sollten. Die Definition der wesentlichen Eigenschaften dieser<br />

Objekttypen kann nach den vorliegenden Ergebnissen noch nicht als stabil<br />

bezeichnet werden.<br />

Abstract<br />

Thirty case studies have been conducted by practitioners in the Library and<br />

<strong>Information</strong> Science sector to identify significant properties of digital objects<br />

relevant to designated communities of their working environment. The results<br />

have been compared with object groups and the significant properties<br />

assigned to them within the InSPECT project. Results show that types of<br />

objects considered for digital preservation by InSPECT should be expanded<br />

and differentiated. In addition, the number and definition of significant properties<br />

assigned to these types of objects is not settled and still has to be optimized.


258 Achim Oßwald<br />

Ausgangssituation <strong>und</strong> Fragestellungen<br />

Die Anzahl <strong>und</strong> Varianten digitaler Objekte im beruflichen <strong>und</strong> privaten Umfeld<br />

wächst rasant. Digitale Daten- <strong>und</strong> Dokumentsammlungen sowie digitale<br />

Kommunikations- <strong>und</strong> Geschäftsprozesse dominieren in <strong>Wissen</strong>schaft <strong>und</strong><br />

Praxis. Ihre Bewahrung im Sinne von mittel- bzw. langfristiger Speicherung<br />

erhält zunehmend Bedeutung für die Dokumentation von Forschung <strong>und</strong><br />

Praxis, konkret als Gr<strong>und</strong>lage des intersubjektiven Nachweises über Aktivitäten<br />

<strong>und</strong> ihre Ergebnisse. Wie im klassischen Archivwesen, bei dem lediglich<br />

ca. 1/10 der den Archiven angebotenen analogen Objekte langfristig<br />

archiviert werden, so ist auch vor der Langzeitarchivierung (LZA) digitaler<br />

Objekte eine Reduktion auf bestimmte Objektgruppen oder Objekttypen<br />

sinnvoll. Für digitale Objekte muss zudem entschieden werden, welche konstituierenden<br />

bzw. charakterisierenden Eigenschaften für eine langfristige 1<br />

Archivierung <strong>und</strong> wieder erfolgende Nutzung notwendig sind. Dabei wird<br />

nach aktuellem Stand der Forschung – z.B. im Rahmen des InSPECT-Projektes<br />

(Investigating the Significant Properties of Electronic Content Over<br />

Time; vgl. Grace/Knight/Montague 2009, 5) – davon ausgegangen, dass diese<br />

ganz wesentlich vom erwarteten Nutzungskontext in einem bestimmten<br />

organisationellen Rahmen beeinflusst werden.<br />

Im Mittelpunkt der LZA digitaler Objekte stehen daher zwei Fragen<br />

• Welche digitalen Objekte sollen überhaupt für die LZA ausgewählt werden?<br />

• Welche Eigenschaften dieser digitalen Objekte sind wesentlich <strong>und</strong> daher<br />

unbedingt zu bewahren, um den Inhalt <strong>und</strong> die Wahrnehmbarkeit dieser<br />

Objekte auch zukünftigen Nutzern möglichst authentisch zugänglich zu<br />

machen (sog. performance 2 ).<br />

Gegenstand des nachfolgend vorgestellten Projektes sind beide Fragen. Im<br />

Rahmen eines auf drei Zyklen angelegten Forschungsprojektes wählen in<br />

1 Neben der Möglichkeit, hierfür Jahresspannen von 20, 50 oder 100 Jahren zu definieren,<br />

besteht die Option, die Definition aus Liegmann/Neuroth (2010) aufzugreifen:<br />

„,Langzeit‘ ist die Umschreibung eines nicht näher fixierten Zeitraumes, währenddessen<br />

wesentliche, nicht vorhersehbare technologische <strong>und</strong> soziokulturelle Veränderungen<br />

eintreten; Veränderungen, die sowohl die Gestalt als auch die Nutzungssituation digitaler<br />

Ressourcen in rasanten Entwicklungszyklen vollständig umwälzen können.“<br />

(Kap. 1:2).<br />

2 Hier wie auch nachfolgend werden – soweit zur Präzisierung angebracht – die in der<br />

Fachdiskussion genutzten gängigen englischsprachigen Bezeichnungen verwendet.


Significant properties digitaler Objekte 259<br />

ihrem beruflichen Kontext damit potenziell beauftragte Praktiker aus dem<br />

Bereich Library and <strong>Information</strong> Science (LIS) LZA-relevante Objekte aus.<br />

Danach spezifizieren sie für diese aktuelle <strong>und</strong> zukünftige, kontextbezogene<br />

Nutzergruppen (designated communities; DC) <strong>und</strong> auf dieser Gr<strong>und</strong>lage die<br />

für die jeweiligen Objekte wesentlichen Eigenschaften (significant properties;<br />

SP), um langfristig eine adäquate Nutzung zu ermöglichen. Die Ergebnisse<br />

werden unter Bezugnahme auf den aktuellen Forschungsstand des In-<br />

SPECT-Projektes zu den SP digitaler Objekte analysiert <strong>und</strong> bewertet.<br />

Das Konzept der significant properties<br />

<strong>und</strong> designated communities<br />

Im Rahmen der Forschung zur LZA 3 digitaler Objekte ist allgemein anerkannt,<br />

dass die wesentliche Eigenschaften (significant properties) eines digitalen<br />

<strong>Information</strong>sobjektes so bewahrt werden sollten, dass dieses zukünftig<br />

als authentisches Objekt zugänglich <strong>und</strong> nutzbar sein wird. Dies setzt u.a. die<br />

Klärung voraus, welche Eigenschaften als wesentlich anzusehen sind. Die<br />

Ermittlung dieser wesentlichen Eigenschaften erfolgt unter Berücksichtigung<br />

des aktuellen <strong>und</strong> voraussichtlichen zukünftigen Nutzungskontextes sowie<br />

der jeweils zu spezifizierenden Nutzergruppen (designated communities).<br />

Das Konzept der significant properties wurde erstmals im CEDARS Projekt<br />

(The CEDARS Projekt Team 2001) herausgearbeitet <strong>und</strong> in den letzten<br />

Jahren im Rahmen des InSPECT-Projektes (Wilson 2007 bzw. Grace/Knight/<br />

Montague 2009) konkretisiert. Im InSPECT-Projekt war versucht worden,<br />

für bestimmte Objekttypen (konkret: Audio-Dateien, E-Mails, Raster-Bilder<br />

<strong>und</strong> strukturierter Text) jeweils eine Liste von SP zu ermitteln, die für eine<br />

intersubjektive DC relevant sein würden. Hierfür wurde eine idealtypische,<br />

aufwendige Methode für den Bewertungs- <strong>und</strong> Entscheidungsprozess mit<br />

unterschiedlichen Interessensgruppen entwickelt (vgl. ebd. 5–14). 4 Der In-<br />

3 Für einen gr<strong>und</strong>legenden Überblick zum Thema Langzeitarchivierung vgl. Neuroth et<br />

al. 2010.<br />

4 Zur Orientierung der Anwender werden die zu ermittelnden SP fünf Kategorien (content,<br />

context, rendering, structure <strong>und</strong> behavior; vgl. Grace/Knight/Montague 2009, 10)<br />

zugeordnet. Für die nachfolgend skizzierten Fallstudien dienten diese Kategorien <strong>und</strong><br />

damit verb<strong>und</strong>ene Erläuterungen den Probanden als Orientierung.


260 Achim Oßwald<br />

SPECT-Ansatz zielt insofern auf jeweils gr<strong>und</strong>sätzlich relevante SP für ausgewählte<br />

Objekttypen – basierend auf der dort entwickelten Methodik, die<br />

organisationell bedingte Sichten der designated communities zu verallgemeinern<br />

versucht.<br />

Einen anderen methodischen Schwerpunkt setzt der Planets-Ansatz 5 , bei<br />

dem SP stärker kontext- <strong>und</strong> fallbezogen ermittelt werden. Hierfür wurde das<br />

Tool PLATO entwickelt, mit dem der Prozess des Preservation Planning <strong>und</strong><br />

damit in Teilbereichen auch die Ermittlung der SP <strong>und</strong> der entsprechenden<br />

DC realisiert werden kann. Auch wenn für das Design der vorliegenden Fallstudien<br />

dieses Tool aus organisatorischen Gründen nicht in Frage kommt, so<br />

steht der hier gewählte methodische Ansatz eher dem Planets-Vorgehen nahe.<br />

Im Wesentlichen wird dies dadurch erkennbar, dass der Einzelfallbezug<br />

<strong>und</strong> damit die organisations- <strong>und</strong> anwendungsfallspezifischen Aspekte bei<br />

der Ermittlung von SP stärker zum Tragen kommen (Planets 2010, 15).<br />

Zielsetzung, Methodik <strong>und</strong> Studiendesign<br />

Die Ergebnisse des InSPECT-Projektes werden in mehrfacher Hinsicht mit<br />

den Analyseergebnissen aus dem hier dokumentierten Projekt in Bezug gesetzt.<br />

Ziel ist es zu ermitteln,<br />

• inwieweit die von InSPECT gewählten Objekttypen denen entsprechen,<br />

die von LIS-Praktikern 6 (s.u.) in einer, weiteren LZA-Maßnahmen vorgelagerten,<br />

Auswahl in Betracht gezogen werden.<br />

• inwieweit die von den an der Fallstudie teilnehmenden Berufspraktikern<br />

ermittelten SP für jene Objekttypen, die auch von InSPECT in den Focus<br />

genommen wurden, mit den von InSPECT als relevant ermittelten SP<br />

übereinstimmen.<br />

5 Planets (Preservation and Long-term Access through Networked Service;<br />

http://www.planets-project.eu/); vgl. Planets 2010.<br />

6 Teilnehmerinnen <strong>und</strong> Teilnehmer des berufsbegleitenden Masterstudiengangs „Bibliotheks-<br />

<strong>und</strong> <strong>Information</strong>swissenschaft“ (Library and <strong>Information</strong> Science) am Institut für<br />

<strong>Information</strong>swissenschaft der FH Köln. Die Akteure haben mehrjährige Berufserfahrung<br />

im LIS-Bereich <strong>und</strong> handeln vor dem Hintergr<strong>und</strong> einer breit angelegten LZA-<br />

Einführung incl. wesentlichen <strong>Information</strong>en zum methodischen Vorgehen.


Significant properties digitaler Objekte 261<br />

Bislang wurden lediglich Fallstudien für ausgewählte Objekttypen (z.B.<br />

Vektor-Grafiken (Coyne et al. 2007), Software (Matthews et al. 2008)) oder<br />

für ausgewählte Nutzungsszenarien durchgeführt. Dabei wurde unterstellt,<br />

dass LZA-Experten in mitderLZA beauftragten Einrichtungen die Handelnden<br />

sind. In der LZA-Praxis ist – u.a. auch aus Kostengründen – allerdings davon<br />

auszugehen, dass nicht nur in professionellen LZA-Institutionen, sondern aus<br />

pragmatischen Gründen (Budget, Aufwand, Delegation) in beliebigen Organisationen<br />

andere Personen mit der Ermittlung <strong>und</strong> Festlegung von DC <strong>und</strong><br />

SP betraut werden. Im günstigsten Fall sind dies im Themenbereich LZA geschulte<br />

LIS-Praktiker. Insofern ist anzunehmen, dass die organisationsinterne<br />

Abstimmung mit anderen Akteuren nur bedingt so iterativ <strong>und</strong> elaboriert erfolgt,<br />

wie dies im Rahmen idealtypischer methodischer Ansätze angenommen<br />

wird. Die Ergebnisse tragen damit zur Überprüfung der Praxisrelevanz der<br />

InSPECT-Projektergebnisse bei <strong>und</strong> dienen ihrer methodischen Überprüfung.<br />

Im Rahmen der hier vorgestellten Fallstudien wählten Berufspraktiker einen<br />

LZA-relevanten Objekttyp aus ihrem beruflichen Kontext aus <strong>und</strong> legten<br />

fest, wer dessen aktuelle sowie zukünftige DC ist (in 5, 20 <strong>und</strong> 100 Jahren)<br />

<strong>und</strong> welche SP sich aus dieser Konstellation für das konkrete digitale Objekt<br />

<strong>und</strong> den Objekttyp ergeben. Der Parameter „Kosten“ wurde zur Vereinfachung<br />

bewusst nicht einbezogen. Die Ergebnisse werden mit den InSPECT-<br />

Ergebnissen verglichen <strong>und</strong> bewertet.<br />

Um Zufälligkeiten zu relativieren, die sich aus den Ergebnissen einer Fallstudiengruppe<br />

ergeben, ist das Projekt auf drei Zyklen angelegt. Die Ergebnisse<br />

des ersten Zyklus, der im Wintersemester 2009/10 erfolgte, sind Gegenstand<br />

dieses Beitrags. Sie erlauben erste Trendaussagen.<br />

Ergebnisse<br />

Objekttypen im Überblick<br />

Von den 30 Teilnehmern wurden entsprechend dem Studiendesign in Summe<br />

30 Objekte aus ihrem Arbeitskontext gewählt. Dabei wurden folgende der<br />

(an Dateiformaten orientierten) InSPECT-Objekttypen ausgewählt:


262 Achim Oßwald<br />

Objekttyp<br />

Audio-<br />

Datei<br />

E-Mail<br />

Raster-<br />

Bild<br />

strukturierter<br />

Text 7 Summe<br />

Anzahl 1 2 3 4 10<br />

Abb. 1: Anzahl der Übereinstimmungen mit den InSPECT-Objekttypen<br />

Die weiteren 20 ausgewählten Objekte verteilen sich auf drei Objekttypen:<br />

Datenbanken (1 Nennung), Präsentationen (2) sowie PDF-Dateien (17),<br />

wobei zwischen PDF <strong>und</strong> PDF/A-Varianten unterschieden wurde. Beispielhaft<br />

seien aus dieser Typgruppe genannt: Autorenskripte, Abschlussarbeiten,<br />

Geschäftsberichte oder Flyer.<br />

Objekttypen in der Einzelbetrachtung<br />

Nachfolgend werden für die vier von InSPECT (vgl. Grace/Knight/Montague<br />

2009) definierten <strong>und</strong> untersuchten Objekttypen jeweils die dort genannten<br />

SP (in Originalbezeichnung) aufgelistet. Die von den Fallstudienteilnehmern<br />

bei ihren Objekten als relevant erachteten SP sind jeweils kursiv markiert<br />

(Häufigkeit der Nennung bei > 1 in Klammern).<br />

Audio-Datei<br />

1. Duration 88. Originator<br />

2. Bit depth 99. OriginatorReference<br />

3. Sample rate 10. OriginationDate<br />

4. Number of channels 11. OriginationTime<br />

5. So<strong>und</strong> field 12. Coding History<br />

6. So<strong>und</strong> map location for each channel 13. Quality Report<br />

7. Description 14. Cue Sheet<br />

Sieben der 14 von InSPECT vorgeschlagenen SP wurden gewählt, eine weitere<br />

Eigenschaft, ein „Identifier“ (ISRC; International Standard Recording<br />

Code) wurde ergänzend vorgeschlagen. 8<br />

7 Unter Einbeziehung von Programmcode, OAI-Metadatensätzen <strong>und</strong> Wiki-Seiten, die<br />

allerdings wegen der strukturellen Abweichungen im Abgleich mit den InSPECT-SP<br />

(kursive Eintragungen; s.u.) nicht mitgezählt wurden.<br />

8 Bezogen auf das Objekt Musik-CD wurden noch ergänzt: Angaben zur Struktur der CD<br />

sowie der Position eines Tracks in der Abfolge der Tracks.


Significant properties digitaler Objekte 263<br />

E-Mail<br />

1. Local-part (Fallstudie: Sender)<br />

2. Domain-part (Fallst: Rezipient)<br />

3. Relationship<br />

4. Subject (2)<br />

5. Trace-field<br />

6. Message body with no mark-up<br />

7. Attachments (2)<br />

Sofern eine E-Mail im Kontext weiterer Mails archiviert werden soll, schlägt<br />

InSPECT noch „Message-ID“ <strong>und</strong> „References“ vor. Sechs der sieben In-<br />

SPECT-SPs wurden gewählt. Ergänzend wurde vorgeschlagen: „Format“<br />

(wird bei InSPECT nicht als gesonderte SP geführt, aber genannt), „Datum“<br />

sowie „Schlagwörter“, „Verschlüsselung“ (ja/nein; wie?), „Empfangsbestätigung“<br />

(angefordert/erhalten) <strong>und</strong> „Hyperlinks“ (2 Nennungen).<br />

Raster-Bilder<br />

1. Image Width<br />

2. Image Height<br />

3. X Sampling Frequency<br />

4. Y Sampling Frequency<br />

5. Bits per sample<br />

6. Samples per pixel<br />

7. Extra samples<br />

Vier der sieben vorgeschlagenen InSPECT-SP wurden gewählt. Ergänzend<br />

wurden vorgeschlagen: Beschreibende Metadaten (Fotograf; Inhalt; Ort <strong>und</strong><br />

Anlass der Aufnahmen; Format, Farbraum (2); Titel (sofern vorhanden)),<br />

strukturelle Metadaten (z.B. Abfolge einzelner Bilder bei mehreren Dateien,<br />

die ein Objekt konstituieren; Exif-Daten) <strong>und</strong> administrative Metadaten (Erstelldatum;<br />

Bildrechte; Veränderungen; Signatur; Verlinkung auf weitere, mit<br />

dem digitalen Objekt verb<strong>und</strong>ene Objekte/Dienstleistungen) incl. Persistent<br />

Identifier (konkret: Uniform Resource Name) zur weiteren Beschreibung der<br />

Relation zwischen digitalem Objekt <strong>und</strong> dessen Metadaten.<br />

Strukturierter Text<br />

1. Title<br />

2. Creator<br />

3. Date<br />

4. Keywords<br />

5. Rights<br />

6. Div<br />

7. Span<br />

8. Language<br />

9. Paragraph<br />

10. Line break<br />

11. Headings<br />

12. Emphasis<br />

13. Bold<br />

14. Italics<br />

15. Underline<br />

16. Strong emphasis<br />

17. Strikethrough<br />

18. Horizontal Rule


264 Achim Oßwald<br />

19. Inserted text<br />

20. Deleted text<br />

21. Samp<br />

22. Cite<br />

23. Defined Terms (DFN)<br />

24. Code<br />

25. Abbreviation<br />

26. Acronym<br />

27. Quotations<br />

28. Subscript/Superscript<br />

123456<br />

29. Address<br />

30. Button<br />

31. List Elements<br />

32. Table Elements<br />

33. Image<br />

34. Link<br />

35. Applet<br />

36. Frame<br />

37. Frameset<br />

9<br />

25 von 37 der InSPECT-SP wurden genannt. Ergänzend wurden (u.a. mit<br />

Referenz auf den Objekttyp Wiki): „Folgeautor“, „Autoren-ID“, „Versionsnr.“,<br />

„Seiten-ID“ <strong>und</strong> „Seitenname“, „enthaltene Elemente“, „Länge“,<br />

„Verknüpfungen“, „Formatreferenz“, „Zugriffsbeschränkungen“.<br />

Zusammenfassung der Fallstudienergebnisse<br />

Die Praktiker aus dem LIS-Bereich ermittelten im Rahmen der Fallstudie im<br />

Vergleich zu InSPECT mindestens drei weitere, als relevant bewertete Objekttypen.<br />

Vor dem Hintergr<strong>und</strong> der von InSPECT angestrebten prototypischen<br />

Anwendung <strong>und</strong> damit auch Begrenzung der im Projekt entwickelten<br />

Methodik war dies nicht anders zu erwarten. Auffallend ist jedoch, dass<br />

PDF(/A)-Dateien von InSPECT nicht einbezogen worden waren.<br />

Die in den Fallstudien ausgewählten SP jener Objekttypen, die auch von<br />

InSPECT ausgewählt wurden, weichen von den SP bei InSPECT z.T. deutlich<br />

ab. In beiden Untersuchungsbereichen bringen die Praktiker insofern<br />

eine fachlich andere Perspektive ein, als sie im Rahmen des Projektes In-<br />

SPECT zum Tragen kommt. 10<br />

Da die von InSPECT ermittelten SP-Elemente von den Praktikern nur z.T.<br />

als signifikant ausgewählt wurden, sind die von InSPECT ermittelten objekttyp-spezifischen<br />

Standard-SP zu relativieren. Dies könnte ein Indiz für<br />

1 2 3 4 5 6<br />

99 Die SP Nr. 6, 21, 22 <strong>und</strong> 30 werden leider in der Quelle unzureichend erläutert.<br />

10 In einer ergänzenden Studie wäre zu ermitteln, worin dies begründet ist, z.B. in den<br />

Gegebenheiten der organisationellen Umgebung, unzureichenden Einbeziehung der<br />

DC, Subjektivität der Fallstudienteilnehmer oder in anderen Gründen.


Significant properties digitaler Objekte 265<br />

den bislang unterschätzen Einfluss des organisationellen Kontextes, aber<br />

auch der Pragmatik von Praktikern sein, deren Kernaufgabe nicht LZA ist.<br />

Deutlich erkennbar variieren die genannten <strong>und</strong> ergänzten Angaben zu SP<br />

je nach gewähltem Objekt gerade aus dem Objektbereich „strukturierter<br />

Text“. So wird bei InSPECT z.B. die Problematik von in gesonderte Steuerdateien<br />

(z.B. Stylesheets, Dokumenttypdefinitionen) ausgelagerten Strukturinformationen<br />

(z.B. für XML- oder HTML-Dokumente) nicht angesprochen;<br />

ebenso wenig neue Formen der Textrepräsentation wie im Fall von Wikis<br />

(vgl. o.) <strong>und</strong> den damit verb<strong>und</strong>enen weiteren SP. 11<br />

Schlussfolgerungen<br />

Mit den von InSPECT ausgewählten Objekttypen <strong>und</strong> darauf bezogenen<br />

Gruppen an significant properties wird nachweislich nur ein Teil jener Objekttypen<br />

<strong>und</strong> Bedarfssituationen abgedeckt, die von Praktikern als LZArelevant<br />

ermittelt <strong>und</strong> beschrieben werden. Die in den Fallstudien ermittelten<br />

Objekttypen <strong>und</strong> deren SP gehen hinsichtlich Vielfalt wie auch Granularität<br />

über das von InSPECT Ermittelte hinaus. Offensichtlich gibt es hier einen<br />

über die von InSPECT aus pragmatischer Sicht begrenzte Anzahl von Objekttypen<br />

hinausgehenden Bedarf. Vermutlich auch deshalb wurde von den<br />

Autoren des InSPECT-Abschlussberichtes explizit dazu aufgefordert, in wieteren<br />

Fallstudien zur Absicherung der InSPECT-Ergebnisse beizutragen<br />

(Grace/Knight/Montague 2009, 23).<br />

Insbesondere für den Bereich von aus Office-Dokumenten erstellten PDF-<br />

Dokumenten besteht noch Ermittlungs- <strong>und</strong> Aufklärungsbedarf hinsichtlich<br />

der SP von im Format PDF(/A) verfügbaren Dokumenten. Dies auch deshalb,<br />

weil sie unter Rahmenbedingungen, wie sie mit den Fallstudien erfasst<br />

wurden, einen erheblichen Teil der in der Berufspraxis zu archivierenden<br />

Objekte ausmachen könnten.<br />

Um dieses Zwischenergebnis aus dem ersten Durchlauf des auf drei Zyklen<br />

angelegten fallstudienbasierten Projektes auf eine breitere Basis zu stellen,<br />

bedarf es einer erhöhten Anzahl von weiteren Probanden <strong>und</strong> Fall-<br />

11 Was dafür spräche, den Objekttyp Wiki gesondert zu führen <strong>und</strong> nicht dem Typ<br />

„strukturierter Text“ zuzuordnen.


266 Achim Oßwald<br />

studien, mit denen weitere organisationelle Kontexte <strong>und</strong> daraus entstehende<br />

Bedarfe erfasst werden können.<br />

Ein weiterer Ansatz zur Klärung der Kernfrage, ob LZA-relevante Eigenschaften<br />

digitaler Objekte verallgemeinerbar sind <strong>und</strong> falls ja, welche im<br />

Rahmen der LZA unbedingt zu bewahren sind, könnte in der Begrenzung<br />

weiterer Fallstudien auf einen Objekttyp liegen. So könnte aus der Vielfalt<br />

von SP, die von den Fallstudienteilnehmern ermittelt <strong>und</strong> als wesentlich ausgewählt<br />

werden, ein praxisf<strong>und</strong>ierteres Kernset an SP ermittelt werden, das<br />

dann wiederum unter Bezugnahme auf typische DC nach Fallgruppen facettiert<br />

werden könnte.<br />

Ohne solche verdichteten Fallgruppen <strong>und</strong> Kernsets an SP bleibt die Ermittlung<br />

von SP ein vorzugsweise von organisationellen Rahmenbedingungen<br />

<strong>und</strong> dem persönlichen Fach-Know-how der Akteure beeinflusster Ansatz.<br />

Dieser wäre zudem stark einzelfallbezogen <strong>und</strong> damit kostenträchtiger<br />

(vgl. z.B. die Erfahrungen mit PLATO) als die Empfehlung für ein stabiles<br />

Kernset an SP. Dies könnte dazu führen, dass LZA-interessierte Anwender<br />

aus Mangel an Kenntnissen <strong>und</strong> Finanzmitteln unzureichende Vorarbeiten für<br />

die LZA vornehmen <strong>und</strong> somit den Gesamterfolg der LZA gefährden. Stattdessen<br />

gilt es, durch weitere Analysen dieses wie auch weiterer Ansätze bei<br />

Praktikern eine Sensibilisierung für Fragen <strong>und</strong> Maßnahmen zur Vorbereitung<br />

der Langzeitarchivierung digitaler Objekte zu entwickeln.<br />

Literaturverzeichnis 12<br />

The Cedars Project Team (2001). The Cedars Project Report, March 2001.<br />

http://www.webarchive.org.uk/wayback/archive/20050410120000/http://www.leeds.a<br />

c.uk/cedars/pubconf/papers/projectReports/CedarsProjectReportToMar01.pdf<br />

Coyne, M. et al. (2007): The Significant Properties of Vector Images, o.O. ,<br />

Version 4.3, 27.11.2007.<br />

http://www.jisc.ac.uk/media/documents/programmes/preservation/vector_images.pdf<br />

Grace, S.; Knight, G.; Montague, L. (2009). InSPECT Final Report (21.12.2009),<br />

London http://www.significantproperties.org.uk/inspect-finalreport.pdf<br />

12 Die Webadressen aller genannten Quellen wurden zuletzt am 6.1.2011 aufgerufen.


Significant properties digitaler Objekte 267<br />

Liegmann/Neuroth (2010). Einführung. In: Neuroth, H. et al.: [Ed.] (2010): nestor<br />

Handbuch – Eine kleine Enzyklopädie der digitalen Langzeitarchivierung (Version<br />

2.3).<br />

urn:nbn:de:0008-2010030508 bzw. http://nestor.sub.uni-goettingen.de/handbuch/artikel/nestor_handbuch_artikel_390.pdf<br />

Matthews, B. et al. (2008): The Significant Properties of Software: A Study, Chilton<br />

2008.<br />

http://www.jisc.ac.uk/media/documents/programmes/preservation/spsoftware_report_<br />

redacted.pdf<br />

Neuroth, H. et al. [Ed.] (2010). nestor Handbuch – Eine kleine Enzyklopädie der digitalen<br />

Langzeitarchivierung (Version 2.3). 13<br />

http://nestor.sub.uni-goettingen.de/handbuch/index.php<br />

Planets (2010). Planets components for the extraction and evaluation of digital object<br />

properties. Deliverable Number D23B.<br />

http://www.planets-project.eu/docs/reports/Planets_PC3-<br />

D23B%28DOPWGreport%29.pdf<br />

Wilson, A. (2007). Significant Properties Report. InSPECT Work Package 2.2;<br />

Draft/Version: V2 (10.4.2007)<br />

http://www.significantproperties.org.uk/wp22_significant_properties.pdf<br />

13 Neben der Online-Version 2.3 ist 2009 eine Printversion 2.0 beim Verlag Werner<br />

Hülsbusch, Boizenburg, erschienen.


268 Achim Oßwald


Significant properties digitaler Objekte 269<br />

Session 7:<br />

<strong>Information</strong> Professionals & Usage


270 Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

Abstract<br />

A survey of internet searching skills<br />

among intermediate school students:<br />

How librarians can help<br />

Rahmatollah Fattahi 1 , Mohaddeseh Dokhtesmati 2 ,<br />

Maryam Saberi 3<br />

1 Ferdowsi University of Mashhad<br />

Azadi Square, Mashhad, Iran<br />

fattahirahmat@gmail.com<br />

2<br />

Iranian Research Institute for <strong>Information</strong> Science & Technology<br />

1090 No., Enqelab Ave., Tehran, Iran<br />

esmati86@gmail.com<br />

3 Semnan University<br />

Mahdishahr, Semnan, Iran<br />

saberi1707@gmail.com<br />

The advent and development of the Internet has changed students’ pattern of<br />

information seeking behaviors. That is also the case in Iran. The current research<br />

was carried out by interviewing with and observing of 20 intermediate<br />

girl students to assess their information seeking behavior on the web environment<br />

through a qualitative approach. Findings indicate an acceptable level<br />

of access to the Internet and vast use of web search engines by the girl students<br />

in Tehran. However, students’ knowledge of the concept and how<br />

search engines work and also about the methods and tools of retrieving information<br />

from electronic sources other than the search engines is poor. The<br />

study also shows that, compared to the Internet, the role of libraries and librarians<br />

are gradually diminishing in fulfilling the students’ information<br />

needs. Authors recommend that school librarians can provide different instructional<br />

and information literacy programs to help students improve their<br />

information seeking behavior and their knowledge of the Internet.


A survey of internet searching skills among intermediate school students 271<br />

Keywords<br />

<strong>Information</strong> seeking behavior, Intermediate school students, Internet, School<br />

libraries, School librarians.<br />

Introduction<br />

<strong>Information</strong> and Communication Technology has dynamically affected the<br />

information seeking behavior of the user. As the most effective tool in information<br />

seeking behavior, the Internet is gaining popularity among people as<br />

well as children and young adults throughout the world (Barik, Bisen &<br />

Bhardwaj, 2007). Use of the Web has proliferated in schools and all types of<br />

libraries, but little is known specially in developing countries about how young<br />

people find information on the Web (Bilal & Kirby, 2002).<br />

Besides information resources like the family, friends and other communicational<br />

media, Web has become the main resource of information to attract<br />

students due to some advantages like easy and quick access and diversity<br />

of the contents. Nevertheless, there is not yet a comprehensive<br />

knowledge regarding students’ tendencies towards the Internet and how they<br />

would use it. Also, it is not clear to what extent and in what ways they are<br />

taking advantage of this modern media. Further, the role of librarians and<br />

school libraries is also <strong>und</strong>efined. Despite many studies and researches carried<br />

out in this respect in Iran, the thesis by Alipour (2006) is the only significant<br />

work on the high school students’ information seeking behavior.<br />

There still remain some big research gaps in this area.<br />

Literature review<br />

The widespread use of the Internet as a communication media and codidactic<br />

tool in schools and education centers has evolved students’ information<br />

seeking behavior. This has become a popular research area for scientists<br />

in the world (Madden, Ford & Miller, 2007; Madden et al, 2006; Bowler,<br />

Large & Rejskind, 2001; Large, Beheshti & Moukdad, 1999; Fidel et al,<br />

1999; Bilal 1998, 2000, 2001, 2002) as well as in Iran (Mansourian, 2008a,


272 Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

2008b; Mokhtarpour, 2007; Yaminfirouz & Davarpanah, 2004; Hayati &<br />

Tasviri Ghamsari, 2000).<br />

In a pilot study, Bilal (1998) investigated the searching behavior and success<br />

of 22 seventh grade science students in using the Yahooligans! 1 . Students<br />

failed in their quest mainly due to their lack of knowledge of how to<br />

use the engine. Assessment of web-based information search skills among<br />

students of elementary schools was the subject of research by Large, Beheshti<br />

and Moukdad (1999). The results showed that although the newcomers<br />

tended towards sophisticated searching strategies, in case of trouble they did<br />

not refer to the always-present search help, i.e., the librarian. A similar research<br />

was carried out at the same time by Fiedel et al. (1999) on high school<br />

students which concluded that high school students were not able to begin a<br />

search task without the help of librarians. Bilal (2001, 2002) shows that children’s<br />

information seeking is influenced by their cognitive, physical and<br />

affective perspectives.<br />

Research shows that children are more persistent and motivated in seeking<br />

information over the Web than in using traditional and online sources<br />

(Bilal, 2000). Factors such as individual differences, age, information retrieval<br />

systems used, users’ cognitive and learning style, and users’ online<br />

search experience are the important factor in information seeking behavior on<br />

the Web (Kim, 2001; Bilal & Kirby, 2002). In another study, Madden et al.<br />

(2006) evaluated information searching strategies and factors influencing the<br />

search performance of students aged 11 to 16 using the “thinking aloud”<br />

(expression of perceptions) approach. The search results indicated the high<br />

level of access to computer and Internet and students’ relatively high knowledge<br />

of search tools and search engines. Madden, Ford and Miller (2007)<br />

focused on the information resources of students in Britain’s guidance<br />

schools. They realized that students would consider the Internet as their most<br />

useful information resource<br />

The only research on the information seeking behavior of students on the<br />

Internet environment in Iran is Alipour’s thesis in 2006. He worked on the<br />

search behaviors and information seeking patterns in Tehran high schools<br />

using the behavioral patterns based on observation and Internet-oriented<br />

search. He concluded that the students’ behavior in the web environment did<br />

not follow any regular pattern. Also his study showed that the Internet is the<br />

main search tool for many students to access news, educational and academic<br />

updates.<br />

1 Yahooligans! is a search engine and directory designed for children ages 7 to 12.


A survey of internet searching skills among intermediate school students 273<br />

By reviewing the related literature, one concludes that the widespread<br />

presence of the Internet has led to students’ high levels of access to the Web<br />

and information resources. Their performance, however, in optimal and efficient<br />

use of different information resources of this hectic virtual world depends<br />

on their level of education and cognitive capacity. These studies also<br />

indicate that high school students encounter difficulty, including applying<br />

correct search syntax and finding relevant results and they lack relevant<br />

knowledge of how to use the internet especially the search engines.<br />

Research design<br />

The main aim of the present study is to assess the intermediate school students’<br />

information seeking behavior on the Internet. Based on the above aim,<br />

the research questions are as follows:<br />

• What is the level of Internet access among intermediate school students?<br />

• How much these student get to use the web search engines?<br />

• What are the students’ usual patterns of information searching and retrieval<br />

on the Internet?<br />

• To what extent can they manage to consider necessary practices to get<br />

the desired results without the help of others?<br />

• Who are the students’ coaches and guides at the time of web search?<br />

• Which one do the students prefer to use to get information: the library or<br />

the Internet?<br />

The approach taken in this study is a mixed method approach. The researchers<br />

have taken a sample of 20 intermediate girls students from one of central<br />

Tehran’s schools in three different grades based on the “available sample”<br />

method. Based on the authors’ observations, a local network comprising 20<br />

sets of computers all connected to the Internet was available in this school. In<br />

addition, to their routine schedule of source studies, the students also took<br />

part in computer skills classes like MS Word and PowerPoint. The school<br />

also had a library which, as they told the authors, had a librarian in charge.<br />

The research instrument was the investigation inventory. The information<br />

was gathered in two stages. First, the authors collected their required data<br />

from the participants according to the investigation inventory and then interviewed<br />

the participants and observed their behavior of searching the Internet.


274 Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

In order to verify the results, the investigation inventory was submitted to<br />

two specialists on information seeking behavior and their opinions and advices<br />

were adopted to modify and optimize the results.<br />

Results<br />

Q1. What is the level of school students’ access to the Internet?<br />

To answer this question we should first determine how long the students<br />

have been familiar to the Internet, how many hours they spend weekly on the<br />

Internet, where do they most access it, and which website they visit right<br />

after the connection is established. Table 1 shows the answers for these questions<br />

respectively.<br />

Table 1. Intermediate school students’ familiarity with and use of the Internet<br />

Familiarity time span of students with the Internet Frequency Percentage<br />

Less than 1 year 3 15%<br />

Between 1 and 2 years 1 5%<br />

Between 2 and 3 years 4 20%<br />

More than 3 years 12 60%<br />

Students’ use of the Internet during the last week Frequency Percentage<br />

Once 4 20%<br />

Twice 2 10%<br />

Three times 3 15%<br />

Four times and more 10 50%<br />

No use 1 5%<br />

Access location to the Internet Frequency Percentage<br />

School 0 0%<br />

Home 20 100%<br />

Coffee net 0 0%<br />

Library 0 0%<br />

The first section students visit right after the<br />

connection is established<br />

Frequency Percentage<br />

Electronic mail 2 10%<br />

Chat 2 10%<br />

Search engines 14 70%<br />

Weblogs 0 0<br />

News websites 0 0<br />

Discussion forums 0 0<br />

Web-sites of interest 2 10%


A survey of internet searching skills among intermediate school students 275<br />

As can be seen, the students’ knowledge of the Internet and their use of it<br />

are at relatively good levels. They access the Internet from home more frequently<br />

than from their school. As is demonstrated in table 1, the search engines<br />

are the main places where the students visit right after accessing the<br />

Internet. This reveals the high priority these search engines have as sources<br />

of information for the students. It is worth noting that most of the students<br />

spoke of “Google” instead of phrases like “search engines”. This highlights<br />

the significant role of “Google” as the predominant search tool for intermediate<br />

school students.<br />

Regarding the students’ search skills, two questions were posed: the first<br />

concerned their self-assessment regarding skills in using the Internet. The<br />

second, in verification of the first one, assessed their levels of success in<br />

accessing their required information in their last search attempt. The answers<br />

to these two queries are listed in tables 2.<br />

Table 2. Students’ self-assessment of their Internet skills<br />

Internet skills Frequency Percentage<br />

High 8 40%<br />

Moderate 10 50%<br />

Low 2 2%<br />

Success in finding needed info in the last Internet session Frequency Percentage<br />

Yes 16 80%<br />

No 4 20%<br />

As is evident in table 2, most students assessed their Internet skills as average<br />

or high, and that is confirmed by their success in their last attempts.<br />

Only 4 out of 20 students (that would be 20%) did not get what they wanted<br />

from the web searches and believed that their failure was due to reasons such<br />

as lack of skills, relatively low speed of the Internet and poor knowledge of<br />

English language (in case of search in English).<br />

Q2. To what extent students use the web search engines?<br />

This question was posed because of the great appeal these search engines had<br />

for intermediate school students (table 1). Therefore, first their level of<br />

knowledge about search engines was evaluated. Then the frequency of their<br />

use of different search engines and the mostly used ones were determined.<br />

Tables 3 to 6 demonstrate the results.


276 Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

Table 3. Intermediate students’ knowledge of search engine<br />

Students’ knowledge of search engine Frequency Percentage<br />

Students who knew 11 55%<br />

Students who did not know 9 45%<br />

Although search engines are the most popular Internet tools among the<br />

students, most of them were unable to come up with a clear definition of<br />

these tools. Usually they are not familiar with expressions like “search engines”<br />

and would rather know about some particular tools like “Google” and<br />

“Yahoo” which is not a surprising fact. The definitions given by the students<br />

for “Search engines” are as follows:<br />

• “Search engines are things giving us the information we need”<br />

• “A web-site which retrieves some data as we enter our words there”<br />

• “A web-site which retrieves some data as we enter our words and click”<br />

• “A search engines will search for what we have asked for”<br />

• “We get our needed info from search engines”<br />

• “Those web-sites where one could find whatever they are looking for”<br />

• “Search engines are tools to find our requested web-sites”<br />

The definitions given by the students imply their relative knowledge of the<br />

functions and performances of search engines. No one knew about search<br />

engine concepts and structure and its working mechanism and only spoke of<br />

their applications and tasks.<br />

Table 4. Use of the search engines by the students<br />

Using the search engines Frequency Percentage<br />

Yes 20 100%<br />

No 0 0%<br />

Extent of use Frequency Percentage<br />

High 15 75%<br />

Average 5 25%<br />

Little 0 0%<br />

The data in table 4 verify those of table 1 and indicate the significance of<br />

search engines for the students.


A survey of internet searching skills among intermediate school students 277<br />

Table 5. The frequency of students’ use of each search engine<br />

search engines Frequency Percentage<br />

Google 20 100%<br />

Yahoo 19 95%<br />

Microsoft 1 5%<br />

Altavista 0 0%<br />

Yahoo kids search engine 0 0%<br />

Table 5 shows the most popular search engines from the students’ points<br />

of view. According to their own remarks, students use Google more than<br />

Yahoo because they believe Google returns more and pertinent results.<br />

Table 6. The extent of students’ knowledge about search engines and their use<br />

Frequency Percentage<br />

Those who knew 3 15%<br />

Those who did not know 17 85%<br />

Although the use of search engines makes access to information on the Internet<br />

much easier and more efficient and reduces the retrieval of irrelevant<br />

information, none of the students had knowledge about these tools. The data<br />

in table 6 shows that the only 15% of the students who had heard the search<br />

engine names, did not use them and had not any idea how to use them. It is<br />

obvious that when they do not have a clear definition of the search engines,<br />

they would not know anything about the search operators.<br />

Q3. What are the students’ patterns for searching and retrieving information<br />

on the Internet?<br />

Pattern here means the approach students take in using the search engines.<br />

For this purpose, first the average amount of time spent weekly by each student<br />

in searching the Internet is taken into consideration. Then their aim and<br />

approach to get those required information from the Internet was questioned.<br />

The answers to these queries are listed in tables 7 and 8.<br />

According to above tables, half of the students were spending only two<br />

hours per week in search of information on the Internet and considered this<br />

amount of time to be adequate. 85% of them pursued the aim of finding some<br />

school-texts to do assignments (for research purposes). Furthermore, 55%<br />

were looking to download movies and music clips by searching the web (for<br />

entertainment).


278 Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

Table 7. Pattern of the search engine use by the students<br />

Average amount of time spent weekly on the Internet Frequency Percentage<br />

Less than 2 hours 10 50%<br />

2 hours 1 5%<br />

Between 2 and 4 hours 5 25%<br />

More than 4 hours 4 4%<br />

Purpose of searching the Internet Frequency Percentage<br />

Schoolwork resource identification to do school work 17 85%<br />

Interest in gathering research info 7 35%<br />

Downloading music and movies 11 55%<br />

Listening to music and radio 5 25%<br />

News 3 15%<br />

Games 5 25%<br />

Surfing the web 2 10%<br />

No particular purpose 0 0%<br />

Other purposes 4 20%<br />

Table 8. Approach used by the students to find information on the web<br />

Approach to find their needed information Frequency Percentage<br />

Use of search engines 20 100%<br />

Trial and error 2 10%<br />

Searching online encyclopedia 10 50%<br />

Searching online databases and web-sites 5 25%<br />

Searching electronic resources 2 10%<br />

Other approaches 1 5%<br />

All the students used search engines to find their needed information. This<br />

supports the data in tables 1 and 4. The online encyclopedias were the second<br />

frequently used sources of information. Half the students were using sources<br />

such as Wikipedia as a definite example of electronic encyclopedias.<br />

Q4. To what extent can intermediate school students follow related practices<br />

to find information on the web without getting help from others?<br />

For this stage of the research, in which interviews were carried out along<br />

with observation, the students were asked to search for a specific topic on the<br />

web. It was obvious from the beginning that students were not able to find<br />

suitable keywords to initiate and formulate their search (a verification of<br />

what Fiedel et al. had fo<strong>und</strong> out). So the appropriate search keywords were


A survey of internet searching skills among intermediate school students 279<br />

given to them or they were asked to simply repeat their last successful web<br />

search. All the students were using Google. The authors observed that some<br />

of the students could not enter the Google in the address bar without help. As<br />

for the website address, they were requested to explain each section of the<br />

address but none of them could come up with any explanation due to lack of<br />

knowledge.<br />

Table 9. Search practices followed by the students<br />

Practices followed by the students Frequency Percentage<br />

Distinguishing the most relevant resources 12 60%<br />

Navigating the websites 8 40%<br />

Choice of useful pages and sites 50 50%<br />

Using site-maps 0 0<br />

Saving information 12 60%<br />

Defining addresses 0 0<br />

The data in table 9 indicate that most of students (60%) managed to pick<br />

up relevant resources through the search engines. They knew how to select<br />

the relevant resources. Their navigation skills were weak and they did not<br />

know about the site maps and their use. As for saving of information, 60% of<br />

the students could store their obtained information. It was interesting that<br />

some students copied the webpages and pasted them into the MS Word environment<br />

as a way to save their fo<strong>und</strong> data.<br />

Q5.<br />

Who are the students’ coaches and guides in surfing and searching the web?<br />

Here, coaches and guides are those who have taught the students how to surf<br />

the web and get their information.<br />

In this stage two questions were posed to the participants: first, who initially<br />

taught them how to use the Internet? And secondly, to whom do the<br />

students refer as they encounter a problem? Tables 10 and 12 contain the<br />

answers to these questions.


280 Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

Table 10.<br />

First teachers of the students on the Internet and web search strategies<br />

First teachers of students on Internet Frequency Percentage<br />

School librarians 0 0<br />

Family and relatives 17 85%<br />

Class mates 2 10%<br />

Teachers 0 0<br />

Experienced people 0 0<br />

Participating in instructional courses 0 0<br />

Study of guide books 0 0<br />

Using Trial and error approach 1 5%<br />

Table 11. Intermediate school students’ guides at the time of web surfing<br />

Students’ guides at the time of web surfing troubles Frequency Percentage<br />

School librarians 0 0<br />

Family 16 80%<br />

Classmates 1 5%<br />

Teachers 0 0<br />

Experienced people 1 5%<br />

Others 2 10%<br />

It is observed from comparing tables 10 and 11 that the majority (80%) of<br />

students has initially learned to surf the web at home. Hence, their families<br />

have had a significant role in their getting to know the Internet. As they have<br />

learned to explore the web at home and because of their adequate access to<br />

the Internet (see table 1), they go to a member of their families to get help in<br />

searching the web. The interesting fact regarding the last two tables is the<br />

absence of teachers and librarians as students’ guides at the time web-search.<br />

A reason for this may be the fact that many schools do not have Internet access<br />

for students and the teachers are not familiar with the Web.<br />

In order to determine how much the school library and the librarian have<br />

been effective in satisfying the students’ information needs, first the students’<br />

average weekly reference to the library, and their purpose of going to the<br />

library should be determined. It should be determined whether they have<br />

fo<strong>und</strong> their required information in the library and what the role of the librarian<br />

has been in this regard. Table 12 will answer these questions.


A survey of internet searching skills among intermediate school students 281<br />

Table 12. Students’ weekly use and purpose of using the school library<br />

Students’ weekly use Frequency Percentage<br />

Once 9 45%<br />

Twice 4 20%<br />

Three times 0 0<br />

4 times or more 2 10%<br />

Never go to the library 5 25%<br />

Purposes of going to the library Frequency Percentage<br />

Doing school works 6 30%<br />

Non-school studies 12 60%<br />

Enhance their knowledge 8 40%<br />

Interest in gathering scientific data 9 45%<br />

Finding information to do extra-curricular activities 4 20%<br />

Although it is stated that libraries play an important role in educational<br />

and cultural progresses of students, in practice they do not have any high<br />

position in the students’ using of the Internet. It is so unfortunate that 5 out of<br />

20 guidance school students (25%) have never gone to the school library.<br />

Findings in table 12 indicate that the students often (60%) use the library<br />

for extra-curicula studies and get information to upgrade their knowledge.<br />

These results are in agreement with the finding in the first part of the same<br />

table which shows that encyclopedias are the most frequently used resources<br />

of information at these places. Because of their wide coverage of different<br />

subjects and high quality, encyclopedias could serve as useful resources to<br />

satisfy students’ information needs and their scientific curiosities.<br />

Q6. Which one do the students prefer to use to get information: the library<br />

or the Internet?<br />

The findings here are not only unexpected but they also confirm the results of<br />

previous questions regarding the minor role of school libraries and librarians<br />

in helping students in their information seeking process. As is evident in<br />

table 13, unlike the minor role of school libraries, the Internet plays a significant<br />

role in fulfilling students’ information thirst. The majority of students<br />

participating in the research (95%) believed the easy ways to access information<br />

on the Internet and its adequacy and availability make the Internet their<br />

number one priority over the library.


282 Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

Table 13. The contribution of Internet and library in meeting students’ informational<br />

needs.<br />

Frequency Percentage<br />

Internet 19 95%<br />

Library 1 5%<br />

Conclusions<br />

Although the research population was small we can have some general conclusions<br />

regarding the information seeking behavior of Iranian intermediate<br />

school students on the Web: Many Iranian intermediate school students access<br />

the Internet from home rather than their schools. The reason for not using<br />

the Internet at school seems to be the lack of access or lack of enough<br />

free time.<br />

Due to their ease of use, and facilities for seeking information on the<br />

Web, search engines have a high popularity among school students. Google<br />

and Yahoo lead the leading way. However, due to the lack of thorough instruction,<br />

their knowledge of these tools is limited to and they have no conceptual<br />

or structural <strong>und</strong>erstanding about them. Similar to the findings of<br />

other studies (for example by Madden et al, 2006; Dersang, 2005; Bilal,<br />

1998, 2000, 2001, 2002; Bilal & Kirby, 2002; Large, Beheshti & Moukdad,<br />

1999) school students have cognitive difficulties in formulating effective<br />

search queries, applying correct search syntax, term relationships, and subject<br />

hierarchies. In case there is no organized information literacy instruction at<br />

schools and in the absence of librarians as trainers of the new generation, the<br />

family bears the heavy task of guiding the students in searching the Internet.<br />

This may be the result of the students’ lack of access to the Internet at school<br />

and at the school library that has led to the insignificant role of librarians in<br />

this regard. Although the students have gained knowledge through their families<br />

on how to acquire their needed information on the web, a lack of instruction<br />

to help students in conducting their searches is readily felt. The advent<br />

and development of the Internet has evolved the information seeking behavior.<br />

In this changing scenario, library and information centers have to focus<br />

towards the user community to <strong>und</strong>erstand their changing information needs<br />

and information seeking behaviors (Barik, Bisen & Bhardwaj, 2007). Also


A survey of internet searching skills among intermediate school students 283<br />

despite the libraries’ significant role in elevating students’ knowledge, they<br />

have not yet taken their right position in schools. This could be due to the<br />

weakness of school libraries in providing information literacy workshops to<br />

students, and lack of providing access to the Internet, and most importantly,<br />

lack of integration between courses and the library resources including access<br />

to information resources on the Web.<br />

Based on the results of this research, the following recommendations can<br />

be made to overcome the existing shortcomings: Providing information literacy<br />

courses by the school library will encourage students to use the library as<br />

a learning environment (like a class) and the librarians as a teacher. School<br />

can also offer curriculum-related user instruction that include use of the Web.<br />

This instruction cover basic search strategies in using selected search engines<br />

(Bilal & Kirby, 2002).<br />

Use of the Web in intermediate schools and the increased access to the<br />

Web by students at home & school raise many issues concerning information-seeking<br />

and use. Here the role of school librarians and teachers in educating<br />

and training students becomes more important. School IT sites could<br />

be located in school libraries in order to give the librarians an important role<br />

in improving information seeking behaviors of students.<br />

School teachers can play an important role in encouraging students to use<br />

the library and a learning media center. Thus the use of the Internet and online<br />

resources can be managed through the integration of the teacher-librarian<br />

cooperation into the curricula with the benefits of instructing the students<br />

how to use the Internet and how to evaluate information sources on the Web<br />

from the curricular point of view.<br />

Establishing and developing better school libraries with access to the<br />

Internet will help students not to rely on people other than librarians and<br />

teachers in learning how to search and use information sources whether<br />

printed or electronic.<br />

References<br />

Alipour, R. (2006), Assessment of search and information seeking behavior patterns<br />

of Tehran high school students in the Internet. Master thesis, Alzahra University.


284 Rahmatollah Fattahi, Mohaddeseh Dokhtesmati, Maryam Saberi<br />

Barik, R. K., Bisen, R. S. & Bhardwaj, J. (2007). Electronic information seeking<br />

behavior of scientists and research scholars of CSMCRI Bhavnagar. 5th International<br />

Caliber, Pakistan: Panjab University, Chandigarh<br />

Bilal, D. (1998). Children’s search processes in using World Wide Web search engines:<br />

An exploratory study. In Proceedings of the Sixty-First ASIS Annual<br />

Meeting, 35, October 24–29, 1998, Pittsburgh, PA (pp. 45–53), Medford, NJ: <strong>Information</strong><br />

Today, Inc.<br />

Bilal, D. (2000). Children use of Yahooligans! Web search engine: 1. Cognitive,<br />

physical and effective behavior on fact-based search tasks. Journal of the American<br />

Society for <strong>Information</strong> Science and Technology, 5(7): 646–665.<br />

Bilal, D. (2001). Childrens use of the Yahooligans! Web search engine: II. Cognitive<br />

and physical behaviors on research tracks. Journal of the American Society for<br />

<strong>Information</strong> Science and Technology, 52(2): 118–136.<br />

Bilal, D. (2002), Children use of Yahooligns! Web search engine: III. Cognitive and<br />

physical behaviors on fully self generated search tasks. Journal of the American<br />

Society for <strong>Information</strong> Science and Technology, 53(13): 1170–1183.<br />

Bilal, D., Kirby, J. (2002). Differences and similarities in information seeking: children<br />

and adults as Web users. <strong>Information</strong> Processing and Management. 38, 649–<br />

670<br />

Davarpanah, M. (2007). Scientific communication and information seeking behavior,<br />

Tehran: Debizesh & Chapar.<br />

Dersang, E. T. (2005). The information-seeking behavior of youth in the digital environment.<br />

Library Trends, 54(2): 178–197.<br />

Fidel, R., Davies, R. K., Douglass, M. H., Holder, J. K., Hopkins, C. J., Kushner, E.<br />

J., Miyagishima, B. K. and Toney, C. D. (1999), A Visit to the <strong>Information</strong> mall:<br />

web searching behavior of high school students. Journal of the American society<br />

for <strong>Information</strong> Science, 50 (1), 24–37<br />

Hayati, Z.& Tasviri Ghamsari, F. (2000). Evaluation of Internet influence on information<br />

seeking behaviors of board of teachers of Iran’s science and industrial research<br />

organization. Ketab Seasonal Periodical, 11 (4): 63–78<br />

Kim, K. (2001). <strong>Information</strong> seeking on the Web: Effects of user and task variables.<br />

Library & <strong>Information</strong> Science Research, 23, 233–255<br />

Large, A. Beheshti, J. and Moukdad, H. (1999). <strong>Information</strong> seeking at the web: Navigational<br />

skills of Grade-Six primary school students. Proceedings of the ASIS<br />

annual meeting, 36, 84–97<br />

Madden, A. D., Fored, N. J., Miller, D., and Levey, Philipa (2006), Childrens use of<br />

the internet for information – seeking: what strategies do they use, and what factors<br />

affect their performance? Journal of Documentation, 62(6), 744–761.


A survey of internet searching skills among intermediate school students 285<br />

Maddaen, A. D., Fored, N. and Miller, D. (2007). <strong>Information</strong> resources used by children<br />

at an English secondary school. Journal of Documentation, 63(3), 340–358.<br />

Mansourian, Y. (2008a). Keeping a learning diary to enhance researchers <strong>und</strong>erstanding<br />

of and user’s skills in web searching. Library Review, 57(9), 690–699.<br />

Mansourian, Y. (2008b). Contextual elements and conceptual components of information<br />

visibility on the web. Library Hi Tech, 26(3), 440–453.<br />

Mokhtarpour, R (2007), Assessment and comparison of search and information seeking<br />

behaviors of MSc and PHD students in faculty of cultural and psychological<br />

sciences in Ahvaz Shahid Chamran Univeristy. Nama. 7(2).<br />

http://www4.irandoc.ac.ir/data/e_j/vol7/mokhtarpour_abs.htm, accessed 16 December<br />

2008<br />

Yaminfirouz, M. & Davarpanah, M. (2004), Assessment of Internet search and information<br />

seeking behavior of board of teachers in Mashad Ferdowsi Unversity,<br />

Library and <strong>Information</strong> Science Quarterly, 26: 15–64


286 Matthias Görtz<br />

Kontextspezifische Erhebung von aufgabenbezogenem<br />

<strong>Information</strong>ssuchverhalten<br />

Entwicklung eines modellbasierten Online-Fragebogens<br />

am Beispiel studentischen <strong>Information</strong>ssuchverhaltens<br />

Matthias Görtz<br />

<strong>Information</strong>swissenschaft <strong>und</strong> Sprachtechnologie – Universität Hildesheim<br />

Marienburger Platz 22, 31141 Hildesheim<br />

E-Mail: goertz@uni-hildesheim.de<br />

Zusammenfassung<br />

Dieser Artikel beschreibt die Entwicklung einer Erhebungsmethode zur Erfassung<br />

von aufgabenbezogenem <strong>Information</strong>ssuchverhalten. Der Fokus<br />

dieser Methode liegt darauf, modelltheoretische, auf eher qualitativen Datenerhebungen<br />

basierende Erkenntnisse über <strong>Information</strong>ssuchverhalten, mit<br />

quantitativen Ansätzen zur Erfassung der Nutzungshäufigkeit von <strong>Information</strong>squellen<br />

zusammenzuführen. So wird ein Online-Fragebogen vorgestellt,<br />

der auf den Nutzungskontext <strong>und</strong> die jeweiligen Aktivitäten der Befragten<br />

eingeht. Anhand der in einer Beispielstudie zum studentischen <strong>Information</strong>ssuchverhalten<br />

erhobenen Daten werden die Möglichkeiten der Analyse von<br />

<strong>Information</strong>squellen im aufgabenbezogenen <strong>Information</strong>ssuchverhalten von<br />

Nutzergruppen in unterschiedlichen Kontexten diskutiert.<br />

Abstract<br />

This article describes the development of a method for collecting data of<br />

task-based information seeking behavior. The focus of this method therein<br />

lies upon merging conceptual models in information seeking, which are derived<br />

mainly from qualitative studies, with quantitative approaches to collecting<br />

data on the usage of information sources in general. Thus, an online questionnaire<br />

is presented, which takes context of use and information seeking<br />

activities of respondents into account. Based on a survey on student information<br />

seeking behavior, the possibilities of analyzing the role of information<br />

sources for the task-based information seeking behavior of specific user<br />

groups in different contexts is discussed.


Kontextspezifische Erhebung von aufgabenbezogenem <strong>Information</strong>ssuchv. 287<br />

1 Ausgangssituation <strong>und</strong> Zielsetzung<br />

Der Performanz von Suchmaschinen wurde in Bezug auf die Entwicklung<br />

von Suchalgorithmen <strong>und</strong> Evaluationsverfahren in der <strong>Information</strong>swissenschaft<br />

im Rahmen der <strong>Information</strong> Retrieval (IR)-Forschung stets viel Bedeutung<br />

beigemessen. Aus system-orientierter Perspektive gilt es dabei, eine<br />

von einem Nutzer eingegebene Suchanfrage mit einem Bestand an zur Verfügung<br />

stehenden Dokumenten oder Internetseiten zu vergleichen <strong>und</strong> relevante<br />

Treffer zurückzuliefern. Als Vorbedingung für derartige Betrachtungen<br />

gilt es jedoch die Bedeutung dieser Suchmaschine als eine <strong>Information</strong>squelle<br />

von vielen für den Nutzer zur Verfügung stehenden Ressourcen zu<br />

begreifen. So ist eine <strong>global</strong>ere Betrachtungsebene zunächst erforderlich, um<br />

zu verstehen zu welcher <strong>Information</strong>squelle sich ein Nutzer wendet <strong>und</strong> unter<br />

welchen Bedingungen die oben angesprochene Suchanfrage an ein System<br />

gerichtet wird. Diese Erkenntnis hilft nicht nur, eine Suchanfrage eines Nutzers<br />

an ein System besser einzuordnen, sondern auch die Rolle einer <strong>Information</strong>squelle<br />

im gesamten Prozess einer Suche zu analysieren. Für diese<br />

Fragestellung sind andere Maße <strong>und</strong> Methoden erforderlich, die vor allem<br />

zwei Bedingungen erfüllen sollten.<br />

Sie müssen zum einen die qualitative Vielseitigkeit einer <strong>Information</strong>sumgebung<br />

<strong>und</strong> eines gegebenen Anwendungskontexts erfassen. Zum anderen<br />

sollten sie darüber hinaus das Nutzungsverhalten des <strong>Information</strong>ssuchenden<br />

quantifizieren, um Rückschlüsse auf die Relevanz <strong>und</strong> Akzeptanz von <strong>Information</strong>squellen<br />

ziehen zu können. Will man die Rolle einer bestimmten Klasse<br />

von <strong>Information</strong>squellen in einem gegebenen Kontext analysieren, so sind<br />

also sowohl analytische Erkenntnisse über bestehende Einflussfaktoren auf<br />

unterschiedliche Aktivitäten der <strong>Information</strong>ssuche (<strong>Information</strong> Seeking) als<br />

auch statistische Nutzungszahlen von <strong>Information</strong>sressourcen erforderlich.<br />

Die Zusammenführung dieser methodischen Ansätze stellt eine vielversprechende<br />

Vorgehensweise dar. So ist es das Ziel dieses Beitrags, an einer Beispielstudie<br />

im studentischen Lern- <strong>und</strong> Arbeitsalltag aufzuzeigen, wie sich<br />

konzeptionelle Modelle der <strong>Information</strong> Seeking-Forschung nutzen lassen,<br />

um quantitative Erhebungen zu Nutzungshäufigkeiten kontextspezifisch zu<br />

gestalten <strong>und</strong> so den gewonnenen Daten tiefergehende Erkenntnisse in Bezug<br />

auf die Relevanz <strong>und</strong> Akzeptanz verschiedener Kategorien von <strong>Information</strong>squellen<br />

abzugewinnen.


288 Matthias Görtz<br />

2 Bisherige Ansätze zur Erfassung von<br />

<strong>Information</strong>ssuch- <strong>und</strong> -nutzungsverhalten<br />

Wie oben bereits angesprochen, besteht in der <strong>Information</strong>swissenschaft neben<br />

der systembezogenen Perspektive auf die Erschließung <strong>und</strong> das Wiederauffinden<br />

von <strong>Information</strong> eine erweiterte kognitive Betrachtung der <strong>Information</strong>ssuche,<br />

welche sich auf den <strong>Information</strong>sbedarf, die Nutzung <strong>und</strong> das<br />

Suchverhalten eines oder mehrerer kognitiver Akteure bezieht (INSU 1 ). Sie<br />

ist Ausdruck der Überlegung, dass die Frage der Relevanz immer auch eine<br />

subjektive ist. In welchem Kontext befindet sich ein Nutzer in seiner Suche<br />

nach <strong>Information</strong>? Was ist sein subjektiver <strong>Information</strong>sbedarf? Mit welcher<br />

Aufgabe sieht er sich konfrontiert bzw. was gedenkt er mit den Ergebnissen<br />

zu tun? Und was sind seine Verhaltensweisen im Umgang mit den ihm typischerweise<br />

zur Verfügung stehenden <strong>Information</strong>sressourcen? (vgl. Görtz/<br />

Womser-Hacker 2009) Die erweiterte Perspektive auf den Akteur in der Interaktion<br />

mit <strong>Information</strong>squellen als Reaktion auf sein subjektives <strong>Information</strong>sbedürfnis<br />

macht deutlich, dass die in der Evaluation von IR-Systemen<br />

verwendeten Methoden <strong>und</strong> Maße sich nicht für die Beantwortung derartiger<br />

Fragen eignen. Im Rahmen dieser Forschungsströmung wurde dementsprechend<br />

eine Vielzahl methodischer Ansätze entwickelt bzw. aufgegriffen.<br />

Diese haben das Ziel, den Kontext des Suchenden zu erfassen <strong>und</strong> so alle<br />

Prozesse der <strong>Information</strong>ssuche (externe wie interne) sowie die Wechselwirkung<br />

verschiedener Einflussfaktoren auf Vorgehensweise <strong>und</strong> Quellenwahl<br />

der <strong>Information</strong>ssuche von Individuen oder Gruppen zu analysieren. Darüber<br />

hinaus besteht heute eine Vielzahl von Studien, die sich Nutzungsstatistiken<br />

von bestimmten <strong>Information</strong>squellen widmen. Dank dieser methodischen<br />

Vielfalt ist die Suche nach <strong>und</strong> der Umgang mit <strong>Information</strong>squellen zwar<br />

vielseitig beschrieben worden, jedoch wurden insbesondere die zuletzt genannten<br />

methodischen Ansätze stets unabhängig voneinander betrieben. In<br />

ihrer Längsschnittanalyse der in der INSU-Forschung der 80er <strong>und</strong> 90er Jahre<br />

eingesetzten Forschungsmethoden haben Julien <strong>und</strong> Duggan (2000) diese<br />

Beobachtungen bestätigt. So spielen die klassischen Erhebungs- bzw. Evaluierungsmethoden<br />

der IR Forschung (Experiment <strong>und</strong> Zitationsanalyse) kaum<br />

eine große Rolle (6,7%). Vielmehr wurden Befragungsmethoden wie Inter-<br />

1 Neben dem oben eingeführten Begriff der sog. <strong>Information</strong> Seeking Behavior Research<br />

(ISB) werden die Aktivitäten dieser kognitiven Strömung auch als <strong>Information</strong> Needs,<br />

Seeking, and Use (INSU) Studien bezeichnet.


Kontextspezifische Erhebung von aufgabenbezogenem <strong>Information</strong>ssuchv. 289<br />

views <strong>und</strong> Fragebögen in über 60% der untersuchten Studien verwendet.<br />

Auch anderweitige Methoden wie die Logfile-Analyse <strong>und</strong> Ethnografie wurden<br />

in der Erforschung des <strong>Information</strong>ssuch- <strong>und</strong> -nutzungsverhaltens verstärkt<br />

eingesetzt, um zur subjektiven Beschreibung von Verhaltensweisen<br />

eine externe Perspektive zu ergänzen. Dies zeigt die erforderlichen Schnittstellen<br />

dieser Forschungsrichtung mit angrenzenden <strong>sozial</strong>wissenschaftlichen<br />

Disziplinen. So wurden z.B. Ansätze wie die strukturierte Beobachtung<br />

(Mintzberg 1970) in Studien zum <strong>Information</strong>sverhalten eingesetzt. Die so<br />

gewonnen qualitativen Ergebnisse einer Beobachtung jedoch, wurden selten<br />

mit den in Interviews <strong>und</strong> Fragebögen gewonnenen Daten zusammengeführt<br />

(vgl. Görtz 2010). Um die begrenzte Aussagekraft bisheriger Erkenntnisse<br />

innerhalb der INSU-Forschung zu erläutern, werden zunächst der Einsatz<br />

dieser Methoden <strong>und</strong> die Form der so gewonnenen Erkenntnisse anhand zentraler<br />

Beispielstudien zum <strong>Information</strong>ssuchverhalten kurz dargestellt.<br />

Beispiele methodischer Ansätze zur Erforschung des Nutzerkontexts<br />

Es besteht eine Vielzahl an qualitativen Studien zur Analyse studentischen<br />

<strong>Information</strong>ssuchverhaltens <strong>und</strong> dessen Kontexts. Eines der prominentesten<br />

Modelle zur Beschreibung der Aktivitäten, Gefühle <strong>und</strong> Gedanken von kognitiven<br />

Akteuren in der <strong>Information</strong>ssuche ist der <strong>Information</strong> Search Process<br />

von Carol Kuhlthau.<br />

Abbildung 1: <strong>Information</strong> Search Process (Kuhlthau 1991: 367)


290 Matthias Görtz<br />

Entwickelt in den 1980er <strong>und</strong> 1990er Jahren wurde dieses Modell (s. Abbildung<br />

1) als Framework <strong>und</strong> Diagnose-Tool für das Verständnis des Sucherlebnisses<br />

von Individuen in verschiedenen Bibliotheks- <strong>und</strong> anderen<br />

<strong>Information</strong>sumgebungen verwendet (vgl. Kuhlthau et al. 2008: 1). Um die<br />

Thesen zu Aktivitäten, Gefühlen <strong>und</strong> Gedanken der Teilnehmer zu prüfen,<br />

wurden qualitative Methoden in einem natürlichen Anwendungsfall eingesetzt.<br />

So führten die Schüler <strong>frei</strong>e Tagebücher, sog. Strukturierte Search Logs<br />

zur Bewertung der Nützlichkeit unterschiedlicher <strong>Information</strong>squellen <strong>und</strong><br />

reflektierten ihren Suchprozess in einem Fragebogen. Abschließende Interviews<br />

wurden eingesetzt, um die Vielfalt der erhobenen Daten zusammenzuführen<br />

<strong>und</strong> Fallstudien der Teilnehmer der Untersuchung zu erstellen.<br />

Neben prozeduralen <strong>Information</strong> Seeking-Modellen wie dem von Kuhlthau<br />

besteht in der kognitiven Strömung eine weitere Form der Analyse des<br />

Kontexts des <strong>Information</strong>ssuchenden. Analytische Modelle haben das Ziel,<br />

die in den Suchprozess involvierten Objekte <strong>und</strong> deren Beziehungen untereinander<br />

sowie Wirkungsfaktoren zu modellieren (vgl. Ingwersen/Järvelin<br />

2005: 15). Ein Beispiel solcher Arbeiten ist das konzeptionelle Framework<br />

für Tasks von Byström <strong>und</strong> Hansen (2005). Es identifiziert die verschiedenen<br />

Ebenen einer Task (Search, Seeking, Work), modelliert deren Interrelationen<br />

<strong>und</strong> die Einflussfaktoren auf dessen Merkmale, wie z.B. die Komplexität<br />

einer Aufgabe. Die Vorgehensweise zur Erstellung solcher Konzepte erfolgt<br />

dabei gr<strong>und</strong>sätzlich argumentativ. Darüber hinaus setzt z.B. Byström (1999)<br />

ähnliche qualitative Erhebungsmethoden wie oben bereits beschrieben ein.<br />

Tagebücher, Beobachtungen <strong>und</strong> Interviews werden zur analytischen Definition<br />

von solchen Konzepten wie Aufgabenkomplexität <strong>und</strong> dessen Merkmalen<br />

herangezogen. So beschreibt sie in ihrer Arbeit die Eigenschaften von<br />

Aufgabenkomplexität, Typen von <strong>Information</strong> <strong>und</strong> <strong>Information</strong>squellen. Die<br />

Komplexität einer Aufgabe wird dabei als Konstrukt der a priori determinability<br />

(also Vorhersehbarkeit) des <strong>Information</strong>sbedarfs, des Prozesses zur<br />

Lösung der Aufgabe, sowie der Struktur <strong>und</strong> Form des erwarteten Ergebnisses<br />

einer Aufgabe definiert (vgl. a.a.O.: 43). Derartige Modelle <strong>und</strong> Konstrukte<br />

helfen den Kontext des <strong>Information</strong>ssuchenden konzeptionell zu erfassen<br />

<strong>und</strong> die Abläufe <strong>und</strong> Aspekte einer <strong>Information</strong>ssuche besser zu verstehen.<br />

Beispiele methodischer Ansätze zur Erhebung der Nutzung<br />

Ein weiteres Phänomen der Erforschung von <strong>Information</strong>ssuch- bzw. -nutzungsverhaltens<br />

sind quantitative Studien zur Erhebung der Nutzungshäu-


Kontextspezifische Erhebung von aufgabenbezogenem <strong>Information</strong>ssuchv. 291<br />

figkeit von <strong>Information</strong>squellen. Zum einen sind dies klassische Mediennutzungsstudien<br />

wie die seit 1997 regelmäßig durchgeführten ARD/ZDF-Online-Studien.<br />

In ihrem Beitrag zu Media Perspektiven stellen Fisch <strong>und</strong><br />

Gscheidle (2006) unter dem Titel Onliner 2006 die Ausstattung <strong>und</strong> das Nutzungsverhalten<br />

der Internetpopulation vor. Ähnliche Studien bestehen zudem<br />

in Bezug auf bestimmte <strong>Information</strong>squellen <strong>und</strong> deren Nutzung am Arbeitsplatz.<br />

Dabei stehen jedoch informationswissenschaftliche Konzepte wie die<br />

<strong>Information</strong>ssuche oder das der Task nicht im Vordergr<strong>und</strong>. Zum anderen<br />

bestehen auch in der <strong>Information</strong>swissenschaft zunehmend Studien, die sich<br />

ähnlicher empirischer Erhebungsmethoden bedienen. Warning et al. (2009)<br />

zum Beispiel untersuchten das <strong>Information</strong>ssuchverhalten von Studierenden<br />

in einem methodischen Mix aus qualitativen <strong>und</strong> quantitativen Erhebungswerkzeugen.<br />

So führten sie semi-strukturierte Interviews <strong>und</strong> setzten zusätzlich<br />

einen Fragebogen ein. Als zentrale Elemente solcher Studien werden<br />

vermehrt quantitative Methoden wie z.B. großangelegte Online-Befragungen<br />

eingesetzt. Mithilfe statistischer Methoden lassen sich so Aussagen vor allem<br />

zur allgemeinen Nutzungsintensität bestimmter <strong>Information</strong>squellen treffen.<br />

Fazit zur Aussagekraft derartiger Erhebungsmethoden<br />

Die Vielfalt der oben beschriebenen Erhebungsmethoden im Bereich der<br />

<strong>Information</strong> Seeking Behavior-Forschung eröffnet neue Perspektiven auf den<br />

<strong>Information</strong>ssuchprozess <strong>und</strong> die Nutzung von <strong>Information</strong>squellen in unterschiedlichen<br />

Anwendungskontexten. Unabhängig voneinander sind jedoch<br />

beide Perspektiven auf den <strong>Information</strong>ssuchprozess kognitiver Akteure beschränkt.<br />

So sehen sich auf der einen Seite prozedurale wie analytische Modelle<br />

zur Beschreibung des Kontexts <strong>und</strong> der unterschiedlichen Phasen einer<br />

<strong>Information</strong>ssuche stets mit der Kritik konfrontiert, dass ihre Beobachtungen<br />

nicht auf die Ebene der einzelnen <strong>Information</strong>squellen <strong>und</strong> deren Rolle im<br />

<strong>Information</strong>ssuchprozess reichen. Auf der anderen Seite bieten quantitative<br />

Studien zur Nutzungshäufigkeit von <strong>Information</strong>squellen keine differenzierte<br />

Einsicht in die Verwendung der besuchten Anwendungen <strong>und</strong> ihrer <strong>Information</strong><br />

bzw. in Bezug auf unterschiedliche Phasen des <strong>Information</strong>ssuchprozesses.<br />

So wird im Folgenden an einer Beispielstudie zur <strong>Information</strong>ssuche im<br />

studentischen Lern- <strong>und</strong> Arbeitsalltag gezeigt, wie sich konzeptionelle Modelle<br />

<strong>und</strong> Konstrukte der <strong>Information</strong> Seeking Behavior-Forschung nutzen<br />

lassen, um quantitative Erhebungen zu Nutzungshäufigkeiten kontextspezifisch<br />

zu gestalten <strong>und</strong> so den gewonnenen Daten tiefergehende Erkenntnisse


292 Matthias Görtz<br />

in Bezug auf die Relevanz <strong>und</strong> Akzeptanz verschiedener Kategorien von <strong>Information</strong>squellen<br />

abzugewinnen.<br />

3 Entwicklung eines<br />

kontextspezifischen Online-Fragebogens<br />

Für die Analyse der Rolle einer bestimmten Gruppe von <strong>Information</strong>squellen<br />

für das Lern- <strong>und</strong> Arbeitsverhalten wurde entsprechend der oben beschriebenen<br />

Überlegungen ein methodischer Ansatz entwickelt, der die analytischen,<br />

prozeduralen <strong>und</strong> statistischen Vorgehensweisen bzw. Erkenntnisse der<br />

INSU-Forschung zusammenführt. Entsprechend wurde ein Online-Fragebogen<br />

entwickelt, der die folgenden Ziele verfolgte: 1. Erfassung der im<br />

Lern- bzw. Arbeitsalltag typischen Aufgabentypen (Komplexität) <strong>und</strong> der Art<br />

der benötigten <strong>Information</strong> (<strong>Information</strong>stypen) (Byström 1999). 2. Erhebung<br />

der Nutzung unterschiedlicher Gruppen von <strong>Information</strong>squellen in den jeweiligen<br />

Phasen der <strong>Information</strong>ssuche eines gegebenen Kontexts (z.B.<br />

Kuhlthau 1991). Die Entwicklung des Fragebogens wurde mithilfe der Umfrageapplikation<br />

LimeSurvey realisiert. Dies ermöglichte den Einsatz konditionaler<br />

Bedingungen <strong>und</strong> dynamischer Fragebogenelemente. So konnten<br />

Teilnehmer in Abhängigkeit ihrer empf<strong>und</strong>en Aufgabenkomplexität <strong>und</strong> ihrer<br />

jeweiligen <strong>Information</strong>ssuchaktivitäten zu folgenden Items befragt werden.<br />

I.1 dient dabei der Sammlung organisatorischer Hintergr<strong>und</strong>informationen<br />

der Teilnehmer. Gemeinsam mit den in I.8 erhobenen Daten zu Geschlecht<br />

<strong>und</strong> Alter galten diese Fragen der näheren demografischen Charakterisierung<br />

der Stichprobe. Die Teilnehmer werden dann in I.2 gebeten anzugeben, wie<br />

sich ihr Lern- bzw. Arbeitsalltag in Bezug auf Inhalte, Arbeitsformen, Räumlichkeiten<br />

<strong>und</strong> genutzte technische Unterstützung bei der Durchführung von<br />

aufgabenbezogener <strong>Information</strong>ssuche auf einer 7er-Likert-Skala charakterisieren<br />

lässt. Darüber hinaus wurde erfasst, welche Form <strong>und</strong> Struktur<br />

die Ergebnisse der informationsbezogenen Aufgaben überwiegend kennzeichnen.<br />

Die Antworten zu diesen Fragen erlauben eine detaillierte Erfassung<br />

der üblichen Lern- bzw. Arbeitsumgebung der Teilnehmer. I.3 widmet<br />

sich mit zwei Fragen der Aufgabenkomplexität im Alltag der Teilnehmenden.<br />

Als Ergänzung zu einer theoretischen Erfassung der Aufgabenkomplexität,<br />

werden anschließend vier Beispielszenarien unterschiedlicher Komple-


Kontextspezifische Erhebung von aufgabenbezogenem <strong>Information</strong>ssuchv. 293<br />

xität (sehr unstrukturiert – sehr strukturiert) vorgestellt. Die Teilnehmer werden<br />

gebeten, das für sie repräsentativste Szenario auszuwählen. Auf Basis<br />

dieser Charakterisierung der für sie typischen Arbeitsaufgaben, lässt sich nun<br />

die folgende Befragung der Nutzung der diversen <strong>Information</strong>squellen kontextspezifisch<br />

gestalten. So sind Aussagen zur Relevanz bestimmter <strong>Information</strong>stypen<br />

(I.4), sowie zur Nutzung von <strong>Information</strong>squellen im gegebenen<br />

Anwendungskontext (I.5) jeweils in Abhängigkeit zur Aufgabenkomplexität<br />

differenzierbar. Teilnehmer, die in ihrem Lern- bzw. Arbeitsalltag für<br />

gewöhnlich mit stark strukturierten Arbeitsaufgaben konfrontiert sind, werden<br />

demnach andere Arten sowie Quellen von <strong>Information</strong> zu ihrer Lösung<br />

benötigen. Darüber hinaus lassen sich die folgenden Fragen zur Nutzung<br />

bestimmter Gruppen von <strong>Information</strong>squellen (I.5) an die in den für die jeweiligen<br />

Zielgruppen entwickelten prozeduralen <strong>Information</strong> Seeking-Modellen<br />

(z.B. am ISP von Kuhlthau (s.o.)) definierten Phasen des <strong>Information</strong>ssuchprozesses<br />

dynamisch anpassen. So werden die Teilnehmer nach<br />

ihren bevorzugten Anlaufstellen für die jeweiligen Aktivitäten in Abhängigkeit<br />

der für sie typischen Aufgabenkomplexität befragt. I.6 folgt dieser Logik<br />

<strong>und</strong> fragt nach der Zufriedenheit der Teilnehmer mit ihrer zur Verfügung<br />

stehenden <strong>Information</strong>sumgebung für die im ISP (s. Abbildung 1) definierten<br />

Phasen der <strong>Information</strong>ssuche. Abschließend zielt I.7 auf die Bekanntheit bestimmter<br />

Gruppen von <strong>Information</strong>squellen (hier Social Software-Anwendungen)<br />

<strong>und</strong> deren Rolle in den jeweiligen Phasen der aufgabenbezogenen<br />

<strong>Information</strong>ssuche.<br />

4 Beispielhafte Ergebnisse<br />

der Erhebungsmethode<br />

Die Aussagekraft der Ergebnisse einer solchen kontextspezifischen Erfassung<br />

von aufgabenbezogenem <strong>Information</strong>ssuchverhalten wird beispielhaft<br />

deutlich an einer Studie an der Universität Hildesheim. Im Rahmen dieser<br />

Studie wurden 95 Studierende unterschiedlicher Studiengänge <strong>und</strong> Studiensemester<br />

zu ihrem studentischen Lern- <strong>und</strong> Arbeitsalltag befragt. Mit einem<br />

Durchschnittsalter von 23,23 Jahren, 81% weiblichen Teilnehmerinnen <strong>und</strong><br />

einem großen Anteil (63,16%) geistes- <strong>und</strong> <strong>sozial</strong>wissenschaftlicher Studierender<br />

entspricht die Stichprobe im Allgemeinen der Struktur der Universität.


294 Matthias Görtz<br />

Die Befragten gaben bezüglich ihres Arbeits- bzw. Lernkontexts an, dass ihre<br />

täglichen studienbezogenen Aufgaben zumeist fremd initiiert sind, außerhalb<br />

hochschuleigener Räumlichkeiten <strong>und</strong> größtenteils am PC bearbeitet werden<br />

(Item I.2). Die Form der Arbeitsergebnisse verteilte sich dabei gleich über<br />

Präsentation/Referat, schriftliche Ausarbeitung, Prüfungen <strong>und</strong> andere Formen<br />

der Leistungsnachweise. Dabei empfanden lediglich 7% der Befragten<br />

ihre typischen studienbezogenen Arbeitsaufgaben als sehr strukturiert. Über<br />

die Hälfte (52%) der Studierenden gab an, dass sie häufig mit unstrukturierten<br />

oder sogar sehr unstrukturierten Aufgaben konfrontiert seien (Item I.3).<br />

Dementsprechend niedrig fiel die Bewertung der Vorhersehbarkeit von erwartetem<br />

Ergebnis, Vorgehensweise <strong>und</strong> erforderlicher <strong>Information</strong> zur Bearbeitung<br />

einer Aufgabe aus. Der Fragebogen erwies sich in der Erfassung<br />

der Komplexität der typischen Arbeitsaufgaben der Befragten als valide. So<br />

bewerteten die Studierenden, die eines der eher strukturierten Szenarien (C,<br />

D) auswählten, auch die durchschnittliche Vorhersehbarkeit ihrer Arbeitsanforderungen<br />

entsprechend hoch.<br />

Tabelle 1: Allgemeine Nutzungshäufigkeit von <strong>Information</strong>squellen<br />

<strong>Information</strong>squellen Ø s<br />

Internetsuchmaschinen 4,71 0,48<br />

Fachbezogene Druckerzeugnisse 4,00 1,06<br />

Fachbezogene Internetseiten 3,96 0,89<br />

Eigene Dokumente/Unterlagen 3,79 0,94<br />

Digitale Fachinformation 3,43 1,23<br />

Öffentliche Wikis 3,27 1,19<br />

Persönliche Kontakte 3,22 1,10<br />

Uni- <strong>und</strong> Veranstaltungsseiten 3,15 1,05<br />

Uni-interne Wikis 2,02 1,04<br />

Öffentliche <strong>sozial</strong>e Netzwerke 2,01 1,17<br />

Social Sharing Dienste 2,00 1,33<br />

Uni-interne <strong>sozial</strong>e Netzwerke 1,71 0,86<br />

1 = nie / 2 = selten / 3 = manchmal / 4 = häufig / 5 = sehr häufig<br />

In Abhängigkeit von der auf diese theoretische <strong>und</strong> Szenario-basierte<br />

Weise erfasste Aufgabenkomplexität im Studienalltag wurden die Teilnehmer<br />

anschließend zur Bedeutung unterschiedlicher <strong>Information</strong>stypen (Item<br />

I.4) für die Bearbeitung ihrer typischen informationsbezogenen Arbeitsaufgaben<br />

befragt. Hier konnten nun nicht nur die angegebene Komplexität der


Kontextspezifische Erhebung von aufgabenbezogenem <strong>Information</strong>ssuchv. 295<br />

typischen Arbeitsaufgaben sondern auch die typischen Phasen der <strong>Information</strong>ssuche<br />

(s. Abbildung 1) in die Befragung einbezogen werden. Die Auswirkungen<br />

auf die Aussagekraft einer solchen Befragung durch die Berücksichtigung<br />

dieser kontextuellen Einflussfaktoren auf die <strong>Information</strong>ssuche lassen<br />

sich beispielhaft an Item I.5 erläutern. So ergab die Befragung nach der<br />

allgemeinen Nutzung von verschiedenen <strong>Information</strong>squellen zur Unterstützung<br />

der Bearbeitung von studienbezogenen Arbeitsaufgaben ein für reine<br />

Nutzungsstudien übliches Bild (s. Tabelle 1). Die Einbeziehung der oben<br />

beschriebenen analytischen Perspektive auf Aufgabenkomplexität (Byström/<br />

Hansen 2005) <strong>und</strong> für Studierende typische Vorgehensweisen in der <strong>Information</strong>ssuche<br />

(Kuhlthau 1991) lässt nun jedoch eine vielseitigere Betrachtung<br />

dieser Angaben zu. In der weiteren Befragung zur Nutzung von <strong>Information</strong>squellen<br />

erhält man so durch die kontextspezifische Befragung nach den<br />

von Kuhlthau definierten Phasen der <strong>Information</strong>ssuche ein dezidierteres<br />

Bild, wie Abbildung 2 beispielhaft visualisiert.<br />

Abbildung 2: <strong>Information</strong>squellen im <strong>Information</strong>ssuchprozess von Studierenden<br />

So lässt sich nicht nur erfassen, welche Quellen für die Studierenden in<br />

der Bearbeitung einer typischen Studien- bzw. Arbeitsaufgabe relevant sind,


296 Matthias Görtz<br />

sondern auch bei welcher Art von Aufgabe <strong>und</strong> in welcher Phase der <strong>Information</strong>ssuche<br />

diese häufig verwendet werden. Dabei lässt sich z.B. erkennen,<br />

dass Internetsuchmaschinen zwar die meist genutzte <strong>Information</strong>squelle im<br />

studentischen Arbeitsprozess sind, diese jedoch vor allem der orientierten<br />

Recherche („Exploration“) <strong>und</strong> Suche <strong>und</strong> Sammlung („Collection“) dienen.<br />

Die Darstellung der Ergebnisse in Abbildung 2 lässt noch weitere Schlüsse<br />

zur Relevanz bestimmter <strong>Information</strong>squellen für jeweilige Aktivitäten <strong>und</strong><br />

Aufgaben zu. In diesem Beitrag steht jedoch der methodische Ansatz im<br />

Vordergr<strong>und</strong>.<br />

5 Schlussfolgerung <strong>und</strong> Ausblick<br />

Will man wie oben beschrieben die Rolle einer bestimmten Gruppe von <strong>Information</strong>squellen<br />

im <strong>Information</strong>ssuchverhalten einer bekannten Nutzergruppe<br />

analysieren, so kommen die Stärken des hier vorgestellten Fragebogens<br />

zum Tragen. Sie liegen vor allem in der detaillierten Aussagekraft auf<br />

Basis bestehender Konzepte <strong>und</strong> Modelle aus der INSU-Forschung. Auf diese<br />

Weise erhalten die Aussagen der Befragten eine tiefere Bedeutung, als<br />

wenn sie zur Nutzungshäufigkeit von <strong>Information</strong>squellen unabhängig von<br />

Situation, Komplexität <strong>und</strong> Aktivität befragt werden. Die so gesammelten<br />

Daten lassen detaillierte Schlussfolgerungen z.B. zur Gestaltung von elektronischen<br />

<strong>Information</strong>sumgebungen basierend auf subjektiver Relevanz von<br />

<strong>Information</strong>squellen zu. Die Anpassungsfähigkeit an Modelle <strong>und</strong> Konzepte<br />

aus jeweils anderen Kontexten ermöglicht zudem die kontextspezifische Befragung<br />

anderer Nutzergruppen, wie z.B. von Mitarbeitern am Arbeitsplatz.<br />

Daher gilt es in weiteren Studien die entwickelten Items zu verfeinern <strong>und</strong><br />

andere <strong>Information</strong> Seeking-Modelle in unterschiedlichen Anwendungsfeldern<br />

einzusetzen. Vom besonderen Interesse ist dabei der Einfluss des jeweiligen<br />

Kontexts auf das <strong>Information</strong>ssuchverhalten. Dieser wird mithilfe der<br />

hier vorgestellten Methodik ermöglicht. Darüber hinaus sollten die Ergebnisse<br />

des modellbasierten Online-Fragebogens mit realen, quantitativen Nutzungsdaten<br />

ergänzt werden, um ein vielschichtiges Bild der Rolle von spezifischen<br />

Gruppen von <strong>Information</strong>squellen im untersuchten Kontext zu liefern.


Kontextspezifische Erhebung von aufgabenbezogenem <strong>Information</strong>ssuchv. 297<br />

Literaturverzeichnis<br />

Byström, K. (1999). Task complexity, information types and information sources.<br />

Doctoral Dissertation. Tampere: University of Tampere.<br />

Byström, K. & Hansen, P. (2005). Conceptual Framework for Tasks in <strong>Information</strong><br />

Studies. JASIST, 56(10), 1050–1061.<br />

Fisch, M. & Gscheidle, C. (2006). Onliner 2006: Ergebnisse der ARD/ZDF-Online-<br />

Studien 1997 bis 2006. Media Perspektiven, (8), 431–440.<br />

Görtz, M. & Womser-Hacker, Chr. (2009): Globale Herausforderungen aus der Perspektive<br />

der <strong>Information</strong>swissenschaft. IM – Fachzeitschrift für <strong>Information</strong> Management<br />

<strong>und</strong> Consulting 4/2009. Saarbrücken: IMC, 30–36.<br />

Görtz, M. (2010). <strong>Information</strong>ssuchverhalten <strong>und</strong> das Social Web. Aktuelle Herausforderungen<br />

<strong>Wissen</strong>schaftlicher Ansätze zur Modellierung von <strong>Information</strong>sverhalten.<br />

<strong>Information</strong> <strong>Wissen</strong>schaft & Praxis 61(6–7), 375–384.<br />

Ingwersen, P. & Järvelin, K. (2005). The Turn: Integration of <strong>Information</strong> Seeking<br />

and Retrieval in Context. Dordrecht: Springer.<br />

Julien, H. & Duggan, L. J. (2000). A Longitudinal Analysis of the <strong>Information</strong> Needs<br />

and Uses Literature. Library & <strong>Information</strong> Science Research, 22(3), 291–309.<br />

Kuhlthau, C. C. (1991). Inside the search process. <strong>Information</strong> seeking from the<br />

user’s perspective. JASIS, 42, 361-371.<br />

Kuhlthau, C. C., Heinström, J. & Todd, R. J. (2008). The ‘information search process’<br />

revisited. Is the model still useful? <strong>Information</strong> Research, 13 (4), paper 355.<br />

http://<strong>Information</strong>R.net/ir/13-4/paper355.html (Retrieved August 18, 2009)<br />

Mintzberg, H. (1970). Structured Observation as a Method to Study Managerial<br />

Work. Journal of Management Studies, 7 (February), 87–104.<br />

Warning, P., Chu, S. K. W. & Kwan, A. C. M. (2009). <strong>Information</strong> Seeking And<br />

Stopping Among Undergraduate Interns. In Proceedings of the 2009 International<br />

Conference on Knowledge Management. Hong Kong: Dec 3–4, 2009.


298 Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner<br />

Evaluation von Summarizing-Systemen<br />

Kommerzielle <strong>und</strong> <strong>frei</strong>e Systeme im Vergleich<br />

Jürgen Reischer 1 , Daniel Lottes 2 ,<br />

Florian Meier 2 , Matthias Stirner 2<br />

1<br />

<strong>Information</strong>swissenschaft – Universität Regensburg<br />

D-93040 Regensburg<br />

juergen.reischer@sprachlit.uni-regensburg.de<br />

2<br />

<strong>Information</strong>swissenschaft – Universität Regensburg<br />

D-93040 Regensburg<br />

{daniel.lottes | florian2.meier | matthias.stirner}@stud.uni-regensburg.de<br />

Zusammenfassung<br />

Fünf kommerzielle <strong>und</strong> <strong>frei</strong>e Systeme zum automatischen Zusammenfassen<br />

von englischen Texten werden hinsichtlich ihrer Summarizing-Leistung vergleichend<br />

evaluiert. Hierfür notwendige, eigene <strong>und</strong> fremde Evaluations-Ressourcen<br />

werden vorgestellt <strong>und</strong> diskutiert sowie Auswahlkriterien für verwendete<br />

Summarizer <strong>und</strong> Evaluationsmaße dargestellt.<br />

Abstract<br />

Five commercial and free summarization systems are evaluated against each<br />

other with respect to their performance in automatic text summarization. Existent<br />

and self-created evaluation resources are presented and discussed as<br />

well as criteria for the selection of summarizers and evaluation measures described.


Evaluation von Summarizing-Systemen 299<br />

1 Einleitung<br />

Die jährlich wiederkehrenden Evaluationen von Summarizing-Systemen im<br />

Rahmen der ,Text Analysis Conference‘ (TAC) 1 stellen einen akademischen<br />

Wettbewerb dar, in dem vor allem wissenschaftliche Systeme zum automatischen<br />

Zusammenfassen miteinander verglichen werden. Eine Evaluation<br />

von kommerziellen oder <strong>frei</strong>en Summarizern für den alltäglichen Gebrauch<br />

wurde u. W. bislang nur in García-Hernández (2009) bei drei Systemen für<br />

das Englische durchgeführt. Dies ist umso erstaunlicher, als von kommerziellen<br />

Systemen eine gewisse Leistung erwartet werden kann, die den geforderten<br />

Preis rechtfertigt. Gr<strong>und</strong> hierfür mag die prekäre Lage bei Ressourcen<br />

zur Evaluation von Summarizing-Systemen sein, d. h. fehlende Volltext-<br />

Textkondensat-Paare, anhand derer die Leistung der Systeme beurteilt werden<br />

kann. Ziel unserer Arbeit war es daher einerseits, diese Ressourcen zusammenzustellen<br />

bzw. selbst zu erstellen, andererseits auf Basis des bereitgestellten<br />

Evaluationskorpus einige gängige Summarizer hinsichtlich ihrer<br />

Leistung zu evaluieren (die Usability wurde dabei nicht getestet).<br />

Für den alltäglichen Gebrauch lassen sich Summarizer in unterschiedlichen<br />

Szenarien einsetzen: z. B. Zusammenfassen von Text-/HTML-/PDF-Dokumenten<br />

oder Vorschaufunktion (Textsnippets) in Web- <strong>und</strong> Desktop-Suchmaschinen.<br />

Dabei sind im Weiteren vor allem solche Summarizer von Interesse,<br />

die als eigenständige Programme Texte aus dem Clipboard heraus zusammenfassen<br />

können oder generell als PlugIn-Summarizer realisiert sind.<br />

Im folgenden Abschnitt werden entsprechend Ressourcen vorgestellt, die als<br />

Gr<strong>und</strong>lage für die Evaluation verschiedener Summarizer dienen; daran anschließend<br />

werden die Summarizer präsentiert <strong>und</strong> deren Leistung bewertet.<br />

2 Ressourcen<br />

Bei der Auswahl der Ressourcen für die Evaluation sollten gewisse Mindestanforderungen<br />

an die Texte des jeweiligen Korpus erfüllt sein:<br />

1 http://www.nist.gov/tac/ (25.10.2010).


300 Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner<br />

• Die Ressource sollte uneingeschränkt <strong>und</strong> <strong>frei</strong> verfügbar sein, d. h. offen<br />

zugänglich <strong>und</strong> vor allem kostenlos.<br />

• Die Texte des jeweiligen Korpus sollten von mindestens drei Personen<br />

bearbeitet worden sein, d. h. jedes Summary eines Volltextes sollte sich<br />

anhand der Urteile von mindestens drei Bewertern ergeben. Daraus resultiert<br />

eine höhere Objektivität des jeweiligen Summarys, das nicht aufgr<strong>und</strong><br />

nur eines einzigen subjektiven Urteils zum ,idealen‘ Summary erkoren<br />

wird. Zudem ist erst ab drei Bewertern die Ermittlung einer sinnvollen<br />

Mehrheitsmeinung möglich. Da Summarizer für den alltäglichen<br />

Gebrauch getestet werden (Normalnutzer, Alltagstexte), scheint es nicht<br />

sinnvoll, ein vermeintlich ,ideales Summary‘ durch nur einen einzigen<br />

professionellen Abstraktor als Gr<strong>und</strong>lage der Evaluation zu verwenden.<br />

• Das Korpus sollte englische Volltext-Extract-Paare enthalten, da die<br />

Summarizer hauptsächlich für das Englische konzipiert sind <strong>und</strong> ausschließlich<br />

extraktive Zusammenfassungen erstellen können. Die Volltext-Extract-Paare<br />

sollten dabei nicht durch automatische Verfahren aus<br />

Volltext-Abstract-Paaren erzeugt worden sein, da bei maschinellen Verfahren<br />

der Abbildung von Abstracts auf Extracts Abbildungs-Ungenauigkeiten<br />

entstehen (Pseudo-Extracts); d. h. nicht jeder Satz des Abstracts ist<br />

genau auf einen passenden Satz des entsprechenden Volltextes abbildbar.<br />

Dabei besteht die Gefahr, dass durch die automatisierte Abbildung nichtkontrollierbare<br />

Einflussgrößen die Evaluationsergebnisse verfälschen<br />

(z. B. nicht-erkannte bedeutungsgleiche Ausdrücke).<br />

Im Folgenden sollen bestehende <strong>und</strong> eigene Ressourcen vor dem Hintergr<strong>und</strong><br />

dieser Anforderungen dargestellt bzw. diskutiert werden.<br />

2.1 Bestehende Summarizing-Korpora<br />

Gr<strong>und</strong>sätzlich stehen entsprechende Ressourcen zur Evaluation von Summarizern<br />

für das Englische nur in eingeschränktem Umfang zur Verfügung<br />

(Hasler et al. (2003); für einen Überblick vgl. Orasan et al. (2009)). Ein Teil<br />

der Korpora wie Klavans et al. (1998), Barzilay (1997), Jing et al. (1998),<br />

Tucker (1999) <strong>und</strong> das Summbank-Korpus des LDCs 2 ist nicht (mehr) <strong>frei</strong><br />

oder vollständig zugänglich, ein anderer Teil wie die TAC- (/DUC-) Korpora<br />

erfüllt nicht die oben genannten Mindestanforderungen von drei oder mehr<br />

unabhängigen Bewertern.<br />

2 http://www.ldc.upenn.edu (25.10.2010).


Evaluation von Summarizing-Systemen 301<br />

Daher erfüllen überhaupt nur zwei kleinere Textmengen die geforderten<br />

Kriterien: Zechner (1995) <strong>und</strong> Hasler et al. (2003). In Zechner (1995) wurden<br />

sechs Texte aus dem ,Daily Telegraph Corpus‘ von effektiv je 13 Bewertern<br />

auf die zentralsten oder relevantesten Sätze hin beurteilt, die die Gesamtbedeutung<br />

des jeweiligen Textes wiedergeben. In Hasler et al. (2003) finden<br />

sich sieben von insgesamt 163 Texten, die von drei Bewertern auf die essenziellen<br />

<strong>und</strong> wichtigen Sätze hin beurteilt worden sind (113 der 163 Texte<br />

wurden von lediglich einem Bewerter, 43 von zwei Bewertern beurteilt).<br />

Damit stehen zunächst 13 Texte für die Evaluation zur Verfügung, für die<br />

allesamt ein bestmögliches Kompromiss-Summary aus den Bewertungen gebildet<br />

werden konnte: Im Falle von Zechner (1995) wurden je nach Text die<br />

sechs oder sieben am häufigsten genannten Sätze (von insgesamt 20–22 Sätzen)<br />

als Extract verwendet, wie sie im Artikel angegeben waren; im Falle<br />

von Hasler et al. (2003) wurden alle Sätze für das Summary berücksichtigt,<br />

die von mindestens der Hälfte der Bewerter (d. h. hier 2/3) als essenziell oder<br />

wichtig beurteilt wurden (Mehrheits- statt Einheitsmeinung).<br />

2.2 Eigenes Summarizing-Korpus<br />

Zur Vergrößerung des Evaluations-Korpus wurde ein eigenes Korpus aus 10<br />

weiteren Texten erstellt, aufgeteilt auf zwei Teilkorpora I (6 Texte) <strong>und</strong> II (4<br />

Texte), die von jeweils 13 Personen im Hinblick auf extract-relevante Sätze<br />

beurteilt wurden. Als Kriterium für zu extrahierende Sätze wurde deren Informativität<br />

bzw. Interessantheit zugr<strong>und</strong>e gelegt: “Ask experts to <strong>und</strong>erline<br />

and extract the most interesting or informative fragments of the text. Measure<br />

recall and precision of the system’s summary against the human’s extract …”<br />

Hovy (2004: 594). Damit wurde der Fokus auf informative statt indikative<br />

Summarys gelegt <strong>und</strong> zugleich eine bewusste Abgrenzung zu den Extraktionskriterien<br />

von Zechner (1995) <strong>und</strong> Hasler et al. (2003) angesetzt, um eine<br />

größere Bandbreite unterschiedlicher Extract-Typen abdecken zu können. 3<br />

Die zehn englischen Texte wurden ausschließlich Online-Quellen im Zeitraum<br />

von 9/2008 bis 5/2009 entnommen <strong>und</strong> sind verschiedenen (<strong>Information</strong>s-)<br />

Textsorten wie Nachrichtenartikel, Produktbericht, Proklamation oder<br />

3 Allerdings sprechen einige Indizien dafür, dass Bewerter – unabhängig von den konkret<br />

angegebenen Extraktionskriterien (Aufgabenstellung für die Bewerter) – zumeist solche<br />

Sätze für das Extract selektieren, die für die jeweils beurteilende Person am interessantesten<br />

<strong>und</strong> informativsten sind (vgl. Krübel (2006) für deutsche Texte).


302 Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner<br />

enzyklopädischer Artikel zuzurechnen. 4 Die Bewerter waren zwischen 20<br />

<strong>und</strong> 73 Jahren alt, unter ihnen vor allem Studierende, Promovierende <strong>und</strong><br />

Angestellte der <strong>Information</strong>swissenschaft Regensburg; fast alle verfügten<br />

über gute bis sehr gute Englischkenntnisse. Die Bearbeitung der Aufgaben<br />

wurde selbständig durchgeführt, wobei den Bewertenden keine Beschränkungen<br />

hinsichtlich der Anzahl zu selektierender Sätze auferlegt wurden. Daraus<br />

resultierten – je nach Länge des Originaltextes – Kompressionen auf 8% bis<br />

50% gemessen am Umfang des Volltextes in Sätzen (gemäß Hovy (2004:<br />

584) liegt dies genau im sinnvollen Bereich). Vor allem bei kürzeren Texten<br />

waren die Kompressionsraten meist geringer.<br />

Das Referenz-Extract, mit dem die Leistung der Summarizer gemessen<br />

werden soll, ergibt sich jeweils aus den am häufigsten von den Bewertern<br />

selektierten Sätzen, die von mindestens der Hälfte als informativ/interessant<br />

bef<strong>und</strong>en wurden (d. h. 7 von 13 Bewertern müssen für einen Satz stimmen).<br />

Auf die Messung der Übereinstimmungsrate zwischen den Bewertern, z. B.<br />

durch das Kappa-Maß, wurde verzichtet, da die Werte erwartbar niedrig ausfielen.<br />

5 Ziel war nicht die Generierung eines perfekten Extracts mit vollständiger<br />

Übereinstimmung aller Bewerter, das bei 13 bewertenden Personen äußerst<br />

unwahrscheinlich wäre. Vielmehr sollte das bestmögliche Konsens-<br />

oder Kompromiss-Extract erstellt werden, dass möglichst viele unterschiedliche<br />

Nutzerinteressen <strong>und</strong> -bedürfnisse zufrieden stellt. 6<br />

4 Ein ausführliche Beschreibung <strong>und</strong> Analyse der Texte findet sich in Reischer (2010).<br />

Die Texte samt ihren Extracts <strong>und</strong> Quellen können beim Erstautor angefragt werden.<br />

5 Zum Kappa-Maß <strong>und</strong> zur Kritik daran vgl. Manning (2008: 151 ff.), Eugenio & Glass<br />

(2004: 95 f.), Orasan et al. (2009), Hunt (1986).<br />

6 Tatsächlich gab es selbst bei einer geforderten Zustimmungsrate von 75% (d. h. 10 von<br />

13 Bewertern stimmen für einen Satz) immer mindestens zwei selektierte Sätze pro<br />

Text. Dies lässt darauf schließen, dass jeder Text tatsächlich eine Reihe essenzieller<br />

Sätze enthält, auf die sich eine 3/4-Mehrheit (unausgesprochen) einigen kann.


Evaluation von Summarizing-Systemen 303<br />

3 Evaluation<br />

Im folgenden Abschnitt werden die Kriterien zur Auswahl der Summarizer<br />

vorgestellt; daran anschließend erfolgt die Darstellung des verwendeten Evaluationsmaßes<br />

<strong>und</strong> die vergleichende Auswertung der Testkandidaten.<br />

3.1 Getestete Summarizer<br />

Die Auswahl der zu testenden Summarizer erfolgte anhand folgenden Kriterienkatalogs:<br />

(i) Eine kosten<strong>frei</strong>e <strong>und</strong> funktional nicht eingeschränkte Version<br />

des Systems (z. B. 30-Tage-Testversion) muss als direkt ausführbare Datei<br />

für Windows XP SP3 oder Linux Mint 8 zur Verfügung stehen. (ii) Eine<br />

Dokumentation in Deutsch oder Englisch liegt vor. (iii) Die automatische Zusammenfassung<br />

englischer Texte wird unterstützt. (iv) Als Eingabe werden<br />

Texte im ASCII- bzw. Unicode-Format oder Texte aus der Zwischenablage<br />

akzeptiert (keine Online-Zusammenfassungen von Webseiten, da hier die<br />

Korpus-Texte nicht eingegeben werden können). (v) Als Textausgabe wird<br />

eine Textdatei oder Bildschirm-Darstellung erzeugt, anhand derer die Evaluation<br />

durchgeführt werden kann. (vi) Das System erlaubt ausreichende Einstellmöglichkeiten<br />

für die Länge des gewünschten Summarys als absolute<br />

oder prozentuale Angabe von Sätzen in Relation zum Volltext.<br />

Anhand dieser Kriterien wurden folgende fünf Systeme für die Evaluation<br />

ausgewählt (Zugriff 28.1.2010):<br />

• Copernic-Summarizer (http://www.copernic.com/en/products/summarizer/index.html),<br />

• Intellexer-Summarizer (http://www.intellexer.com/),<br />

• Microsoft-Word2007-Summarizer (http://www.microsoft.com/education/<br />

autosummarize.aspx) 7 ,<br />

• Open-Text-Summarizer (http://libots.sourceforge.net/),<br />

• Subject-Search-Summarizer (http://www.kryltech.com/summarizer.htm).<br />

Folgende Summarizer fielen aus ein oder mehreren Gründen durch das Raster<br />

obigen Kriterienkatalogs:<br />

7 Getestet wurde hier die Vollversion, die in das kommerzielle Office-Paket integriert ist,<br />

das an der Universität Regensburg zur Verfügung steht. Eine kosten<strong>frei</strong>e Version findet<br />

sich unter http://trial.trymicrosoftoffice.com/trialgermany/default.aspx.


304 Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner<br />

• Brevity-Document-Summarizer (http://www.lextek.com/brevity/brevtest.html),<br />

• MEAD-Summarizer (http://www. summarization.com/mead/),<br />

• Pertinence-Summarizer (http://www.pertinence.net/index_en.html),<br />

• Quickjist (http://quickjist-summarizer.updatestar.com/),<br />

• SenseExplore-Summarizer (http://www.soft3k.com/SenseExplore-Summarizer-p11919.htm),<br />

• Sinope-Summarizer (http://www.sinope.info/en/Download).<br />

Da auch die 30-Tage-Test-Versionen laut Herstellerangaben ohne funktionale<br />

Einschränkungen sind, wurden für die im Folgenden beschriebenen Leistungsmessungen<br />

faktisch nur Vollversionen verwendet.<br />

3.2 Leistungsmessung<br />

Zur Messung der Leistungsfähigkeit eines Summarizers ist zum einen eine<br />

geeignete Textmenge erforderlich (s. o.), zum anderen ein Verfahren der<br />

Leistungsmessung. Ein aktueller Überblick über manuelle vs. automatisierte,<br />

extrinsische vs. intrinsische Evaluationsverfahren für Abstracting <strong>und</strong> Extracting<br />

findet sich in Saggion et al. (2010), Reischer (2010), Hovy (2004), Mani<br />

(2001a/b), Jing et al. (1998).<br />

3.2.1 Leistungsmaße<br />

Für die Zwecke unserer Evaluation bietet sich das von Hovy (s. obiges Zitat)<br />

vorgeschlagene Vorgehen an, das das aus dem <strong>Information</strong> Retrieval erprobte<br />

Verfahren der Ermittlung von Recall- <strong>und</strong> Precision-Werten zur Gr<strong>und</strong>lage<br />

nimmt. Die von den Bewertern selektierten Sätze bilden eine apriori bekannte<br />

,Relevanzmenge‘ von Items (hier Sätze), die in Relation zu den tatsächlich<br />

von den Systemen ermittelten Items gesetzt werden:<br />

Anzahl Items im System- <strong>und</strong> Referenz-Extract<br />

Recall = ––––––––––––––––––––––––––––––––––––––<br />

Anzahl relevanter Items im Referenz-Extract<br />

Anzahl Items im System- <strong>und</strong> Referenz-Extract<br />

Precision = ––––––––––––––––––––––––––––––––––––––<br />

Anzahl ermittelter Items im System-Extract<br />

Da die Anzahl der relevanten Items vorab bekannt ist <strong>und</strong> die Summarizing-Systeme<br />

zwingend eine vorgegebene Anzahl zu ermittelnder Items<br />

benötigen, kann die Anzahl der von den Systemen zu ermittelnden Items mit


Evaluation von Summarizing-Systemen 305<br />

der Anzahl der relevanten Items gleichgesetzt werden. Daraus resultiert das<br />

sogenannte R-Precision-Maß (Baeza-Yates & Ribeiro-Neto (1999: 80), Manning<br />

et al. (2008: 148)):<br />

Anzahl Items im System- <strong>und</strong> Referenz-Extract<br />

R-Precision = –––––––––––––––––––––––––––––––––––––––––––––<br />

Anzahl ermittelter = relevanter Items im System-Extract<br />

Das R-Precision-Maß bietet den Vorteil, dass es einfach anzuwenden ist<br />

<strong>und</strong> den Evaluationsaufwand verringert, da keine numerisch gesonderten<br />

Precision- <strong>und</strong> Recall-Werte berechnet werden müssen. Zudem liefert das<br />

Maß normalisierte Werte zwischen 0 <strong>und</strong> 1, die genau dann erreicht werden<br />

können, wenn keine bzw. alle Items der Relevanzmenge vom System korrekt<br />

ermittelt wurden.<br />

3.2.2 Ergebnisse<br />

Tabelle 1 unten zeigt die Ergebnisse der Auswertung im Überblick, geordnet<br />

nach Korpus <strong>und</strong> Summarizing-System. Zum Vergleich sind auch die Baseline-Werte<br />

für die jeweilige Textmenge angegeben: Hierfür werden N Sätze<br />

vom Anfang jedes Textes ermittelt <strong>und</strong> die ,zufällig‘ korrekten Sätze berechnet.<br />

8 Gerade bei Nachrichten-Texten bietet die Baseline oftmals eine schwer<br />

zu schlagende Hürde (vgl. Ledeneva et al. (2008), Jurafsky & Martin (2009:<br />

841)).<br />

Tab. 1: Ergebnisse der Evaluation<br />

(Werte auf zwei Stellen ger<strong>und</strong>et; beste Werte unterstrichen)<br />

Korpus Zechner- CAST- Eigenes Eigenes Durch-<br />

Summarizer Korpus Korpus Korpus I Korpus II schnitt<br />

Baseline 0.43 0.15 0.47 0.39 0.36<br />

Copernic 0.59 0.47 0.52 0.46 0.51<br />

Intellexer 0.40 0.51 0.58 0.57 0.52<br />

OpenText 0.58 0.46 0.45 0.51 0.50<br />

SubjectSearch 0.37 0.47 0.48 0.44 0.44<br />

Word2007 0.47 0.36 0.44 0.39 0.42<br />

8 Der vergleichsweise geringe Baseline-Wert beim CAST-Korpus erklärt sich durch den<br />

gr<strong>und</strong>sätzlichen Aufbau der Texte, die am Anfang neben der doppelt angeführten Überschrift<br />

auch den Autorennamen <strong>und</strong> den Ort des beschriebenen Ereignisses stehen haben.<br />

Die Texte wurden für die Evaluation jedoch nicht verändert, da ein gutes System<br />

die Textstruktur gerade selbst erkennen können muss (z. B. anhand der geringen Satzlänge).


306 Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner<br />

Ein Wert von 0.50 bedeutet, dass ein System von N relevanten <strong>und</strong> zu ermittelnden<br />

(auszugebenden) Items 50% korrekte Treffer erzielt hat, d. h. die<br />

eine Hälfte der Items in der ermittelten Satzmenge ist korrekt, die andere<br />

Hälfte falsch.<br />

Nach den Zahlen am besten schneidet der Intellexer-Summarizer ab, dicht<br />

gefolgt vom Copernic- <strong>und</strong> OpenText-Summarizer. Allerdings bleibt allein<br />

der Copernic-Summarizer als einziges System bei keiner der Textmengen unterhalb<br />

der Baseline, d. h. er bietet die ausgewogenste Leistung, auch im Hinblick<br />

auf die Aufgabenstellung an die Bewerter (zentrale, essenzielle oder informative<br />

Sätze). In allen drei Fällen liegt die durchschnittliche Performance<br />

bei etwa 50% korrekt ermittelter Sätze.<br />

Der SubjectSearch- <strong>und</strong> Word2007-Summarizer verfehlen diese Marke<br />

deutlich, wobei das Word2007-System insgesamt bei allen Textmengen am<br />

schlechtesten abschneidet. Seine Gesamtleistung liegt etwa 10 Prozentpunkte<br />

unterhalb des besten Systems <strong>und</strong> nur 6 Punkte oberhalb der Baseline.<br />

4 Fazit <strong>und</strong> Ausblick<br />

Die besten kommerziellen <strong>und</strong> <strong>frei</strong>en Systeme zum automatischen Zusammenfassen<br />

von Texten bieten eine Leistung von etwa 50% korrekt ermittelter<br />

Texteinheiten in Bezug auf entsprechende Modell- oder Referenz-Summarys.<br />

Für den alltäglichen Gebrauch mag dies eine durchaus ausreichende Leistung<br />

sein, sofern man sich schnell einen Überblick über die Inhalte eines Textes<br />

verschaffen will. Der Mehrwert solcher Systeme kommt vor allem dann zum<br />

Tragen, wenn umfangreiches Textmaterial rezipiert werden muss. Für kritische<br />

Entscheidungen (z. B. in geschäftlichen Prozessen), in denen alle relevanten<br />

<strong>Information</strong>en ungefiltert zur Verfügung stehen müssen, eignen sich<br />

automatische Verfahren nicht. Entsprechend weisen die Hersteller darauf hin,<br />

dass keinerlei Verantwortung für (Fehl-) Entscheidungen übernommen wird,<br />

die aufgr<strong>und</strong> der Extracts von den Nutzern getroffen werden (,Disclaimer‘).<br />

Zu bedenken ist dabei auch, dass die Leistung für andere Sprachen als das<br />

Englische deutlich schlechter ausfallen kann, sodass eine generelle Aussage<br />

über diese Systeme – schon aufgr<strong>und</strong> fehlender Evaluationsressourcen für die<br />

unterstützten Sprachen – kaum möglich ist. Die Systeme müssen zudem stets<br />

einen Kompromiss hinsichtlich der verarbeitbaren Textsorten <strong>und</strong> der Aus-


Evaluation von Summarizing-Systemen 307<br />

richtung auf informative vs. indikative Summarys finden. Die hier durchgeführte<br />

intrinsische Evaluation gängiger Summarizer vermittelt daher nur einen<br />

ersten Eindruck vom Leistungsspektrum dieser Systeme. Für eine umfassendere<br />

Evaluation wären nicht nur mehr Sprachen <strong>und</strong> größere bzw. unterschiedliche<br />

Korpora notwendig, sondern auch extrinsische Evaluationen, die<br />

die Leistung der Systeme im Hinblick auf bestimmte Aufgabenstellungen<br />

messen (z. B. Entscheidung über die Relevanz von Texten). Der hierfür jeweils<br />

notwendige Aufwand ist jedoch so beträchtlich, dass dies nur schrittweise<br />

realisiert werden kann. Sinnvoll ist dabei zunächst die Vergrößerung<br />

der Datengr<strong>und</strong>lage hinsichtlich der Anzahl der Texte <strong>und</strong> in Bezug auf die<br />

Abdeckung von Textsorten. Dabei wäre schon viel gewonnen, wenn die in<br />

der Literatur erwähnten, intellektuell erstellten Ressourcen auch <strong>frei</strong> zugänglich<br />

wären bzw. nicht der Datendegeneration zum Opfer fielen. 9<br />

Literaturverzeichnis<br />

Baeza-Yates, R. & Ribeiro-Neto, B. (1999). Modern <strong>Information</strong> Retrieval. London<br />

et al.: Pearson.<br />

Barzilay, R. (1997): Lexical Chains for Summarization. Universität Negev: Masterarbeit.<br />

http://www.cs.bgu.ac.il/~elhadad/barzilay.pdf (23.8.2009)<br />

Eugenio Di, B. & Glass, M. (2004). The Kappa Statistic: A second look. Computational<br />

Linguistics, 30(1), S. 95–101.<br />

García-Hernández, R. A. & Ledeneva, Y. & Mendoza, G. M. & Dominguez, Á. H. &<br />

Chavez, J. & Gelbukh, A. & Tapia Fabela, J. L. (2009). Comparing Commercial<br />

Tools and State-of-the-Art Methods for Generating Text Summaries. Proceedings<br />

of the 8th Mexican International Conference on Artificial Intelligence (MICAI),<br />

S. 92–96.<br />

Hasler, L. & Orasan, C. & Mitkov, R. (2003). Building better corpora for summarisation.<br />

Proceedings of Corpus Linguistics 2003, S. 309–319.<br />

Hovy, E. (2004). Text Summarization. In Mitkov, R. (Hrsg.). The Oxford Handbook<br />

of Computational Linguistics. Oxford: University Press, S. 583–598.<br />

9 Für das in Klavans et al. (1998) erwähnte Korpus trifft dies offenbar zu: Es war nicht<br />

mehr auffindbar (persönliche Kommunikation via Email).


308 Jürgen Reischer, Daniel Lottes, Florian Meier, Matthias Stirner<br />

Hunt, R. J. (1986). Percent Agreement, Pearson’s Correlation, and Kappa as Measures<br />

of Inter-examiner Reliability. Journal of Dental Research, 65(2), S. 128–130.<br />

Jing, H. & Barzilay, R. & McKeown, K. & Elhadad, M. (1998). Summarization<br />

Evaluation Methods: Experiments and Analysis. Proceedings of the AAAI Symposium<br />

on Intelligent Summarization, S. 60–68.<br />

Jurafsky, D. & Martin, J. H. ( 2 2009). Speech and Language Processing. London u. a.:<br />

Pearson Education.<br />

Klavans, J. L. & McKeown, K. R. & Kan, M.-Y. & Lee, S. (1998). Resources for<br />

Evaluation of Summarization Techniques. Proceedings of the 1st International<br />

Conference on Language Resources and Evaluation (ohne Seite).<br />

Krübel, M. (2006). Analyse <strong>und</strong> Vergleich von Extraktionsalgorithmen für die Automatische<br />

Textzusammenfassung. Technische Universität Chemnitz: Diplomarbeit.<br />

Ledeneva, Y. & Gelbukh, A. & García-Hernández, R. A. (2008). Terms Derived<br />

from Frequent Sequences for Extractive Text Summarization. In Gelbukh, A.<br />

(Hrsg.). Computational Linguistics and Intelligent Text Processing. Proceedings<br />

of CICLing 2008. Berlin & Heidelberg: Springer. S. 593–604.<br />

Mani, I. (2001a). Summarization Evaluation: An Overview.<br />

http://research.nii.ac.jp/ntcir/workshop/OnlineProceedings2/sum-mani.pdf (5.1.2009)<br />

Mani, I. (2001b). Automatic Summarization. Amsterdam & Philadelphia: Benjamins.<br />

Manning, C. D. & Raghavan, P. & Schütze, H. (2008). Introduction to <strong>Information</strong><br />

Retrieval. Cambridge: University Press.<br />

Orasan, C. & Hasler, L. & Mitkov, R. (2009): Corpora for text summarisation. In<br />

Lüdeling, A. & Kytö, M. (Hrsg.). Corpus Linguistics, Bd. 2. Berlin & New York:<br />

de Gruyter, S. 1271–1286.<br />

Reischer, J. (2010): Retrieval <strong>und</strong> Ranking informativer Textpassagen. Eine theoretische<br />

<strong>und</strong> praktische Integration von informativem Summarizing <strong>und</strong> Within-<br />

Document-Retrieval. Universität Regensburg: Habilitationsschrift.<br />

Saggion, H. & Torres-Moreno, J.-M. & da Cunha, I. & SanJuan, E. & Velázquez-<br />

Morales, P. (2010). Multilingual Summarization Evaluation without Human Models.<br />

Proceedings of Coling 2010, S. 1059–1067.<br />

Tucker, R. (1999): Automatic Summarising and the CLASP system. University of<br />

Cambridge Computer Laboratory: Doktorarbeit.<br />

Zechner, K. (1995): Automatic Text Abstracting by Selecting Relevant Passages.<br />

Edinburgh: M.Sc. Dissertation.<br />

http://www.cs.cmu.edu/~zechner/abstr.pdf (23.8.2009)


Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen der ... 309<br />

Bedarf an <strong>Information</strong>sspezialisten<br />

in wissensintensiven Branchen der<br />

österreichischen Volkswirtschaft<br />

Robert Mayo Hayes 1 , Karin Karlics 2 , Christian Schlögl 2<br />

1 University of California at Los Angeles<br />

Department of <strong>Information</strong> Studies<br />

GSE&IS Building, Box 951520, Los Angeles, CA 90095<br />

rhayes@ucla.edu<br />

2 Universität Graz<br />

Institut für <strong>Information</strong>swissenschaft <strong>und</strong> Wirtschaftsinformatik<br />

Universitätsstraße 15/F3, A-8010 Graz<br />

karin.karlics | christian.schloegl @uni-graz.at<br />

Zusammenfassung<br />

Im vorliegenden Beitrag werden Teilergebnisse eines Projekts 1 vorgestellt, in<br />

dem der <strong>Information</strong>ssektor in Österreich einer eingehenden Analyse unterzogen<br />

wurde. Das Projekt nähert sich dem <strong>Information</strong>ssektors aus einer<br />

informationswissenschaftlichen Richtung an. Ausgangspunkt sind Universitätsbibliotheken,<br />

die <strong>Information</strong>sservices für <strong>Wissen</strong>schaftler <strong>und</strong> Studierende<br />

erbringen. Auf Basis der Bibliothekare, die diese Services erbringen,<br />

soll der Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen<br />

der Wirtschaft grob abgeschätzt werden. Nach einer Adaptierung des Gesamtmodells<br />

konnte eine relativ gute Übereinstimmung mit den entsprechenden<br />

Werten der (österreichischen) Erwerbstätigenstatistik erzielt werden.<br />

Abstract<br />

In this contribution we present partial results of a project, the goal of which<br />

was an extensive analysis of the information sector in Austria. The project<br />

approaches the information sector from an information science perspective.<br />

1 Das Projekt wurde vom Jubiläumsfonds der Österreichischen Nationalbank gefördert.


310 Robert Mayo Hayes, Karin Karlics, Christian Schlögl<br />

University libraries providing information services and information products<br />

to researchers and students are the starting point. Based on the number of<br />

librarians in university libraries, who provide these services, we try to project<br />

the need for information specialists serving knowledge workers in knowledge<br />

industries. After the adaptation of the model designed for this purpose, we<br />

could attain a relatively good accordance between the projected and the effective<br />

number of information specialists.<br />

1 Einführung<br />

Mittlerweile gibt es eine Reihe von Untersuchungen zum sogenannten <strong>Information</strong>ssektor.<br />

Bahnbrechend waren insbesondere die Arbeiten von Machlup<br />

(1962) <strong>und</strong> Porat (1977), auf die in Folge mehr oder weniger stark Bezug<br />

genommen wurde. Die letzte <strong>und</strong> einzige Studie mit Österreich-Bezug geht<br />

auf die 1970er Jahre zurück (Schmoranz 1980).<br />

Der in dieser Arbeit vorgestellte Ansatz unterscheidet sich von bisherigen<br />

dadurch, dass er sich dem <strong>Information</strong>ssektor aus einer informationswissenschaftlichen<br />

Perspektive annähert. Als Ausgangspunkt dienen wissenschaftliche<br />

Bibliotheken, die <strong>Wissen</strong>schaftler <strong>und</strong> Studierende mit <strong>Information</strong>en<br />

versorgen. Die zentrale Hypothese dieser Arbeit ist, dass das Modell der <strong>Information</strong>sversorgung<br />

einer Universität(-sbibliothek) auch auf wissensintensive<br />

Branchen (Knowledge Industries) übertragbar ist, in denen den <strong>Wissen</strong>schaftlern<br />

<strong>und</strong> Studierenden die sogenannten <strong>Wissen</strong>sarbeiter entsprechen.<br />

Somit kann vom Bedarf an Bibliothekaren der Bedarf an <strong>Information</strong>sspezialisten<br />

grob abgeschätzt werden. In diesem Aufsatz stehen die Ergebnisse <strong>und</strong><br />

der Test obiger Hypothese im Vordergr<strong>und</strong>.<br />

2 Forschungsfragen <strong>und</strong> Gesamtmodell<br />

Dem Projekt, auf dem der hier vorliegende Beitrag basiert, liegen folgende<br />

Annahmen zugr<strong>und</strong>e:<br />

• Annahme 1: Die Tätigkeiten von <strong>Information</strong>sspezialisten lassen sich im<br />

Wesentlichen in die Bereiche Medienbearbeitung (Auswahl, Beschaf-


Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen der ... 311<br />

fung, formale <strong>und</strong> inhaltliche Erschließung) <strong>und</strong> Benutzerbetreuung (Anbieten<br />

von <strong>Information</strong>sdiensten <strong>und</strong> Bereitstellen von <strong>Information</strong>sprodukten)<br />

einteilen. Der Bedarf an <strong>Information</strong>sspezialisten wird im Bereich<br />

der Medienbearbeitung primär vom Ausmaß an Medienzugängen<br />

<strong>und</strong> im Bereich der Benutzerbetreuung hauptsächlich von der Anzahl der<br />

Bibliotheksbenutzer bestimmt.<br />

• Annahme 2: In den mit Universitäten vergleichbaren Organisationen<br />

(wissensintensive Branchen) kann der Bedarf an <strong>Information</strong>sspezialisten<br />

in ähnlicher Weise ermittelt werden. Insbesondere gilt, dass den Benutzern<br />

einer Universitätsbibliothek (<strong>Wissen</strong>schaftler, Studierende) <strong>Wissen</strong>sarbeiter<br />

in wissensintensiven Branchen entsprechen. Weiter gilt, dass<br />

die Medienanschaffungen an einer Universitätsbibliothek den Aufwendungen<br />

für Verlagsprodukte in wissensintensiven Branchen entsprechen.<br />

Daraus leitet sich die zentrale Hypothese dieser Arbeit ab: Von der Anzahl<br />

der Bibliothekare an Universitätsbibliotheken kann der Bedarf an <strong>Information</strong>sspezialisten<br />

in wissensintensiven Branchen grob abgeschätzt werden.<br />

Dieser Sachverhalt wird in Abbildung 1 zum Ausdruck gebracht.<br />

NATIONALE VOLKSWIRTSCHAFT – KNOWLEDGE INDUSTRIES / WISSENSINTENSIVES SEGMENT<br />

UNIVERSITÄTEN / BIBLIOTHEKEN<br />

VZÄ Medienbearbeitung<br />

:<br />

€ Medienzukäufe<br />

=<br />

VZÄ Medienbearbeitung/<br />

Mio. € Medienanschaffungen<br />

VZÄ Nutzerbetreuung<br />

:<br />

Primäre Bibliotheksnutzer<br />

=<br />

VZÄ Nutzerbetreuung/<br />

Primäre Bibliotheksnutzer<br />

˜<br />

˜<br />

˜<br />

Abbildung 1: Gesamtmodell<br />

WISSENSINTENSIVE BRANCHEN<br />

VZÄ Medienbearbeitung<br />

=<br />

Zukäufe an<br />

Verlagsprodukten<br />

x<br />

VZÄ Medienbearbeitung/<br />

Mio. € Ausgaben<br />

Verlagsprodukte<br />

VZÄ Nutzerbetreuung<br />

=<br />

<strong>Wissen</strong>sarbeiter<br />

x<br />

VZÄ Nutzerbetreuung/<br />

<strong>Wissen</strong>sarbeiter<br />

Primär<br />

n<br />

re Sek<strong>und</strong>är<br />

Tertiär<br />

s<br />

e<br />

k<br />

to<br />

<strong>Information</strong><br />

c<br />

h<br />

a<br />

fts<br />

IT<br />

irts<br />

W<br />

TI<br />

KI<br />

Erwerbstätigenstatistik nach ÖNACE <strong>und</strong> Berufen<br />

Quelle: Arbeitskräfteerhebung Statistik Austria<br />

Berufsgruppen<br />

IS WA<br />

X X<br />

Arbeitskräfte n. Berufsgruppen<br />

IT = <strong>Information</strong> Technology Industries; TI = Transaction Industries; KI = Knowledge Industries;<br />

IS = <strong>Information</strong>sspezialisten; WA = <strong>Wissen</strong>sarbeiter; VZÄ = Vollzeitäquivalente<br />

+<br />

=<br />

A<br />

rb<br />

e<br />

its<br />

k<br />

rä<br />

fte<br />

n<br />

a<br />

c<br />

h<br />

S<br />

e<br />

k<br />

to<br />

re<br />

n


312 Robert Mayo Hayes, Karin Karlics, Christian Schlögl<br />

Wie aus Abbildung 1 ersichtlich ist, wird im Universitätskontext die Verhältniszahl<br />

„Mitarbeiter Medienbearbeitung (Vollzeitäquivalente – VZÄ) je<br />

1 Mio. € Medienanschaffungen“ aus der Division der beiden Kennzahlen<br />

„Mitarbeiter Medienbearbeitung“ (Quelle: Library Planning Model) <strong>und</strong><br />

„Medienzukäufe“ (Quelle: Bibliotheksstatistik) ermittelt. Diese Verhältniszahl<br />

wird dann für die wissensintensiven Branchen übernommen. Die Multiplikation<br />

mit den Zukäufen an Verlagsprodukten (Quelle: Input-Output-<br />

Matrix) ergibt den Bedarf an <strong>Information</strong>sspezialisten in der Medienbearbeitung<br />

in den wissensintensiven Branchen.<br />

In ähnlicher Weise erfolgt die Berechnung der <strong>Information</strong>sspezialisten<br />

im Nutzungsbereich. Die Bibliotheksmitarbeiter in der Nutzung (VZÄ)<br />

(Quelle: Library Planning Model) dividiert durch die Anzahl der Bibliotheksnutzer<br />

ergibt die Verhältniszahl Bibliothekare (VZÄ) je Bibliotheksnutzer.<br />

2 Zu den Bibliotheksnutzern werden zum einen wissenschaftliche Mitarbeiter<br />

<strong>und</strong> zum anderen Studierende gezählt. Da Studierende, insbesondere<br />

solche, die in Bachelor-Studiengänge eingeschrieben sind, eine deutlich niedrigere<br />

Nutzungsfrequenz als beispielsweise Forscher aufweisen, wurden die<br />

drei Hauptnutzergruppen wie folgt gewichtet: 1 (Forscher) : 2/3 (Studierende<br />

auf Masterebene) : 1/2 (Studierende auf Bachelorlevel). Die Verhältniszahl<br />

„Bibliothekare in der Nutzerbetreuung je Bibliotheksnutzer“ wird wiederum<br />

in den volkswirtschaftlichen Kontext übertragen. Die Multiplikation mit der<br />

Anzahl der <strong>Wissen</strong>sarbeiter in den wissensintensiven Organisationen ergibt<br />

den Bedarf an <strong>Information</strong>sspezialisten im Nutzungsbereich. Aus der Summe<br />

der <strong>Information</strong>sspezialisten aus beiden Bereichen (Medienbearbeitung <strong>und</strong><br />

Nutzung) errechnet sich schließlich deren Gesamtbedarf.<br />

3 Methoden <strong>und</strong> Datenquellen<br />

Im Projekt wurden folgende Methoden verwendet:<br />

• Library Planning Model (LPM)<br />

• Input-Output-Analyse. 3<br />

2 Um Zufallsschwankungen zu vermeiden, werden die Zahlen für eine durchschnittliche<br />

österreichische Universität(-sbibliothek) verwendet.<br />

3 Eine detaillierte Beschreibung dieser beiden Methoden findet sich im Beitrag von Hayes,<br />

Karlics <strong>und</strong> Schlögl (2009).


Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen der ... 313<br />

Bei dem von Hayes (2001) entwickelten Library Planning Model (LPM)<br />

handelt es sich um ein Werkzeug zur Leistungsmessung in wissenschaftlichen<br />

Bibliotheken. Damit ist es auf der Gr<strong>und</strong>lage von Erfahrungswerten<br />

möglich, den Bedarf an Mitarbeitern, finanziellen Ressourcen <strong>und</strong> Service-<br />

Einrichtungen für eine bestimmte Bibliothek zu schätzen. Für das vorliegende<br />

Projekt war die Bestimmung der Mitarbeiterbedarfe in der Medienbearbeitung<br />

<strong>und</strong> Benutzerbetreuung für eine durchschnittliche österreichische<br />

Universitätsbibliothek von Relevanz. Zu diesem Zweck musste dieses für<br />

amerikanische Bibliotheken entwickelte Modell an die österreichische Situation<br />

angepasst werden (Karlics & Hayes 2008; Hayes, Karlics & Schlögl<br />

2009). Gefüttert wurde das LPM primär mit Daten aus der österreichischen<br />

Bibliotheksstatistik (Quelle: Statistik Austria 2007) <strong>und</strong> dem Data warehouse<br />

uni:data (Quelle: B<strong>und</strong>esministerium für <strong>Wissen</strong>schaft <strong>und</strong> Forschung 2010).<br />

Die Input-Output-Analyse (Statistik Austria 2010a) diente dazu, den Input<br />

(die Zukäufe) an Verlagsprodukten in den wissensintensiven Branchen zu<br />

ermitteln. Diese <strong>Information</strong>en können sogenannten Verwendungstabellen<br />

entnommen werden, die mit einer Zeitverzögerung von drei Jahren veröffentlicht<br />

werden. In einer Verwendungstabelle wird zum Ausdruck gebracht,<br />

welche Güter in welcher Höhe in die einzelnen Branchen (Intermediärverbrauch)<br />

<strong>und</strong> in den Endkonsum einfließen. Beispielsweise kann aus ihr abgelesen<br />

werden, welche Branchen Güter der Klasse 22 (Verlags- <strong>und</strong> Druckerzeugnisse)<br />

in welcher Höhe bezogen haben. Die Verwendungstabellen für<br />

das Jahr 2005 – der im Projektzeitraum aktuellsten Version – liegen in einer<br />

Detailliertheit 73 (Güter) × 74 (Branchen) vor. Die im Jahr 2005 relevante<br />

Klassifikation war die in der EU zu jenem Zeitpunkt verwendete NACE Rev.<br />

1.1.<br />

Da es Ziel dieser Arbeit ist, den Bedarf an <strong>Information</strong>sspezialisten in<br />

wissensintensiven Branchen (Knowledge Industries) abzuschätzen, war es<br />

zunächst erforderlich, diese abzustecken. Nach dem Verständnis dieser Arbeit<br />

handelt es sich dabei um alle „Organisationen, die sich in erster Linie mit<br />

der Erzeugung von neuem <strong>und</strong> der intellektuellen Analyse von bestehendem<br />

<strong>Wissen</strong> sowie der <strong>Information</strong>svermittlung beschäftigen.“ (Hayes, Karlics &<br />

Schlögl 2009, 119). Demgemäß wurden folgende NACE-Branchen den<br />

Knowledge Industries zugeordnet: 22 – Verlagswesen, Druckerei, Vervielfältigung;<br />

73 – Forschung <strong>und</strong> Entwicklung; 74A – Rechts-, Steuer- <strong>und</strong> Unternehmensberatung,<br />

Markt- <strong>und</strong> Meinungsforschung, Beteiligungsgesellschaften;<br />

74B – Architektur- <strong>und</strong> Ingenieurbüros, technische, physikalische <strong>und</strong><br />

chemische Untersuchung; 74C – Werbewesen; 75 – Öffentliche Verwaltung,


314 Robert Mayo Hayes, Karin Karlics, Christian Schlögl<br />

Sozialversicherung; 80 – Unterrichtswesen; 85A – Ges<strong>und</strong>heits- <strong>und</strong> Veterinärwesen;<br />

90 – Interessensvertretungen, Vereine; 92A – Kultur, Sport <strong>und</strong><br />

Unterhaltung; 92B – Hörfunk- <strong>und</strong> Fernsehanstalten, Film- <strong>und</strong> Videoherstellung,<br />

-verleih <strong>und</strong> -vertrieb, Lichtspieltheater (Kinos).<br />

Als weitere wesentliche Datenquelle ist schließlich noch die Erwerbstätigentabelle<br />

(Quelle: Statistik Austria 2010b) zu nennen. Diese enthält die<br />

Beschäftigtenzahlen (nach Köpfen), die auf Gr<strong>und</strong>lage des Labour Force-<br />

Konzepts im Rahmen einer jährlichen Mikrozensus-Studie (Stichprobe: 0,6%<br />

der österreichischen Haushalte) erhoben werden. Die Erwerbstätigendaten<br />

wurden in den beiden Dimensionen Branchen <strong>und</strong> Berufe zur Verfügung<br />

gestellt. Die Berufsdimension auf Basis der ISCO-88 Berufsklassifikation<br />

(ILO 2004) war dabei relativ detailliert (3-Steller). Auch die Branchendimension<br />

lag auf einer detaillierteren NACE-Ebene (3-Steller) als die Verwendungstabelle<br />

vor. Insofern war es kein Problem, die für das Projekt benötigten<br />

Kennzahlen für <strong>Wissen</strong>sarbeiter bzw. <strong>Information</strong>sspezialisten in den<br />

wissensintensiven Branchen zu ermitteln, wobei noch zu klären ist, wie sich<br />

diese beiden Berufsgruppen zusammensetzen.<br />

Laut dem Begriffsverständnis der hier vorliegenden Arbeit führen <strong>Wissen</strong>sarbeiter<br />

primär Tätigkeiten aus, die die Erzeugung von neuem <strong>Wissen</strong>,<br />

die Transformation von bestehendem <strong>Wissen</strong> in eine für den Empfänger geeignete<br />

Form oder die Verteilung von <strong>Wissen</strong> zum Gegenstand haben. Als<br />

Gr<strong>und</strong>lage für die Ermittlung der <strong>Wissen</strong>sarbeiter diente das auf der ISCO-<br />

Berufsklassifikation basierende „OECD information worker scheme“ (OECD<br />

1981, 24), das <strong>Information</strong>sarbeiter in vier Haupt- <strong>und</strong> elf Unterkategorien<br />

einteilt. Im Projekt wurden den <strong>Wissen</strong>sarbeitern, die enger als <strong>Information</strong>sarbeiter<br />

laut OECD abgesteckt wurden, folgende vier Unterkategorien zugerechnet:<br />

wissenschaftliche <strong>und</strong> technische Berufe, beratende Dienstleistungen,<br />

Pädagogen <strong>und</strong> Berufe im Kommunikationswesen.<br />

Die <strong>Information</strong>sspezialisten konnten ohne den Umweg über das OECD-<br />

Schema bestimmt werden. Sie entsprechen den ISCO-Klassen „243 – Archivare,<br />

Bibliothekare <strong>und</strong> verwandte <strong>Information</strong>sspezialisten“ 4 <strong>und</strong> „414 –<br />

Bibliotheks-, Post- <strong>und</strong> verwandte Angestellte“ 4 , wobei aus Letzterer „Post-<br />

<strong>und</strong> verwandte Angestellte“ herausgefiltert wurden.<br />

4 Quelle: http://www.ilo.org/public/english/bureau/stat/isco/isco88/


Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen der ... 315<br />

4 Ergebnisse<br />

In diesem Kapitel werden die durchgeführten Berechnungen Schritt für<br />

Schritt (siehe auch Abb. 2) vorgestellt. Im Universitätskontext ergaben sich<br />

folgende Werte für eine durchschnittliche österreichische Universitätsbibliothek:<br />

• Bibliothekare in der Medienbearbeitung: 23,4 VZÄ [1] 5<br />

• Bibliothekare in der Nutzerbetreuung: 27,9 VZÄ [2]<br />

• Medienzukäufe: € 1.414.609 [3]<br />

• Bibliotheksnutzer: 6.569 VZÄ [4].<br />

Daraus wurden die beiden Verhältniszahlen „Bibliothekare in der Medienbearbeitung<br />

je 1 Mio. € Medienzukäufe“ (16,54 VZÄ [5]) <strong>und</strong> „Bibliothekare<br />

je Bibliotheksnutzer“ (0,004247 VZÄ [6]) errechnet. Zur Bestimmung der<br />

<strong>Information</strong>sspezialisten im Nutzungsbereich war es erforderlich, die Anzahl<br />

der <strong>Wissen</strong>sarbeiter in den wissensintensiven Branchen zu ermitteln. Dieser<br />

Wert wurde aus der nach Branchen <strong>und</strong> Beschäftigtengruppen gegliederten<br />

Erwerbstätigentabelle errechnet (siehe Tabelle 1).<br />

Tabelle 1:<br />

Anzahl der <strong>Wissen</strong>sarbeiter <strong>und</strong> <strong>Information</strong>sspezialisten auf Ebene der einzelnen<br />

(Sub-) Sektoren der österreichischen Volkswirtschaft im Jahr 2005<br />

<strong>Information</strong> Technology<br />

Industries<br />

<strong>Information</strong> Transaction<br />

Industries<br />

Knowledge Industries<br />

(wissensintensive Branchen)<br />

<strong>Wissen</strong>sarbeiter <strong>Information</strong>s-<br />

spezialisten<br />

Input Verlags-<br />

<strong>und</strong> Druckerzeugnisse<br />

absolut relativ absolut relativ absolut<br />

317.066 33,7% 3.327.220<br />

315.185 33,3% .3624.263<br />

337.755 73,2% 3.477 71% 2.104.695<br />

(Quelle: Statistik Austria <strong>und</strong> eigene Berechnungen) <strong>und</strong> Input der ÖNACE Klasse<br />

22 – Verlag- <strong>und</strong> Druckerzeugnisse pro (Sub-) Sektor (Intermediärverbrauch) im<br />

Jahr 2005 (in 1.000 €) (Quelle: Statistik Austria – Verwendungstabelle 2005).<br />

5 Die Angaben in eckigen Klammern beziehen sich auf die Einträge in Abbildung 2.


316 Robert Mayo Hayes, Karin Karlics, Christian Schlögl<br />

Wenig überraschend ist, dass ein Großteil der <strong>Wissen</strong>sarbeiter (337.755<br />

[7a] bzw. 73,2%) in den wissensintensiven Branchen tätig ist. Zu berücksichtigen<br />

ist noch, dass bei den Universitäten, die ja auch Teil der Knowledge<br />

Industries sind, die Studierenden eine Nutzergruppe darstellen, die von herkömmlichen<br />

Beschäftigungsstatistiken nicht berücksichtigt werden. Die Zahl<br />

der Studierenden [7b] – wiederum gewichtet nach Bachelor <strong>und</strong> Master, um<br />

unterschiedlichen Nutzungsniveaus zu entsprechen – ist daher den <strong>Wissen</strong>sarbeitern<br />

zuzuschlagen. Multipliziert man nun die Gesamtzahl der Nutzer in<br />

den Knowledge Industries (561.872 [7]) mit der Verhältniszahl „<strong>Information</strong>sspezialisten<br />

je <strong>Wissen</strong>sarbeiter“, so ergibt sich ein errechneter Bedarf<br />

von 1919 <strong>Information</strong>sspezialisten (im Nutzungsbereich) [8].<br />

Für die Bestimmung der <strong>Information</strong>sspezialisten in der Medienbearbeitung<br />

muss zunächst der Input an Verlagsprodukten in den Knowledge Industries<br />

errechnet werden (siehe Tabelle 1). Die Multiplikation dieser Zahl, für<br />

die ein Wert von 2.104,7 Mio. € [9] ermittelt wurde, mit der Verhältniszahl<br />

„<strong>Information</strong>sspezialisten je 1 Mio. € Zukäufe an Verlagsprodukten“ [5] ergibt<br />

einen errechneten Bedarf von 34.815 <strong>Information</strong>sspezialisten (in der<br />

Medienbearbeitung) [10]. Addiert man noch die <strong>Information</strong>sspezialisten im<br />

Benutzungsbereich hinzu, so kommt man auf einen Bedarf an <strong>Information</strong>sspezialisten<br />

von insgesamt 36.734 VZÄ [11].<br />

Wie aus Abbildung 2 ersichtlich ist, ist die errechnete Zahl für <strong>Information</strong>sspezialisten<br />

zehn Mal so hoch wie der aus der Beschäftigtenmatrix ermittelte<br />

Wert (3.477 [12]), wobei sich Letzterer nicht auf Vollzeitäquivalente,<br />

sondern auf Köpfe bezieht. Die ursprünglich aufgestellte Hypothese, wonach<br />

man von der Anzahl der Bibliothekare an Universitätsbibliotheken auf den<br />

Bedarf an <strong>Information</strong>sspezialisten in Knowledge Industries schließen kann,<br />

kann somit nicht bestätigt werden.<br />

Eine Ursache liegt am hohen Wert für Verlags- <strong>und</strong> Druckerzeugnisse,<br />

wobei eigentlich nur Verlagsprodukte für das Projekt relevant wären. Da die<br />

Input-Output-Tabellen aber nicht auf diesem Detailliertheitsgrad vorliegen,<br />

wurde bei der Ermittlung der <strong>Information</strong>sspezialisten ein viel zu hoher Wert<br />

angesetzt. Eine endgültige Ablehnung der Hypothese ist mit absoluter Gewissheit<br />

also nicht möglich, wenn auch die Vermutung nahe liegt, dass Ankäufe<br />

von Verlagsprodukten in Bibliotheken in Relation zu den Knowledge<br />

Industries deutlich höher sein dürften.


Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen der ... 317<br />

Universitäts(-bibliotheks)kontext Knowledge Industries<br />

Bibliothekare VZÄ in der<br />

Medienbearbeitung<br />

23,4 [1]<br />

<strong>Information</strong>sspezialisten<br />

VZÄ in der Medienbearbeitung<br />

34.815 [10]<br />

: : = =<br />

Medieneinkäufe (Mio. €) 1,41 [3]<br />

Einkäufe an Verlagsprodukten<br />

(Mio. €)<br />

2.104,7 [9]<br />

= = x x<br />

Bibliothekare Medienbearbeitung<br />

VZÄ je 1<br />

Mio. € Medieneinkäufe<br />

Bibliothekare in der<br />

Nutzerbetreuung (VZÄ)<br />

16,54 [5] ≈<br />

27,9 [2]<br />

<strong>Information</strong>sspezialisten<br />

VZÄ Medienbearbeitung je<br />

1 Mio. € Medieneinkäufe<br />

<strong>Information</strong>sspezialisten<br />

VZÄ in der Nutzerbetreuung<br />

16,54 [5]<br />

1.919 [8]<br />

: : = =<br />

Bibliotheksnutzer 6.569 [4]<br />

<strong>Wissen</strong>sarbeiter +<br />

Studierende (gewichtet)<br />

(337.755 [7a]+<br />

114.117 [7b])<br />

= = x x<br />

Bibliothekare VZÄ in der<br />

Nutzerbetreuung je Bibliotheksbenutzer<br />

0,004247[6] ≈<br />

<strong>Information</strong>sspezialisten<br />

VZÄ Nutzerbetreuung je<br />

<strong>Wissen</strong>sarbeiter<br />

<strong>Information</strong>sspezialisten in Knowledge Industries lt. Modell (gesamt)<br />

(<strong>Information</strong>sspezialisten Nutzerbetreuung (VZÄ) [8] +<br />

<strong>Information</strong>sspezialisten Medienbearbeitung (VZÄ) [10]) :<br />

<strong>Information</strong>sspezialisten in Knowledge Industries (gesamt)<br />

laut Statistik Austria für das Jahr 2005:<br />

Abbildung 2: Berechnung der <strong>Information</strong>sspezialisten im Gesamtmodell<br />

0,004247 [6]<br />

36.734 [11]<br />

3.477 [12]<br />

Da der tatsächliche Wert für Ankäufe von Verlagserzeugnissen aus der<br />

Aufkommenstabelle der Input-Output-Rechnung nicht eruierbar ist, wurde in<br />

weiterer Folge eine alternative Vorgehensweise beschritten. Es wurde auf die<br />

Trennung von Medienbearbeitung <strong>und</strong> Benutzung (Annahme 1) verzichtet.<br />

Stattdessen soll von der Verhältniszahl „alle Bibliothekare [1] 6 je Benutzer“<br />

[2] auf den Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen<br />

geschlossen werden.<br />

Wie aus Abbildung 3 zu sehen ist, kommt es zu einer relativ guten Übereinstimmung<br />

zwischen dem errechneten Bedarf an <strong>Information</strong>sspezialisten<br />

(3.494 VZÄ [3]) <strong>und</strong> dem von Statistik Austria im Jahr 2005 erhobenen Wert<br />

(3.477 Köpfe).<br />

6 Die Angaben in eckigen Klammern beziehen sich auf die Einträge in Abbildung 3.


318 Robert Mayo Hayes, Karin Karlics, Christian Schlögl<br />

Universitäts(-bibliotheks)kontext Knowledge Industries<br />

Bibliothekare VZÄ gesamt<br />

(lt. Statistik Austria)<br />

50,8 [1]<br />

<strong>Information</strong>sspezialisten<br />

VZÄ gesamt<br />

3.494 [3]<br />

: : = =<br />

Bibliotheksnutzer 6.569<br />

Bibliothekare gesamt je<br />

User (VZÄ)<br />

<strong>Wissen</strong>sarbeiter +<br />

Studierende (gewichtet)<br />

(337.755 +<br />

114.117)<br />

= = x x<br />

0,007733 [2] ≈<br />

<strong>Information</strong>sspezialisten VZÄ<br />

gesamt je <strong>Wissen</strong>sarbeiter<br />

0,007733 [2]<br />

Abbildung 3: Berechnung der <strong>Information</strong>sspezialisten im adaptierten Gesamtmodell<br />

5 Einschränkungen der Studie <strong>und</strong> Ausblick<br />

Auch wenn im adaptierten Gesamtmodell eine relativ gute Übereinstimmung<br />

von errechnetem Bedarf an <strong>Information</strong>sspezialisten mit jenem laut Erwerbstätigenstatistik<br />

erzielt werden konnte, sollen die während des Projekts aufgetretenen<br />

Problembereiche nicht verschwiegen werden:<br />

Ein generelles Problem besteht im hohen Aggregationsniveau von volkswirtschaftlichen<br />

Analysen. Beispielsweise liegt die Aufkommenstabelle nur<br />

als 73 × 74-Matrix vor. Für die Bestimmung der Zukäufe an Verlagsprodukten<br />

wäre es aber wünschenswert gewesen, die NACE-Klasse 22 um eine<br />

Ebene tiefer (Klasse 22.1 Verlagserzeugnisse) vorliegen zu haben. Darüber<br />

hinaus hätte die Abgrenzung der Knowledge Industries präziser vorgenommen<br />

werden können, wenn die Daten in einigen Fällen (z. B. öffentliche<br />

Verwaltung) detaillierter vorgelegen hätten.<br />

Die Beschäftigtentabelle lag zwar in ausreichender Detailliertheit (NACE<br />

<strong>und</strong> ISCO 3-Steller) vor. Da aber die Beschäftigtendaten in Form einer Mikrozensus-Studie<br />

erhoben werden, bei der nur 0,6% der österreichischen<br />

Haushalte befragt werden, müssen die Werte in den einzelnen Zellen aus<br />

Signifikanzgründen laut Auskunft von Statistik Austria (2009) einen bestimmten<br />

Schwellenwert (3.000) überschreiten, damit sie statistisch interpretierbar<br />

sind. Da aber die Gesamtzahl der <strong>Information</strong>sspezialisten in den<br />

sich aus elf Branchen zusammensetzenden Knowledge Industries knapp über<br />

diesem Wert liegt, ist diese Anforderung nur bedingt erfüllt. Darüber hinaus<br />

muss berücksichtigt werden, dass bei der Mikrozensus-Erhebung Köpfe ge-


Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen der ... 319<br />

zählt werden. Der den Vollzeitäquivalenten entsprechende Wert, der dem<br />

errechneten Bedarf gegenübergestellt wird, sollte daher niedriger sein.<br />

Auch am LPM, das allerdings im adaptierten Modell nicht mehr benötigt<br />

wurde, sind Kritikpunkte auszumachen. Dieses wurde für US-Bibliotheken<br />

entwickelt, die im Vergleich zu Bibliotheken aus dem deutschsprachigen<br />

Raum teilweise unter anderen Rahmenbedingungen operieren. Diesen sollte<br />

durch diverse Modellanpassungen entsprochen werden.<br />

Schließlich sei noch darauf hingewiesen, dass im vorliegenden Projekt<br />

nur explizit mit <strong>Information</strong>smanagement-Tätigkeiten betraute Personen<br />

(Bibliothekare/<strong>Information</strong>sspezialisten) berücksichtigt wurden. Insofern<br />

kann das hier beschriebene Projekt als Ausgangspunkt für eine Folgestudie<br />

mit einem wesentlich weiteren Fokus dienen. Zum einen sollten <strong>Information</strong>smanagement-Tätigkeiten<br />

nicht nur auf externe <strong>Information</strong>en bezogen<br />

werden. In vielen Organisationen spielt das Management der intern generierten<br />

<strong>Information</strong>en (z. B. Dokumentenmanagement oder <strong>Information</strong> Architecture)<br />

eine ähnlich wichtige Rolle. Zum anderen führen <strong>Wissen</strong>sarbeiter selbst<br />

eine Reihe von informationellen Tätigkeiten durch. Interessant wäre es nun,<br />

auch das Ausmaß dieser Tätigkeiten zu erheben. Eine Folgestudie lässt sich<br />

allerdings nicht mehr auf einer derart aggregierten Ebene durchführen. Angeregt<br />

wird daher eine Analyse in dafür in Frage kommenden Organisationen<br />

(z. B. in wissensintensiven Branchen) selbst.<br />

Literaturverzeichnis<br />

B<strong>und</strong>esministerium für <strong>Wissen</strong>schaft <strong>und</strong> Forschung (2010). uni:data Datawarehouse<br />

des B<strong>und</strong>esministeriums für <strong>Wissen</strong>schaft <strong>und</strong> Forschung.<br />

http://www.bmwf.gv.at/unidata (Retrieved October 25, 2010)<br />

ILO (2004). ISCO: International Standard Classification of Occupations – ISCO 88.<br />

International Labour Organization.<br />

http://www.ilo.org/public/english/bureau/stat/isco/isco88/index.htm (Retrieved October<br />

25, 2010)<br />

Hayes, R. (2001). Models for Library Management, Decision-Making, and Planning.<br />

San Diego: Academic Press.<br />

Hayes, R., Karlics, K., Schlögl, C. (2009). The problem of measuring e-resources. In:<br />

Proceedings of LIDA 2009 conference, University of Zadar, Department of Li-


320 Robert Mayo Hayes, Karin Karlics, Christian Schlögl<br />

brary and <strong>Information</strong> Science, and Rudgers University, School of Communication,<br />

<strong>Information</strong> and Library Studies, S. 95–103.<br />

Karlics, K., Hayes, R. (2008). The Austrian Library Planning Model: <strong>Information</strong><br />

use – USA versus Austria. In: J. Selthofer et al. (Eds): Proceedings of the LIDA<br />

2008 conference, University of Osijek, S. 263–274.<br />

Machlup, F. (1962). The Production and Distribution of Knowledge in the United<br />

States. Princeton, N.J.: Princeton University Press.<br />

OECD (1981). <strong>Information</strong> Activities, Electronics and Telecommunications Technologies:<br />

Impact on Employment, Growth and Trade. Paris: OECD.<br />

Porat, M. U. (1977). The <strong>Information</strong> Economy: Definition and Measurement. Washington:<br />

US Department of Commerce.<br />

Schmoranz, I. (1980). Makroökonomische Analyse des <strong>Information</strong>ssektors. Schriftenreihe<br />

der Österr. Computer Gesellschaft. Wien: Oldenbourg.<br />

Statistik Austria (2007). Kulturstatistik 2005, Wien.<br />

http://www.statistik.at/dynamic/wcmsprod/idcplg?IdcService=GET_NATIVE_FILE<br />

&dID=48956&dDocName=024111 (Retrieved October 25, 2010)<br />

Statistik Austria (2009). E-Mail von Statistik Austria „Erwerbstätigenstatistik nach<br />

Wirtschaftszweigen (ÖNACE) <strong>und</strong> Beruf (ISCO)“ vom 13.4.2009.<br />

Statistik Austria (2010a). Input-Output-Statistik.<br />

http://www.statistik.at/web_de/statistiken/volkswirtschaftliche_gesamtrechnungen/in<br />

put-output-statistik/index.html (Retrieved October 25, 2010)<br />

Statistik Austria (2010b). Arbeitsmarkt.<br />

http://www.statistik.at/web_de/statistiken/arbeitsmarkt/index.html (Retrieved October<br />

25, 2010)


Bedarf an <strong>Information</strong>sspezialisten in wissensintensiven Branchen der ... 321<br />

Session 8:<br />

User Experience & Behavior


322 Isto Huvila<br />

Abstract<br />

Mining qualitative data on human<br />

information behaviour from the Web<br />

Isto Huvila<br />

Uppsala University – Dept of ALM<br />

Thunbergsvägen 3H, SE-75126 Uppsala, Sweden<br />

firstname.lastname@abm.uu.se<br />

This paper discusses an approach of collecting qualitative data on human<br />

information behaviour that is based on mining web data using search engines.<br />

The approach is technically the same that has been used for some time in<br />

webometric research to make statistical inferences on web data, but the present<br />

paper shows how the same tools and data collecting methods can be<br />

used to gather data for qualitative data analysis on human information behaviour.<br />

Introduction<br />

The theoretical and methodological variety of information behaviour (IB)<br />

research is considerable (e.g. Fisher et al., 2005; Case, 2002; Wilson, 2010).<br />

In spite of the wealth of theoretical frameworks and methods, the prevalent<br />

approaches tend to focus on broad surveys of large populations or focused<br />

indepth studies of small groups of people. Especially the qualitative approaches<br />

tend to be labour intensive both during data collection and analysis<br />

phases. Large quantitative require a relatively broad <strong>und</strong>erstanding of the studied<br />

phenomenon before data collection. Surveys have persistent problems<br />

with response rates that pertains to both web based and other types of surveys<br />

(e.g. Bertot, 2009). The present article discusses an approach of collecting<br />

data on IB that is based on mining web data. The approach is technically the<br />

same that has been used for sometime in webometric research (Thelwall et


Mining qualitative data on human information behaviour from the Web 323<br />

al., 2005) to make statistical inferences on web data, but the present paper<br />

shows how the same tools and data collecting methods can be used to gather<br />

data for qualitative data analysis on IB.<br />

Mining data from the web<br />

Webometric mining of web data is based on the fact that large amounts of<br />

data can be collected automatically using techniques like web crawling or by<br />

exploiting the application programming interfaces (API) provided by major<br />

search engines like Google, Bing and Yahoo (Thelwall et al., 2005). The<br />

methods used to collect quantifiable data for webometric research can also be<br />

used to collect qualitative data. The present study is based on two experiments<br />

made in November 2009 and 2010 using LexiURL Searcher software<br />

(Thelwall, 2009) that can be used to retrieve various types of research data<br />

from the major search engines using their respective APIs. The experiments<br />

were based on batch searching of lists of web pages that contain a selection<br />

of IB related utterances listed in Table 1. A second experiment with search<br />

engine related phrases gave similar results to the first one. Another set of data<br />

with phrases “I tried to Google but” (532 hits, 44 valid hits in 50 analysed<br />

phrases), “I tried to search on Yahoo” (19, 13/14), “I tried to search in” (803,<br />

49/50), “I tried to search in/on the Internet” (178, 35/50), “I tried to look for”<br />

(943, 22/50), “I searched on/in Wikipedia” (168, 50/50) and “I searched on/in<br />

Youtube” (752, 50/50) were analysed with (from methodological point of<br />

view) comparable outcomes.<br />

Table 1: Examples of analysed utterances related to unsuccessful social information<br />

seeking.<br />

Utterance Hits<br />

returned<br />

“i asked my<br />

friends but”<br />

“is asked my<br />

[mum/mom] but”<br />

“i asked my dad<br />

but”<br />

IB related<br />

hits<br />

Example of data<br />

75 39 “I asked my friends [about language use],<br />

but they were like, ‘Young, we grew up in<br />

English. It’s so hard to explain’.”<br />

55 31 “Um what’s a prostitute? I asked my mum<br />

but she won’t tell me.”<br />

116 93 “I asked my dad but he couldn’t explain it<br />

so I could <strong>und</strong>erstand.”


324 Isto Huvila<br />

The web pages that contained the utterances were analysed using content<br />

analysis and close reading to map the variety of characteristics and patterns<br />

in the information seeking situations and their contexts. Finally, the utterances<br />

were classified using the constant comparative method. A full analysis of<br />

the data is presented in (Huvila, 2010). The column Hits returned in Table 1<br />

indicates the number of retrieved web pages. The column IB related hits lists<br />

the number of web pages that in the analysis were fo<strong>und</strong> to contain information<br />

relevant from an IB point of view. The final column short examples<br />

of the type of information that can be retrieved using the discussed method.<br />

Even if the analysed utterances are specific phrases related to question<br />

asking and web searching types of IB, it is obvious that the proposed<br />

approach may be used with any conceivable utterances present in web pages<br />

indexed by the search engines used for data collection. The searches can be<br />

made also using standard search engine user interfaces, but the LexiURL<br />

software helps to collect the results to a single file that facilitates the analysis<br />

of the material.<br />

Discussion<br />

According to the observations made during the experiments, the principal<br />

benefits of using Web data were 1) that all publicly available Web data is<br />

freely accessible for research purposes, 2) Web data is relatively easy to collect<br />

and 3) Web pages contain a large corpus of heterogeneous data from all<br />

over the world. There are, however, some evident limitations with the data<br />

collection method. The material is collected from the Web and is therefore<br />

likely to represent only a very biased sample of all possible information interactions.<br />

The specific phrases tend also to be common in particular types of<br />

web pages. The utterances analysed in the present study were common in<br />

discussion forums, question and answer (Q&A) services and blogs. Besides<br />

its contextual specificity, another pertinent aspect of the harvested data is that<br />

the study population is limited to an unknown sample of information seekers.<br />

The utterances and their contexts contain only occasional and consequential<br />

evidence of the demographics of the studied population. The problem is similar<br />

to the difference in populations between Web based, telephone and postal<br />

surveys. Only web users (and with the present method, only contributors) are


Mining qualitative data on human information behaviour from the Web 325<br />

represented on the web and only those with a landline telephone are able to<br />

participate in random digit dialling telephone surveys (Bertot, 2009; Deutskens<br />

et al., 2004).<br />

Because the data collection procedure tends to retrieve data that is unrelated<br />

to the intention of the researcher, the dataset needs to be cleaned up for<br />

exclusion of invalid data. In the two described experiments, the constant<br />

comparative method Glaser & Strauss (1967) seemed to result in a reasonnably<br />

confident identification of valid and invalid cases. It is, of course, possible<br />

to use other validation methods including multiple indexer approaches<br />

(Foster et al., 2008) to increase confidence to the data. There are also some<br />

specific ethical considerations that pertain to the harvested data. The data is<br />

de facto publicly available on the Web. Because it was not originally published<br />

with a forthcoming IB research in mind, a special emphasis should be<br />

placed on a respectful use of the data and, if necessary, anonymisation of the<br />

individual cases.<br />

In spite of its evident limitations, the proposed data collection method has<br />

several advantages. The limitations may be considered acceptable in quailtative<br />

studies aiming to map the variety of information interactions. Most of<br />

the sampling related problems (e.g. what is known of the total population,<br />

what is the context of the data) discovered during the experiments apply also<br />

to the conventional qualitative and quantitative approaches even if sometimes<br />

to a slightly lesser extent. Even if the two experiments showed that the specificity<br />

contextual evidence tends to vary case by case, the data was rich<br />

enough to make inferences on specific aspects of information interactions<br />

(e.g. the reasons of failed information seeking). Another strength of the proposed<br />

approach is that it may be used to complement other types of data collection<br />

methods as a part of a triangulation strategy. The method makes it<br />

also possible to study (theoretically) <strong>global</strong> or semi-<strong>global</strong> populations. At<br />

the same time it is possible to restrict the sample, for instance, by selecting<br />

the language of the search phrases or by focussing on specific top-level domains<br />

of the searched web sites. Considering its limitations, the principal<br />

asset of the approach is, however, that data collection using LexiURL<br />

Searcher and similar tools is fast and easy. The low cost of acquiring data<br />

makes it possible to experiment with a large number of phrases. The acquired<br />

data can be analysed both qualitatively and statistically, and even if the contexts<br />

and richness of the data tend to be heterogeneous, the approach can<br />

provide rich contextual descriptions of IB.


326 Isto Huvila<br />

Conclusions<br />

Mining web data using search engines APIs provides a novel approach for<br />

collecting data for qualitative information behaviour research. The principal<br />

benefits of the method are that the data is freely accessible for research purposes,<br />

it is easy to collect and the amount of collectable data from all over the<br />

world is considerable. The method and especially the resulting data have,<br />

however, several limitations. The sample is unknown, individual contexts<br />

may be hard to characterise and the results are difficult to generalise. In spite<br />

of its limitations, the approach can effectively complement other data collection<br />

methods and especially, to provide data for qualitative exploratory<br />

analysis with an ambition to map a phenomenon rather than to achieve generalisable<br />

results.<br />

References<br />

Bertot, J. C. (2009). Web based surveys: Not your basic survey anymore. The Library<br />

Quarterly, 79(1), 119–124.<br />

Case, D. O. (2002). Looking for information: A survey of research on information<br />

seeking, needs, and behaviors. San Diego: Academic Press.<br />

Deutskens, E., Ruyter, K. de, Wetzels, M. et al. & Oosterveld, P. (2004). Response<br />

rate and response quality of internet-based surveys: An experimental study. Marketing<br />

Letters, 15(1), 21–36.<br />

Fisher, K., Erdelez, S. & McKechnie, L. E. (Eds.). (2005). Theories of information<br />

behavior. Medford, NJ: <strong>Information</strong> Today.<br />

Foster, A, Urquhart, C. & Turner, J. (2008). Validating coding for a theoretical model<br />

of information behaviour. <strong>Information</strong> Research, 13(4).<br />

Huvila, I. (2010). “I asked my Mum, but” and other cases of unsuccessful information<br />

seeking by asking. Proceedings of the ISIC 2010. Murcia: University of<br />

Murcia, 179–191.<br />

Thelwall, M., Vaughan, L. & Björneborn, L. (2005). Webometrics. ARIST, 39(1),<br />

81–135.<br />

Wilson, T. D. (2010). Fifty years of information behavior research. Bulletin of the<br />

ASIS&T, 36(3), 27–34.


The Social Persona Approach 327<br />

Abstract<br />

The Social Persona Approach<br />

Using Facebook to Illustrate User Groups<br />

Rahel Birri Blezon 1 , René Schneider 2<br />

Haute école de gestion de Genève<br />

Campus de Battelle – Bâtiment F – Route de Drize 7<br />

CH-1227 Carouge<br />

1 E-Mail: rahel.birri-blezon@hesge.ch<br />

2 E-Mail: rene.schneider@hesge.ch<br />

This paper presents the result of a survey conducted in collaboration between<br />

the project ACCEPT and the Geneva University Library. The objective was<br />

the evaluation of use and usefulness of the libraries’ digital resources. To<br />

present the results, the survey responses were used to create “personas”, fictional<br />

characters representing users’ needs and actions. Personas are described<br />

on 1 or 2 pages including attitudes, goals, skills, as well as some fictional<br />

details to make the persona a more realistic character. For this last part,<br />

Facebook was used to find “personal” information to illustrate appropriately<br />

the different user groups and their corresponding needs.<br />

1 Usability and usefulness in digital libraries<br />

Evaluating digital libraries and electronic resources occupies information<br />

specialists since the first projects in the 1990’s. The following three facets<br />

can be evaluated: system, content and user. The interaction framework (figure<br />

1) of Tsakonas/Papatheodorou (2008, p. 1238) represents these features<br />

and their relationships: performance, usability and usefulness. This last point<br />

is the link between content and user and evaluates source relevance (how


328 Rahel Birri Blezon, René Schneider<br />

does the content correspond topically to the task), document format (e.g.<br />

PDF, Word), resource reliability (or credibility), information level (e.g. full<br />

text, abstract, metadata) and coverage of the deposited documents (timelessness<br />

or degree of temporal coverage).<br />

Figure 1: Interaction triptych Framework<br />

In contrast to usability evaluation for which several established methods<br />

exist, analysing usefulness is slightly more difficult because there do exist no<br />

“standard methods” so far. However, there are two main approaches: evaluations<br />

based on attributes and evaluations based on questionnaires.<br />

The first one consists of an attribute or criteria list, usually filled out by an<br />

information specialist (expert centred approach). To evaluate these attributes<br />

– e.g. relevance of the subject, format etc. – a value is assigned to each criteria<br />

to allow a weighting. The second approach consists in establishing a questionnaire<br />

which is handed out to the target audience (user centred approach).


The Social Persona Approach 329<br />

The users do some exercises to evaluate a resource or a system and to respond<br />

to the questionnaire. It is also possible to combine both approaches: A<br />

questionnaire containing a list of attributes is handed out to users (and not to<br />

experts) who weight the criteria.<br />

This combination was used in the context of ACCEPT (Analyse du Comportement<br />

du Client – Evaluation des Prestations de Téléchargement), a subproject<br />

of the E-lib.ch-initiative which consists in developing a Swiss electronic<br />

library. The objective of ACCEPT is to ensure the aspects of usefulness<br />

and usability within E-lib.ch.<br />

In this context, a survey was conducted in collaboration with the Faculty<br />

libraries of the University of Geneva.<br />

2 Methodology<br />

The survey by online questionnaire was conducted between December 7 to<br />

31 2009. Five departments of the University of Geneva were chosen: humanities,<br />

medicine, psychology and educational science, the school of translation<br />

and interpreting, as well as the institute for teacher-training. The return<br />

rate was aro<strong>und</strong> 8% (655 completed questionnaires).<br />

2.1 Personas<br />

The concept of personas consists in creating human stereotypes of a target<br />

public. Each persona has a name and specific characteristics – like attitudes,<br />

goals, skills and environment. As a persona should be as realistic as possible,<br />

some fictional details are added to make it more “human”. The idea is to<br />

create for each user group a stereotype, so that the system is developed based<br />

on users’ needs (Machate 2003).<br />

However, a persona is not just a listing of data; it’s a factsheet containing<br />

a photo and personal details: name, age, hobbies, professional experience etc.<br />

There are usually between four and six personas for a system.


330 Rahel Birri Blezon, René Schneider<br />

2.2 Using Facebook – how to proceed<br />

To find more personal details for personas, social network profiles can be<br />

studied. We consider Facebook as most appropriate since it is used largely by<br />

students. This social platform is therefore very useful to find typical forenames,<br />

activities and interests for your personas.<br />

A Facebook profile allows searching groups (in our case and among<br />

others: “Université de Genève”, “Faculté de lettres”, “Département d’histoire<br />

générale” etc.). Joining a group gives access to the member’s list and the<br />

different profiles. Private information is often only available if you’re a<br />

friend of a person. However, some people have a more “public” profile and<br />

it’s possible to get information about activities, study fields, books and movies<br />

people like. Once enough data “collected”, they can be rearranged to create<br />

the personas and combined with photos labeled for reuse.<br />

3 Results<br />

The survey results were combined in different reports for the University of<br />

Geneva. Based on these diagrams, three to four personas were created for<br />

each department: a bachelor persona, a master persona, a teacher persona and<br />

a researcher persona. These last two personas were sometimes taken together<br />

when their responses were similar or when there weren’t enough responses.<br />

We’ll just present one persona, with usefulness aspects marked in italic.<br />

Françoise is professor in educational science. She’s 45, married and has a 10<br />

years old daughter. She loves New York and goes regularly to the theatre or<br />

opera. She plays piano. Françoise prefers the electronic version of a journal<br />

because it’s accessible anytime and anywhere. It can be saved on a computer,<br />

searched by keywords; it’s handier and more ecological. She’d like the library<br />

to acquire more journal backfiles, so that she can access the archive of<br />

a journal online. She consults the electronic resources almost daily. She’s<br />

rather satisfied with the communication about the electronic resources. The<br />

format of a resource isn’t extremely important. However, level of detail and<br />

up-do-dateness are very important for her work. She spends a lot of time to<br />

find a specific resource (figure 2).


The Social Persona Approach 331<br />

Figure 2 Persona “Françoise”


332 Rahel Birri Blezon, René Schneider<br />

4 Conclusions<br />

Personas are an easy way to represent user groups and their needs. They help<br />

to create user-centered services and products by <strong>und</strong>erstanding their way of<br />

acting and searching. Furthermore, creating personas makes work more interesting.<br />

Besides the empirical data collected by survey or interviews, you<br />

need creativity to portray a human persona: “If I were a master student in<br />

general history, what would be my name, my hobbies and my needs?” Social<br />

networks provide the basic elements for this creative process.<br />

References/Literaturverzeichnis<br />

E-lib.ch (2010). Website of the Electronic Library Switzerland.<br />

http://www.e-lib.ch/index_e.html<br />

Haute école de gestion de Genève HEG (2010). Website of ACCEPT.<br />

http://campus.hesge.ch/id_bilingue/projekte_partner/projekte/accept/kontext_eng.asp<br />

Machate, J. (2003). Von der Idee zum Produkt: mit Benutzern gestalten. Machate, J.<br />

<strong>und</strong> Burmester, M., User Interface Tuning – Benutzungsschnittstellen menschlich<br />

gestalten, 83–96. Frankfurt: Software <strong>und</strong> Support Verlag.<br />

Mulder, S., Yaar, Z. (2007). The User Is Always Right: a Practical Guide to Creating<br />

and Using Personas for the Web. Berkley, California: New Riders.<br />

Tsakonas, G., Papatheodorou, C. (2008). Exploring usefulness and usability in the<br />

evaluation of open access digital libraries. <strong>Information</strong> processing and management,<br />

Vol. 4, Issue 3, 1234–1250.


„Mobile Tagging“: Konzeption <strong>und</strong> Implementierung eines mobilen ... 333<br />

„Mobile Tagging“:<br />

Konzeption <strong>und</strong> Implementierung eines mobilen<br />

<strong>Information</strong>ssystems mit 2D-Tags<br />

Elena Shpilka 1 , Ralph Koelle 2 , Wolfgang Semar 3<br />

1 Universität Hildesheim<br />

Marienburger Platz 22<br />

31141 Hildesheim<br />

elena.shpilka@gmx.de<br />

Zusammenfassung<br />

2 Universität Hildesheim<br />

Marienburger Platz 22<br />

31141 Hildesheim<br />

koelle@uni-<br />

hildesheim.de<br />

3 HTWChur<br />

Ringstrasse 34<br />

CH-7004 Chur<br />

Wolfgang.Semar@fhhtwchur.ch<br />

Dieser Beitrag beschreibt das Konzept, die Implementierung sowie die Evaluierung<br />

eines mobilen <strong>Information</strong>ssystems unter Verwendung von „mobile<br />

tagging“ in einer universitären Umgebung.<br />

Abstract<br />

This paper describes the concept, implementation as well as evaluation of a<br />

mobile information system, which is based on the “mobile tagging” technology<br />

and employed in a university environment.


334 Elena Shpilka, Ralph Koelle, Wolfgang Semar<br />

Einleitung<br />

Die letzten Jahre waren stark geprägt von einer rasanten Entwicklung auf<br />

dem Gebiet der mobilen <strong>Information</strong>s- <strong>und</strong> Kommunikationstechnologien.<br />

Die letzten Hürden fallen: die Rechenleistung der mobilen Endgeräte erreicht<br />

PC-Niveau, Breitbandnetze stehen zu moderaten Flatrates zur Verfügung <strong>und</strong><br />

mobil verfügbare Daten finden mittels Cloud-Computing Verwendung. Schätzungen<br />

zufolge werden bis 2014 Mobilfunkgeräte den PC als das gängigste<br />

Gerät für den Internetzugang überholt haben (Morgan Stanley Research<br />

2009). Mobile Internetfunktionen haben den Durchbruch im Massenmarkt<br />

geschafft: 13% der Mobilfunknutzer, damit ca. 10 Mio. Deutsche, verwenden<br />

mittlerweile das mobile Internet (Bitkom 2010). Laut Bitkom verwenden<br />

sogar 48% der Nutzer ihre Handykamera 1 . Mobiles Tagging verbindet beide<br />

Technologien <strong>und</strong> schafft neue Möglichkeiten, die reale Umgebung mit<br />

Diensten des mobilen Internets anzureichern.<br />

Im Folgenden werden das Konzept, die prototypische Implementierung<br />

sowie die Evaluierung eines mobilen <strong>Information</strong>ssystems unter Verwendung<br />

mobilen Taggings in einer universitären Umgebung vorgestellt.<br />

Mobilität<br />

Mit Mobilität wird in Anlehnung an Lehner (2003b) die physische Bewegung<br />

von Geräten, Objekten, Diensten, <strong>Information</strong>en <strong>und</strong> Personen in Bezug<br />

auf die Kommunikationsnetze bezeichnet. In Bezug auf die <strong>Information</strong>sgesellschaft<br />

kann man von einer „Mobilität der <strong>Information</strong>“ sprechen<br />

(vgl. Steimer et al. 2001: 16 ff.). Die Daten werden am Ort des Geschehens<br />

erfasst. Mobile Anwender können alle möglichen <strong>Information</strong>en<br />

r<strong>und</strong> um die Uhr <strong>und</strong> an nahezu beliebigen Orten empfangen <strong>und</strong> weiterverarbeiten.<br />

Die Ergebnisse dieser Verarbeitungsprozesse können je nach<br />

Bedarf an beliebige andere Orte transferiert werden.<br />

1 Die Begriffe Handy, Mobiltelefon <strong>und</strong> Smartphone werden synonym verwendet.


„Mobile Tagging“: Konzeption <strong>und</strong> Implementierung eines mobilen ... 335<br />

Mobile <strong>Information</strong>ssysteme<br />

Bei mobilen <strong>Information</strong>ssystemen handelt es sich um Systeme, die durch die<br />

Nutzung der mobilen Endgeräte für Kommunikation <strong>und</strong> <strong>Information</strong>stransfer<br />

zu betrieblichen <strong>und</strong> privaten Zwecken zur Verfügung stehen. Die mobilen<br />

<strong>Information</strong>ssysteme unterscheiden sich von den traditionellen <strong>Information</strong>ssystemen<br />

hinsichtlich der technischen Umsetzung in folgenden Punkten:<br />

• Die Gestaltung der Benutzeroberfläche ist durch die Hardware bestimmt<br />

<strong>und</strong> im Vergleich zu den Desktop-Anwendungen sehr beschränkt.<br />

• Die Verbindung erfolgt drahtlos. Die Speicherkapazität der mobilen Endgeräte<br />

ist kleiner, Verbindungsqualität <strong>und</strong> -geschwindigkeit sind in der<br />

Regel schlechter.<br />

• Die Sicherheitsmechanismen der mobilen Endgeräte haben momentan<br />

noch nicht das Niveau der Desktop-Systeme erreicht (vgl. Krogstie<br />

2005).<br />

Diesen eher als nachteilig einzustufenden Eigenschaften stehen aber auch positive<br />

gegenüber (Lehner 2003a: 11–13):<br />

• Ortsunabhängigkeit: Gemeint ist hier der Vorteil der Mobilität, dass man<br />

mit einem mobilen Endgerät unabhängig von seinem Aufenthaltsort zu<br />

jeder Zeit in der Lage ist, mit einer Client-Anwendung auf lokale oder<br />

entfernte Dienste zuzugreifen, Daten abzurufen <strong>und</strong> zu bearbeiten.<br />

• „Kostengünstigkeit“: Im Vergleich zu den traditionellen PCs sind mobile<br />

Geräte weniger komplex, viel kompakter <strong>und</strong> dadurch auch günstiger.<br />

• Convenience: Mobile Geräte sind leicht <strong>und</strong> kompakt gebaut <strong>und</strong> meistens<br />

so konzipiert, dass sie einfach <strong>und</strong> schnell bedienbar sind. Nach<br />

Lehner findet das Mobiltelefon im Hinblick auf das Surfen im Internet<br />

mehr Akzeptanz unter Nutzern als ein stationärer PC zum Telefonieren.<br />

• Als weitere Vorteile werden die Lokalisierbarkeit, Personalisierung sowie<br />

Identifizierbarkeit der Teilnehmer genannt.<br />

Zusammengefasst führt der Zugriff auf mobile <strong>Information</strong>ssysteme zu mehr<br />

zeitlichem <strong>und</strong> räumlichem Freiraum. Die Möglichkeit, auf <strong>Information</strong>en zu<br />

jeder Zeit <strong>und</strong> überall zuzugreifen, kann somit zu einer Rationalisierung des<br />

<strong>Information</strong>smanagements <strong>und</strong> zur Gewinnung zusätzlicher <strong>und</strong> aktuellerer<br />

<strong>Information</strong>en führen (vgl. Biland & Saager 2004: 20 ff.).


336 Elena Shpilka, Ralph Koelle, Wolfgang Semar<br />

Mobile Tagging<br />

Der Begriff „mobile tagging“ kommt aus dem Englischen: das Wort „tag“<br />

bedeutet Kennzeichen <strong>und</strong> beschreibt das Hinterlassen von <strong>Information</strong>en.<br />

„Mobile“ weist darauf hin, dass diese Tags für mobile Endgeräte <strong>und</strong> mobile<br />

<strong>Information</strong>ssysteme konzipiert sind (vgl. Hartz 2009). Es handelt sich also<br />

zum einen um die Auszeichnung eines Gegenstandes mit einem Tag, zum<br />

anderen um einen Prozess des Auslesens, Auswertens <strong>und</strong> ggf. Bearbeitens<br />

der im Tag codierten Daten. Somit stellt „mobile tagging“ eine Schnittstelle<br />

zwischen der realen, anfassbaren Welt <strong>und</strong> dem mobilen Internet zur Verfügung<br />

(Hutter et al. 2008: 1).<br />

Abbildung 1 zeigt einen „Quick Response (QR)“-Tag 2 , der von der japanischen<br />

Firma Denso Wave im Jahr 1994 entwickelt wurde, <strong>und</strong> in seiner<br />

Pixel-Struktur einen Link zur ISI 2011 Webseite beinhaltet.<br />

Abbildung 1: Link zu http://www.isi2011.de<br />

Zur Nutzung des QR-Tags braucht man ein (idealerweise mobiles) Endgerät,<br />

das eine Kamera <strong>und</strong> einen Internetzugang hat. Mithilfe einer speziellen<br />

Software (Reader), die für jedes aktuelle Mobiltelefon kostenlos erhältlich<br />

ist, wird der Code mit der Kamera eingescannt <strong>und</strong> intern weiterverarbeitet.<br />

Je nach Pixelstruktur kann dann auf eine Website verlinkt, ein Text (zum<br />

Lesen <strong>und</strong> Speichern), ein Termin (zur Integration in den persönlichen Kalender)<br />

oder eine elektronische Visitenkarte (für das eigene Adressbuch) dargestellt<br />

werden.<br />

2 Neben den im Online-Bereich verbreiteten QR-Tags werden Aztec-Codes bei der Bahn<br />

für Online-Tickets verwendet, Datamatrix ist überwiegend von Briefmarken bekannt.


„Mobile Tagging“: Konzeption <strong>und</strong> Implementierung eines mobilen ... 337<br />

Aktueller Entwicklungsstand von QR-Tags<br />

Einer Studie der <strong>Fachhochschule</strong> Schmalkalden zufolge ist „für den QR-<br />

Code […] der kritische Massepunkt für eine weitere Verbreitung in Deutschland<br />

erreicht“ (Urban & Leisen 2010). Die Autoren schließen dies aus den<br />

Ergebnissen ihrer Befragung von 516 Personen im November <strong>und</strong> Dezember<br />

2009. Die Ergebnisse im Einzelnen: 83,8% gaben an, eine Zugangsmöglichkeit<br />

zum mobilen Internet zu haben, 89,1% der verwendeten Geräte hätten<br />

eine Kamera integriert. Damit wären die gr<strong>und</strong>legenden Funktionen des<br />

„mobile tagging“ vorhanden. 25% (der Anwender mit technologisch entsprechend<br />

ausgestatteten Geräten) gaben an, bereits QR-Codes gescannt zu haben.<br />

Weitere 25,4% kennen die QR-Codes, haben diese aber bislang noch<br />

nicht genutzt. Bisherige Hemmschwellen seien hauptsächlich in mangelnden<br />

Anwendungsmöglichkeiten (17%) <strong>und</strong> geringen Mehrwerten (54%) zu sehen.<br />

Primär genutzte Anwendungsfelder seien weiterführende <strong>Information</strong>en in<br />

Zeitungsartikeln (66%) <strong>und</strong> zusätzliche Nähr- <strong>und</strong> Inhaltsstoffe auf Lebensmittelverpackungen<br />

(Extended Packaging, 65%) 3 .<br />

Abbildung 2: Verwendete 2D-Tags<br />

3 Allerdings kann bei einem Anteil von 84,7% männlichen Teilnehmern <strong>und</strong> einem hohen<br />

Anteil junger Befragter (44,8% zwischen 19 <strong>und</strong> 25 Jahre alt) wahrscheinlich nicht<br />

von einem repräsentativen Ergebnis gesprochen werden.


338 Elena Shpilka, Ralph Koelle, Wolfgang Semar<br />

Eine Online-Befragung der Universität Hildesheim mit 129 Teilnehmern<br />

bestätigt die Ergebnisse weitgehend. Neben dem generellen Interesse an der<br />

Technologie selbst sowie ihren vielfältigen Anwendungsfeldern werden mobile<br />

Tags bereits von vielen Befragten aktiv genutzt (Shpilka 2010: 79). So<br />

haben etwa 40% der Befragten angegeben, mobile Tags schon verwendet zu<br />

haben. QR-Tags fanden dabei die häufigste Anwendung (vgl. Abbildung 2).<br />

Unter Nutzungsszenarien wurden primär Tags auf Verpackungen, die<br />

Nutzung von Online-Fahrplänen, <strong>und</strong> Tags zu Werbezwecken genannt (vgl.<br />

Abbildung 3).<br />

Abbildung 3: Verwendung von 2D-Tags<br />

Die Frage nach weiteren sinnvollen Anwendungsfällen für mobile Tags<br />

wurde mit „<strong>Information</strong>en zu Produkten“, „Abfrage aktueller Fahrpläne“,<br />

„ortsbezogene Dienste“, „schnelle Kontaktaufnahme“, „Authentifizierung“<br />

sowie „Produkte online erwerben“ beantwortet, wobei jedoch 69 Befragte<br />

fehlende Standardisierung bei Tag-Readern bzw. -Scannern bemängelten, 46<br />

mögliche Verbindungskosten <strong>und</strong> 47 Datenschutz als Problem nannten (vgl.<br />

Abbildung 4).<br />

Im weiteren Verlauf der Umfrage wurden die Befragten mittels einer Filterfrage<br />

in zwei Gruppen eingeteilt <strong>und</strong> nur diejenigen befragt, die im universitären<br />

Kontext arbeiten oder studieren (77 von 129). Favorisiert wurden von<br />

der universitären Gruppe das Abrufen von Klausurergebnissen, das Herunterladen<br />

des Mensaplans sowie von Aufgaben <strong>und</strong> Unterlagen, die Kontaktdaten<br />

<strong>und</strong> Termine als Tags enthalten (Shpilka 2010: 82).


„Mobile Tagging“: Konzeption <strong>und</strong> Implementierung eines mobilen ... 339<br />

Abbildung 4: Probleme beim Einsatz von mobilen Tags<br />

Obwohl über 30% der Befragten der Technologie eine ähnliche Verbreitung<br />

wie in Japan, wo über 70% der Mobilfunknutzer mobile Tags verwenden,<br />

absprechen, wurde die Technologie des „mobile tagging“ insgesamt<br />

positiv bewertet (Shpilka 2010: 82).<br />

Die positiven Rückmeldungen, das offensichtlich große Entwicklungspotenzial<br />

sowie der steigende Trend der Verwendung von 2D-Tags brachte die<br />

Idee hervor, ein auf „mobile tagging“ basierendes <strong>Information</strong>ssystem zu<br />

entwickeln <strong>und</strong> zu evaluieren.<br />

Konzept eines universitären <strong>Information</strong>ssystems<br />

Dank der relativ hohen Speicherkapazität (bis ca. 7 KByte) <strong>und</strong> einem hohen<br />

Datensicherheitslevel von QR-Codes ist es gr<strong>und</strong>sätzlich möglich, diese für<br />

Speicherung <strong>und</strong> Veröffentlichung von umfangreichen <strong>Information</strong>en zu<br />

benutzen, beispielsweise für digitale Visitenkarten, SMS- oder Kontaktformulare.<br />

Dem steht allerdings eine heterogene Sammlung von Tag-Readern<br />

<strong>und</strong> Anwendungen entgegen, die die Nutzung von mobilen Tags erschwert.


340 Elena Shpilka, Ralph Koelle, Wolfgang Semar<br />

Basierend auf der Idee, die vielfältigen Anwendungsmöglichkeiten von<br />

QR-Tags in einem System zu bündeln <strong>und</strong> so der Heterogenität der Systeme<br />

<strong>und</strong> Reader entgegen zu wirken, wurde der Prototyp eines <strong>Information</strong>ssystems<br />

entworfen, das „mobile tagging“ <strong>und</strong> sein Anwendungspotenzial für<br />

einen universitären Kontext nutzbar macht (Shpilka 2010: 64).<br />

Das <strong>Information</strong>ssystem „Tagging University“ besteht aus einer Server –<br />

<strong>und</strong> einer mobilen Client-Anwendung. Die Server-Anwendung ermöglicht<br />

es, mobile Tags mit verschiedenen <strong>Information</strong>stypen zu erstellen: Kalendertermine,<br />

Aufgaben, Internetadressen, Telefonnummern, digitale Visitenkarten,<br />

E-Mail- <strong>und</strong> SMS-Formulare. Während vorhandene Systeme ähnliche<br />

Funktionalitäten bieten (Mobile Barcoder 4 , QR Code Tag 5 ), soll die Server-<br />

Anwendung ihre <strong>Information</strong>en zukünftig direkt aus den universitätsinternen<br />

<strong>Information</strong>ssystemen wie Vorlesungsverzeichnis <strong>und</strong> Lernmanagementsystem<br />

beziehen. Für die Evaluation des Prototyps war diese Funktion noch<br />

nicht notwendig.<br />

Die mobile (Client-) Anwendung bietet die Möglichkeit, QR-Tags zu<br />

scannen sowie die erkannten Daten zu speichern, zu organisieren <strong>und</strong> weiterzuverarbeiten.<br />

So können st<strong>und</strong>enplan- <strong>und</strong> prüfungsbezogene Termine in<br />

den Terminplaner eingetragen werden <strong>und</strong> stehen ggf. nach einer Synchronisation<br />

auch auf stationären Computern oder Laptops zur Verfügung. Digitale<br />

Visitenkarten können um weitere <strong>Information</strong>en ergänzt werden. Internetadressen<br />

(URLs), z.B. auf aktuelle Institutsmeldungen bzgl. Verlegung oder<br />

Ausfall von Veranstaltungen oder Sprechst<strong>und</strong>en, können in einer internen<br />

Datenbank im Mobiltelefon gespeichert <strong>und</strong> jederzeit wieder aufgerufen<br />

werden. Durch die zentrale Datenhaltung auf dem mobilen Gerät ist somit<br />

der orts- <strong>und</strong> zeitunabhängige Zugriff auf universitätsrelevante Daten möglich,<br />

was einer Verbesserung bzw. Vereinfachung von Kommunikations- <strong>und</strong><br />

Organisationsprozessen dienen soll. QR-Tags stellen darüber hinaus die<br />

Funktion zur einfachen Aktualisierung <strong>und</strong> Erweiterung der gespeicherten<br />

Daten zur Verfügung.<br />

4 Als Firefox-AddOn: https://addons.mozilla.org/de/firefox/addon/2780/<br />

5 Als Google Chrome Erweiterung: http://www.chromeextensions.org/utilities/qr-codetag/


„Mobile Tagging“: Konzeption <strong>und</strong> Implementierung eines mobilen ... 341<br />

Evaluation<br />

Die erwähnte Online-Umfrage der Universität Hildesheim hat gezeigt, dass<br />

gr<strong>und</strong>sätzlich Interesse an universitären Funktionen auf Basis mobiler Tags<br />

besteht (Shpilka 2010: 78). Die größte Akzeptanz haben folgende Vorschläge<br />

gef<strong>und</strong>en: Klausurergebnisse per Tag abrufen (48 von 77), Mensaplan anschauen<br />

(49), Aufgaben bzw. Lernunterlagen herunterladen (38) <strong>und</strong> Kontaktdaten<br />

<strong>und</strong> Termine aus Vorlesungsskripten übernehmen (37) 6 .<br />

In Rahmen einer empirischen Evaluation wurden Benutzertests durchgeführt,<br />

um die technische Umsetzung des entwickelten Prototyps in der Praxis<br />

zu testen. 10 Probanden mussten die mobile Anwendung auf dem eigenen<br />

mobilen Gerät installieren <strong>und</strong> anhand der vorgegebenen Aufgaben die Funktionen<br />

des Einscannens, der Tag-Erkennung <strong>und</strong> Weiterverarbeitung der<br />

gewonnenen <strong>Information</strong>en durchführen. Die Funktionsfähigkeit der Applikation<br />

wurde insgesamt bestätigt. Die durchschnittliche Rate der erkannten<br />

Tags lag bei ca. 75%. Die meisten Probanden (80%) haben angegeben, dass<br />

die Anwendung intuitiv zu bedienen sei. Eine Testperson hat es als umständlich<br />

empf<strong>und</strong>en, weil zu viele Tasten gedrückt werden mussten. Die Angaben<br />

zu den Antwortzeiten waren unterschiedlich, in den meisten Fällen (ca. 80%)<br />

dauerte der Scan- bzw. Entschlüsselungsprozess zu lange. Die anderen Reaktionszeiten<br />

wie bei den Speicherfunktionen oder dem Anzeigewechsel wurden<br />

von ca. 80% positiv bewertet (Shpilka 2010: 85).<br />

Obwohl QR-Tags prinzipiell schon seit über 15 Jahren – insbesondere in<br />

Japan – genutzt werden, zeigt der Benutzertest, dass es nach wie vor Probleme<br />

bei der Erkennung <strong>und</strong> Verarbeitung der Tags gibt. Daher wurde zur Optimierung<br />

der Erkennungsrate in Rahmen der Benutzertests versucht, eine<br />

optimale Größe der mobilen Tags zu ermitteln. Die Ergebnisse haben gezeigt,<br />

dass die Maße von ca. 4 × 4 cm eine optimale Größe für die Erkennung<br />

darstellen, da solche Tags von allen Geräten schnell erkannt wurden. Bei den<br />

kleineren Tags mussten mehrere Versuche durchgeführt werden. Da der Prozess<br />

des Einscannens <strong>und</strong> der Erkennung durch viele Faktoren wie Beleuchtung<br />

oder Verwackeln beeinflusst wird, bietet die oben genannte Größe mehr<br />

Sicherheit der Erkennung <strong>und</strong> dient daher der Usability des Systems.<br />

6 Auf einer Skala von 1 (gut bewertet) bis 5 (negativ bewertet) wurden jeweils die Bewertungen<br />

1 <strong>und</strong> 2 summiert.


342 Elena Shpilka, Ralph Koelle, Wolfgang Semar<br />

Abbildung 5: Durchführung eines Benutzertests<br />

Bei der Durchführung der Benutzertests wurde darüber hinaus festgestellt,<br />

dass die ausgewählte Java-Technologie trotz der Plattformunabhängigkeit,<br />

die als ein wesentlicher Vorteil dieser Technologie gilt, nicht optimale Ergebnisse<br />

lieferte. Es zeigt sich, dass Hersteller der mobilen Geräte oft nur die<br />

Kern-Module von Java ME implementieren, was dazu führt, dass nicht alle<br />

für das entwickelte <strong>Information</strong>ssystem notwendige Java-Pakete (wie z.B.<br />

das Multimedia-Paket) auf den Geräten vorhanden waren, was die Nutzung<br />

des Systems beeinträchtigte oder gar verhinderte (bei 3 von 10 Geräten).<br />

Leider lassen sich solche Pakete bei der überwiegenden Zahl der Geräte nicht<br />

einfach nachinstallieren, da sie in die Firmware integriert sind.<br />

Somit stellt die Java-Technologie zwar eine gute Basis für die Entwicklung<br />

von mobilen Applikationen dar, eine einheitliche Unterstützung der<br />

Java-Konfigurationen durch die Hersteller wäre allerdings dringend notwendig.<br />

Für die Nutzung von „Tagging University“ sind weitere Tests auf Geräten<br />

verschiedener Plattformen nötig. Dazu bieten sich Geräte mit Android-<br />

Betriebssystem an, da die Applikationen dieser Plattform auf Java basieren.<br />

Ausblick<br />

Die Technologie mobiler Tags hat trotz ihres geringen Alters bereits eine<br />

hohe Entwicklungsstufe erreicht. Die Vielzahl der Einsatzmöglichkeiten


„Mobile Tagging“: Konzeption <strong>und</strong> Implementierung eines mobilen ... 343<br />

macht „mobile tagging“ für viele Branchen <strong>und</strong> unterschiedliche Einsatzgebiete<br />

attraktiv. Zurzeit werden Tags in der Logistik (Hompel et al. 2008) zur<br />

Warenverfolgung oder als elektronische Tickets (Fahr- <strong>und</strong> Eintrittskarten)<br />

eingesetzt. Mobile Tags sind perfekte Werbemittel, weil sie wenig Platz<br />

brauchen <strong>und</strong> relativ viele <strong>Information</strong>en enthalten können.<br />

Das Ziel der Entwicklung des „Tagging University“ Systems an der Universität<br />

Hildesheim war die Bündelung möglichst vieler Funktionalitäten in<br />

einer Anwendung, um eine Unterstützung der Benutzer beim persönlichen<br />

<strong>Information</strong>smanagement bzgl. Termin-, Kontakt- oder Datenverwaltung zu<br />

erreichen. Befragungen <strong>und</strong> Benutzertests haben gezeigt, dass, wie die Technologie<br />

des „mobile tagging“ selbst, das „Tagging University“ System hohes<br />

Potenzial zur Weiterentwicklung hat. Dabei stehen die Usability, die Implementierung<br />

für weitere Plattformen sowie die Integration in universitäre Prozesse<br />

im Fokus.<br />

So ist eine direkte Anmeldung zu Prüfungen oder Sprechst<strong>und</strong>en über<br />

mobile Tags mit automatischer Sicherung der Daten in der internen Datenbank<br />

des Systems umzusetzen. Durch die Speicherung stände dem Benutzer<br />

jederzeit eine Übersicht über Anmeldungen <strong>und</strong> Termine zur Verfügung.<br />

Durch Integration interner Systeme wie dem Handy-Kalender ist eine Synchronisation<br />

sehr einfach möglich, darüber hinaus können Konflikte erkannt<br />

werden <strong>und</strong> das System den Nutzer warnen. Der verbreiteten Verwendung<br />

des Telefons bzw. des Smartphones als Termin-, Adress- <strong>und</strong> <strong>Wissen</strong>sverwaltungssystem<br />

würde weiterer Vorschub geleistet.<br />

Eine weitere nützliche Anwendung ist die Verknüpfung von Online- <strong>und</strong><br />

Offline-Medien der Lernmanagementsysteme. Mittels Tags können Termine,<br />

Hausaufgaben <strong>und</strong> Skripte einfach auf das mobile Gerät heruntergeladen<br />

werden.<br />

Das Potenzial an Weiterentwicklungen ist hoch. In jedem Fall sollte die<br />

Entwicklung durch die bewährte Nutzerbeteiligung mittels Befragung <strong>und</strong><br />

Usability-Tests unterstützt werden.<br />

Literaturverzeichnis<br />

Biland, Lars; Saager, Oliver (2004): Mobile Computing – Business Models / I. Vertiefungsrichtung<br />

IT Management /E-Business. Seminararbeit. <strong>Fachhochschule</strong><br />

Basel. http://www.ecademy.ch/ecademy/ecadpubli.nsf/id/323


344 Elena Shpilka, Ralph Koelle, Wolfgang Semar<br />

Bitkom (2010): Drei Viertel der Handy-Nutzer versenden SMS.<br />

http://www.bitkom.org/files/documents/BITKOM-Presseinfo_Handy-<br />

Funktionen_Ranking_23_08_2010%282%29.pdf<br />

Hartz, Wilko (2009): Basiswissen QR Code. http://qrcode.wilkohartz.de/<br />

Hompel, Michael; Büchter, Hubert; Franzke, Ulrich (2008): Identifikationssysteme<br />

<strong>und</strong> Automatisierung. Berlin: Springer.<br />

Krogstie, John (2005): IFIO TC8 Special Interest Group on Mobile information<br />

system (MOBIS). http://www.idi.ntnu.no/~krogstie/MOBISTC8web.htm<br />

Lehner, Franz (2003a): Mobile <strong>und</strong> drahtlose <strong>Information</strong>ssysteme: Technologien,<br />

Anwendungen, Märkte. Berlin: Springer.<br />

Lehner, Franz (2003b): MobiLex : Lexikon <strong>und</strong> Abkürzungsverzeichnis für Mobile<br />

Computing <strong>und</strong> mobile Internetanwendungen. Herausgegeben von Universität<br />

Regensburg. (Schriftenreihe Wirtschaftsinformatik).<br />

Morgan Stanley Research (2009): The Mobile Internet Report: Ramping faster than<br />

Desktop Internet, the Mobile Internet Will Be Bigger than Most Think.<br />

http://www.morganstanley.com/institutional/techresearch/pdfs/mobile_internet_report<br />

.pdf<br />

Pascal Andres (August 2009): 2D-Codes: Überblick <strong>und</strong> Einsatzszenarien für Hochschulen.<br />

B.A. Abschlussarbeit. HTW Chur.<br />

Shpilka, Elena (2010): Mobiles Tagging: Konzeption <strong>und</strong> Implementierung eines<br />

mobilen <strong>Information</strong>ssystems mit 2D-Tags. Magisterarbeit. Universität Hildesheim<br />

Steimer, Fritz L.; Maier, Iris; Spinner, Mike (2001): mCommerce: Einsatz <strong>und</strong> Anwendung<br />

von portablen Geräten für mobilen eCommerce. München: Addison-<br />

Wesley.<br />

Urban, Thomas; Leisen, Christian (2010): Mobile Tagging. Eine empirische Studie<br />

zur Akzeptanz von QR-Codes. <strong>Fachhochschule</strong> Schmalkalden.<br />

http://www.multi-media-marketing.org/dateien/QR-Summary-V1-00.pdf


User Interface Prototyping 345<br />

User Interface Prototyping<br />

Eine Evaluation spezifischer Werkzeuge<br />

Johannes Baeck 1 , Sabine Wiem 2 ,<br />

Ralph Kölle 3 , Thomas Mandl 3<br />

1 Conrad-Blenkle-Straße 49, Berlin<br />

johannes.baeck@googlemail.com<br />

2<br />

IBM Interactive, Beim Strohhause 17, Hamburg<br />

sabine.wiem@de.ibm.com<br />

3<br />

Universität Hildesheim, Marienburger Platz 22, Hildesheim<br />

mandl@uni-hildesheim.de<br />

Zusammenfassung<br />

Die Eignung von Prototyping-Werkzeugen zur Erstellung interaktiver Prototypen<br />

hängt stark vom Anwendungsfall ab. Der Beitrag beschreibt die Evaluierung<br />

von Prototyping-Werkzeugen für einen spezifischen Anwendungsfall.<br />

Dazu wurde ein Kriterienkatalog entwickelt, der auf Basis der Anforderungen<br />

bei IBM Interactive Hamburg gewichtet wurde. In einem Benchmark<br />

wurden 27 Systeme auf 20 Kriterien hin bewertet. Fünf Systeme wurden<br />

in einer heuristischen Analyse intensiver auf ihre Usability hin untersucht.<br />

Die zwei am besten geeigneten Systeme wurden in einem abschließenden<br />

Benutzertest mit der derzeitigen Lösung verglichen.<br />

Abstract<br />

Selecting a suitable tool for creating interactive prototypes depends on the<br />

exact case of application. This thesis examines the method of User Interface<br />

Prototyping on the basis of a specific use case. To this purpose a criteria catalogue<br />

was assembled in order to weigh the findings against the specific requirements<br />

of IBM Interactive Hamburg. 27 dedicated prototyping tools were<br />

evaluated against the selected 20 benchmark criteria. Subsequently an in<br />

depth assessment was conducted of the usability of five selected systems.


346 Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl<br />

Lastly, two tools fitting the criteria best were compared to the currently used<br />

solution through application in a user test.<br />

Einleitung: User Interface Prototyping<br />

Um Interaktionsmöglichkeiten zu visualisieren, wird häufig User Interface<br />

Prototyping eingesetzt. Dafür bietet sich eine Vielzahl unterschiedlicher<br />

Werkzeuge an, welche spezifische Stärken <strong>und</strong> Schwächen aufweisen. Insbesondere<br />

bei der Darstellung komplexer Interaktionsmöglichkeiten erfordern<br />

gängige Anwendungen einen hohen Umsetzungsaufwand.<br />

Zielsetzungen des Prototyping<br />

Entscheidend bei der Wahl eines Ansatzes ist die Zielsetzung des Prototypen<br />

<strong>und</strong> der Mehrwert der durch den Einsatz generiert wird. So werden beim<br />

explorativen Prototyping erste Ideen in Form von Skizzen erstellt, um angemessene<br />

Lösungsansätze in einem iterativen Prozess zu erk<strong>und</strong>en (Bäumer et<br />

al. 1996; Preece et al. 2002). Beim experimentellen Prototyping können Hypothesen<br />

überprüft werden <strong>und</strong> daraufhin Anpassungen am System vorgenommen<br />

werden (Bäumer et al. 1996). Das frühzeitige Anfertigen von Prototypen<br />

kann zu einer besseren Kommunikation führen, da ein klarer Referenzpunkt<br />

für alle an der Entwicklung beteiligten Interessengruppen geschaffen<br />

wird (Warfel 2009). Um Missverständnisse zu vermeiden die durch verbale<br />

Erläuterungen entstehen, kann ein Prototyp zudem als lebende Spezifikation<br />

eingesetzt werden, um kritische Interaktionsmechanismen zu visualisieren<br />

(Rudd et al. 1996; Arnowitz et al. 2007). Um Usability-Probleme frühzeitig<br />

zu erkennen, sollten Prototypen mit realen Nutzern des Systems evaluiert<br />

werden, um spätere Kosten zu vermeiden (Vredenburg et al. 2002).<br />

Prototypen-Charakteristiken<br />

Abhängig von der gewünschten Zielsetzung sind einige Aspekte zu beachten,<br />

damit die Prototypenerstellung im betreffenden Projekt einen Mehrwert erzeugen<br />

kann (Preim 1999; Warfel 2009). Insbesondere die angemessene<br />

Wahl der Fidelity eines Prototypen, also seine Ähnlichkeit mit dem endgül-


User Interface Prototyping 347<br />

tigen System kann entscheidend für den Erfolg des Prototyping sein (Lim et<br />

al. 2005). Klassifiziert man Prototypen eindimensional nach ihrer Fidelity,<br />

haben Low-Fidelity-Prototypen den Vorteil einer kostengünstigen <strong>und</strong> wenig<br />

zeitintensiven Erstellung <strong>und</strong> werden daher häufig in frühen Projektphasen<br />

eingesetzt. High-Fidelity-Protoypen ähneln dem Endprodukt bereits sehr<br />

stark <strong>und</strong> eignen sich daher besonders zur Spezifikation eines Systems <strong>und</strong><br />

als Marketingwerkzeug (Rudd et al. 1996). Die Fidelity eines Prototypen<br />

kann darüber hinaus mehrdimensional definiert werden, indem beispielsweise<br />

in visuelle <strong>und</strong> funktionale Fidelity unterschieden wird (Arnowitz 2007;<br />

Beecher 2009). Weitere Faktoren sind das eingesetzte Medium (digital vs.<br />

physisch), der Umfang (horizontal vs. vertikal) <strong>und</strong> die Weiterverwendung<br />

des Prototypen (Wegwerf- vs. evolutionäre Prototypen).<br />

Werkzeuge<br />

Während physische Prototypen gemeinhin mit Papier <strong>und</strong> Stift erstellt werden<br />

(Paper Prototyping), wird beim digitalen Prototyping eine Vielzahl unterschiedlicher<br />

Werkzeuge eingesetzt. Die Werkzeuge können in folgende<br />

Kategorien eingeteilt werden (Arnowitz 2007; Warfel 2009):<br />

• Präsentations- <strong>und</strong> Visualisierungssoftware (Microsoft Visio, Microsoft<br />

Powerpoint, etc.)<br />

• Grafikanwendungen (Adobe Fireworks, Adobe Photoshop, etc.)<br />

• Entwicklungsumgebungen (Adobe Flash/Flex, Adobe Dreamweaver,<br />

etc.)<br />

• Spezifische Prototyping-Werkzeuge (Axure RP Pro, iRise, etc.)<br />

• Sonstige Anwendungen (Adobe Acrobat, Microsoft Excel, etc.)<br />

Der Fokus dieser Arbeit liegt auf der Untersuchung spezifischer Prototyping-<br />

Werkzeuge.<br />

Methodisches Vorgehen<br />

Die initiale Auswahl der zu bewertenden Werkzeuge wurde auf Gr<strong>und</strong>lage<br />

der zum Zeitpunkt der Untersuchung verfügbaren Anwendungen getroffen.<br />

Hierbei wurden 38 spezifische Prototyping-Werkzeuge identifiziert, also ex-


348 Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl<br />

plizit als Prototyping-Werkzeug bezeichnete Programme. Neben einigen<br />

Grenzfällen 1 , wurden aus den ursprünglich 38 identifizierten Anwendungen<br />

elf Anwendungen nicht in die Bewertung mit einbezogen. Darunter befanden<br />

sich nicht ausgereift klassifizierte Anwendungen, nicht eigenständig 2 klassifizierte<br />

<strong>und</strong> ein nicht funktionsfähiges Programm. Für die Bewertung der<br />

verbleibenden 27 Tools wurde ein mehrstufiger Prozess entwickelt.<br />

Den Beginn der Untersuchung bildete eine Anforderungsanalyse. Hierfür<br />

wurden sowohl allgemeine Anforderungen als auch die Bedürfnisse der potenziellen<br />

Nutzer bei IBM Interactive Hamburg erfasst. Als Gr<strong>und</strong>lage dienten<br />

Experteninterviews mit drei User Experience-Beratern. Diese Personen<br />

wurden ausgewählt, da sie die meiste Erfahrung mit dem Einsatz von Prototyping-Techniken<br />

hatten. In den Interviews wurden Fragen zum bisherigen<br />

Einsatz von Prototyping-Methoden, den Zielsetzungen <strong>und</strong> dem Einsatz von<br />

interaktiven Prototypen gestellt. Durch die allgemeine <strong>und</strong> spezifische Anforderungsanalyse<br />

wurden ausreichend viele <strong>Information</strong>en erhoben, um eine<br />

Sammlung von Kriterien für die Evaluation zu definieren. Aus diesem Arbeitsschritt<br />

ergaben sich drei Arten von Kriterien: pragmatische, funktionale<br />

<strong>und</strong> Usability-Kriterien. Um die spezifischen Anforderungen bei IBM Interactive<br />

zu erfassen, wurde daraufhin eine Gewichtung der Kriterien auf Basis<br />

einer Online-Befragung durchgeführt.<br />

Bei der Gewichtung wurden auf Gr<strong>und</strong> ihrer hohen Anzahl nur die funktionalen<br />

Kriterien mit einbezogen. Der entsprechende Fragebogen wurde an<br />

zehn Mitarbeiter der IBM Interactive Hamburg geschickt. Die Rücklaufquote<br />

lag bei 90%. Die Befragten konnten die Priorität der Kriterien auf einer Skala<br />

von 1 (niedrige Priorität) bis 5 (hohe Priorität) bewerten. Auf die Definition<br />

<strong>und</strong> Gewichtung der Bewertungskriterien folgte die Bewertung der Werkzeuge.<br />

Dabei wurden alle Anwendungen einer Grobbetrachtung hinsichtlich<br />

funktionaler <strong>und</strong> pragmatischer Kriterien unterzogen. Für die Detailbetrachtung<br />

wurden schließlich die fünf bestplatzierten Anwendungen nach Einbeziehung<br />

der Kriteriengewichtung ausgewählt.<br />

Die Detailbetrachtung der fünf ausgewählten Anwendungen wurde in<br />

zwei Bereiche eingeteilt: Eine pragmatische <strong>und</strong> funktionale Detailbetrachtung<br />

sowie eine analytische Betrachtung der Usability. Im ersten Teil der<br />

1 Bei einigen Anwendungen fiel die Einordnung als spezifisches Prototyping-Werkzeug<br />

schwer. Im Zweifelsfall wurden grenzwertige Anwendungen aufgr<strong>und</strong> der Vielzahl an<br />

verfügbaren Anwendungen nicht berücksichtigt.<br />

2 Hier handelte es sich um Erweiterungen für andere teils kostenpflichtige Programme.


User Interface Prototyping 349<br />

Detailbetrachtung wurde jede der fünf Anwendungen qualitativ auf ihre individuelle<br />

Funktionsweise <strong>und</strong> hinsichtlich pragmatischer Faktoren überprüft.<br />

Im zweiten Teil der Detailbetrachtung wurde eine heuristische Evaluation<br />

durchgeführt. Mit den zwei vielversprechendsten Anwendungen aus der analytischen<br />

Betrachtung folgte ein Nutzertest. Ziel war es, die Ergebnisse aus<br />

der heuristischen Evaluation zu überprüfen <strong>und</strong> die Anwendungen auf ihre<br />

Usability zu untersuchen. Hierfür wurde mit beiden Anwendungen ein Testprototyp<br />

erstellt, der im Rahmen eines realistischen Szenarios von den Testpersonen<br />

geändert werden sollte. An diesem Test nahmen acht Mitarbeiter<br />

von IBM Interactive Hamburg teil.<br />

Anforderungsanalyse<br />

Nach einer ausführlichen Literaturrecherche wurden bei der Suche nach konkreten<br />

Kriterien für Prototyping-Werkzeuge fünf relevante Quellen identifiziert.<br />

Dabei wurde besonders die Usability <strong>und</strong> die Effizienz der Prototypenerstellung<br />

sowie pragmatische Faktoren wie der Preis <strong>und</strong> die Verfügbarkeit<br />

einer Anwendung als relevant eingeordnet (Memmel et al. 2007). Aus<br />

den Experteninterviews ergaben sich Erkenntnisse zum bisherigen Einsatz<br />

von User Interface Prototyping-Methoden <strong>und</strong> Aussagen über Anforderungen<br />

an potenzielle Werkzeuge. Da das zumeist eingesetzte Microsoft Visio einige<br />

essentielle Funktionen nicht originär unterstützt, wurde bei IBM Interactive<br />

Hamburg mithilfe von Visual Basic ein Makro-Paket unter dem Namen IBM<br />

Tools entwickelt, um die Funktionalität zu erweitern. Die befragten Experten<br />

äußerten zahlreiche Anforderungen: Abhängig vom Projekt sei zunächst der<br />

finanzielle Aufwand zu beachten. Da bei IBM Interactive Hamburg MS<br />

Windows eingesetzt wird, muss die Anwendung auch auf dieser Plattform<br />

lauffähig sein. Webanwendungen seien nicht gr<strong>und</strong>sätzlich abzulehnen, allerdings<br />

sollten diese auch ohne Internetzugang verwendbar sein, da Mitarbeiter<br />

häufig unterwegs sind. Um eine effektive Zusammenarbeit mit K<strong>und</strong>en zu<br />

gewährleisten, sei es notwendig, dass diese mit dem Prototypen interagieren<br />

können, ohne eine eigene Lizenz für die Anwendung zu besitzen. Wünschenswert<br />

in der K<strong>und</strong>enzusammenarbeit sei weiterhin eine integrierte<br />

Kommentarfunktion. Die Spezifikation von Benutzungsoberflächen erfolge<br />

zurzeit in der Regel mithilfe von statischen Wireframes <strong>und</strong> Beschreibungen


350 Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl<br />

in Textform. Wünschenswert wäre eine stärker an den Prototypen gekoppelte<br />

Dokumentationsmöglichkeit sowie eine komfortablere Tabellenfunktion. Die<br />

Darstellung von Interaktivität in Microsoft Visio – über die einfache Verknüpfung<br />

von Seiten hinaus – ist sehr umständlich <strong>und</strong> limitiert. Die Möglichkeit<br />

Master zu nutzen, Vorlagen zu erstellen <strong>und</strong> Hintergr<strong>und</strong>seiten anzulegen<br />

wird bei IBM intensiv genutzt. Eine Möglichkeit die visuelle<br />

Erscheinung des Prototypen zu verändern <strong>und</strong> die UI-Elemente beispielsweise<br />

handgezeichnet darstellen zu lassen, wurde von den Befragten als interessant<br />

eingeschätzt. Für Visio seien entsprechende Shapes erhältlich, wurden<br />

jedoch noch nicht eingesetzt.<br />

Bewertungskriterien<br />

Zunächst wurden pragmatische Kriterien definiert, um wirtschaftliche <strong>und</strong><br />

technische Faktoren, die für den Einsatz in der Praxis relevant sind, zu erfassen<br />

(siehe Tabelle 1).<br />

Tabelle 1: Pragmatische Kriterien<br />

Anforderungsbereich Kriterium<br />

Wirtschaftliche Faktoren Kosten für Einzellizenz<br />

Kosten für Sammellizenz<br />

Möglichkeit kommerzieller Nutzung<br />

Technische Faktoren Plattform<br />

Der Großteil der allgemeinen <strong>und</strong> spezifischen Anforderungen war funktionaler<br />

Natur. So ergaben sich sowohl aus der Literatur als auch aus den Experteninterviews<br />

Anforderungen in Hinblick auf die Dokumentations- <strong>und</strong><br />

Kollaborationsfunktionalität von Prototyping-Werkzeugen. Zudem wurde die<br />

Wiederverwendbarkeit von vorhandenen Elementen <strong>und</strong> Prototypen gefordert,<br />

um Prototypen schnell zu erstellen <strong>und</strong> flexibel ändern zu können.<br />

Schließlich wurde in der Fachliteratur <strong>und</strong> den Experteninterviews der Bedarf<br />

nach Prototypen mit hoher Interaktivität deutlich. Eine Einteilung in<br />

unterschiedliche Anforderungsbereiche schien zweckdienlich. Innerhalb dieser<br />

Anforderungsbereiche wurden einzelne Kriterien gesammelt, um die Stärken<br />

<strong>und</strong> Schwächen der untersuchten Anwendungen möglichst umfassend<br />

abzubilden (siehe Tabelle 2).


User Interface Prototyping 351<br />

Tabelle 2: Funktionale Kriterien<br />

Anforderungsbereich Kriterium<br />

Basisfunktionalität Format des Prototypen <strong>und</strong> Exportmöglichkeiten<br />

Offlinefähigkeit<br />

Erstellung von Prototypen mittels Drag-and-drop-Technik<br />

Definition der Benutzerführung durch Flussdiagramme<br />

(Flow-Charts) oder Szenarien<br />

Dokumentation Hinzufügen von Kommentaren <strong>und</strong> Erläuterungen zum<br />

Prototypen durch den Ersteller<br />

Automatische Erstellung eines Spezifikationsdokuments<br />

Integration in Anforderungsmanagement-Software wie<br />

Rational Requirements Composer<br />

Flexibilität/<br />

Wiederverwendbarkeit<br />

Interaktivität des<br />

Prototypen<br />

Erweiterungsmöglichkeit der Anwendungsfunktionalität<br />

über die Standardfunktionen hinaus (z. B. durch Makros)<br />

Wiederverwendbare <strong>und</strong> editierbare UI-Elemente<br />

für gängige Anwendungsfälle (Stencils / Widget Library)<br />

Erweiterungsmöglichkeit der vorhandenen UI-Elemente<br />

Wiederverwendung durch Masterseiten oder -elemente<br />

Variable Darstellung des Prototypen (z. B. in handgezeichnetem<br />

Stil)<br />

Simulation erweiterter Interaktionsmöglichkeiten (z. B.<br />

Scrolling, Mouseover)<br />

Verlinkungsmöglichkeit einzelner Seiten<br />

Simulation von Dateneingabe <strong>und</strong> -ausgabe<br />

Darstellung von Programmverzweigungen abhängig von<br />

Benutzereingaben<br />

Kollaboration Gemeinschaftliches Erstellen von Prototypen<br />

Versionierungssystem (Check-in/Check-out-Funktion)<br />

Ausführen des Prototypen anderer Personen, ohne Installation<br />

der Anwendung (z. B. durch HTML-Prototypen oder<br />

Anzeigeprogramm)<br />

Hinzufügen von Kommentaren zum Prototypen durch<br />

andere Personen, ohne die Anwendung installiert zu haben<br />

Neben pragmatischen <strong>und</strong> funktionalen Kriterien hat besonders die Usability<br />

eines Prototyping-Werkzeugs Einfluss auf die Einsatzfähigkeit. Bei der<br />

Definition von Usability-Kriterien für die Evaluation wurden die Gr<strong>und</strong>sätze<br />

der Dialoggestaltung nach DIN EN ISO 9241-110 als Gr<strong>und</strong>lage gewählt.<br />

Die folgenden Kriterien wurden als besonders relevant für die Usability-Be-


352 Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl<br />

wertung eingestuft <strong>und</strong> als Gr<strong>und</strong>lage für die empirische Betrachtung der<br />

Usability in Form des Nutzertests eingesetzt.<br />

Aufgabenangemessenheit wurde ausgewählt, da es bei der Evaluation im<br />

Kern darum ging, zu überprüfen, ob das Erstellen von Prototypen in einer der<br />

Aufgabe angemessenen Form möglich ist. Da unter anderem ein Vergleich<br />

mit der derzeitigen Praxis angestrengt werden sollte schien eine Überprüfung<br />

der Erwartungskonformität sinnvoll, da diese neben der Selbstbeschreibungsfähigkeit<br />

dazu führt, dass Nutzer das Bedienkonzept eines Systems ohne<br />

fremde Hilfe erfassen können.<br />

Tabelle 3: Usability-Kriterien<br />

Anforderungsbereich Kriterium<br />

Aufgaben-<br />

Effektive <strong>und</strong> effiziente Erstellung eines Prototypen<br />

angemessenheit Effiziente Möglichkeit, Änderungen am Prototypen vorzunehmen<br />

Alle notwendigen Funktionen sind vorhanden<br />

Erwartungskonformität Innere Konsistenz: Einheitliche Bedienung <strong>und</strong> Gestaltung<br />

Äußere Konsistenz: Einhaltung anerkannter Konventionen<br />

Anpassung an die Erwartungen <strong>und</strong> Kenntnisse des BenutzersSelbstbeschreibungs-<br />

Ausreichende <strong>Information</strong>en über Systemzustand<br />

fähigkeit<br />

Ausreichende <strong>Information</strong>en über nötige Eingaben<br />

Unterstützung bei der Bedienung des Systems<br />

Ergebnis des Benchmark-Tests<br />

Tabelle 4 zeigt die sechs besten Systeme sortiert nach der Anzahl an erfüllten<br />

Kriterien.


User Interface Prototyping 353<br />

Tabelle 4: Ergebnis der Grobbetrachtung<br />

Rang Prototyping-Werkzeug Anzahl erfüllter Kriterien<br />

1 iRise 17 13,25<br />

2 Justinmind Prototyper 16 12,81<br />

3 Axure RP Pro 16 12,54<br />

4 Simulify 15 11,66<br />

5 Protoshare 3 12 99,5<br />

6 iPlotz 12 99,33<br />

Ergebnis der Detailbetrachtung<br />

Bewertung nach<br />

Kriteriengewichtung<br />

Bei der funktionalen Detailbetrachtung wurden viele Gemeinsamkeiten zwischen<br />

Axure RP Pro <strong>und</strong> Justinmind Prototyper entdeckt. iRise ist, wie schon<br />

in der Grobbetrachtung erfasst, bezüglich seiner Funktionalität das umfangreichste<br />

Programm. Während Simulify ähnlich viele Funktionalitäten wie<br />

iRise, Axure RP Pro <strong>und</strong> Justinmind Prototyper bietet, ist iPlotz vor allem<br />

aufgr<strong>und</strong> der fehlenden Darstellung von erweiterter Interaktivität den anderen<br />

Anwendungen funktional unterlegen.<br />

Die detaillierte Usability-Betrachtung zeigte, dass insbesondere Justinmind<br />

Prototyper <strong>und</strong> Simulify hinter den Erwartungen zurückblieben. Bei der<br />

Grobbetrachtung wurden sie aufgr<strong>und</strong> ihrer Funktionsvielfalt gut bewertet.<br />

Ihre Gebrauchstauglichkeit ist jedoch nicht zufriedenstellend. Zu viele große<br />

Usability-Probleme wurden entdeckt. Vergleicht man die auch als Web-Anwendung<br />

erhältliche Anwendung iPlotz mit Simulify, war die Usability von<br />

iPlotz nach der heuristischen Evaluation als besser zu bewerten. Obwohl<br />

auch bei iRise <strong>und</strong> Axure RP zum Teil große Usability-Probleme auftraten,<br />

waren sie doch die vielversprechendsten Anwendungen <strong>und</strong> wurden somit in<br />

Form eines Benutzertest genauer betrachtet.<br />

3 Das für IBM Interactive Hamburg entscheidende Kriterium der Offlinefähigkeit wurde<br />

nicht erfüllt. Aus diesem Gr<strong>und</strong> wurde Protoshare nicht mit in die Detailbetrachtung<br />

aufgenommen.


354 Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl<br />

Benutzertest<br />

Der Benutzertest ergab, dass der Unterschied in der Usability der Anwendungen<br />

iRise <strong>und</strong> Axure RP Pro weniger stark ausgeprägt ist als der Unterschied<br />

zwischen den anderen im Detail untersuchten Anwendungen. Betrachtet<br />

man die Aufgabenangemessenheit fällt auf, dass insbesondere bei einigen<br />

gr<strong>und</strong>legenden Arbeitsabläufen wie der Auswahl einzelner Elemente aus<br />

Gruppen oder dem Erstellen von Links größere Probleme auftraten. Bei Axure<br />

RP Pro war zu beobachten, dass das Erstellen von Links nur über einen<br />

einzigen Zugangsweg möglich ist <strong>und</strong> unter anderem dadurch größere Probleme<br />

bei der Nutzung auftraten. iRise bietet demgegenüber mehrere Möglichkeiten<br />

Links zu erstellen <strong>und</strong> erhöht dadurch bei einem explorativen Vorgehen<br />

des Nutzers die Chance, die Funktion zu entdecken. Die Erstellung<br />

interaktiver Elemente ist bei beiden Systemen nicht ohne eine längere Einarbeitungszeit<br />

möglich. Besonders die Verwendung von Dynamic Panels (Axure<br />

RP Pro) bzw. Dynamic Views (iRise) erforderte bei der analytischen<br />

Betrachtung bereits einen hohen Zeitaufwand.<br />

Bei den zwei im Benutzertest untersuchten Anwendungen wurde deutlich,<br />

dass zum Teil eine äquivalente Funktionsweise zu Microsoft Visio erwartet<br />

wurde. Besonders durch die visuelle Ähnlichkeit von Axure RP Pro zu<br />

Microsoft Visio entstanden Irritationen. Bezüglich der inneren Konsistenz<br />

war bei Axure RP Pro zu beobachten, dass die Funktionen, mit denen Interaktivität<br />

zum Prototypen hinzugefügt werden können, nicht konsistent verortet<br />

sind. Im Nutzertest war für die Lösung der Aufgaben eine gute Selbstbeschreibungsfähigkeit<br />

wichtig. Bei Axure RP Pro waren hier Mängel vor<br />

allem bei der Erstellung von Verknüpfungen zu erkennen. Einige Personen<br />

scheiterten, da die Aufforderung der Anwendung zur Angabe des Linkziels<br />

nicht eindeutig genug war. Bei iRise war die Kennzeichnung von Links <strong>und</strong><br />

Aktionen nicht selbstbeschreibend. Unter Berücksichtigung der kurzen Bearbeitungszeit<br />

innerhalb des Nutzertests, kann die Selbstbeschreibungsfähigkeit<br />

jedoch bei beiden Anwendungen als ausreichend angesehen werden.<br />

Die Einschätzungen der Nutzer zu beiden Anwendungen ergab sowohl bei<br />

der Gesamtbewertung als auch bei der Bewertung einzelner Aufgaben eine<br />

Tendenz für iRise. Zudem wurden die Aufgaben mit iRise im Durchschnitt in<br />

kürzerer Zeit <strong>und</strong> mit weniger Aufwand bewältigt. Ein erheblicher Unterschied<br />

hinsichtlich der Usability besteht jedoch nicht.


User Interface Prototyping 355<br />

Ausblick<br />

Die in den vorangegangenen Kapiteln beschriebene Evaluation wurde speziell<br />

auf den Einsatz der untersuchten Werkzeuge bei IBM Interactive Hamburg<br />

abgestimmt. Der gewählte mehrstufige Prozess mit den Bewertungskriterien<br />

<strong>und</strong> die Ergebnisse lassen sich jedoch auch bei Evaluationen für<br />

andere Zielgruppen einsetzen. Die Anforderungen anderer Zielgruppen können<br />

sich unterscheiden. Dabei ist insbesondere auf technische <strong>und</strong> wirtschaftliche<br />

Voraussetzungen, vorhandene Prozesse <strong>und</strong> Werkzeuge sowie die Zielsetzung<br />

der Prototyping-Aktivität <strong>und</strong> die Art des Endprodukts zu achten.<br />

Schließlich spielt die Vorerfahrung der betreffenden Nutzergruppe bei der<br />

Wahl eines geeigneten Prototyping-Werkzeugs eine große Rolle.<br />

War bei IBM Interactive Hamburg bereits Erfahrung mit Prototyping-<br />

Werkzeugen – in diesem Fall Microsoft Visio – vorhanden, haben Mitarbeiter<br />

anderer Unternehmen diese Vorerfahrung unter Umständen nicht. Variierende<br />

Vorerfahrungen beeinflussen also auch hier die jeweilige Erwartungshaltung.<br />

Literaturverzeichnis<br />

Arnowitz, J.; Arent, M., Berger N. (2007). Effective prototyping for software makers.<br />

Amsterdam.<br />

Beecher, F. (2009). Integrating Prototyping Into Your Design Process.<br />

http://www.boxesandarrows.com/view/integrating (abgerufen am 27.11.2009)<br />

Bäumer, D., Bischofberger, W. R., Lichter, H., et al. (1996). User interface prototyping<br />

– concepts, tools, and experience. In Proc 18th intl conf Software engineering.<br />

IEEE. S. 532–541.<br />

Lim, Y., Stolterman, Erik, Tenenberg, J. (2008). The anatomy of prototypes: Prototypes<br />

as filters, prototypes as manifestations of design ideas. In: ACM Trans.<br />

Comput.-Hum. Interact. 15. S. 1–27.<br />

Memmel, T; G<strong>und</strong>elsweiler, F; Reiterer, H. (2007). Prototyping Corporate User Interfaces.<br />

In. Proc IASTED-HCI, Chamonix, France. S. 177–182.<br />

Preece, J.; Rogers, Y., Sharp H. (2002). Interaction design. New York, NY: Wiley.<br />

Preim, B. (1999). Entwicklung interaktiver Systeme. Berlin: Springer.


356 Johannes Baeck, Sabine Wiem, Ralph Kölle, Thomas Mandl<br />

Rosson, M. B., Carroll, J. M. (2002). Usability engineering. San Francisco, CA:<br />

Kaufmann.<br />

Rudd, J., Stern, Ken, Isensee, S. (1996): Low vs. high-fidelity prototyping debate. In:<br />

interactions. 3 (1), S. 76–85.<br />

Vredenburg, K., Isensee, S., Righi, C. (2002): User-centered design: Prentice Hall<br />

PTR.<br />

Warfel, T. Z. (2008). First Prototyping Survey Results.<br />

http://zakiwarfel.com/archives/first-prototyping-survey-results/<br />

(abgerufen am 03.12.2009)<br />

Warfel, T. Z. (2009). Prototyping – A Practitioner’s Guide. Brooklyn, NY: Rosenfeld<br />

Media.


Analyse <strong>und</strong> Evaluierung der Nutzung von Sitelinks 357<br />

Analyse <strong>und</strong> Evaluierung der<br />

Nutzung von Sitelinks<br />

Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum<br />

Zusammenfassung<br />

Universität Hildesheim<br />

Marienburger Platz 22, 31141 Hildesheim<br />

{mahrholz | mandl | griesbau}@uni-hildesheim.de<br />

Dieser Beitrag geht der Frage nach, wie Sitelinks, das sind Links zu Unterseiten<br />

von Suchmaschinentreffern, von Nutzern bei Navigationsanfragen genutzt<br />

<strong>und</strong> bewertet werden. Die Ergebnisse eines Benutzertests zeigen ein<br />

uneinheitliches Bild. Einerseits deutet sich an, dass die Nutzung von Sitelinks<br />

die Dauer der <strong>Information</strong>ssuche signifikant verringern kann. Auf der<br />

anderen Seite werden Sitelinks oftmals nicht verwendet bzw. kaum bewusst<br />

wahrgenommen. Insofern bleibt fraglich, inwieweit sie ein sinnvoller Bestandteil<br />

der Darstellung von Suchergebnissen sind, da sie den knappen<br />

Raum zur Anzeige von weiteren Treffern auf den Ergebnisseiten von Suchmaschinen<br />

verringern.<br />

Abstract<br />

This article deals with the effects of sitelinks on user’s search behavior. Results<br />

of a user test show an ambiguous picture. On the one hand, the use of<br />

sitelinks may reduce search time. On the other hand, users often do not use<br />

the links. So the question remains if sitelinks can be judged as a valuable<br />

component of search engine results descriptions or if they are an element that<br />

unnecessarily reduces the already restricted space on result pages.


358 Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum<br />

1 Einleitung<br />

Die Art <strong>und</strong> Weise, wie Treffer auf den Ergebnisseiten von Suchdiensten<br />

präsentiert werden, stellt einen zentralen Bestandteil <strong>und</strong> Erfolgsfaktor des<br />

Web <strong>Information</strong> Retrieval dar. Die Darstellung einzelner Suchergebnisse,<br />

meist als “descriptions” bezeichnet, bestimmt dabei zu einem hohen Grad die<br />

Wahrscheinlichkeit, mit der die Ergebnisse selektiert <strong>und</strong> <strong>Information</strong>sprobleme<br />

effektiv <strong>und</strong> effizient gelöst werden (Lewandowski 2008). Es existieren<br />

vielfältige Studien, in denen Darstellungsweisen von Suchergebnissen untersucht<br />

wurden (z.B. Hotchkiss et al. 2005; Hotchkiss et al. 2007; Lorigo et al.<br />

2008; Cutrell <strong>und</strong> Guan 2007; BVDW 2008). Der Fokus dieses Beitrags liegt<br />

auf einer Untersuchung zur Wahrnehmung <strong>und</strong> Nutzung von Sitelinks. Es<br />

wurden Benutzertests konzipiert <strong>und</strong> durchgeführt, in denen Probanden navigationsorientierte<br />

<strong>Information</strong>sbedürfnisse bzw. Suchanfragen (vgl. Broder<br />

2002) zu lösen hatten.<br />

Bei sogenannten Navigationsanfragen dient die Suchmaschine als Mittel,<br />

bestimmte Websites zu finden. Klassischerweise gelangt der Benutzer von<br />

der Ergebnisseite auf die Homepage der gesuchten Website. Tatsächlich hört<br />

der eigentliche Suchprozess in den meisten Fällen damit aber nicht auf, sondern<br />

der Benutzer setzt ihn durch Navigation auf der Zielseite fort. Da jede<br />

Site ihr eigenes Layout <strong>und</strong> ihre eigene Darstellung für Menüs besitzt, kann<br />

es sinnvoll sein, durch Abkürzungen von einer einheitlich gestalteten Suchseite<br />

sofort auf die gesuchten Unterpunkte einer Site zu gelangen. Als Konsequenz<br />

entstanden solche Abkürzungen inzwischen bei allen größeren Suchmaschinen.<br />

Sogenannte Sitelinks sollen dazu beitragen, den Suchprozess<br />

effizienter zu gestalten, indem sie dem Nutzer die Möglichkeit bieten, schneller<br />

an gesuchte <strong>Information</strong>en zu gelangen (vgl. Google 2010). In der Regel<br />

werden bis zu acht Sitelinks, die sich auf zwei Spalten aufteilen, unter dem<br />

ersten Suchergebnis angezeigt (siehe Abb. 1).<br />

Neben den zweispaltigen gibt es auch einzeilige Sitelinks, deren Anzeige<br />

sich nicht auf Navigationsanfragen beschränkt <strong>und</strong> die somit für mehrere<br />

Ergebnisse angeboten werden können. Pro Ergebnis werden maximal vier<br />

von diesen Links angezeigt (vgl. Phan <strong>und</strong> Krishnan 2009). Bisher gibt es<br />

kaum zugängliche Erkenntnisse dazu, wie Sitelinks genutzt <strong>und</strong> bewertet<br />

werden. Zudem stellt sich die Frage, ob die Links tatsächlich dazu beitragen,<br />

den Suchprozess effizienter zu gestalten.


Analyse <strong>und</strong> Evaluierung der Nutzung von Sitelinks 359<br />

Abb. 1: Sitelinks bei Google. Suche nach „bahn“ (Anfrage vom 11.10.2010).<br />

2 Stand der Forschung<br />

Relevante Literatur für die Bewertung von Sitelinks bezieht sich auf Untersuchungen<br />

zum Nutzerverhalten bei unterschiedlichen Oberflächengestaltungen.<br />

Verschiedene Eyetracking-Studien haben ergeben, dass Benutzer beim<br />

Betrachten von Suchergebnisseiten in der Regel linear vorgehen. Je höher ein<br />

Ergebnis auf der Trefferseite positioniert ist, umso mehr Aufmerksamkeit<br />

erhält es <strong>und</strong> umso eher wird es angeklickt (vgl. z.B. Hotchkiss et al. 2005;<br />

Lorigo et al. 2008). Häufig ist in diesem Zusammenhang auch von einem Fförmigen<br />

Blickverlauf die Rede (vgl. Nielsen 2006). Hotchkiss et al. (2007)<br />

stellten fest, dass die Einbindung zusätzlicher Elemente Auswirkungen auf<br />

das Suchverhalten hat. So ziehen Bilder auf Ergebnisseiten die Blicke zunächst<br />

auf sich, was der linearen Vorgehensweise beim Betrachten der Ergebnisse<br />

entgegenwirkt. Die Autoren weisen darauf hin, dass dies auch eine<br />

Frage der Gewohnheit sein könnte. Laut einer Google-Studie ändert sich die<br />

gr<strong>und</strong>sätzliche Vorgehensweise beim Betrachten von Suchergebnissen durch<br />

die Einbindung von Bildelementen kaum (vgl. Aula <strong>und</strong> Rodden 2009).<br />

Cutrell <strong>und</strong> Guan (2007) untersuchten, ob <strong>und</strong> inwiefern sich das Suchverhalten<br />

zwischen informations- <strong>und</strong> navigationsorientierten Anfragearten<br />

bei unterschiedlichen Snippetlängen unterscheidet. Die Ergebnisse zeigten,<br />

dass sich die Leistungen der Teilnehmer bei navigationsorientierten Anfragen<br />

verschlechterten, wenn die Suchtreffer mit langen Snippets dargestellt wurden.<br />

Bei informationsorientierten Anfragen hingegen stellten die Forscher<br />

das Gegenteil fest. Im Vergleich zu kurzen Snippets verbesserten sich die<br />

Zeiten zur Bearbeitung von Suchaufgaben bei langen Snippets signifikant.


360 Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum<br />

2008 führte der Arbeitskreis Suchmaschinen-Marketing des B<strong>und</strong>esverbandes<br />

Digitale Wirtschaft (BVDW) e.V. eine Eyetracking-Studie durch, in<br />

der u.a. untersucht wurde, wie Sitelinks wahrgenommen <strong>und</strong> genutzt werden.<br />

Die Ergebnisse ergaben, dass sich das F-Muster bei der Betrachtung der<br />

Suchtreffer durch die eingerückten Sitelinks teilte. Die Links wirkten als<br />

optischer Trenner, wodurch das nachfolgende Ergebnis laut BVDW an Aufmerksamkeit<br />

gewann. Die Sitelinks selbst wurden in der Studie im Vergleich<br />

zu den benachbarten Ergebnissen seltener angeklickt (vgl. BVDW 2008).<br />

3 Experiment<br />

Um zu untersuchen, wie Benutzer mit Sitelinks umgehen <strong>und</strong> ob die Links<br />

tatsächlich effizient sind, wurde ein Test konzipiert, in dem Probanden verschiedene<br />

Web-Suchaufgaben bearbeiteten. Das jeweils erste Resultat auf<br />

den Suchmaschinenergebnisseiten war mit zweispaltigen Sitelinks ausgestattet.<br />

Folgende Forschungsfragen lagen der Untersuchung zugr<strong>und</strong>e:<br />

• Werden Sitelinks wahrgenommen <strong>und</strong> genutzt? Von welchen Faktoren<br />

hängt es ab, ob Sitelinks genutzt werden?<br />

• Gelangen Benutzer mithilfe der Sitelinks schneller an die von ihnen gesuchten<br />

<strong>Information</strong>en?<br />

• Welche Darstellungsweise einer Suchergebnisseite wird bei navigationsorientierten<br />

Anfragen allgemein bevorzugt <strong>und</strong> warum?<br />

3.1 Teilnehmer<br />

An der Studie nahmen 30 Studenten der Universität Hildesheim teil. Das<br />

Durchschnittsalter der Teilnehmer lag bei 23,8 Jahren (SD = 2,2). 25 Testpersonen<br />

waren weiblich <strong>und</strong> fünf waren männlich.<br />

3.2 Aufgaben<br />

Ziel war eine möglichst realistische Evaluierung. Da Sitelinks vor allem als<br />

Element der Benutzungsoberfläche angesehen werden müssen, sollte keine<br />

systemorientierte Prüfung der Suchqualität erfolgen, sondern ein Test mit


Analyse <strong>und</strong> Evaluierung der Nutzung von Sitelinks 361<br />

Benutzern in möglichst realistischen Suchszenarien. Die Suchaufgaben mussten<br />

so konstruiert werden, dass die meisten mit Sitelinks lösbar sind, da sonst<br />

ohnehin offensichtlich ist, dass dieses Element zu einer Verschlechterung der<br />

Interaktion führt. Allerdings wurden Aufgaben <strong>und</strong> Lösungen gewählt, in<br />

denen die Zielseiten teilweise direkt in den Sitelinks zu finden waren <strong>und</strong><br />

teils nicht. Insgesamt umfasste der Test 14 Aufgaben. Eine Aufgabe lautete<br />

beispielsweise wie folgt:<br />

„Du bist demnächst in Köln <strong>und</strong> planst bei der Gelegenheit den Kölner Zoo zu<br />

besuchen. Vorher möchtest du dich erk<strong>und</strong>igen, wie viel der Eintritt kostet.<br />

Finde die Website des Kölner Zoos <strong>und</strong> erk<strong>und</strong>ige dich, wie viel der Eintritt für<br />

Studenten kostet.“<br />

Für zwölf Aufgaben wurde jeweils ein relevanter Sitelink ausgewählt, von<br />

dessen Zielseite aus maximal ein weiterer Klick nötig war, um zur gesuchten<br />

<strong>Information</strong> zu gelangen. Teilweise gab es Aufgaben, bei denen die Teilnehmer<br />

über mehrere Sitelinks das Ziel erreichen konnten. Als „bester“ Sitelink<br />

wurde in diesen Fällen der Link ausgewählt, der die kürzeste Verbindung zur<br />

gesuchten <strong>Information</strong> darstellte. Zwei weitere Aufgaben enthielten keine<br />

relevanten Sitelinks, um möglichen Ermüdungseffekten vorzubeugen. Je<br />

nach Schwierigkeitsgrad betrug das Zeitlimit zur Bearbeitung der Aufgaben<br />

zwei bzw. drei Minuten. Die Aufgaben wurden allen Teilnehmern in der<br />

gleichen Reihenfolge präsentiert.<br />

3.3 Ergebnisseiten<br />

Die Ergebnisseiten wurden manipuliert, sodass pro Aufgabe sowohl die Darstellungsweise<br />

mit als auch ohne Sitelinks angezeigt wurde. Dadurch sollte<br />

es möglich sein, die Zeiten zur Aufgabenbearbeitung bei beiden Darstellungsweisen<br />

miteinander zu vergleichen. Die Teilnehmer wurden hierzu in<br />

zwei gleich große Gruppen A <strong>und</strong> B aufgeteilt. Für die eine Hälfte der Aufgaben<br />

bekam Gruppe A Sitelinks angezeigt, für die andere Hälfte der Aufgaben<br />

bekam Gruppe B Sitelinks angezeigt.<br />

Um sicherzustellen, dass jeder Teilnehmer die vorher festgelegten Ergebnisseiten<br />

erhalten würde, wurde als Suchmaschine ein Dummy eingesetzt.<br />

Der Suchbutton auf der Startseite wurde so manipuliert, dass der Benutzer<br />

beim Klick auf diesen auf die jeweils vorher bestimmte Trefferliste verwiesen<br />

wurde, unabhängig davon, was in das Suchfeld eingegeben wurde. Im<br />

Vorfeld der Untersuchung wurden für jede Aufgabe die entsprechenden An-


362 Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum<br />

fragen an eine reale Suchmaschine gestellt <strong>und</strong> die ausgegebenen Ergebnisseiten<br />

lokal in zwei separaten Ordnern (Gruppe A <strong>und</strong> B) gespeichert. Für die<br />

Aufgaben, bei denen keine Sitelinks angezeigt werden sollten, wurden sie<br />

jeweils aus dem Quelltext der Dateien gelöscht.<br />

3.4 Testdurchführung<br />

Die Tests fanden in einem dreiwöchigen Zeitraum im Juni <strong>und</strong> Juli 2009 statt<br />

<strong>und</strong> wurden in einem Usability Labor durchgeführt. Die Probanden wurden<br />

dazu angehalten, während der Tests ihre Vorgehensweise zu kommentieren<br />

<strong>und</strong> anzugeben, wann sie eine Aufgabe für beendet hielten. Suchbegriffe<br />

wurden ihnen nicht vorgeben, um eine weitestgehend natürliche Interaktion<br />

zu ermöglichen. Da jedoch eine kontrollierte Ausgabe der Ergebnisseiten<br />

erfolgte, konnte jeweils nur eine Anfrage pro Aufgabe an das Suchsystem gestellt<br />

werden. Zur Audio- <strong>und</strong> Bildschirmaufzeichnung wurde das Programm<br />

Morae 3.1 1 genutzt. Nach der Aufgabenbearbeitung erfolgte eine Aufklärung<br />

über den Untersuchungsgegenstand <strong>und</strong> das Ziel der Studie. Die Teilnehmer<br />

wurden ferner gebeten, einen Abschlussfragebogen auszufüllen <strong>und</strong> einige<br />

mündliche Fragen zu beantworten.<br />

4 Ergebnisse<br />

4.1 Nutzung der Sitelinks<br />

Von den 12 × 15 = 180 Darstellungsweisen mit relevanten Sitelinks wurden<br />

die Links insgesamt 68 Mal angeklickt. In 61 Fällen (34%) nutzten die Teilnehmer<br />

den im Vorfeld bestimmten „besten“ Sitelink. In zwei weiteren Fällen<br />

(1%) wurden Sitelinks ausgewählt, die ebenfalls relevant <strong>und</strong> somit zielführend<br />

waren. Fünf Mal (3%) wurden Sitelinks genutzt, die nicht zielführend<br />

waren. Einmal konnte eine Aufgabe daraufhin nicht erfolgreich beendet<br />

werden, da die Testperson Orientierungsschwierigkeiten auf der entsprechenden<br />

Website hatte <strong>und</strong> das vorgegebene Zeitlimit deutlich überschritt.<br />

1 http://www.techsmith.de


Analyse <strong>und</strong> Evaluierung der Nutzung von Sitelinks 363<br />

Über alle Aufgaben hinweg, für die relevante Sitelinks angezeigt wurden,<br />

wurden die Links im Durchschnitt 5,6 Mal angeklickt (SD = 2,4; min = 1;<br />

max = 9 2 ). Nicht genutzt wurden Sitelinks bei den beiden Aufgaben, für die<br />

keine relevanten Sitelinks angezeigt wurden. Die 30 Testpersonen klickten<br />

durchschnittlich 2,3 Mal auf die Sitelinks (SD = 1,9; min = 0; max = 6 3 ).<br />

4.1.1 Benennungen der Sitelinks<br />

Die Ergebnisse deuten zunächst daraufhin, dass Sitelinks eher genutzt werden,<br />

wenn deutlich ist, wohin diese führen. Am seltensten wurden die relevanten<br />

Sitelinks bei den Aufgaben 5 (Ryanair; Gruppe B) <strong>und</strong> 7 (Techniker<br />

Krankenkasse; Gruppe A) gewählt. Bei letzterer Aufgabe klickte nur eine<br />

Person auf den Link „Wahltarife & Zusatzversicherungen“, um <strong>Information</strong>en<br />

über eine Auslandsreise-Krankenversicherung zu erhalten. Bei Aufgabe<br />

5 wurde der relevante Sitelink „FAQ“ gar nicht genutzt, um Angaben zum<br />

zulässigen Handgepäck bei Ryanair zu finden. Stattdessen wählten drei Personen<br />

den Sitelink „Fluginformationen“, welcher nicht zielführend war. Am<br />

häufigsten wurden die Sitelinks in Gruppe A bei Aufgabe 10 genutzt (Suche<br />

nach <strong>Information</strong>en zum Girokonto auf der Website der ING-DiBa; Sitelink<br />

„Girokonto“) <strong>und</strong> zwar von 9 (60%) Testpersonen aus der Gruppe. In Gruppe<br />

B wurden die Sitelinks am häufigsten bei Aufgabe 9 (Geräteabmeldung<br />

bei der GEZ) angeklickt. In diesem Fall wählten 8 (53%) Probanden den<br />

relevanten Sitelink „Abmelden“. In der Nachbefragung meinten einige Testpersonen,<br />

dass sie die Links generell eher verwenden, wenn diese das gesuchte<br />

Schlagwort bereits enthalten.<br />

4.1.2 Vorerfahrungen mit Sitelinks<br />

Die Ergebnisse der Nachbefragung ergaben, dass die Mehrheit der Testpersonen<br />

Sitelinks bereits vor dem Test gekannt <strong>und</strong> auch genutzt hatte. Unterteilt<br />

man die Antworten auf die Frage, ob Sitelinks schon vor dem Test benutzt<br />

wurden, nach den zwei Teilnehmergruppen „Sitelinks im Test benutzt“<br />

<strong>und</strong> „Sitelinks im Test nicht benutzt“, ergibt sich folgendes Bild:<br />

2 Das theoretische Maximum betrug 15.<br />

3 Das theoretische Maximum betrug 6 (bezogen auf Aufgaben mit relevanten Sitelinks).


364 Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum<br />

Tab. 1: Kreuztabelle zu den Variablen „Nutzung der Sitelinks vor dem Test“<br />

<strong>und</strong> „Nutzung der Sitelinks in dem Test“ (n = 27) 4<br />

Sitelinks vor dem Test genutzt<br />

Sitelinks während des Tests genutzt<br />

ja nein<br />

ja 18 3<br />

nein 22 4<br />

Ein exakter Test nach Fisher ergab, dass die Variablen „Nutzung der Sitelinks<br />

vor dem Test“ <strong>und</strong> „Nutzung der Sitelinks in dem Test“ signifikant abhängig<br />

voneinander sind (p=0,024). Vertrautheit im Umgang mit den Links<br />

könnte demnach einen Einfluss darauf gehabt haben, ob diese im Test angeklickt<br />

wurden oder nicht.<br />

4.1.3 Gründe für Nicht-Nutzung der Sitelinks<br />

Eine von insgesamt neun Testpersonen, die in dem Test gar nicht auf Sitelinks<br />

klickten, sagte in der Nachbefragung, sie habe die Links überhaupt<br />

nicht gesehen. Fünf weitere Testpersonen gaben an, aus Gewohnheit auf den<br />

Titel des jeweiligen Suchtreffers geklickt <strong>und</strong> ebenfalls nicht richtig auf die<br />

Sitelinks geachtet zu haben. Teilweise meinten sie, auf der Homepage einen<br />

besseren Überblick zu haben <strong>und</strong> daher diesen Weg zu bevorzugen. Drei<br />

Testpersonen war nicht bewusst, dass sie mithilfe der Sitelinks direkt auf die<br />

Unterseiten der jeweiligen Websites gelangt wären. Dabei dachten zwei von<br />

ihnen, dass es sich um Werbelinks handelte. Eine Testperson hat die Linkfunktion<br />

als solche nicht erkannt. Auf die Problematik, dass die eigentliche<br />

Funktion der Sitelinks von Benutzern möglicherweise nicht richtig erkannt<br />

wird, machte eine Teilnehmerin ebenfalls im Nachgespräch aufmerksam. Sie<br />

wies darauf hin, dass die Links daher deutlicher gekennzeichnet werden sollten.<br />

4.2 Bearbeitungszeiten der Aufgaben<br />

Die Bearbeitungszeit für eine Aufgabe begann mit dem Aufruf der Ergebnisseite<br />

<strong>und</strong> endete, sobald der Teilnehmer angab, die Aufgabe abgeschlossen<br />

4 Personen, die auf die Frage „Hast du Sitelinks bereits vor dem Test genutzt?“ mit „weiß<br />

nicht“ antworteten, wurden nicht in die Analyse einbezogen.


Analyse <strong>und</strong> Evaluierung der Nutzung von Sitelinks 365<br />

zu haben. Tendenziell waren Probanden, die relevante Sitelinks anklickten,<br />

bei allen Aufgaben schneller als Probanden, die den Weg über die Homepages<br />

gingen. Eine getrennte Betrachtung der einzelnen Aufgaben erwies sich<br />

als sinnvoll, da zwischen diesen teilweise große Unterschiede bezüglich der<br />

Bearbeitungszeiten auftraten. Mittels einfaktorieller Varianzanalysen wurde<br />

überprüft, ob sich die Bearbeitungszeiten je nach Navigationsweg (Homepage<br />

bei Darstellung mit Sitelinks; Homepage bei Darstellung ohne Sitelinks;<br />

Sitelink) signifikant unterschieden. Varianzanalysen wurden nur für Aufgaben,<br />

bei denen die Sitelinks häufiger als fünf Mal angeklickt wurden, durchgeführt<br />

(vgl. Tab 2).<br />

Tab. 2: Vergleich Bearbeitungszeiten pro Navigationsweg<br />

(HP = Homepage; SL = Sitelink)<br />

Aufgaben<br />

Bearbeitungszeiten in Sek. p-Wert<br />

HP HP SL<br />

(Darstellung (Darstellung<br />

mit SL) ohne SL)<br />

Aufgabe 2 (Deutsche Post) 51,4 63,0 14,1 0,001<br />

Aufgabe 3 (WWF) 46,7 41,4 35,6 0,207<br />

Aufgabe 9 (GEZ) 30,6 28,3 20,1 0,024<br />

Aufgabe 10 (ING-DiBa) 32,5 29,6 19,1 0,005<br />

Aufgabe 11 (Olympiastadion) 52,0 52,2 29,0 0,001<br />

Signifikante Unterschiede ließen sich bei vier von fünf Aufgaben feststellen.<br />

Post-hoc-Tests ergaben, dass bei den Aufgaben 2 <strong>und</strong> 11 signifikante<br />

Unterschiede zwischen der Gruppe der Sitelink-Nutzer <strong>und</strong> den beiden<br />

Gruppen der Homepage-Nutzer auftraten. Auf der Homepage der Deutschen<br />

Post fanden die wenigsten Teilnehmer den direkten Verweis auf die eigentliche<br />

Zielseite, wodurch sich hier erhebliche Unterschiede in den Bearbeitungszeiten<br />

ergaben. Dies deutet darauf hin, dass Sitelink-Nutzer vor allem<br />

bei Websites mit komplexen Homepages im Vorteil sind. Weitere signifikante<br />

Unterschiede zeigten sich bei den Aufgaben 9 <strong>und</strong> 10 jeweils zwischen den<br />

Gruppen, die Sitelinks genutzt hatten, <strong>und</strong> den Gruppen, die bei der Darstellung<br />

ohne Sitelinks den Weg über die Homepages gewählt hatten.


366 Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum<br />

4.3 Präferenz<br />

In der Nachbefragung sollten die Teilnehmer drei Darstellungsweisen des<br />

ersten Suchtreffers in eine nach Präferenz geordnete Rangfolge bringen. Neben<br />

der Darstellung ohne Sitelinks <strong>und</strong> der Darstellung mit zweispaltigen<br />

Sitelinks sollten die Testpersonen auch die Darstellung mit einzeiligen Sitelinks<br />

(gekennzeichnet durch das Wort „Direktlinks“) bewerten (vgl. Abb. 2).<br />

Abb. 2: Drei Darstellungsweisen des ersten Suchergebnisses<br />

In der folgenden Tabelle ist der durchschnittliche Rangwert für die jeweiligen<br />

Darstellungsweisen abgebildet:<br />

Tab. 3:<br />

Mittelwerte des Rankings der drei Darstellungsweisen (niedriger = besser)<br />

Darstellungsweise ohne Sitelinks einzeilige Sitelinks zweispaltige Sitelinks<br />

Ranking 2,5 2,2 1,3<br />

Eine einfaktorielle Varianzanalyse mit Messwiederholung ergab signifikante<br />

Gruppenunterschiede hinsichtlich der Bewertungen. Es zeigten sich<br />

signifikante Unterschiede zwischen den Bewertungen der Darstellungsweise<br />

mit zweispaltigen Sitelinks <strong>und</strong> den beiden anderen Darstellungsweisen (post<br />

hoc paarweise Vergleiche mit Bonferroni-Korrektur; jeweils p < 0,001).<br />

Ein wesentlicher Faktor, der für die Anzeige zweispaltiger Sitelinks<br />

spricht, sei laut Aussage der Testpersonen die Möglichkeit, Navigationswege<br />

zu verkürzen. Zudem werde durch die Links eine bessere Übersichtlichkeit<br />

geboten. Daher wurden sie auch in den meisten Fällen gegenüber einzeiligen<br />

Sitelinks bevorzugt. Knapp die Hälfte der Personen gab an, dass einzeilige<br />

Sitelinks sich nicht genug von den weiteren Komponenten des Suchergebnisses<br />

abheben <strong>und</strong> dadurch schnell übersehen werden. Trotzdem deutete sich<br />

auch hier eine leichte Bevorzugung gegenüber der Darstellung ohne Sitelinks<br />

an.


Analyse <strong>und</strong> Evaluierung der Nutzung von Sitelinks 367<br />

5 Diskussion <strong>und</strong> Fazit<br />

Insgesamt sind die Ergebnisse der Untersuchung ambig. Zwar wurden die<br />

Links in der Nachbefragung von den meisten Teilnehmern positiv bewertet,<br />

vielfach wurden sie in dem Test aber kaum bewusst wahrgenommen <strong>und</strong><br />

auch nicht genutzt, um an die gesuchten <strong>Information</strong>en zu gelangen. Meist<br />

waren die Teilnehmer nicht bereit, sich lange auf den Suchergebnisseiten<br />

aufzuhalten <strong>und</strong> tendierten dazu, den Titel des jeweiligen Suchergebnisses<br />

anzuklicken. Teilweise waren die Sitelink-Nutzer in dem Test schneller, vorausgesetzt<br />

allerdings, dass die relevanten Unterpunkte tatsächlich in den<br />

Links zu finden waren. Zwei Testpersonen wiesen darauf hin, dass Sitelinks<br />

viel Platz wegnehmen. Tiefer positionierte Ergebnisse, die für die Suchanfrage<br />

relevant sein könnten, verschwinden dadurch eher aus dem sichtbaren<br />

Bereich <strong>und</strong> der Nutzer müsse unter Umständen mehr scrollen. Als problematisch<br />

erwies sich in dem Test zudem, dass einigen Teilnehmern nicht bewusst<br />

war, welche Funktion Sitelinks erfüllen. Dies impliziert, dass Sitelinks<br />

deutlicher gekennzeichnet sein sollten. Dieser Test beschränkte sich hauptsächlich<br />

auf die Untersuchung zweispaltiger Sitelinks. Zwar wurden die Probanden<br />

auch zu ihren subjektiven Eindrücken bezüglich einzeiliger Sitelinks<br />

befragt, für weiterführende Untersuchungen wäre es aber interessant zu erfahren,<br />

wie Benutzer mit diesen Links im tatsächlichen Nutzungskontext<br />

umgehen.<br />

Literaturverzeichnis<br />

Aula, A.; Rodden, K. (2009): Eye-tracking studies: more than meets the eye.<br />

http://googleblog.blogspot.com/2009/02/eye-tracking-studies-more-than-meets.html<br />

[Abruf: 08.11.2010]<br />

Broder, A. (2002): A taxonomy of web search. In: SIGIR Forum, Vol. 36, Nr. 2,<br />

S. 3–10.<br />

BVDW (2008): Nutzerverhalten auf Google-Suchergebnisseiten. Eine Eyetracking-<br />

Studie im Auftrag des Arbeitskreises Suchmaschinen-Marketing des B<strong>und</strong>esverbandes<br />

Digitale Wirtschaft (BVDW) e.V.<br />

http://www.hottracker.de/whitepaper/Eyetracking-Studie_2008_Ergebnisbericht.pdf<br />

[Abruf: 06.11.2010]


368 Nadine Mahrholz, Thomas Mandl, Joachim Griesbaum<br />

Cutrell, E.; Guan, Z. (2007): What Are You Looking For? An Eye-tracking Study of<br />

<strong>Information</strong> Usage in Web Search. In: CHI ’07. Proceedings of the SIGCHI Conference<br />

on Human Factors in Computing Systems, S. 407–416.<br />

Google (2010): Sitelinks.<br />

http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=47334<br />

[Abruf: 07.11.2010]<br />

Hotchkiss, G.; Alston, S.; Edwards, G. (2005): Eye Tracking Study: An In Depth<br />

Look at Interactions with Google using Eye Tracking Methodology. Enquiro Research<br />

(Hrsg.).<br />

www.enquiroresearch.com/images/eyetracking2-sample.pdf [Abruf: 08.11.2010]<br />

Hotchkiss, G.; Sherman, T.; Tobin, R.; Bates, C.; Brown, K. (2007): Search Engine<br />

Results: 2010. Enquiro Research (Hrsg.).<br />

http://www.enquiroresearch.com/campaigns/SearchEngineResults2010.pdf<br />

[Abruf: 08.11.2010]<br />

Lewandowski, D. (2008): The retrieval effectiveness of web search engines: considering<br />

results descriptions. In: Journal of Documentation, Vol. 64, Nr. 6, S. 915<br />

bis 937.<br />

Lorigo, Lori; Haridasan, Maya; Brynjarsdóttir, Hrönn; Xia, Ling; Joachims, Thorsten;<br />

Gay, Geri; Granka, Laura; Pellacini, Fabio; Pan, Bing (2008): Eye Tracking<br />

and Online Search: Lessons Learned and Challenges Ahead. In: Journal of the<br />

American Society for <strong>Information</strong> Science and Technology, Vol. 59, Nr. 7, S.<br />

1041–1052<br />

Nielsen, J. (2006): F-Shaped Pattern For Reading Web Content.<br />

http://www.useit.com/alertbox/reading_pattern.html [Abruf: 08.11.2010]<br />

Phan, D.; Krishnan, R. (2009): Einzeilige Sitelinks.<br />

http://googlewebmastercentral-de.blogspot.com/2009/04/einzeilige-sitelinks.html<br />

[Abruf: 07.11.2010]


Online-Beratungsk. für die Auswahl von Usability-Evaluationsmethoden 369<br />

Online-Beratungskomponente für die Auswahl<br />

von Usability-Evaluationsmethoden<br />

Bernard Bekavac, Sonja Öttl, Thomas Weinhold<br />

Schweizerisches Institut für <strong>Information</strong>swissenschaft (SII)<br />

Hochschule für Technik <strong>und</strong> Wirtschaft (HTW) Chur<br />

CH-7000 Chur<br />

E-Mail: {bernard.bekavac;sonja.oettl;thomas.weinhold}@htwchur.ch<br />

Zusammenfassung<br />

Zur Bewertung der Usability von interaktiven Produkten existiert mittlerweile<br />

ein breites Spektrum an Evaluationsmethoden, weshalb es nicht immer<br />

einfach ist, entsprechend den jeweiligen Untersuchungszielen, eine adäquate<br />

Methode auszuwählen. Hierfür sind eine gewisse Erfahrung <strong>und</strong> Hintergr<strong>und</strong>wissen<br />

erforderlich, welches nicht in allen Institutionen gleichermaßen<br />

vorhanden ist, weshalb oftmals noch eine gewisse Unsicherheit hinsichtlich<br />

der Planung <strong>und</strong> Durchführung von Usability-Evaluationen besteht. Um diesbezüglich<br />

Unterstützung bieten zu können, wurde am SII eine Online-<br />

Beratungskomponente entwickelt. Diese bietet Anwendern die Möglichkeit<br />

die einzelnen Usability-Evaluationsmethoden (UEM) <strong>und</strong> deren Charakteristika<br />

explorativ zu erk<strong>und</strong>en <strong>und</strong> erlaubt auf Basis der eigenen Untersuchungsziele<br />

eine transparente Auswahl geeigneter Methoden.<br />

Abstract<br />

Today a wide range of evaluation methods are available in order to assess the<br />

usability of interactive products. Therefore, it is not always easy to choose<br />

the appropriate method according to the objectives of the evaluation. For this<br />

purpose a certain amount of experience and know-how is needed to make an<br />

informed decision, which does not exist in all companies and institutions and<br />

thus often a certain degree of uncertainty remains regarding usability evaluations.<br />

In order to assist such companies in the selection of appropriate evaluation<br />

methods an online advisory component was developed at the SII. This<br />

tool offers users the possibility to explore the individual usability evaluation<br />

methods (UEM) and their characteristics, in order to allow a transparent selection<br />

of suitable methods.


370 Bernard Bekavac, Sonja Öttl, Thomas Weinhold<br />

1 Einleitung <strong>und</strong> Motivation<br />

Im Laufe der letzten Jahre hat sich die Usability als zentrales Qualitätsmerkmal<br />

interaktiver Produkte etabliert, wobei für Evaluationen mittlerweile ein<br />

breites Spektrum an Untersuchungsmethoden zur Verfügung steht. Diese<br />

können anhand einer Reihe verschiedener Merkmale (z.B. Zeitpunkt der Evaluation<br />

in Abhängigkeit des Produktstatus, Art der Gutachter) klassifiziert<br />

werden (vgl. z.B. Nielsen, 1993; Dumas/Redish, 1999; Schweibenz/ Thissen,<br />

2003; Bowman et al., 2002). Jede Evaluationsmethode hat ihre spezifischen<br />

Stärken <strong>und</strong> Schwächen, weshalb bei der Auswahl eines geeigneten Testverfahrens<br />

eine gewisse Erfahrung <strong>und</strong> entsprechendes Know-how erforderlich<br />

sind. Um auch Personen ohne entsprechende Kenntnisse eine zielgerichtete<br />

Auswahl geeigneter Untersuchungsmethoden zu ermöglichen bzw. um<br />

teilweise noch vorhandene Hemmschwellen gegenüber der Thematik Usability<br />

abzubauen, wurde vom Schweizerischen Institut für <strong>Information</strong>swissenschaft<br />

(SII) eine Online-Beratungskomponente entwickelt, die die Transparenz<br />

im Auswahlprozess erhöhen soll. Mittels eines mehrstufigen Dialogs<br />

sollen Anwender in die Lage versetzt werden, aus der Vielzahl existierender<br />

Evaluationsmethoden die für ihre Zwecke geeigneten Ansätze eigenständig<br />

zu identifizieren <strong>und</strong> sich einen ersten Überblick über den Aufwand <strong>und</strong> die<br />

Anwendung der entsprechenden Methoden zu verschaffen.<br />

Nachfolgend wird in Kapitel 2 aufgezeigt, wie die Autoren bei der Konzeption<br />

dieses Beratungstools vorgegangen sind, <strong>und</strong> welche Kriterien dabei<br />

zur Auswahlunterstützung der Anwender herangezogen werden. Anschliessend<br />

werden in Kapitel 3 der konkrete Aufbau <strong>und</strong> die Einsatzmöglichkeiten<br />

der Beratungskomponente beschrieben, bevor in Kapitel 4 ein kurzes Fazit<br />

gezogen wird.<br />

2 Konzeption der Online-Beratungskomponente<br />

Für die Konzeption der in diesem Beitrag beschriebenen Online-Beratungskomponente<br />

wurde in einem ersten Schritt neben einer umfangreichen Literaturrecherche<br />

eine Analyse der Websites einschlägiger Usability-Beratungsunternehmen<br />

vorgenommen. Ziel war es, etablierte <strong>und</strong> gängige Evaluationsmethoden<br />

zu ermitteln, ggf. bereits existierende interaktive Beratungstools zu


Online-Beratungsk. für die Auswahl von Usability-Evaluationsmethoden 371<br />

identifizieren <strong>und</strong> geeignete Kriterien zur Unterscheidung von UEM zu erarbeiten.<br />

Diesbezüglich ist anzumerken, dass im Zuge dieser Recherchen kein Angebot<br />

ermittelt werden konnte, dass eine systembasierte Unterstützung des<br />

Auswahlprozesses geeigneter UEM bietet. Primär existieren in diesem Bereich<br />

Übersichtsgrafiken <strong>und</strong> textuelle Beschreibungen, in denen die Charakteristika<br />

der einzelnen Methoden, sowie deren Anwendbarkeit im Produktlebenszyklus<br />

dargestellt sind. Das Fehlen entsprechender Tools ist vermutlich<br />

darin begründet, dass es sich bei der Auswahl geeigneter Evaluationsmethoden<br />

um eine intellektuelle Aufgabe handelt, welche nur bedingt automatisierbar<br />

ist. Ein weiteres Problem ist der Umstand, dass noch nicht ausreichend<br />

geklärt ist, anhand welcher Kriterien ein objektiver Vergleich unterschiedlicher<br />

UEM vorgenommen werden kann (vgl. z.B. Hartson et al.,<br />

2001). Dennoch sind die Autoren der Überzeugung, dass eine systemgestützte<br />

Methodenauswahl in gewissen Grenzen möglich ist, wenngleich ein solches<br />

System sich sicherlich primär an Anwender mit wenig Erfahrung in der<br />

Durchführung von Usability-Evaluationen richtet.<br />

Basierend auf den Rechercheergebnissen wurde in einem zweiten Schritt<br />

in Form einer Matrix eine Charakterisierung der als relevant eingestuften<br />

UEM vorgenommen. Dabei wurden folgende Merkmale berücksichtigt:<br />

• Testaufbau, Testdauer, Testleitung, Anzahl benötigter Gutachter/Testpersonen,<br />

für die Untersuchung benötigtes Equipment<br />

• Anwendbarkeit entsprechend dem Produktlebenszyklus<br />

• Ziel der Untersuchung (z.B. Fehlersuche), Fokus der Untersuchung (z.B.<br />

Ease-Of-Learn), Vor- <strong>und</strong> Nachteile sowie Besonderheiten der Methode<br />

Anschließend wurden diese Kriterien bezüglich ihres Klassifikationspotenzials<br />

überprüft <strong>und</strong> unterschiedliche Entscheidungsbäume entwickelt, auf deren<br />

Basis letztendlich die Dialoggestaltung der Beratungskomponente vorgenommen<br />

wurde.<br />

3 Aufbau <strong>und</strong> Funktionsweise des Tools<br />

Die Online-Beratungskomponente gliedert sich in zwei Bereiche. Im oberen<br />

Bereich befindet sich der eigentliche Beratungsdialog, in dem der Anwender<br />

durch den Auswahlprozess geleitet wird. Hierbei muss er sechs Fragen –


372 Bernard Bekavac, Sonja Öttl, Thomas Weinhold<br />

unterteilt in drei Phasen – beantworten. Im unteren Bereich erfolgt eine Visualisierung<br />

der Ergebnissmenge in Form einer Tag-Cloud, welche in jedem<br />

Schritt dynamisch an die vom Anwender getroffenen Entscheidungen angepasst<br />

wird (vgl. Abbildung 1). Das gewählte Dialogdesign mit der direkten<br />

Manipulation der Ergebnismenge ermöglicht es dem Anwender jederzeit die<br />

Auswirkungen seiner Entscheidungen nachzuvollziehen. Bei der Formulierung<br />

der Auswahloptionen wurde darauf geachtet, dass sie aus der Perspektive<br />

der Endanwender <strong>und</strong> in einfach verständlicher Sprache verfasst sind.<br />

Falls einzelne Optionen dennoch unklar sein sollten, können die Nutzer sich<br />

per Mouse-Over-Effekt eine genauere Beschreibung der einzelnen Dialogelemente<br />

einblenden lassen.<br />

Abbildung 1: Startansicht der Online-Beratungskomponente<br />

Im ersten Dialogschritt (Phase 1) muss der Anwender zunächst Angaben<br />

über den Status des zu untersuchenden Produktes (z.B. „skizzierter Entwurf“)<br />

<strong>und</strong> seiner Motivation für die Durchführung einer Evaluation machen. Aufgr<strong>und</strong><br />

dieser Rahmenbedingungen können in der Regel bereits einige UEM<br />

als nicht empfehlenswert ausgeschlossen werden (in der Visualisierung hellgrau<br />

mit geringem Schriftgrad dargestellt), wohingegen andere Methoden<br />

weiterhin für eine Evaluation in Frage kommen (größerer Schriftgrad,<br />

schwarze Textfarbe).


Online-Beratungsk. für die Auswahl von Usability-Evaluationsmethoden 373<br />

In der nächsten Phase müssen die Ziele der geplanten Evaluation (z.B. die<br />

gezielte Suche nach Schwachstellen) genauer spezifiziert werden. Als nächstes<br />

kann der Anwender definieren, ob der Untersuchungsgegenstand gesamthaft<br />

betrachtet werden soll oder ob schwerpunktmäßig nur bestimmte Aspekte<br />

beleuchtet werden sollen (z.B. der „Joy of Use“). Die Definition solcher<br />

Schwerpunkte hat bspw. beim Einsatz von Befragungen großen Einfluss<br />

auf die Auswahl geeigneter, vorgefertigter Fragebögen.<br />

In der dritten Phase kann der Anwender Zeit <strong>und</strong> Budget, das für die Evaluation<br />

zur Verfügung steht, festlegen. Diese beiden Auswahloptionen führen<br />

im Gegensatz zu den vorangegangenen Dialogschritten nicht immer zum<br />

direkten Ausschluss von Methoden. Stattdessen erfolgt eine differenzierte Ergebnisbetrachtung:<br />

Sofern Methoden existieren, die exakt die vom Anwender<br />

getroffenen Charakteristika erfüllen, werden in der Tag-Cloud entsprechend<br />

auch nur diese hervorgehoben. Andernfalls werden in der Trefferliste die aufgr<strong>und</strong><br />

der beiden vorangehenden Phasen in Frage kommenden Methoden<br />

hervorgehoben, wobei der Nutzer den Hinweis erhält, dass diese Methoden<br />

zwar gr<strong>und</strong>sätzlich in Frage kommen, jedoch der Zeit- oder auch der Kostenrahmen<br />

für die Evaluation angepasst werden müssten.<br />

Abschließend erfolgt die Präsentation der empfohlenen Methoden in tabellarischer<br />

Form. Die Anwender können sich dadurch leicht einen Überblick<br />

verschaffen, in welchen Punkten die empfohlenen Methoden mit den von<br />

ihnen getroffenen Einstellungen übereinstimmen (in der Darstellung fett gekennzeichnet),<br />

<strong>und</strong> wo ggf. Abweichungen von den Vorstellungen der Nutzer<br />

vorliegen (z.B. bzgl. Zeit/Budget). Zusätzlich werden den Anwendern an<br />

dieser Stelle Links zu den Handlungsleitfäden der in Frage kommenden Methoden<br />

angeboten. Die Handlungsleitfäden enthalten jeweils eine kurze Beschreibung<br />

der Methode <strong>und</strong> charakterisieren diese entsprechend den erforderlichen<br />

personellen <strong>und</strong> materiellen Ressourcen, sowie dem Vorwissen, das<br />

für deren Anwendung benötigt wird. Zudem werden das Einsatzgebiet, der<br />

Ablauf <strong>und</strong> die potenziellen Erkenntnisse der jeweiligen Methode zusammenfassend<br />

dargestellt.


374 Bernard Bekavac, Sonja Öttl, Thomas Weinhold<br />

4 Fazit <strong>und</strong> Ausblick<br />

Die in diesem Beitrag vorgestellte Onlineberatungs-Komponente wurde im<br />

Rahmen eines Teilprojektes der schweizerischen Innovationsinitiative Elib.ch<br />

(www.e-lib.ch) entwickelt <strong>und</strong> steht mittlerweile unter einer CC-<br />

Lizenz online zur <strong>frei</strong>en Nutzung zur Verfügung (www.cheval-lab.ch). Anzumerken<br />

ist diesbezüglich, dass die Beratungskomponente eine ausführliche<br />

<strong>und</strong> individuelle Beratung durch Usability-Experten in keinem Fall äquivalent<br />

ersetzen kann. Vielmehr soll das Tool Interessierten mit wenig Hintergr<strong>und</strong>wissen<br />

im Usability-Bereich als Werkzeug dienen, um sich einen<br />

Überblick über geeignete Kriterien zur Selektion von Evaluationsmethoden<br />

zu verschaffen <strong>und</strong> die einzelnen UEM genauer kennenzulernen. Durch den<br />

<strong>frei</strong>en Zugriff auf die Online-Beratungskomponente erhoffen sich die Autoren<br />

weiteres Feedback von Anwendern, um so das Tool weiter verfeinern<br />

oder ggf. auch erweitern zu können.<br />

Literaturverzeichnis<br />

Bowman, D./Gabbard, J./Hix, D. (2002). A survey of usability evaluation in virtual<br />

environments: classification and comparison of methods. In: Presence: Teleoperators<br />

and Virtual Environments, 11(4), S. 404–424.<br />

Card, S./Moran, T./Newell, A. (1983). The psychology of human-computerinteraction.<br />

Hillsdale: Erlbaum.<br />

Dumas, J./Redish, J. (1999). A Practical Guide to Usability Testing. Exeter: Intellect<br />

Books.<br />

Hartson, H./Andre, T./Williges, R. (2001). Criteria for evaluating usability evaluation<br />

methods. In: International Journal of Human Computer Interaction, 15(1), S.<br />

145–181.<br />

Nielsen, J. (1993). Usability Engineering. San Diego: Academic Press.<br />

Schweibenz, W./Thissen, F. (2003). Qualität im Web – Benutzerfre<strong>und</strong>liche Webseiten<br />

durch Usability Evaluation. Berlin: Springer.


Online-Beratungsk. für die Auswahl von Usability-Evaluationsmethoden 375<br />

Session 9:<br />

<strong>Information</strong> Domains & Concepts


376 Michał Goliński<br />

Use, but verify<br />

Composite Indices for Measuring the <strong>Information</strong> Society<br />

Abstract<br />

Michał Goliński<br />

Warsaw School of Economics, Department of Business Informatics<br />

Al. Niepodległości 162, PL - 02-554 Warszawa<br />

E-Mail: mgol@sgh.waw.pl<br />

The paper presents a brief examination of the use of composite indices in the<br />

analysis of information society issues. The main pros and cons are presented.<br />

1 Introduction<br />

None of the existing theories concerning the <strong>Information</strong> Society (IS) has<br />

solved any of the two following f<strong>und</strong>amental, connected – and probably insurmountable<br />

problems: definitional and measuring. There is no satisfying<br />

definition of the IS (Webster 2006). It entails a subsequent problem – how to<br />

measure almost an indefinable concept. The paper presents a short analysis of<br />

this „Grand Challenge” (Menou, Taylor 2006), focusing on composite indices<br />

(CI).<br />

2 Measuring the <strong>Information</strong> Society<br />

The presence of IS issues in public discourse in the last two decades has provoked<br />

a rising demand for tools allowing to quantify occurring processes.<br />

The main tools of quantitative description of IS are proper indices providing


Use, but verify 377<br />

information about different aspects of information and communication technologies<br />

(ICT) usage in society and economy. They are necessary in order to<br />

plan public and commercial projects and to assess their implementation.<br />

They are the essential part of development policies. Indices play a vital role<br />

in IS research. They measure, monitor and justify. A definitional function is<br />

essential – a specific index value may be used as a turning point, defining the<br />

formation of IS – which many critics have demanded for a long time. One<br />

should notice that constructing such indices is marked by certain partiality. It<br />

depends on the author’s knowledge and intentions. The numerical expression<br />

of an indicator creates an impression of raw objectivity but its construction is<br />

often marked with subjective beliefs and purposes. Monitoring of IS requires<br />

the use of many molecular indicators. It seems that it is the only responsible<br />

way to monitor complex IS issues. This method is used by most “official”<br />

institutions, such as statistics offices, central government bodies or international<br />

organizations (e.g. Eurostat). Such research provides essential and<br />

thorough information. However, they also have a drawback of considerable<br />

importance. Many indicators in use are only clear to professionals. For others<br />

they are too hermetic, difficult and simply boring. Ongoing mediatization of<br />

our world has contributed to the popularization of a different research trend –<br />

composite indices (CI).<br />

3 Composite Indices in IS Research<br />

Composite indices enable a simpler interpretation of data. They substitute a<br />

large set of attributes with a single one – a synthetic variable. Transition from<br />

a multidimensional set of attributes to a one-dimensional is achieved by variable<br />

aggregation. What makes the CI so attractive is the fact that they are<br />

easy to interpret – the audience is presented with impressive rankings. CIs<br />

have become an essential part of the contemporary debate on social, economic,<br />

and political problems; and their popularity is still rising. A 2005<br />

survey analyzed over 130 of such tools, 80% of which were created between<br />

years 1991 and 2005. During the 1970s and the 1980s less than 10 were created<br />

pro decade, in the 1990s – 40, and between 2000 and 2004 more than 60<br />

(Bandura 2005). The 2008 survey analyzes almost 180 (Bandura 2008). This<br />

rising trend can be observed in the number of studies and in the variety of


378 Michał Goliński<br />

authors. The scope of research is also constantly expanded, including virtually<br />

all contemporary and popular issues.<br />

Many of the CIs have played a vital role in putting important issues in the<br />

centre of public attention and forcing policy-makers to act. Presently, it is<br />

difficult to imagine the discussions on development without the Human Development<br />

Index (UN), education without the PISA (OECD), corruption<br />

without the Corruption Perceptions Index (TI), competitiveness without the<br />

World Competitiveness Index (WEF) or, last but not least, IS without the<br />

Networked Readiness Index (also WEF). It seems plausible to put forward a<br />

thesis that if the authors stopped at the stage of drafting a large set of indicators<br />

and did not continue with the next stage, i.e. aggregation, the popularity<br />

of their research would suffer considerably. Moreover, the impact on the<br />

public would not have such serious consequences, i.e. people would be less<br />

involved and policy-makers wouldn’t be forced to act.<br />

CIs have an important political function. They mobilize people who are<br />

part of the decision making process and who did not participate in it earlier.<br />

According to Porter (2009: 11): “The indicators are objects that are constructed<br />

to maximize the aesthetic and exhortative effect of the representation<br />

of certain relationships while obscuring others”. There are many arguments<br />

for and against using CIs (Bandura 2005: 13–14 and OECD 2008: 13–14).<br />

Arguments listed there should make one particularly wary when using CIs in<br />

IS analysis. One should bear in mind that the methodology used in creating a<br />

CI substantially influences the results and, correspondingly, the countries<br />

performance in a ranking 1 . Table 1 presents selected features of 19 analyzed<br />

IS CIs. It shows significant differences in virtually all aspects of the methodology.<br />

We can find among them both studies, which are worth to promote<br />

(e.g. the ICT Development Index, cf. Goliński 2009), and tools in which the<br />

marketing aspect dominates over the substantive value (e.g. Networked<br />

Readiness Index, cf. Goliński 2010). Some of these tools have become quite<br />

popular and have gained a large group of proponents. However, we believe<br />

that this popularity is often <strong>und</strong>eserved.<br />

One can also boldly assume that the IS CIs are in fact superfluous. If one<br />

assumes that the well-being of contemporary societies strongly correlates<br />

with the information and the ICT, then one also has to assume that the successful<br />

countries must have utilized both factors effectively. „Wherefore by<br />

1 OECD (2008: 100 and following) carried out a simulation of changes in the values of<br />

Technology Achievement Index. The differences in the positions of 23 first countries in<br />

the ranking reached 11 as a result of the various methods of weighting and aggregation.


Use, but verify 379<br />

their fruits ye shall know them”– if they are “wealthy”, they must also be<br />

“informational”. And in such case one does not need new tools, yet there is<br />

the GDP. This risky thesis is based on high correlation levels between IS<br />

development (measured by the ICT Development Index – IDI value) and<br />

prosperity (measured on the basis of: GDP – r²=0,55 and HDI – r²=0,7) in<br />

EU countries. The correlation does not mean that any causality relationship<br />

exists, but the problem itself seems to be worth looking into.<br />

Table 1: Selected features of analyzed IS composite indices<br />

Index Author (3) (4) (5) (6) (7) (8) (9) (10) (11)<br />

ICT Development Index ITU 2009 154 3 0 11 11 0 8 3<br />

Connectivity Scorecard Waverman 2009 50 6 0 28 28 0 28 0<br />

ICT At-a-Glance WB 2006 144 0 0 34 28 6 27 7<br />

ICT Diffusion Index UNCTAD 2006 180 2 0 8 8 0 6 2<br />

ICT Opportunity Index ITU 2007 183 2 2 10 10 0 8 2<br />

Digital Opportunity Index ITU 2007 181 3 0 11 11 0 11 0<br />

eEurope 2005 INSEAD/SAP 2005 28 5 0 39 34 5 39 0<br />

Knowledge Economy Index WB 2008 140 4 0 12 9 3 3 9<br />

Index of Knowledge Societies<br />

UNPAN 2005 45 3 0 15 14 1 2 13<br />

Net Readiness Perception<br />

Index<br />

Goliński 2007 49 4 0 12 0 12 5 7<br />

Digital Access Index ITU 2003 178 5 0 8 8 0 6 2<br />

Infostates Orbicom/ITU 2007 183 2 2 10 10 0 8 2<br />

E-Government Readiness<br />

Index<br />

Networked Readiness<br />

Index<br />

UNPAN 2008 182 3 0 8 8 0 6 2<br />

WEF 2009 127 3 3 68 27 41 29 39<br />

Mobile/Internet Index ITU 2002 206 3 0 26 20 6 26 0<br />

Technology Achievement<br />

Index<br />

UNDP 2001 72 4 0 8 8 0 2 6<br />

E-Readiness Index* EIU/IBM 2008 70 6 0 100 50 50 20 80<br />

<strong>Information</strong> Society Index IDC 2008 53 4 0 15 13 2 11 4<br />

II Development Level<br />

Index<br />

Goliński 2004 29 0 0 7 7 0 7 0<br />

Legend: (3) year of the last research, (4) number of countries in research (5) subindices,<br />

(6) subindices, II level, (7) partial indicators, including: (8) hard data, (9) soft data, (10)<br />

concerning ICT, (11) other *est.


380 Michał Goliński<br />

4 Conclusions<br />

CIs are good for making the public opinion aware of the gravity of IS issues.<br />

They do it well and in an impressive manner. However, if one is to make<br />

political or investment decisions one needs to perform a detailed, multicriteria<br />

analysis using a set of numerous indicators. CIs should be considered<br />

as points of departure for policy-makers. They promote IS issues, yield arguments<br />

and help to shape development policy. Finally, although using these<br />

tools to analyse IS often constitutes an attempt to count the uncountable, one<br />

cannot dismiss the fact that CIs play a key role in promoting the vision of IS.<br />

By using CIs in IS analysis one should heed the old Russian proverb: “Trust,<br />

but verify”.<br />

References<br />

Bandura, R. (2005). Measuring Country Performance and State Behavior: A Survey<br />

of Composite Indices. New York: UNDP.<br />

Bandura, R. (2008). A Survey of Composite Indices Measuring Country Performance:<br />

2008 Update. New York: UNDP.<br />

Goliński, M. (2009). ICT Development Index. in: Babis, H., Buko, J., Czaplewski,<br />

R. (eds.): Rynki przesyłu i przetwarzania informacji – stan obecny i perspektywy<br />

rozwoju. Szczecin: Uniwersytet Szczeciński.<br />

Goliński, M. (2010). Networked Readiness Index, czyli siła marketingu. in: Czaplewski,<br />

R. (eds.): Rynek Informacji i Komunikacji. Szczecin: Uniwersytet Szczeciński.<br />

Menou, M., J., Taylor, R., D. (2006). A “Grand Challenge”: Measuring <strong>Information</strong><br />

Societies. in: The <strong>Information</strong> Society: 22. Abingdon: Taylor & Francis Group.<br />

OECD (2008). Handbook on Constructing Composite Indicators – Methodology and<br />

User Guide. Paris: OECD.<br />

Porter, T. (2009). Making Serious Measures: Numerical National Rankings, Peer<br />

Review and Global Governance. New York.<br />

http://www.allacademic.com/meta/p312210_index.html (Retrieved 2010-02-13)<br />

Webster, F. (2006). Theories of the <strong>Information</strong> Society. Third edition. London and<br />

New York: Routledge.


Problems and prospects of implementing knowledge management … 381<br />

Problems and prospects of implementing<br />

knowledge management in university<br />

libraries: A case study of Banaras<br />

Hindu University Library System<br />

Abstract<br />

Mohammad Nazim 1 , Bhaskar Mukherjee 2<br />

Banaras Hindu University<br />

Varanasi-221005 (INDIA)<br />

1 Faculty of Law<br />

nazim76@gmail.com<br />

2 Dept. Of Library & <strong>Information</strong> Science<br />

mukherjee.bhaskar@gmail.com<br />

This paper examines the characteristic elements of various organizational<br />

factors to identify whether a favorable climate for implementing and sustaining<br />

knowledge management existed in Banaras Hindu University Library<br />

System (BHULS). The findings of the study show that there are fairly favorable<br />

conditions for adopting knowledge management practices in BHULS.<br />

Staff in the library that participated in this study seems to be motivated and<br />

ready to grasp the challenges.<br />

Introduction<br />

Knowledge management has been defined in the literature as a process or<br />

practice of creating, acquiring, capturing, sharing and re-using organizational<br />

knowledge (know-how) to improve performance and achieve goals and objectives<br />

of an organization (White, 2004).


382 Mohammad Nazim, Bhaskar Mukherjee<br />

Like other business management trends, knowledge management is also a<br />

commercial concept, emerging first in the for-profit sector and then entering<br />

into the non-profit. Roknuzzaman et al. (2009) argue that a library itself is a<br />

knowledge-based organization where collection and maintenance of recorded<br />

knowledge by librarians is a practice as old as civilization itself. The basic<br />

goal of knowledge management within libraries is to leverage the available<br />

knowledge that may help librarians to carry out their tasks more efficiently<br />

and effectively (Shanhong, 2000). Knowledge management success in any<br />

organization is believed to be dependent upon various factors as they provide<br />

a context within which knowledge flows among individuals, whose actions in<br />

turn are influenced by their environment (Conley and Zheng, 2009). The<br />

existence of a favorable environment for communication, collaboration,<br />

knowledge sharing and transfer as well as easy identification of the organization’s<br />

knowledge assets is essential for the success of knowledge management.<br />

An appropriate organizational environment enables an organization to<br />

execute better, learn faster, and change more easily (Hariharan, 2005).<br />

Conceptual framework<br />

Organizational factors capture the general characteristics of the organization.<br />

Several factors are important for the successful implementation of a knowledge<br />

management, such as top management and leadership support, organizational<br />

culture, organizational structure, technology infrastructure, knowledge<br />

process, knowledge sharing and strategy (Choi, 2000; Gold et al.,<br />

2001). For this study, we selected five factors which are common in all the<br />

frameworks discussed in the literature. These are: (i) organizational culture<br />

(ii) organizational structure (iii) technology infrastructure (iv) knowledge<br />

sharing, and (v) knowledge process.


Problems and prospects of implementing knowledge management … 383<br />

Objectives and Methods<br />

In order o gain a better <strong>und</strong>erstanding of how some factors are critical for the<br />

successful application of knowledge management in university libraries, we<br />

chose BHULS with the aim to investigate whether a favorable climate existed<br />

for the effective knowledge management process by evaluating the librarians’<br />

perception of:<br />

• The organizational culture and values of the organization for creating<br />

willingness among staff to share knowledge and professional experience<br />

with their colleagues.<br />

• The organizational structure that allows reward and incentives for encouraging<br />

employees to coordinate and share knowledge.<br />

• The availability and use of technology to facilitate knowledge flow in the<br />

organization.<br />

• The knowledge processes to capture, store, and transform knowledge.<br />

• Knowledge sharing.<br />

A questionnaire consisting of 15 open-ended and closed questions was designed<br />

in order to collect the required data for this study. 50 questionnaires<br />

were non-randomly distributed to the library staff of BHULS. Of the fifty<br />

respondents, four were deputy librarians, eight were assistant librarians, fourteen<br />

were professional assistants and twenty-four were semi-professional<br />

assistants. We approached each respondent personally and, therefore, we<br />

were able to get a 100% reply rate. Staff completing the questionnaire was<br />

aged between 25 and 54 years with the majority (80%) aged between 25 to<br />

45 years old. Their length of service was between 2 years and 27 years with<br />

the majority (75%) having between 2 and 18 years of employment in libraries,<br />

75% having a master degree in library and information science, 15% a<br />

bachelor degree in library and information science and 10% a doctoral degree<br />

in library and information science.<br />

Findings<br />

When respondents were asked about their organization’s willingness to accept<br />

change, the majority of participants (73%) responded positively, giving


384 Mohammad Nazim, Bhaskar Mukherjee<br />

examples of continuous improvement of library operations and services, development<br />

of information and human resources, and the fast adoption of new<br />

technologies. 27% gave answer in negation mentioning that lack of recognition<br />

and receptivity for change in their organization are serious obstacles to<br />

change. When asked about their work environment and what they think about<br />

it, 33% of the participants considered that it was one that encouraged the<br />

development of communities of practice and organizational learning, 21%<br />

mentioned collaboration, and 13% mentioned communication and 9% teamwork.<br />

With respect to the ways that staff performance was encouraged in<br />

their organization, the majority of the participants (57%) considered performance<br />

was insufficiently rewarded or not encouraged at all. However,<br />

19% of the participants in this study indicated that this was by material reward,<br />

14% by advancement in career, and 10% by just appreciation from<br />

senior fellows. Upon the question, whether their organization provided support<br />

for professional training courses or workshops, an overwhelming majority<br />

(69%) of respondents asserted that their organization encouraged them to<br />

participate in professional conferences, workshops and other related events;<br />

17% responded that they participated in such events on their own initiative,<br />

and 21% said that their organization sends them to such activities. In addition,<br />

31% noted that their organization initiated their own professional seminars,<br />

trainings or other events. These high percentages show that BHULS<br />

<strong>und</strong>erstands very well the importance of trained staff with up-to-date knowledge.<br />

Further, when they were asked to mention the areas where they would<br />

like to gain more knowledge in order to overcome future challenges, 21%<br />

mentioned knowledge of e-resources, 37% knowledge of library automation<br />

and digitization and 19% of metadata. To characterize the nature of the organizational<br />

structure of BHULS, respondents were asked to explain in few<br />

words the managerial style in their organization; 26% of the participants<br />

characterized it as being one that creates a stimulating climate. Phrases and<br />

words such as: open for change, dynamic, flexible, democratic, communicative,<br />

and competitive climate were used. On the contrary, 49% characterized<br />

their managerial style adversely, as being authoritative and used terms such<br />

as rigid, dictatorial, bureaucratic, disorganized, non communicative, non<br />

transparent, and reticent to change. 25% of the respondents replied to this<br />

important issue by choosing “not sure”. These varying perceptions show that<br />

no major change has taken place at the management level in BHULS. Regarding<br />

the employees’ perception of their library policy concerning the staff<br />

and the organizational development, 57% of the participants perceived the


Problems and prospects of implementing knowledge management … 385<br />

priority of the library in terms of organizational development to be orientated<br />

towards continuous professional development. However, 9% of respondents<br />

remarked on the fact that hiring staff with higher education qualifications in<br />

the LIS field constitutes one of the priorities for the institutions where they<br />

work. Although technology is essential for the success of knowledge management,<br />

the literature also reveals that technology alone does not ensure a<br />

successful knowledge management. BHULS is equipped with the latest technology<br />

to store and disseminate information resources to their users. The<br />

library recently installed library software to integrate information and knowledge<br />

of the resources and users of different sections. Expert and best practice<br />

databases, portals and knowledge repositories have not yet been designed and<br />

maintained by BHULS. However, most of the participants (79%) utilize<br />

Internet and Web 2.0 tools to share knowledge for keeping themselves<br />

abreast with the latest development in their field. Asked about their <strong>und</strong>erstanding<br />

of the importance of knowledge sharing, 63% of staff mentioned<br />

that sharing of knowledge and experiences is important for the organizational<br />

as well as personal development. When enquired about the staff’s willingness<br />

to share knowledge, the majority of the staff (69%) again responded positively<br />

indicating their willingness to share knowledge and professional experience.<br />

In response to the question regarding the motivation of knowledge<br />

sharing, the following reasons were mentioned by the respondents: professional<br />

cooperation (14%), increase of working efficiency (21%), loss of<br />

knowledge when a member of staff leaves the organization (31%), exchange<br />

of professional experience (25%). Among the respondents not willing to<br />

share their knowledge a lack of rewards and incentives, fear of negative consequences,<br />

and insecurity about the value of their knowledge were mentioned<br />

as reasons. Asked about knowledge processes in their organization, the majority<br />

of respondents (65%) was fo<strong>und</strong> less sure about knowledge process<br />

activities in the library. However, 10% of the respondents mentioned that the<br />

structure of their library facilitates exchange or transfer of knowledge, 15%<br />

mentioned that the knowledge required for their daily work is easily accessible<br />

in the library and 11% mentioned that they apply knowledge learned from<br />

experiences. When respondents were asked to indicate the requirement of<br />

knowledge in future to perform their work smoothly, 41% of the staff specified<br />

the requirement of IT skills, 11% specified their willingness to enhance<br />

their knowledge level in routine work and processes assigned to them and<br />

42% specified no requirement to enhance their level of knowledge as they are<br />

equipped with the IT skills.


386 Mohammad Nazim, Bhaskar Mukherjee<br />

Conclusion<br />

Given the critical role that organizational factors play in the success of<br />

knowledge management practices, the results of our research show that some<br />

of the elements of the organizational factors are existent and there are fairly<br />

favorable conditions for adopting knowledge management practices in<br />

BHULS. Staff in the library that participated in this study seems to be motivated<br />

and ready to grasp the challenges. A knowledge management program,<br />

once put in practice, can lead to the improvement of their performances and a<br />

secure position for the organization to survive in the highly competitive age.<br />

However, this research is limited to BHULS and the findings of this research<br />

cannot be used to generalize to other university libraries in India. Future research<br />

should encompass a larger sample and examine more concrete issues<br />

of organizational factors that are critical to knowledge management success<br />

in university libraries.<br />

References<br />

Choi, Y. S. (2000), An Empirical Study of Factors Affecting Successful Implementation<br />

of Knowledge Management, Doctoral dissertation. University of Nebraska.<br />

Conley, C. A. and Zheng, W. (2009), “Factors Critical to Knowledge Management<br />

Success”, Advances in Developing Human Resources, Vol. 11, pp.334.<br />

Gold, A. H., Malhotra, A., and Segars, A. H. (2001), “Knowledge Management: An<br />

organizational Capabilities Perspective”, Journal of Management <strong>Information</strong><br />

systems, Vol.18, No.1, pp. 185–214.<br />

Hariharan, A. (2005), “Critical success factors for knowledge management”. Knowledge<br />

Management Review, Vol. 8, No.2, pp. 16–19.<br />

Roknuzzaman, M., Kanai, H., Umemoto, K. (2009), “Integration of knowledge management<br />

process into digital library system: a theoretical perspective”, Library<br />

Review, Vol. 58, No .5, pp. 372–386.<br />

Shanhong, T. (2000), “Knowledge management in libraries in the twenty-first century”,<br />

paper presented at the 66th IFLA Council and General Conference, Jerusalem,<br />

August 13–18.


Problems and prospects of implementing knowledge management … 387<br />

White, T. (2004), “Knowledge management in an academic library: based on the<br />

case study KM within OULS”, paper presented at the 70th IFLA General Conference<br />

and Council, Buenos Aires, August 22–27.


388 Daniela Becks, Julia Maria Schulz<br />

Domänenübergreifende Phrasenextraktion<br />

mithilfe einer lexikonunabhängigen<br />

Analysekomponente<br />

Daniela Becks, Julia Maria Schulz<br />

Universität Hildesheim – Institut für <strong>Information</strong>s- <strong>und</strong> Sprachtechnologie<br />

Marienburger Platz 22, 31141 Hildesheim<br />

daniela.becks@uni-hildesheim.de, julia-maria.schulz@uni-hildesheim.de<br />

Zusammenfassung<br />

Der vorliegende Artikel beschreibt einen neuartigen domänenübergreifenden<br />

Ansatz zur Extraktion von Phrasen, der sich mit geringem Aufwand <strong>und</strong> ohne<br />

komplexe Lexika umsetzen <strong>und</strong> auf andere Domänen übertragen lässt. Dies<br />

wird anhand von K<strong>und</strong>enrezensionen <strong>und</strong> Patentschriften getestet.<br />

Abstract<br />

This paper presents a new approach, which can be easily adapted to different<br />

domains without the existence of comprehensive lexica. As test documents<br />

customer reviews and patent documents are used.<br />

Einleitung<br />

Die Extraktion sinntragender Phrasen aus Korpora setzt i.d.R. ein intensives<br />

Verständnis der Texte <strong>und</strong> der betrachteten Domäne voraus. Auch bedarf es<br />

in vielen Fällen der Adaption verwendeter <strong>Wissen</strong>sbasen <strong>und</strong> zugr<strong>und</strong>e liegender<br />

Modelle. Dieser Prozess ist nicht selten zeit- <strong>und</strong> arbeitsintensiv. Der<br />

vorliegende Artikel beschreibt einen neuartigen domänenübergreifenden<br />

Ansatz, der Shallow <strong>und</strong> Deep Parsing kombiniert <strong>und</strong> sich mit wenig Aufwand<br />

<strong>und</strong> ohne komplexe Lexika realisieren <strong>und</strong> auf andere Domänen über-


Domänenübergreifende Phrasenextraktion ... 389<br />

tragen lässt. Als Beispiel werden zwei sehr unterschiedliche Textdomänen<br />

herangezogen: K<strong>und</strong>enrezensionen <strong>und</strong> Patentschriften.<br />

Im nächsten Abschnitt wird zunächst auf existierende Ansätze eingegangen,<br />

bevor in Kapitel 3 der domänenübergreifende Ansatz beschrieben wird.<br />

Es schließt sich eine Beschreibung der Evaluierungsansätze an, bevor das<br />

Paper mit einem Ausblick schließt.<br />

Verwandte Arbeiten<br />

Im <strong>Information</strong> Retrieval zeigt sich seit einiger Zeit, dass der klassische Bagof-Words-Ansatz<br />

sowohl innerhalb der Indexierung als auch im Anfrageprozess<br />

zunehmend abgelöst wird. Viele <strong>Wissen</strong>schaftler vertreten die Meinung,<br />

Phrasen seien häufig präziser als einfache Terme (vgl. z.B. Tseng et al.<br />

2007: 1222). So kann bspw. die Bedeutung der beiden Terme „schwarzes<br />

Schaf“ nur bei gemeinsamer Betrachtung (als Phrase) erfasst werden.<br />

Zu den gängigen Verfahren der Phrasenextraktion zählen regelbasierte<br />

Ansätze wie das wörterbuchunabhängige Begrenzerverfahren (vgl. Jaene/<br />

Seelbach 1975). Für die Inhaltserschließung werden hier Phrasen in Form<br />

von Mehrwortgruppen, die als mehrere eine syntaktisch-semantische Einheit<br />

bildende Wörter definiert werden (vgl. ebd.: 9), aus englischen Fachtexten<br />

extrahiert. Dafür werden sogenannte Begrenzerpaare definiert, die als Grenzen<br />

für die zu extrahierenden Nominalphrasen fungieren (vgl. ebd.: 7). Diese<br />

bestehen aus Kombinationen von Stoppwörtern oder Satzzeichen, die in Listen<br />

erfasst sind (vgl. ebd.: 51 ff.). Ein ähnliches Verfahren, das innerhalb der<br />

Patentdomäne Anwendung findet, beschreiben Tseng et al. 2007. Sie ermitteln<br />

Phrasen bzw. Schlüsselwörter mithilfe einer Stoppwortliste. Die Autoren<br />

stellen fest, dass die längsten sich wiederholenden Phrasen häufig besonders<br />

gute Kandidaten darstellen (vgl. Tseng et al. 2007: 1223).<br />

Ein klassisches linguistisches Verfahren bildet das Dependenzparsing, das<br />

die Abhängigkeiten der Satzglieder ermittelt. Im <strong>Information</strong> Retrieval finden<br />

sich Dependenzrelationen häufig als sogenannte Head/Modifier-Relationen<br />

wieder. Diese Head/Modifer-Paare setzen sich aus einem Head, welcher<br />

den Kern der Phrase darstellt, <strong>und</strong> einem Modifier zusammen, der der Präzisierung<br />

des Heads dient (vgl. Koster 2004: 423), wie das nachfolgende Beispiel<br />

zeigt: linguistic (= modifier) approach (= head).


390 Daniela Becks, Julia Maria Schulz<br />

Der Vorteil von Head/Modifier-Relationen liegt insbesondere darin, dass<br />

diese neben syntaktischen auch semantische <strong>Information</strong> enthalten (vgl. u.a.<br />

Ruge 1989: 9). Daher erfreuen sie sich vor allem im Rahmen des Indexierungsprozesses<br />

großer Beliebtheit (vgl. u.a. Koster 2004). In Form von Head/<br />

Modifer-Tripeln (Term-Relation-Term) erweisen sich Dependenzrelationen<br />

u.a. für Klassifikationsaufgaben als hil<strong>frei</strong>ch (vgl. Koster/Beney 2009).<br />

Domänenübergreifende Phrasenextraktion<br />

Die im Folgenden vorgestellte Methode für die Phrasenextraktion vereinigt<br />

nun die beiden zuvor genannten Verfahrensansätze. Als Anwendungsbereiche<br />

werden Patentschriften <strong>und</strong> K<strong>und</strong>enrezensionen gewählt, die in zwei<br />

Projekten mit unterschiedlichen Zielsetzungen verwendet werden (vgl. Kapitel<br />

4). Das Ziel des neuen Extraktionsverfahrens besteht darin, für beide Projekte<br />

ein Werkzeug zur Identifikation linguistischer Phrasen bereitzustellen,<br />

das sich mit geringem Aufwand für unterschiedliche Domänen adaptieren<br />

lässt <strong>und</strong> auch auf umfangreichen Korpora performant arbeitet. Dabei ist die<br />

Semantik der extrahierten Phrasen nicht zu vernachlässigen. Demgemäß wird<br />

ein Mischverfahren entwickelt, das auf linguistische Regeln zurückgreift,<br />

aber eher die Funktionalität eines Shallow Parsers aufweist.<br />

Es wird ein regelbasiertes Verfahren eingesetzt, das sich z. T. auf das Begrenzerverfahren<br />

(vgl. Jaene/Seelbach 1975) zurückführen lässt, jedoch mit<br />

Ansätzen des Dependenzparsings (vgl. z.B. Ruge 1989) kombiniert wurde.<br />

Um ressourcenintensives syntaktisches Parsen zu vermeiden, erfolgt die<br />

Phrasenextraktion mithilfe verschiedener Regeln, in denen jeweils Paare von<br />

Begrenzern definiert sind. Im Unterschied zu dem oben beschriebenen<br />

Begrenzerverfahren werden hier Wortklassen (POS-Tags) statt Stoppwörtern<br />

verwendet. Durch deren Einsatz werden bereits bestimmte Phrasentypen<br />

vorgegeben. Das POS-Tag DT (Artikel) leitet bspw. ausschließlich Nominalphrasen<br />

ein. Die so definierten Phrasentypen sind abstrahiert <strong>und</strong> können<br />

leichter auf andere Sprachen <strong>und</strong> Domänen übertragen werden, da die Kategorie<br />

DT sowohl die deutschen Artikel der, die, das als auch das englische<br />

Pendant the umfasst. Diese abstrahierte Version des Begrenzerverfahrens ist<br />

daher deutlich flexibler <strong>und</strong> benötigt keine komplexen Wortlisten. Außerdem<br />

wird auf Gr<strong>und</strong>züge des Dependenzparsings zurückgegriffen. Jede der extra-


Domänenübergreifende Phrasenextraktion ... 391<br />

hierten Phrasen verfügt daher über einen Head <strong>und</strong> einen Modifier (vgl.<br />

Koster 2004). Die Beispiele in Abb. 1 verdeutlichen, dass es sich bei den<br />

extrahierten Phrasen nicht nur um Head/Modifier-Paare im engeren Sinne<br />

handeln muss, sondern auch längere Phrasen abgebildet werden.<br />

Begrenzer: a(DT) & with(IN) Begrenzer: a(DT) & ,(,)<br />

(EP-1120530-B1)<br />

Abb. 1: Visualisierte Beispielphrasen beider Domänen<br />

Evaluierungsansätze<br />

(Hiu&Liu 2004)<br />

Das Ziel im Opinion Mining Projekt ist das Extrahieren von Phrasen, die aus<br />

Meinungen bezüglich der rezensierten Produkte <strong>und</strong> deren Eigenschaften<br />

bestehen. Für Evaluierungszwecke liegt im Projekt ein Korpus vor, das auf<br />

Satzebene annotierte Produkteigenschaften <strong>und</strong> die diesbezüglich ausgedrückte<br />

Meinung enthält (vgl. Hu/Liu 2004; Ding et al. 2008).<br />

Für explizit genannte Produkteigenschaften, wie „picture quality“ in folgendem<br />

Satz: „The picture quality is great.“ soll im Rahmen der Evaluierung<br />

überprüft werden, ob die jeweilige Phrase die annotierte Produkteigenschaft<br />

enthält. Ist dies der Fall, wird die Phrase als Treffer gewertet. Da implizit genannte<br />

Produkteigenschaften, wie „size“ im Satz „It fits in every pocket.“, so<br />

nicht evaluiert werden können, wird das Korpus um Markierungen der entsprechenden<br />

Textstellen, die die Produkteigenschaft aufweisen, erweitert. Für<br />

die Evaluierung werden jeweils Recall <strong>und</strong> Precision ermittelt.<br />

Im Patent Retrieval-Projekt liegt der Fokus auf der Evaluierung der Genauigkeit<br />

der extrahierten Phrasen. Zu diesem Zweck wird auf einen Ansatz<br />

von Verbene et al. 2010 zurückgegriffen. Als Evaluierungsbasis verwenden<br />

die Autoren eine manuell annotierte Stichprobe von 100 Sätzen, die als Goldstandard<br />

betrachtet werden kann. Ein Abgleich der extrahierten Phrasen mit<br />

den intellektuellen Annotationen ermöglicht die Berechnung der Accuracy.<br />

In diesem Projekt bietet sich ein solcher Evaluierungsansatz ebenfalls an, da<br />

eine Stichprobe manuell annotierter Patentschriften bereits existiert.


392 Daniela Becks, Julia Maria Schulz<br />

Ausblick<br />

Erste Experimente <strong>und</strong> manuelle Auswertungen weisen auf eine viel versprechende<br />

<strong>und</strong> Ressourcen sparende Methode zum Extrahieren von Phrasen aus<br />

verschiedenen Korpora hin. Im Rahmen der beiden zuvor angesprochenen<br />

Projekte sollen im nächsten Schritt die in Kapitel 4 erläuterten Evaluierungsverfahren<br />

umgesetzt werden, um auf diese Weise den Eindruck der ersten<br />

manuellen Auswertungen empirisch zu stützen.<br />

References/Literaturverzeichnis<br />

Ding, X.; Liu, B.; Yu, Ph. S. (2008): A holistic lexicon-based approach to opinion<br />

mining. In: Proceedings of the international conference on Web search and web<br />

data mining. Palo Alto, California, USA: ACM, S. 231–240.<br />

Hu, M.; Liu, B. (2004): Mining Opinion Features in Customer Reviews. In: Proceedings<br />

of the 19th National Conference on Artifical intelligence. San Jose, California,<br />

USA: AAAI Press/The MIT Press, S. 755–760.<br />

Jaene, H.; Seelbach, D. (1975): Maschinelle Extraktion von zusammengesetzten<br />

Ausdrücken aus englischen Fachtexten. Berlin u.a.: Beuth.<br />

Koster, C. H. A. (2004): Head/Modifier Frames for <strong>Information</strong> Retrieval. In: Proceedings<br />

of the 5th Conference on Intelligent Text Processing and Computational<br />

Linguistics. Seoul, Korea: Springer (LNCS 2945), S. 420–432.<br />

Koster, C. H. A.; Beney, G. Jean (2009): Phrase-Based Document Categorization<br />

Revisited. In: Proceedings of the 18 th Conference on <strong>Information</strong> and Knowledge<br />

Management. Hong Kong, China: ACM, S. 49–55.<br />

Ruge, G. (1989): Generierung semantischer Felder auf der Basis von Frei-Texten. In:<br />

LDV Forum 6, H. 2, S. 3–17.<br />

Tseng, Y.-H.; Lin, Ch.-J.; Lin, Y.-I. (2007): Text Mining Techniques for Patent<br />

Analysis. In: <strong>Information</strong> Processing and Management 43, H. 5, S. 1216–1247.<br />

Verbene, S.; D’hondt, E.; Oostdijk, N. (2010): Quantifying the Challenges in Parsing<br />

Patent Claims. In: Proceedings of the 1st International Workshop on Advances in<br />

Patent <strong>Information</strong> Retrieval (AsPIRe’10). Milton Keynes, S. 14–21.


Content Analysis in der Mathematik: Erschließung <strong>und</strong> Retrieval ... 393<br />

Content Analysis in der Mathematik:<br />

Erschließung <strong>und</strong> Retrieval mathematischer<br />

Publikationen<br />

Zusammenfassung<br />

Wolfram Sperber, Bernd Wegner<br />

FIZ Karlsruhe – Zentralblatt MATH<br />

Franklinstr. 11, 10587 Berlin<br />

wolfram@zentralblatt-math.org<br />

editor@zentralblatt-math.org<br />

Die traditionellen <strong>Information</strong>sdienste in den <strong>Wissen</strong>schaften stehen angesichts<br />

der Publikationsflut <strong>und</strong> der Entwicklung der elektronischen Medien<br />

gerade auch in der Mathematik vor großen Herausforderungen. Es müssen<br />

neue Konzepte für eine erweiterte qualitativ hochwertige Erschließung entwickelt<br />

werden, die weitgehend automatisierbar sind.<br />

In dem Beitrag werden die Konzepte zur Texterschließung in der Mathematik<br />

analysiert <strong>und</strong> Methoden entwickelt, die neue Möglichkeiten für das Retrieval<br />

eröffnen. Der Beitrag schließt mit einem Ausblick auf die Möglichkeiten<br />

zur Formel-Analyse.<br />

Abstract<br />

The classical scientific information services are confronted with big challenges:<br />

the increasing number of publications is calling for a new machinebased<br />

concept of content analysis and sophisticated methods for the retrieval.<br />

In the paper, a few new concepts for the content analysis and the retrieval of<br />

mathematical publications are presented. Moreover, the problem of formula<br />

analysis and retrieval is discussed.


394 Wolfram Sperber, Bernd Wegner<br />

1 Einleitung<br />

<strong>Wissen</strong>schaftliche Publikationen bilden auch heute noch den Kern des <strong>Wissen</strong>s<br />

in der Mathematik <strong>und</strong> haben eine Schlüsselrolle für das Auffinden <strong>und</strong><br />

den Zugang zum mathematischen <strong>Wissen</strong>.<br />

Mit dem Übergang in das industrielle Zeitalter <strong>und</strong> dem damit verb<strong>und</strong>enen<br />

Aufschwung in Forschung <strong>und</strong> Lehre hatte sich die Anzahl der wissenschaftlichen<br />

Publikationen sprunghaft erhöht. Für die Nutzer der <strong>Information</strong>en,<br />

<strong>Wissen</strong>schaftler <strong>und</strong> Anwender, wurde es zunehmend aufwendiger<br />

<strong>und</strong> schwieriger, die zur Lösung eines Problems relevanten Publikationen zu<br />

identifizieren bzw. aufzufinden. In der Vergangenheit haben sich daher in<br />

verschiedenen wissenschaftlichen Disziplinen spezialisierte <strong>Information</strong>sdienste,<br />

die Referatejournale, herausgebildet. Ziel der Referatejournale war<br />

(<strong>und</strong> ist es), den Lesern einen Überblick <strong>und</strong> eine Orientierungshilfe über die<br />

Entwicklungen in den <strong>Wissen</strong>schaften zur Verfügung zu stellen.<br />

Die Forderung nach effizienten Werkzeugen für die Suche nach relevanten<br />

<strong>Information</strong>en ist angesichts des ungebremsten Wachstums wissenschaftlicher<br />

Literatur <strong>und</strong> der Entwicklung der elektronischen Medien aktueller<br />

denn je. Insbesondere sind bessere Maschinen-basierte Methoden für die Erschließung<br />

der Literatur <strong>und</strong> die Einordnung der Ergebnisse in den wissenschaftlichen<br />

Kontext notwendig.<br />

Universelle Suchmaschinen wie Google werden den Anforderungen aus<br />

den <strong>Wissen</strong>schaften nur zum Teil gerecht, da die Anforderungen <strong>und</strong> Interessen<br />

der <strong>Wissen</strong>schaften aus kommerzieller Sicht nur von untergeordnetem<br />

Interesse sind. In dem Beitrag werden für die Mathematik der Stand <strong>und</strong> die<br />

Perspektiven der inhaltlichen Erschließung mathematischer Literatur diskutiert.<br />

2 Die Referatorgane <strong>und</strong> bibliografischen<br />

Datenbanken der Mathematik<br />

Im 18. <strong>und</strong> 19. Jahrh<strong>und</strong>ert stieg die Anzahl der wissenschaftlichen Publikationen<br />

immens an. Der erste eigenständige Referatedienst in der Mathematik,<br />

das Jahrbuch über die Fortschritte der Mathematik (JFM), wurde 1868 von<br />

Mathematikern in Berlin gegründet <strong>und</strong> umfasste 880 mathematische Publi-


Content Analysis in der Mathematik: Erschließung <strong>und</strong> Retrieval ... 395<br />

kationen. Das JFM enthielt die bibliografischen Daten der Publikationen <strong>und</strong><br />

häufig auch Besprechungen der Arbeiten, die von anderen Mathematikern<br />

auf <strong>frei</strong>williger Basis erstellt wurden.<br />

1931 wurde in Deutschland ein weiterer Referatedienst für die Mathematik,<br />

das Zentralblatt für Mathematik (ZfM), gegründet. Es war insofern ein<br />

Gegenkonzept zum JFM, als dass die Aktualität absolute Priorität hatte <strong>und</strong><br />

das Jahrgangsprinzip der JFM, also alle Arbeiten eines Jahres in einem Band<br />

zusammenzufassen <strong>und</strong> aufzubereiten, aufgegeben wurde. Mit Ende des 2.<br />

Weltkriegs wurde das JFM eingestellt. Bis in die 70-iger Jahre des 20. Jahrh<strong>und</strong>erts<br />

war sowohl die Produktion als auch das Produkt ZfM ausschließlich<br />

an das Papier geb<strong>und</strong>en. Mit dem Aufkommen der elektronischen Medien<br />

wurden zunächst die Produktion <strong>und</strong> dann auch das Produkt digitalisiert, es<br />

entstand die Datenbank ZBMATH, zunächst parallel zur gedruckten Form.<br />

2010 wurde die gedruckte Form des ZfM eingestellt, der Nachweisdienst<br />

ZBMATH steht seitdem ausschließlich in elektronischer Form zur Verfügung.<br />

Heute ist die Datenbank ZBMATH der weltweit vollständigste <strong>und</strong><br />

umfassendste Nachweisdienst für mathematische Literatur; für eine ausführliche<br />

Darstellung der mathematischen Referatedienste siehe die Artikel von<br />

(Wegner, 1998) <strong>und</strong> (Göbel & Sperber, 2010).<br />

3 Content Analysis in den bibliografischen<br />

Datenbanken der Mathematik<br />

3.1 Qualitätsparameter der Referatedienste<br />

Die Qualität <strong>und</strong> Attraktivität der Referatedienste macht sich an mehreren<br />

Kriterien fest:<br />

• Vollständigkeit der Abdeckung des Gebietes, das durch den Dienst bearbeitet<br />

wird<br />

• Umfang <strong>und</strong> Qualität der Erschließung des Materials<br />

• Verknüpfung mit verwandten <strong>Information</strong>en (Kontextbezug)<br />

• Retrieval: Nutzerschnittstellen <strong>und</strong> Zugang zu den Diensten


396 Wolfram Sperber, Bernd Wegner<br />

3.2 Ein Modell für die Erschließung<br />

Grob lässt sich die Erschließung wissenschaftlicher Publikationen den folgenden<br />

vier Kategorien zuordnen:<br />

• Die bibliografischen Metadaten definieren das Minimum an <strong>Information</strong>en,<br />

das für die Aufnahme in die Datenbank erforderlich ist, dazu<br />

gehören insbesondere Autor, Titel <strong>und</strong> Quelle.<br />

• Die referentiellen Metadaten beinhalten die Verweise <strong>und</strong> Literaturreferenzen<br />

einer Publikation bzw. auf eine Publikation, aber auch Verknüpfungen<br />

mit anderen Autoren (Autorennetzwerke).<br />

• Die Web2.0-Metadaten umfassen im Wesentlichen das Feedback der<br />

Community, etwa in Form von Kommentaren oder Diskussionsforen.<br />

• Unter semantischen Metadaten werden alle Metadaten zusammengefasst,<br />

die Aussagen über den Inhalt oder dessen Einordnung in den wissenschaftlichen<br />

Kontext machen, insbesondere sind das der Abstrakt bzw.<br />

die Review einer Publikation, Keywords <strong>und</strong> Klassifikation. Diese Metadaten<br />

sind im Wesentlichen textbasiert. Abstrakt/Review, Keywords <strong>und</strong><br />

Klassifikation haben eine eigenständige Bedeutung <strong>und</strong> sind komplementär<br />

zueinander.<br />

Bibliografische, semantische, referentielle <strong>und</strong> Web2.0-Metadaten überlappen<br />

sich. Referentielle Metadaten etwa sind ein wichtiges Werkzeug für die<br />

Klassifizierung. Auch bibliografische Metadaten, etwa das Profil einer Zeitschrift,<br />

enthalten wichtige Anhaltspunkte über den Inhalt einer Arbeit.


Content Analysis in der Mathematik: Erschließung <strong>und</strong> Retrieval ... 397<br />

3.3 Die Mathematical Subject Classification<br />

In den 80er Jahren des 20. Jahrh<strong>und</strong>erts wurde von der American Mathematical<br />

Society (AMS) die AMS Subject Classification entwickelt <strong>und</strong> unter<br />

anderem für den Referatedienst Mathematical Reviews (MR) eingesetzt. Um<br />

dieses Schema als modernen Standard in die Mathematik einzuführen <strong>und</strong><br />

weiter zu entwickeln, wurde Ende der 80er in Kooperation zwischen MR<br />

(heute Datenbank MathSciNet) <strong>und</strong> ZBMATH im Rahmen einer vertraglichen<br />

Vereinbarung eine gründliche Revision durchgeführt <strong>und</strong> diese fortan<br />

unter dem Namen Mathematical Subject Classification (MSC) weiterentwickelt.<br />

Die MSC ist ein hierarchisches dreistufiges System mit ca. 6.000 Klassen.<br />

Neben den hierarchischen Relationen zwischen Klassen existieren zwei<br />

weitere Arten von Verweisen zwischen den Klassen: „See also ...“ für Klassen<br />

ähnlichen Inhalts <strong>und</strong> „For .. see ...“ als Verweise auf Klassen, die spezielle<br />

Aspekte vertieft behandeln. Für weitere <strong>Information</strong>en zur Klassifikation<br />

siehe (Göbel & Sperber, 2010).<br />

Mit der Aktualisierung der MSC im Jahr 2010 wurde erstmals eine elektronische<br />

Master-Version eingeführt. Die Master-Version ist im TeX-Format,<br />

aus dem andere Formatierungen, etwa PDF, Word oder ein KWIC Index generiert<br />

werden. Die TeX-Version ist im Wesentlichen identisch mit der gedruckten<br />

Version. Semantische Aussagen, insbesondere die Relationen, sind<br />

nicht in Maschinen-verstehbarer Form dargestellt.<br />

Die MSC weist zudem einige Schwächen im Design auf:<br />

• Definitionen der Klassen: Die Definition der MSC-Klassen erfolgt ausschließlich<br />

über die Benennung der Klassen <strong>und</strong> deren Einordnung in das<br />

Klassifikationsschema. So umfasst etwa die Klasse „34Dxx Stability theory“<br />

alle Publikationen, die sich mit der Stabilität der Objekte der Klasse<br />

„34-XX Ordinary differential equations“ befassen, also mit der Stabilität<br />

gewöhnlicher Differentialgleichungen.<br />

• Unübersichtlichkeit: Die große Anzahl der Klassen der MSC <strong>und</strong> die<br />

teilweise starke inhaltliche Überlappung der Klassen führen dazu, dass<br />

die Arbeiten mehreren Klassen zugeordnet werden können. Andererseits<br />

ist die MSC – trotz der großen Anzahl von Klassen – für eine spezifische<br />

Suche oftmals nicht ausreichend (zu grob).<br />

• Ungleiche Wichtung der Klassen: Die Klassen der MSC unterscheiden<br />

sich sowohl in Inhalt <strong>und</strong> Form als auch in der Granularität. Letzteres<br />

führt u.a. dazu, dass die Anzahl der Arbeiten, die einer Klasse zugeordnet<br />

sind, sehr unterschiedlich ist.


398 Wolfram Sperber, Bernd Wegner<br />

• Lokales Design versus <strong>global</strong>es Design: Die Weiterentwicklung der<br />

MSC erfolgt primär nach lokalen Gesichtspunkten, d.h. es finden die Erfordernisse<br />

einzelner Gebiete (MSC-Klassen der Top Ebene) Berücksichtigung.<br />

Prinzipien für ein einheitliches Design der MSC, etwa Konsistenz<br />

in der Strukturierung des Schemas, spielen eine eher untergeordnete Rolle.<br />

So werden z.B. Anwendungen in der MSC sehr unterschiedlich gehandhabt,<br />

teilweise werden die Anwendungsbereiche direkt benannt,<br />

meist sind sie aber unspezifisch.<br />

• Die Klassen sind verschiedenen Typs: Die Klassen umfassen mathematische<br />

Objekte (etwa Gewöhnliche Differentialgleichungen), qualitative<br />

Aspekte (etwa Stabilität) oder Lösungsmethoden (etwa Finite Differenzenverfahren),<br />

etc.<br />

3.4 Keywords <strong>und</strong> kontrolliertes Vokabular<br />

Keywords sollen charakteristische Terme der bzw. über die Publikation enthalten,<br />

d.h. charakterisieren sowohl den Inhalt als auch ordnen die Publikation<br />

in den mathematischen Kontext ein. Bisher gibt es für die Mathematik<br />

noch kein kontrolliertes Vokabular.<br />

Unter einem kontrollierten Vokabular der Mathematik wird im Folgenden<br />

die Menge der verwendeten Terme (Mehrwortphrasen) verstanden, die durch<br />

intellektuelle oder maschinelle Methoden aus dem vorhandenen mathematischen<br />

<strong>Wissen</strong> extrahiert wird <strong>und</strong> die für die Mathematik repräsentativ ist.<br />

Das kontrollierte Vokabular ist untrennbar mit der Entwicklung der Mathematik<br />

verb<strong>und</strong>en, durchläuft also einen stetigen Prozess der Veränderung <strong>und</strong><br />

vergrößert sich ständig. Eine zuverlässige Abschätzung über die Größenordnung<br />

des verwendeten Vokabulars gibt es bisher nicht.<br />

In einer Voruntersuchung wurden die Keywords der Datenbank ZBMATH<br />

untersucht. Die Analyse ergab einige überraschende Bef<strong>und</strong>e, u.a. auch Hinweise<br />

auf die zu erwartende Größenordnung:<br />

• Durchschnittlich sind jeder Publikation 3 Keywords zugeordnet.<br />

• Häufig werden die Labels der MSC Klassen als Keywords verwendet,<br />

die Keywords fallen sogar häufig mit den Labels der MSC Klassen zusammen.<br />

• Die Anzahl der verschiedenen Keywords für jede der 63 MSC Top-Klassen<br />

liegt deutlich über 1.000, d.h. ein kontrolliertes Vokabular für die<br />

Mathematik wird mehr als 500.000 Phrasen umfassen.


Content Analysis in der Mathematik: Erschließung <strong>und</strong> Retrieval ... 399<br />

4 Ansätze für die semantische Erschließung<br />

in der Mathematik<br />

4.1 Semantic-Web-Technologien<br />

Semantic-Web-Technologien beschäftigen sich mit dem Problem, <strong>Information</strong>en<br />

so darzustellen, dass deren Bedeutung auch von Maschinen erfasst<br />

werden kann. <strong>Information</strong>en im Web lassen sich dann automatisch auswerten<br />

<strong>und</strong> verknüpfen, was neuartige Möglichkeiten für die Suche <strong>und</strong> den Zugang<br />

zu den <strong>Information</strong>en eröffnet.<br />

Mit dem Semantic Web stehen Methoden für eine erweiterte semantische<br />

Erschließung von <strong>Information</strong>en zur Verfügung: (Resource Description<br />

Framework (RDF), 2004) <strong>und</strong> (RDF Vocabulary Description Schema Language<br />

1.0: RDF Schema, 2004) als allgemeine Ansätze für die semantische<br />

Annotation, (Ontology Web Language (OWL), 2009) <strong>und</strong> (Simple Knowledge<br />

Organization System (SKOS), 2009) für die Definition von Ontologien,<br />

Klassifikationssystemen <strong>und</strong> Thesauri.<br />

RDF <strong>und</strong> RDF Schema: RDF ist ein Graphenmodell, das es erlaubt, Aussagen<br />

der Form ,Subjekt – Prädikat – Objekt‘ zu formulieren (etwa die Person<br />

A ist Autor der Publikation P) <strong>und</strong> diese zu verknüpfen. Mit RDF Schema<br />

wird das Vokabular für die RDF Darstellung der <strong>Information</strong>en<br />

bereitgestellt.<br />

OWL <strong>und</strong> SKOS: OWL <strong>und</strong> SKOS setzen auf RDF auf, benutzen also das<br />

Graphenmodell von RDF <strong>und</strong> das Vokabular von RDF Schema. Schon RDF<br />

Schema bietet mit dem Klassenkonzept die Möglichkeit, hierarchische Beziehungen<br />

abzubilden. OWL <strong>und</strong> SKOS verfügen darüber hinaus über ein<br />

spezielles Vokabular für Thesauri, Klassifikationssysteme <strong>und</strong> Taxonomien.<br />

So lassen sich etwa die Klassen der obersten Ebene eines Klassifikationsschemas<br />

auszeichnen oder die Relationen zwischen Klassen präzisieren.<br />

Speziell für die Darstellung <strong>und</strong> Beschreibung mathematischer Inhalte<br />

wurden XML-Sprachen entwickelt, die die Möglichkeit bieten, mathematische<br />

Formeln <strong>und</strong> Symbole zu analysieren <strong>und</strong> suchbar zu machen. Darauf<br />

wird in Abschnitt 5 näher eingegangen.


400 Wolfram Sperber, Bernd Wegner<br />

4.2 MSC <strong>und</strong> Semantic-Web-Technologien<br />

Die Transformation der MSC in das Semantic Web erfolgt schrittweise. In<br />

einem ersten Schritt wurde die MSC mittels des SKOS/RDF-Schema Vokabulars<br />

dargestellt. Hierzu gehören die Definition des MSC Schemas, der<br />

MSC Klassen sowie der Relationen zwischen den Klassen. Mit einer 1:1-<br />

Übersetzung der MSC von TeX nach SKOS ist es aber nicht getan. Um die<br />

MSC stärker für das Retrieval nutzbar zu machen, soll die MSC in einem<br />

zweiten Schritt überarbeitet <strong>und</strong> um zusätzliche semantische Aussagen über<br />

die Klassen der MSC erweitert werden. Insbesondere sind vorgesehen<br />

• eine Typisierung der Objekte der Klassen, dafür wird gegenwärtig ein<br />

Schema entwickelt<br />

• eine Präzisierung der Definitionen der Klassen über den Aufbau eines<br />

kontrollierten Vokabulars, siehe dazu den Abschnitt 4.3<br />

• eine Präzisierung der Relationen zwischen den Klassen, etwa der Transitivität<br />

der hierarchischen Relationen<br />

• die Überarbeitung der Klassenbezeichner, die Einführung alternativer<br />

Klassenbezeichner <strong>und</strong> die Zuweisung multilingualer Labels<br />

• die Entwicklung von Konkordanzen, z.B. zur DDC <strong>und</strong> UDC, die für<br />

eine Interoperabilität mit Bibliothekssystemen relevant sind<br />

• die Verknüpfung der verschiedenen MSC-Versionen, um die Entwicklung<br />

der MSC verfolgen zu können<br />

• dieVerlinkung mit anderen <strong>Information</strong>sdiensten, etwa Wikipedia, ArXiv<br />

4.3 Kontrolliertes Vokabular<br />

Der Aufwand für den intellektuellen Aufbau eines kontrollierten Vokabulars<br />

für die Mathematik ist bei der zu erwartenden Größenordnung zu aufwendig.<br />

Stattdessen müssen maschinelle Lernverfahren eingesetzt werden, deren Resultate<br />

dann allerdings intellektuell ausgewertet <strong>und</strong> überprüft werden müssen.<br />

Als Ausgangspunkt lassen sich das Vokabular der MSC sowie weitere<br />

vorhandene kontrollierte Vokabulare in der Mathematik nutzen, etwa die<br />

(Encyclopaedia of Mathematics (EoM), 2002). In einem zweiten Schritt sol-


Content Analysis in der Mathematik: Erschließung <strong>und</strong> Retrieval ... 401<br />

len zusätzlich die in der Datenbank ZBMATH vorhandenen Keywords ausgewertet<br />

werden. Das führt dann zu einer Anreicherung des Startvokabulars<br />

um Keywords, die ebenfalls eine Klassifizierung gemäß MSC haben. Zudem<br />

ist durch die Häufigkeit ihres Auftretens eine Wichtung der Terme gegeben.<br />

In einem dritten Schritt schließlich soll das Startvokabular zur Extraktion von<br />

zusätzlichem Vokabular aus mathematischen Texten eingesetzt werden.<br />

Erste Tests zur zusätzlichen Extraktion von Keywords aus Abstracts mathematischer<br />

Publikationen wurden zusammen mit W. Gödert, FH Köln für<br />

zwei MSC-Klassen (Gewöhnliche Differentialgleichungen <strong>und</strong> Graphentheorie)<br />

mit der Open Source Software Lingo durchgeführt. Neue Begriffe<br />

sind zumeist Mehrwortgruppen, die durch Kombinationen aus existierenden<br />

Begriffen entstehen. Das geschieht durch Phrasenbildung aus einem gegebenen<br />

Vokabular entsprechend vordefinierter Regeln (die aber flexibel angepasst<br />

werden können). Die Wortlisten der extrahierten Phrasen müssen anschließend<br />

intellektuell gesichtet werden. Die Tests haben zu etwa 30.000 relevanten<br />

Phrasen für jede der beiden MSC-Klassen geführt.<br />

Von zentraler Bedeutung ist die Zuordnung der Terme des Vokabulars zur<br />

MSC. Es lassen sich damit – neben dem kontrollierten Vokabular für die<br />

gesamte Mathematik – spezielle Vokabulare für jede MSC Klasse aufbauen.<br />

Diese Klassen-spezifischen Vokabulare ermöglichen Aussagen über die Korrelation<br />

der Klassen. Zudem können diese Vokabulare für die automatische<br />

Klassifizierung eingesetzt werden. In einer Charakterisierung der MSC-<br />

Klassen durch ein kontrolliertes Vokabular sehen wir einen natürlichen Arbeitsschritt<br />

für die automatische Klassifizierung von Publikationen. Den<br />

MSC-Klassen werden dabei gewichtete Vektoren von Termen zugeordnet,<br />

die die Klassen inhaltlich definieren <strong>und</strong> als Maß für die Einordnung einer<br />

Publikation in eine MSC-Klasse genutzt werden. Übliche Verfahren der<br />

Textklassifizierung, siehe dazu etwa den Übersichtsartikel von (Sebastiani,<br />

2002), also der Aufbau von Wortlisten aus Volltexten durch Elimination von<br />

Stoppwörtern, Stemming, n-grams, etc., liefern für die Mathematik unbefriedigende<br />

Ergebnisse. Ein kontrolliertes Vokabular (also eine Art ,Positiv‘-<br />

Termliste) ist ein anderer Ansatz zur Ermittlung der relevanten Phrasen für<br />

eine automatische Klassifikation. Mit der hier vorgeschlagenen Methode<br />

entsteht gleichzeitig ein neues Werkzeug für eine qualitativ bessere Keywordextraktion<br />

als auch die automatische Klassifizierung.<br />

Das kontrollierte Vokabular bietet zudem die Möglichkeit, Ähnlichkeiten<br />

zwischen Publikationen unterhalb der MSC-Ebene zu identifizieren, also ein


402 Wolfram Sperber, Bernd Wegner<br />

Clustering der Publikationen vorzunehmen. Das ermöglicht neue Retrievalfunktionalitäten,<br />

etwa die Suche nach inhaltlich ähnlichen Dokumenten.<br />

Keywords sind heute für das Retrieval wichtiger als Klassifikationssysteme.<br />

Das liegt u.a. an der fehlenden Kenntnis der Klassifikationssysteme<br />

bei vielen Nutzern, aber auch an den Nutzergewohnheiten, die sich durch die<br />

universellen Suchmaschinen wie Google ausgeprägt haben <strong>und</strong> ohne die (explizite)<br />

Nutzung von Klassifikationssystemen auskommen.<br />

Ein kontrolliertes Vokabular kann zudem von den Autoren als Werkzeug<br />

für die Verschlagwortung seiner Publikationen genutzt werden, etwa indem<br />

die Autoren ihre Publikation über eine Schnittstelle eingeben <strong>und</strong> eine Vorschlagliste<br />

für Keywords erhalten.<br />

5 Ein Ausblick in die Zukunft: Formelanalyse<br />

Mathematik besteht bekanntlich nicht nur aus Text, sondern auch aus Formeln<br />

<strong>und</strong> Symbolen. Mathematische Symbole <strong>und</strong> Formeln komprimieren<br />

Sachverhalte, die sonst häufig nicht mehr in natürlicher Sprache dargestellt<br />

werden können. Symbole <strong>und</strong> Formeln enthalten in sehr verdichteter Form<br />

semantische <strong>Information</strong>en. Mathematische Symbole <strong>und</strong> Formeln können<br />

im Abstrakt/Review, den Keywords <strong>und</strong> auch im Titel auftauchen.<br />

Mit der Entwicklung der Rechentechnik ist Software zur Lösung mathematischer<br />

Aufgaben entwickelt worden, etwa Computeralgebrasysteme zur<br />

Lösung von Gleichungen. Diese Software ist häufig sehr speziell <strong>und</strong> muss<br />

miteinander verknüpft werden, um ein konkretes Problem zu lösen. Es müssen<br />

Methoden <strong>und</strong> Standards entwickelt werden, um Interoperabilität verschiedener<br />

Systeme zu erreichen. Im Rahmen von XML wurden Methoden;<br />

Standards <strong>und</strong> Markup-Sprachen entwickelt, etwa (MathML, 2010) oder<br />

(OpenMath), mit denen Symbole <strong>und</strong> Formeln eindeutig <strong>und</strong> Maschinenverstehbar<br />

dargestellt werden können.<br />

Mathematische Formeln spielten für das Retrieval in gedruckten Publikationen<br />

keine Rolle. Die Schwierigkeiten für das Retrieval von Symbolen <strong>und</strong><br />

Formeln sind vielfältig. Die mathematische Formelsprache hat ähnliche<br />

Schwächen wie die natürliche Sprache, etwa die unterschiedliche Verwendung<br />

von Symbolen oder der fehlende semantische Bezug. Mit der Entwicklung<br />

spezieller XML Sprachen für die Mathematik wurden die Voraus-


Content Analysis in der Mathematik: Erschließung <strong>und</strong> Retrieval ... 403<br />

setzungen geschaffen, um Methoden <strong>und</strong> Werkzeuge für die Erschließung<br />

von Formeln <strong>und</strong> deren Retrieval zu entwickeln. Erste Methoden <strong>und</strong> Konzepte<br />

befinden sich in der Diskussion.<br />

Literaturverzeichnis<br />

FIZ Karlsruhe <strong>und</strong> American Mathematical Society (2010). Mathematics Subject<br />

Classification MSC. http://www.msc2010.org (Retrieved January 15, 2011)<br />

Göbel, S., Sperber, W. (2010). Bibliographische <strong>Information</strong> in der Mathematik –<br />

Werkzeug zur inhaltlichen Erschließung <strong>und</strong> für das Retrieval, Forum der Berliner<br />

Mathematischen Gesellschaft, Band 12, 70–99<br />

Hazewinkel, M. (2002). Encyclopaedia of Mathematics, Springer-Verlag: Berlin,<br />

Heidelberg, New York. http://eom.springer.de/ (Retrieved January 15 2011)<br />

OpenMath Society (2009). Open Math.<br />

http://www.openmath.org (Retrieved January 15 2011)<br />

Sebastiani, F. (2002) Machine learning in automated text categorization, ACM Computing<br />

Surveys 34(1), 1–47<br />

W3C (2004), OWL Web Ontology Language Reference.<br />

http://www.w3c.org/TR/owl-ref/ (Retrieved January 15, 2011)<br />

W3C (2004). RDF Vocabulary Description Language 1.0: RDF Schema.<br />

http.//www.w3c.org/TR/rdf-schema (Retrieved January 15, 2011)<br />

W3C (2004). Resource Description Framework (RDF).<br />

http://www.w3c.org/RDF/ (Retrieved January 15, 2011)<br />

W3C (2010). Mathematical Markup Language (MathML) Version 3.0.<br />

http://www.w3c.org/TR/MathML3/ (Retrieved January 15 2011)<br />

W3C (2010). SKOS Simple Knowledge Organziation System.<br />

http://www.w3c.org/2004/02/skos/ (Retrieved January 15 2011)<br />

Wegner, B. (1998). Berlin als Zentrum des <strong>Wissen</strong>schaftlichen Referatewesens in<br />

Begehr, Heinrich: Mathematik in Berlin: Geschichte <strong>und</strong> Dokumentation, 1.<br />

Halbband; Shaker, 607-628


404 Jürgen Reischer<br />

Zusammenfassung<br />

Das Konzept der Informativität<br />

Eine begriffliche Positionsbestimmung<br />

für die <strong>Information</strong>swissenschaft<br />

Jürgen Reischer<br />

<strong>Information</strong>swissenschaft – Universität Regensburg<br />

D-93040 Regensburg<br />

juergen.reischer@sprachlit.uni-regensburg.de<br />

Der Begriff der Informativität in der <strong>Information</strong>swissenschaft wird aus theoretischer<br />

<strong>und</strong> empirischer Perspektive untersucht <strong>und</strong> in Zusammenhang mit<br />

den Begriffen der Relevanz <strong>und</strong> <strong>Information</strong>squalität gestellt. 1<br />

Abstract<br />

The notion of informativeness in information science will be analyzed from a<br />

theoretical and empirical point of view and related to the concepts of relevance<br />

and information quality.<br />

1 Einleitung<br />

Innerhalb der <strong>Information</strong>swissenschaft spielen vor allem die Konzepte der<br />

<strong>Information</strong> <strong>und</strong> des <strong>Wissen</strong>s sowie der Relevanz eine bedeutende Rolle<br />

(z. B. Kuhlen (1990), Hjørland (2010)). Diese Begriffe können jedoch nicht<br />

isoliert betrachtet werden, sondern nur im Zusammenspiel mit den Konzepten<br />

der Informativität <strong>und</strong> <strong>Information</strong>squalität.<br />

1 Eine ausführlichere Version dieses Beitrags findet sich unter www.juergen-reischer.de.


Das Konzept der Informativität 405<br />

2 Informativität, Relevanz<br />

<strong>und</strong> <strong>Information</strong>squalität<br />

Der Begriff der Informativität findet sich in der <strong>Information</strong>swissenschaft in<br />

wenigstens zwei Bereichen wieder: explizit beim informativen (vs. indikativen)<br />

Summarizing (vgl. Borko & Bernier (1975)) <strong>und</strong> implizit im <strong>Information</strong><br />

Retrieval bei der Bestimmung des <strong>Information</strong>sgehalts von Termen<br />

(tf•idf). Boyce (1982) stellt ferner den Zusammenhang zwischen Relevanz,<br />

Topikalität <strong>und</strong> Informativität in einem 2-stufigen Retrieval-Prozess heraus:<br />

Zuerst werden topikalisch relevante Dokumente ermittelt, dann die Dokumente<br />

gemäß ihrer Informativität (Verständlichkeit/Neuheit) für den Nutzer<br />

sortiert. Die Informativität einer Aussage oder eines Textes kann nun im<br />

relationalen oder absoluten Sinne bestimmt werden:<br />

• Ein Text oder eine Aussage kann als informativ per se (über ein Thema<br />

X) beurteilt werden, wenn keine Relevanzrelation zu einer aktuellen Fragestellung<br />

besteht (z. B. ein informatives Summary über X, eine Nachricht<br />

mit aktuellen Neuigkeiten über X). Der Text oder die Aussage ist<br />

dann als potenzielle Antwort auf eine Frage in einem möglichen Problemkontext<br />

zu verstehen. Die Informativität eines Textes stellt ein intrinsisches<br />

Qualitätsmerkmal des Textes dar, die ohne Bezug auf die Frage<br />

durch rein innertextuelle Faktoren wie Verständlichkeit, Interessantheit,<br />

Neuigkeit usw. bestimmt werden kann (s. u.). Der Text ist potenziell geeignet,<br />

als Antwort auf eine mögliche Frage zu dienen.<br />

• Ein Text oder eine Aussage kann als informativ per te (über ein Thema<br />

X) verstanden werden, wenn diese in Relevanzrelation zu einer aktuellen<br />

Fragestellung eines <strong>Information</strong>ssuchenden stehen. Die Aussage oder der<br />

Text ist dann als aktuelle Antwort auf eine Frage in einem tatsächlichen<br />

Problemkontext zu verstehen. Das im Text oder der Aussage nur potenziell<br />

enthaltene <strong>Wissen</strong> wird im aktuellen Kontext in Bezug zum Problem<br />

des <strong>Information</strong>ssuchenden gesetzt, um dort Erkenntnisgewinn zu bewirken<br />

(Erkenntnis als neue <strong>und</strong> verstandene <strong>Information</strong>). Die Informativität<br />

eines Textes in Bezug auf eine bestimmte Fragestellung kann als extrinsisches<br />

Qualitätsmerkmal eines Textes interpretiert werden, das über<br />

die intrinsischen Merkmale hinaus auch die Informativität der Antwort<br />

auf ein aktuelles <strong>Information</strong>sbedürfnis des Nutzers einbezieht. Der Text<br />

ist aktuell geeignet, als Antwort auf eine tatsächliche Frage zu dienen.


406 Jürgen Reischer<br />

Relevanz im Sinne einer thematischen Passung zwischen Suchanfrage<br />

<strong>und</strong> Antwort ist eine notwendige Bedingung zur Befriedigung eines <strong>Information</strong>sbedürfnisses,<br />

aber keine hinreichende: Sofern der Rezipient nichts aus<br />

der Antwort lernen kann, weil sie red<strong>und</strong>ant, unspezifisch, vage usw. ist, war<br />

die Antwort uninformativ. In diesem Sinne ist die Informativität von Texten<br />

oder Aussagen ein mindestens so starkes Kriterium wie Relevanz selbst.<br />

3 Empirie zur Informativität<br />

Aus der Literatur zum Summarizing ist bereits eine Reihe von Informativitäts-Merkmalen<br />

bekannt, die zur Konstruktion automatischer Summaries verwendet<br />

werden (z. B. Paice (1990), Kupiec et al. (1995), Strzalkowski et al.<br />

(1999), Goldstein et al. (1999); vgl. ausführlich Reischer (2010a–c)). Hierzu<br />

rechnen Faktoren wie Novität <strong>und</strong> Spezifität (<strong>Information</strong>sgehalt/Frequenz<br />

von Termen), Interessantheit (Bonus-/Malus-Terme), Thematizität (Kohärenz/Deklarativität<br />

von Aussagen) sowie Faktizität (Objektivität/Wahrheitstreue<br />

von Aussagen). Vorausgesetzt ist die gr<strong>und</strong>sätzliche Verständlichkeit<br />

eines Textes als notwendige Bedingung für dessen Informativität. Im Rahmen<br />

des EXCERPT-Projekts zum Summarizing <strong>und</strong> Passagen-Retrieval wurden<br />

auch empirische Untersuchungen zum Begriff der Informativität von<br />

Texten vorgenommen (Reischer 2010a–c). Dabei wurden je 13 Testpersonen<br />

bei insgesamt 10 <strong>Information</strong>s-Texten verschiedener Textsorten instruiert,<br />

die informativsten <strong>und</strong> interessantesten Sätze zu selektieren. Die Selektionskriterien<br />

konnten durch intellektuelle Analyse der linguistischen Eigenschaften<br />

jener Sätze ermittelt werden, die von mehr als 50% der Testpersonen als<br />

informativ/interessant beurteilt wurden. Daraus resultierte eine Reihe von<br />

maschinell ermittelbaren Parametern, die die Leistung des Systems gegenüber<br />

herkömmlichen Systemen verbessern konnten (s. u.). Eine sehr gute bis<br />

gute Indikatorkraft besitzen dabei vor allem folgende Parameter (für eine<br />

ausführliche Beschreibung vgl. Reischer (2010c)):<br />

• Selektierte Sätze weisen zwei bis vier Mal so viele Steigerungsformen<br />

auf wie nicht-selektierte Sätze. Darüber hinaus finden sich mit einem Anteil<br />

von lediglich einem Viertel bis Fünftel deutlich weniger Pronomen<br />

der 1. Person in selektierten gegenüber nicht-selektierten Sätzen (1.-Person-Pronomen<br />

deuten dabei auf eher subjektive statt objektive Aussagen


Das Konzept der Informativität 407<br />

hin). Generell stellen Bonus- <strong>und</strong> Malusausdrücke („better than“ vs. „by<br />

the way“) gute Indikatoren für (nicht) selektierte Sätze dar. Außerdem<br />

befanden sich unter den selektierten Sätzen nur deklarative Aussagesätze,<br />

d. h. es wurde kein einziger Frage- oder Überschriften-Satz ausgewählt.<br />

• Darüber hinaus sind selektierte Sätze aufgr<strong>und</strong> semantischer Relationen<br />

besser mit anderen Sätzen verknüpft <strong>und</strong> damit kohärenter als nicht-selektierte.<br />

Zudem sind Inhaltsterme selektierter Sätze semantisch spezifischer<br />

(informationshaltiger) <strong>und</strong> zugleich möglichst frequent (wichtig,<br />

zentral) im Text, wobei das Verhältnis von Funktions- zu Inhaltswörtern<br />

zugunsten Letzterer ausfällt. Ferner finden sich selektierte Sätze häufiger<br />

in Aufzählungen <strong>und</strong> am Abschnitts- oder Absatzanfang, wo eine erhöhte<br />

Anzahl neu in den Text eingeführter Terme einen Hinweis auf dessen<br />

thematische Progression (<strong>Information</strong>sstruktur, Neuheitswert) liefert.<br />

Die Evaluation des EXCERPT-Systems im Hinblick auf die Summarizing-<br />

<strong>und</strong> Passagen-Retrieval-Leistung zeigte, dass die beschriebenen Parameter<br />

eine etwa 10 Prozentpunkte höhere Leistung > 60% korrekt ermittelter Sätze<br />

erlaubten als bei kommerziellen Summarizern wie Copernic oder Intellexer.<br />

4 Fazit<br />

Das rein theoretische Konzept der Informativität lässt sich für praktische Anwendungen<br />

im <strong>Information</strong> Retrieval oder Summarizing operationalisieren<br />

<strong>und</strong> realisieren, indem entsprechende Textparameter als Indikatoren für Informativität<br />

verwendet werden. Die Informativität eines Textes ist diejenige<br />

Eigenschaft, die ihn geeignet macht zur Schließung einer <strong>Wissen</strong>slücke (Lernen)<br />

oder zur Lösung eines Problems (Erkenntnisgewinn). Konsequenterweise<br />

sollte beim Retrieval <strong>und</strong> Ranking von Text(ausschnitt)en nicht nur<br />

deren thematische Relevanz im Zentrum des Interesses stehen, sondern<br />

gleichwertig auch deren Informativität. Wenn beim Summarizing der Fokus<br />

auf informative Textauszüge gelegt wird, um den Rezipienten möglichst<br />

effektiv mit <strong>Information</strong> zu versorgen, dann muss dies im gleichen Maße<br />

auch für Texte aus Textkollektionen gelten. Der Nutzer hat vor allem ein<br />

<strong>Information</strong>sbedürfnis, kein Thema- oder Relevanzbedürfnis.


408 Jürgen Reischer<br />

Literaturverzeichnis<br />

Borko, H. & Bernier, C. L. (1975). Abstracting Concepts and Methods. New York<br />

u. a.: Academic Press.<br />

Boyce, B. (1982). Beyond Topicality. A Two Stage View of Relevance and the Retrieval<br />

Process. IP&M, 18(3), S. 105–109.<br />

Goldstein, J. & Kantrowitz, M. & Mittal, V. & Carbonell, J. (1999). Summarizing<br />

Text Documents: Sentence Selection and Evaluation Metrics. Proc. of SIGIR’99,<br />

S. 121–128.<br />

Hjørland, B. (2010). The Fo<strong>und</strong>ation of the Concept of Relevance. JASIST 61(2), S.<br />

217–237.<br />

Kuhlen, R. (1990). Zum Stand pragmatischer Forschung in der <strong>Information</strong>swissenschaft.<br />

In Herget, J. & Kuhlen, R. (Hrsg.). Pragmatische Aspekte beim<br />

Entwurf <strong>und</strong> Betrieb von <strong>Information</strong>ssystemen. Proc. der 1. ISI. Konstanz:<br />

UVK, S. 13–18.<br />

Kupiec, J. & Pederson, J. & Chen, F. (1995). A Trainable Document Summarizer.<br />

Proc. of SIGIR’95, S. 68–73.<br />

Paice, C. (1990). Constructing Literature Abstracts by Computer: Techniques and<br />

Prospects. IP&M, 26(1), S. 171–186.<br />

Reischer, J. (2010a). Retrieval <strong>und</strong> Ranking informativer Textpassagen. Eine theoretische<br />

<strong>und</strong> praktische Integration von informativem Summarizing <strong>und</strong> Within-<br />

Document-Retrieval. Universität Regensburg: Habilitationsschrift.<br />

Reischer, J. (2010b). EXCERPT – Ein integriertes System zum informativen Summarizing<br />

<strong>und</strong> Within-Document-Retrieval. Proc. der KONVENS 2010, S. 77–84.<br />

Reischer, J. (2010c). Das EXCERPT-System. Manuskript: Universität Regensburg.<br />

http://www.gruenderboom.de/InfoLinguistik/Excerpt.pdf<br />

Strzalkowski, T. & Stein, G. & Wang, J. & Wise, B. (1999). A Robust Practical Text<br />

Summarizer. In Mani, I. & Maybury, M. T. (Hrsg.). Advances in Automatic Text<br />

Summarization. Cambridge/London: MIT Press, S. 137–154.


Das Konzept der Informativität 409<br />

Session 10:<br />

<strong>Information</strong> Society


410 Joseph Adjei, Peter Tobbin<br />

Identification Systems Adoption in Africa;<br />

The Case of Ghana<br />

Joseph Adjei, Peter Tobbin<br />

Center for Communication, Media and <strong>Information</strong> Technologies [CMI]<br />

Abstract<br />

Aalborg University, Copenhagen<br />

Lautrupvang 15, 2750 Ballerup, Denmark<br />

adjei@cmi.aau.dk, tobbin@cmi.aau.dk<br />

A number of Identity Management Systems (IdMS) have been implemented<br />

in many countries as an attempt to curtail incidences of crime and abuse of<br />

privacy, and to give citizens easy and seamless access to services. Despite the<br />

numerous perceived benefits, a number of challenges continue to hinder successful<br />

implementations and adoption in Africa. Using concepts of technology<br />

adoption and fit-viability theory, this paper examines the critical factors<br />

affecting (IdMS) adoption. In this paper, a conceptual framework for IdMS<br />

implementation and successful adoption is developed and validated with<br />

findings from a survey conducted in Ghana. The conceptual framework<br />

would offer policy makers the opportunity to determine the critical factors to<br />

be considered in (IdMS) implementations.<br />

1 Introduction<br />

Identity management projects have lately become a major issue capturing<br />

media attention and driving interactions between governments and citizens.<br />

The reasons for IdMS implementations have generally been to ensure high<br />

levels of security, efficiency, cost-effective provision of services promotion<br />

of commercial activity, and ensuring the rights of citizens to informational


Identification Systems Adoption in Africa; The Case of Ghana. 411<br />

self-determination (Beynon-Davies, 2007). Incidentally, implementation of<br />

IdMS that is capable of achieving these goals can be a very complex process<br />

requiring cooperation from a number of stakeholders (Aichholzer & Strauß,<br />

2009). In their paper on <strong>und</strong>erstanding complex innovation, Aichholzer &<br />

Strauß (2009) argue that critical security and privacy systems architecture<br />

can be very challenging. These issues then presents a dilemma to policy<br />

makers leading to their preoccupation with technological features of the systems<br />

at the expense of analyzing the wider societal implications of the systems<br />

(Lips et al., 2009 and Aichholzer & Strauß, 2009). In spite of the numerous<br />

researches on IdMS implementation, there is still a dearth of<br />

literature on factors affecting IdMS adoption from a developing country’s<br />

perspective. In this paper, we analyze the key factors affecting IdMS implementations<br />

and develop a conceptual framework for future implementations<br />

based on a survey conducted in Ghana.<br />

The subsequent section discusses technological development in Africa<br />

and IdMS initiatives in Ghana. Section 3 discusses the research methodology<br />

and gives a brief description of the Technology Acceptance Model (TAM)<br />

and the Fit-Viability Theory. In section 4, we propose a conceptual framework<br />

for implementing IdMS from a developing country’s perspective, a<br />

description of the survey in Ghana and ending with a discussion of the survey<br />

results. In section 5, we present our conclusions and recommendations for<br />

IdMS implementation and adoption.<br />

2 Technological Development in Africa<br />

Many African countries are technologically lagging behind. This has been<br />

attributed to several years of primitive cultural practices, bad governance,<br />

chaotic climatic conditions, poverty and illiteracy. Historically, natural disasters,<br />

landmark events and tribal body marks have been used as means of<br />

identification and reference points. These practices, which in the past served<br />

their purposes, have in these last days of rapid technological development<br />

proved very slow and unreliable, leading to improper forms of identification<br />

and authentication. In Botswana for instance, the findings of Uzoka &<br />

Ndzinge (2009) indicated that biometrics usage is at its infancy despite the<br />

fact that industries may be aware of its ability to strengthen security and pro-


412 Joseph Adjei, Peter Tobbin<br />

ductivity. The emergence of mobile phones and the tremendous growth in<br />

cellular networks have made instant and reliable communication a reality in<br />

Africa. Cell phone subscription in Africa rose from 54 million in 2003 to 350<br />

million in 2008 with a forecast average cell phone penetration of 80% by<br />

2012 (Comninos et al., 2008). In Ghana, this 80% penetration rate has already<br />

been achieved (GBN, 2010). This technological growth is driving a<br />

gradual shift in Africa towards implementation of various biometrics based<br />

identity management and electronic payment systems. Throughout Africa,<br />

governments are moving towards various national IdMS with the enactment<br />

of various laws. The Payment Systems Act (ACT662) and National Identification<br />

Act (ACT 707), (NIA, 2010) are key examples. These technological<br />

developments are however not without challenges. Policy makers, security<br />

agencies and the private sector are bedeviled with a particular type of cybercrime<br />

popularly known in Ghanaian parlance as “sakawa” (Slater & Kwami,<br />

2005). 419 cybercrimes have already become an international issue in Nigeria<br />

(USDoS, 1997).<br />

2.1 Identity & Identity Management Systems<br />

Identity has several dimensions. Psychological identity is the distinguishing<br />

characteristics of an individual, whilst social identity refers to the positive<br />

self-concept of individuals such as organizational membership, religious<br />

affiliation, gender and age group (Tajfel & Turner, 1985). In information<br />

systems, identity consists of traits, attributes, and preferences, by which one<br />

may receive personalized services either online, on mobile devices, at work,<br />

or in many other places (Liberty, 2004). Identity consists of both physical<br />

and digital identity. In Bhargav-Spantzel et al. (2007), digital identity may be<br />

any kind of characteristics associated to an individual and may take the form<br />

of user logins, identity attributes (eye colour, date of birth, etc.) and identifiers<br />

(account number, vehicle license plate).<br />

Identity Management Systems have been used throughout history to<br />

establish the basis for trade and governance using different tokens and technologies,<br />

seals, coded messages, signatures, and jewelry, etc. (3G_Americas,<br />

2009). Existing literature contains several and sometimes overlapping definitions<br />

of IdMS. Depending on the situation and the context, an individual may<br />

be represented by different partial identities (Clauß & Köhntopp, 2001).<br />

Hence, identity management can mean different things to different people


Identification Systems Adoption in Africa; The Case of Ghana. 413<br />

depending on the context (Van Thuan, 2007). In this study, IdMS consists of<br />

processes, policies and technologies to manage the complete lifecycle of user<br />

identities across a system and to control a user’s access to the system resources<br />

(Van Thuan, 2007). A good IdMS can assist users in acquiring better<br />

knowledge about individuals, which is essential in building a certain level of<br />

trust. Similarly, IdMS can be a reliable means of protecting the privacy of<br />

parties to transactions. An effective IdMS ensures real-time identification and<br />

authentication to distinguish one person from the other.<br />

2.2 Identity Management Initiatives in Ghana<br />

In Ghana, several independent IdMS initiatives are <strong>und</strong>er way. The National<br />

Health Insurance Scheme has already rolled out a nationwide registration by<br />

issuing identity cards to beneficiaries. Birth and death, voters’ registers,<br />

business registrations and social security are other forms of registrations performed<br />

by various government agencies in different formats and databases.<br />

The government has recently implemented biometric based passports and<br />

driver’s and vehicle licenses. These two projects have been very successful<br />

concerning user adoption with the only issue being delays in issuance of<br />

passports or the driving licenses. To enhance commercial activity and to reduce<br />

the unbanked and <strong>und</strong>er-banked population in Ghana, a biometric based<br />

payment system (e-zwich card) was also implemented by the Bank of Ghana<br />

(Frempong, 2010). According to France & Selormey (2009) GhIPSS opted<br />

for biometric technology because of its superior security in terms of user<br />

authentication and its ability to combat card cloning. The e-zwich project has<br />

however failed to live up to the expectation even though the goals seemed<br />

laudable from the government’s point of view (France & Selormey, 2009).<br />

National Identification Authority is in the process of rolling out national<br />

identity cards.<br />

3 Methodology<br />

This is a country study research on IdMS implementation from a developing<br />

country’s perspective. The key question addressed in this paper is “What<br />

factors influence adoption of Identity Management Systems in developing


414 Joseph Adjei, Peter Tobbin<br />

countries?” Empirical data was gathered by consulting related studies on<br />

privacy and IdMS implementation, stakeholder interviews and self-administered<br />

questionnaires. From the literature review, it became apparent that<br />

Davis’ (1989) Technology Acceptance Model (TAM), and the fit-viability<br />

theory (Tjan, 2001 and Liang et al., 2007) were relevant to the study since<br />

they offered better constructs. Opinions of typical Ghanaian adults were used<br />

as the unit of analysis. The questionnaire was designed based on the results<br />

of the initial interviews. A multiple-item approach was adopted where each<br />

item was measured on a five-point Likert scale, with answers ranging from<br />

“strongly disagree” to “strongly agree”.<br />

The items in the questionnaire were developed by adapting existing<br />

measures validated by other researchers in IdMS, or by converting the definitions<br />

of the construct into a questionnaire format. The questionnaire consisted<br />

of five main sections. The questions in section 1 were aimed at gathering<br />

demographic information such as gender, age group, occupation, educational<br />

backgro<strong>und</strong> and level of income. Section 2 focused on the citizen’s<br />

perceptions and <strong>und</strong>erstanding of issues like privacy, security and controls in<br />

identification systems. Section 3dealt with perceived usefulness and perceived<br />

ease of use. Section 5 then focused on economic feasibility and transaction<br />

cost. In total, there were 43 questions. The results of the analysis form<br />

the basis for the development of the conceptual framework. The research is<br />

significant since it addresses identity management issues within the context<br />

of developing countries, scarcely represented in the IdMS literature.<br />

3.1 Technology Acceptance Model (TAM)<br />

Factors affecting technology adoption and diffusion of innovation have been<br />

extensively studied with several theories emanating from it within <strong>Information</strong><br />

Systems literature. Notable among them are the innovation diffusion<br />

theory (Rogers, 1983), technology acceptance model (TAM) (Davis, 1989)<br />

and the unified theory of acceptance and use of technology (UTAUT)<br />

(Venkatesh & Davis, 2000). In Davis’ (1989) TAM for instance, what causes<br />

people to accept or reject information technology has mainly been attributed<br />

to its perceived usefulness and perceived ease of use. External pressure to<br />

adopt has also been identified as another factor affecting technology adoption<br />

(Dass & Pal, 2009). Additional factors include complexities, compatibility<br />

and relative advantage. In Davis (1989), perceived usefulness describes the


Identification Systems Adoption in Africa; The Case of Ghana. 415<br />

degree to which a person believes that an innovation will boost their performance.<br />

Perceived ease of use on the other hand describes the degree to<br />

which a person believes that adopting an innovation will be free of effort.<br />

Where a system is high in perceived usefulness but it requires a great effort<br />

from a user, it is believed that its benefits will be eroded by the efforts required<br />

and thereby dissuading users from using it. In effect users are more<br />

likely to adopt systems which are easier to use and offer some benefits. Even<br />

though they are aimed at deepening <strong>und</strong>erstanding of factors affecting adoption<br />

these studies have mainly focused on developed countries. Other factors<br />

like free riding, connectivity and illiteracy that are peculiar to developing<br />

countries will also be covered in this study.<br />

3.2 Fit-Viability Model<br />

Liang et al. (2007) adapted Tjan’s (2001) two dimensional fit-viability model<br />

for measuring the extent to which a new technology will fit into the core<br />

competence, structure, value and culture of organization and how viable it<br />

could be. In their model, Liang et al. (2007), defined technology viability as<br />

the measure of the extent to which the organizational environment is ready<br />

for the application, as well as its economic feasibility, technical infrastructure,<br />

and social readiness of the organization. Fit measures the extent to<br />

which the technology is capable of meeting the requirement of task. They<br />

came to the conclusion that organizations must only pursue applications with<br />

good fit and strong organizational viability. Economic feasibility is a key<br />

indicator used to measure an organizations’ readiness to implement a technology.<br />

The two main criteria for measuring economic feasibility are cost<br />

benefit analysis (e.g. net present value) and transaction cost analysis, where<br />

reducing costs can increase a customer’s willingness to use a technology<br />

(Spraakman, 1997). A high-transaction frequency on the other hand reduces<br />

transaction costs and the usage of the application. In effect transaction cost is<br />

higher where there is lack of usefulness and ease of use.


416 Joseph Adjei, Peter Tobbin<br />

4 IdMS Conceptual Framework<br />

TAM has proven to be a very useful tool for <strong>und</strong>erstanding and predicting<br />

user behavior in information system implementation since it seeks to place<br />

administration and control of information directly into the hands of users<br />

(Aichholzer & Strauß, 2009). The following constructs are therefore adapted<br />

from the theoretical framework and privacy related literature:<br />

• Perceived Usefulness is the degree to which a person thinks that using a<br />

particular system will enhance his or her performance. In the IdMS adoption,<br />

it is concerned with how users believe the system can enhance their<br />

daily transactions and interactions. In effect high perceived usefulness<br />

will lead to a high intention to accept identification systems.<br />

• Perceived Ease of Use is the degree to which a person believes that using<br />

a particular system will be free of effort (Davis, 1989). In IdMS implementations,<br />

the enrolment process, ability to gain access to different services,<br />

training and support ensures ease of use. Other factors include<br />

network anonymization tools and minimum disclosure of personal information<br />

(Cavoukian, 2008).<br />

• External pressure to adopt (Dass & Pal, 2009): Where there is a certain<br />

level of force or the system is made mandatory for business transaction,<br />

adoption is high. For instance passports are mandatory for international<br />

travels and for that matter citizens will be <strong>und</strong>er pressure to adopt a biometric<br />

passport<br />

• Privacy is the right of an individual to decide what information about<br />

himself should be communicated to others and <strong>und</strong>er what circumstances<br />

(Westin, 1970). It is about the right of individuals to choose how they<br />

want to live their life, and what things they want to keep private (De<br />

Hert, 2008). In effect privacy refers to the claim or right of individuals to<br />

exercise a measure of control over the collection, use and disclosure of<br />

their personal information (Cavoukian, 2008). Users are more inclined to<br />

adopt Identity Management Systems which offer a high level of privacy<br />

assurance.<br />

• Trust is the state of readiness for unguarded interaction with someone or<br />

something (Tway, 1993). Trust can be influenced by perceptions of intentions<br />

and past experiences. In Ghana for instance many business people<br />

perceive that national identification systems can be used for tax purposes<br />

or political witch-hunting and will therefore find various means to


Identification Systems Adoption in Africa; The Case of Ghana. 417<br />

avoid it. Negative perception on trust can have a direct effect on attitudes<br />

towards the system. High reliability and privacy protection policies will<br />

lead high level of trust.<br />

• Technology Fit (Tjan, 2001): Technology fit issues are qualitative factors<br />

that determine to what extent an investment fits into the organizations’<br />

processes, capabilities and culture. Fit issues are therefore ‘internal’ factors<br />

that influence the system design. In developing countries, such internal<br />

factors are literacy rate, level of political tolerance, infrastructure,<br />

cultural norms etc.<br />

• Viability issues deal with the expected return the system is able to generate,<br />

such as the value-added potential, cost and associated benefits.<br />

• Transaction Cost: Many people are reluctant to pay for government services<br />

even if they directly affect their livelihood. Therefore any system<br />

requiring high transaction costs is bo<strong>und</strong> to fail in developing countries<br />

unless there are no alternatives.<br />

The diagram below is a summary of the factors which must be considered in<br />

IdMS implementation to ensure successful adoption. Privacy and trust issues<br />

and technology fit characteristics must affect the four inner boxes. In effect<br />

even if the system is very useful and easy to use, negative perception of trust<br />

can affect successful adoption by users.<br />

Figure 1: IdMS Conceptual Framework.


418 Joseph Adjei, Peter Tobbin<br />

4.1 IdMS Adoption Survey in Ghana<br />

In an attempt to determine factors affecting IdMS adoption we conducted a<br />

survey using stakeholder interviews and a questionnaire. The objective of the<br />

interviews was to acquire better <strong>und</strong>erstanding of the issues involved in national<br />

IdMS implementation, which will influence the design of the questionnaire.<br />

The interview focused on the key officials National Identification project<br />

and government’s electronic payment system (e-zwich project). We also<br />

interviewed key officials of major commercial banks and trading merchants<br />

and two groups of citizens: those who have acquired the e-zwich cards and<br />

those who have not. An interview guide was designed to ensure consistency<br />

and to ensure that researchers focus on the IdMS related issues.<br />

In the case of the questionnaire, a group of executive masters in administration<br />

(EMBA), participants of the Ghana Institute of Management and<br />

Public Administration (GIMPA) were selected. This group was selected because<br />

they represent a typical group of opinion leaders whose views on national<br />

IdMS were the unit of analysis. Additionally, we fo<strong>und</strong> it to be very<br />

cost effective due to budgetary constraints and offered me to explain the rationale<br />

behind the various questions to the respondents. 250 questionnaires<br />

were administered and 230 responses were received and analysed. The key<br />

constructs stated in section 4 above were used to develop the questionnaire.<br />

4.2 Results and Discussion<br />

Based on employment positions, 95% of the respondents occupy managerial<br />

positions. Even though National Identity (NID) Cards systems encounter a<br />

lot of opposition in Western countries, particularly the US and the United<br />

Kingdom, 90% of respondents believed that NID cards must be compulsory<br />

for all Ghanaians. Another interesting finding was that 80% of respondents<br />

prefer that cards be issued to citizens free of charge as a means of achieving<br />

universal coverage and forgery prevention. Another interesting finding from<br />

the survey was that the respondents were unanimous in their responses to<br />

questions on governance, policy and monitoring. For instance, they all believed<br />

that their interest would be considered in deciding how identity data is


Identification Systems Adoption in Africa; The Case of Ghana. 419<br />

used which is consistent with Davis’ (1989) suggestion that the design characteristics<br />

of a system exert immediate effects on perceived usefulness as<br />

well as indirect effects via perceived ease of use.<br />

Even though security is a major concern in the West, in this survey respondents<br />

rather believed that the system will be secure and for that matter<br />

their personal data will not be affected even though they believed there are<br />

some risks involved due to the lack of competent personnel to manage the<br />

databases. Concerning complexity in the use of the cards, the majority of the<br />

respondents did not think it would be very difficult to use. A further probe<br />

however indicated that this believe stems from the fact that respondents have<br />

all used ATM cards and thought the NID cards even in its advanced form<br />

may not be anything different. They also believed that the introduction of the<br />

identity cards will not have any negative impact on users’ personal information<br />

and that they were prepared to trade off some privacy for convenience,<br />

security and faster access to public service. Strangely, all the respondents<br />

were willing to allow identification authorities to share their personal<br />

data with other government agencies and private businesses. The analysis<br />

showed that among those who did not want identification systems to reveal<br />

their identity 90% were business owners. Where IdMS are required for key<br />

business activity to take place, adoption is usually high (e.g. passport and<br />

health insurance card).<br />

5 Conclusion and Recommendation<br />

This paper has identified factors influencing adoption of IdMS from a developing<br />

country’s perspective. It has shown that security issues and anonymity,<br />

which are very critical in developed countries, are not the major concerns in<br />

developing countries. Rather, connectivity, costs of equipment, taxation and<br />

political motives were the key factors. Additionally, even though IdMS are<br />

very much welcome in Africa, there is a strong perception that they must be<br />

free for all citizens. This has a direct implication on sustainability of such<br />

systems unless they are associated with critical services like passports and<br />

driving licenses. In effect, to achieve high levels of IdMS adoption, policy<br />

makers must go beyond perceived usefulness and ease of use and deal with<br />

the key inhibiting factors.


420 Joseph Adjei, Peter Tobbin<br />

Acknowledgements<br />

We would like to thank Professor Henning Olesen, CMI, Aalborg University<br />

for his helpful comments during the development of the paper.<br />

References<br />

3G_Americas. (2009). Identity Management; overview of standards & technologies<br />

for mobile and fixed internet. 3G America whitepaper.<br />

Aichholzer, G. & Strauß, S. (2009). Understanding a Complex Inovation process:<br />

Identity Management in Austrian E-Government. The Proceedings of the 10th International<br />

Digital Government Research Conference.<br />

Aichholzer, G. & Strauß, S. (2009). The Citizens Role in National Electronic Identity<br />

Management: A Case-study of Austria. Second international Conference on Advances<br />

in Human-Oriented and Personalized Mechanisms, Technologies, and<br />

Services. Porto, Portugal.<br />

Beynon-Davies, P. (2007). Personal identity management and electronic government;<br />

the case of the national identity card in the UK. Journal of Enterprise <strong>Information</strong><br />

Management , Vol. 20 (No.3), 244–249.<br />

Bhargav-Spantzel, A., Camenisch, J., Gross, T. & Sommer, D. (2007). User centricity:<br />

a taxonomy and open issues. 15.<br />

Cavoukian, A. (2008). The case for privacy-embedded laws of identity in the digital<br />

age. Technical report.<br />

Clauß, S. & Köhntopp, M. (2001). Identity Management and its support of multilateral<br />

security. Computer and Networks, 37, 205–219.<br />

Comninos, A., Esselaar, S., Ndiwalana, A. & Stork, C. (2008). Towards Evidencebased<br />

ICT Policy and Regulation M-banking the Unbanked. Policy Paper 4,<br />

IDRC.<br />

Dass, S. & Pal, S. (2009). Feasibility and Sustainability Model for Identity Management.<br />

India: IIMA Research and Publications.<br />

Davis, F. D. (1989). Perceived Usefulness, Perceived Ease of Use, and User Acceptance<br />

of <strong>Information</strong> Technology. MIS Quarterly, 13(3), 319–340.<br />

De Hert, P. (2008). Identity management of e-ID, privacy and security in Europe: A<br />

human rights view. <strong>Information</strong> Security Technical Report (13), 71–75.


Identification Systems Adoption in Africa; The Case of Ghana. 421<br />

France, F. & Selormey, D. (July/August 2009). Biometrics improving financial accessibility.<br />

Biometric Technology Today, S. 10–11.<br />

Frempong, B. (Wed, 28th. April 2010). E-zwich is the dominant money transfer<br />

system in Ghana. http://www.citifmonline.com/site/business/news/view/5232/3<br />

GBN (2010). Ghana’s mobile penetration expected to hit 100% in 2013.<br />

http://www.ghanabusinessnews.com/2010/06/08<br />

Liang, T., Huang, C., Yeh, Y. & Lin, B. (2007). Adoption of mobile technology in<br />

business: a fit-viability model. Industrial management & data systems, 107 (8),<br />

154–169.<br />

Liberty. (2004). Whitepaper: Benefits of Federated Identity to Government. Liberty<br />

Alliance Project.<br />

Lips, A. M., Taylor, J. A. & Organ, J. (2009). Managing Citizen Identity <strong>Information</strong><br />

in EGovernment Service Relationships in the UK. Public Management Review,<br />

11 (6), 833–856.<br />

NIA (2010). National Identification Authority. Editorial; NIA News, 1.<br />

Rogers, E. (1983). Diffusion of Innovations (third ed.). New York: The Free Press.<br />

Slater, D. & Kwami, J. (2005, June). Embeddedness and escape: Internet and mobile<br />

use as poverty reduction strategies in Ghana. <strong>Information</strong> Society Research<br />

Group (ISRG) Working Paper Series.<br />

Spraakman, G. (1997). Transaction cost economics: a theory for internal audit?<br />

Managerial Auditing Journal, 12 (7), 323–330.<br />

Tajfel, H. & Turner, J. C. (1985). The social identity theory of intergroup behavior.<br />

In S. W. Austin, Psychology of intergroup relations (2 nd Ed., pp. 7–24). Chicago:<br />

Nelson-Hall.<br />

Tjan, A. (2001). Finally, a way to put your internet portfolio in order. Harvard Business<br />

Review, Vol. 79 (No. 2), pp. 76–85.<br />

Tway, D. C. (1993). A Construct of Trust, Dissertation.<br />

USDoS. (1997). Nigerian Advance Fee Fraud. United States Department of State<br />

Bureau of International Narcotics and Law Enforcement Affairs.<br />

Uzoka, F.-M. E. & Ndzinge, T. (2009). Empirical analysis of biometric technology<br />

adoption and acceptance in Botswana. The Journal of Systems and Software, 82,<br />

1550–1564.<br />

Van Thuan, D. (2007). Identity Management Demystified. 3 (4).<br />

Venkatesh, V. & Davis, F. (2000). A theoretical extension of the technology acceptance<br />

model: four longitudinal field studies. 46 (2), pp. 186–204.<br />

Westin, A. (1970). Privacy and Freedom. New York: Atheneum.


422 Alexander Botte, Marc Rittberger, Christoph Schindler<br />

Virtuelle Forschungsumgebungen<br />

<strong>Wissen</strong>schaftspolitische Erwartungen, informationswissenschaftliche<br />

Forschungsfelder <strong>und</strong> Herausforderungen<br />

Alexander Botte, Marc Rittberger, Christoph Schindler<br />

Deutsches Institut für Internationale Pädagogische Forschung<br />

Schloßstraße 29, 60486 Frankfurt am Main<br />

botte@dipf.de<br />

Zusammenfassung<br />

Auf die Herausforderung, Forschung stärker kommunikativ, transdisziplinär,<br />

kollaborativ <strong>und</strong> international zu organisieren sowie die Potenziale der <strong>Information</strong>stechnologien<br />

zu nutzen, reagiert die nationale <strong>und</strong> europäische Forschungspolitik<br />

mit der Förderung von virtuellen Anwendungen zur Unterstützung<br />

der Forschungsprozesse. Aber nicht jede dezentral kooperierende<br />

Forschungsgruppe gewinnt automatisch an Effizienz, wenn sie den Aufwand<br />

des Einsatzes einer umfangreichen Virtuellen Forschungsumgebung wagt.<br />

Die Implementierung von Virtuellen Forschungsumgebungen auf breiter<br />

Basis bedarf der strategischen Planung <strong>und</strong> vorausgehender <strong>und</strong> begleitender<br />

informationswissenschaftlicher Forschung. Der Beitrag unternimmt es, vor<br />

dem Hintergr<strong>und</strong> bisheriger Programme <strong>und</strong> Erfahrungen ein Szenario für<br />

informationswissenschaftliche Forschungsfelder zu entwickeln.<br />

Abstract<br />

To meet the challenge of organising research with a stronger focus on communicative,<br />

trans-disciplinary, collaborative and international dimensions<br />

and to use the potential of information technology, national and European<br />

research politics have promoted virtual applications that support research<br />

processes. However, not every de-centrally cooperating research group automatically<br />

becomes more efficient once it endeavours the effort of tackling a<br />

comprehensive virtual research environment. This contribution draws on<br />

existing programmes and experience to develop a scenario for information<br />

scientific research in the field.


Virtuelle Forschungsumgebungen 423<br />

<strong>Wissen</strong>schaftspolitische Erwartungen<br />

Die Tatsache, dass zunehmend Daten digital zur Verfügung stehen <strong>und</strong> Prozeduren<br />

der <strong>Wissen</strong>schaft <strong>und</strong> Forschung durch IT unterstützt werden, eröffnet<br />

ein breites Spektrum an Möglichkeiten zur Innovation des <strong>Wissen</strong>schafts-<br />

<strong>und</strong> Forschungsprozesses. Vor allem die <strong>Wissen</strong>schaftspolitik <strong>und</strong> die Forschungsförderung<br />

leiten daraus Erwartungen ab <strong>und</strong> formulieren Programme,<br />

die mit übergeordneten strategischen Zielsetzungen verb<strong>und</strong>en werden.<br />

Virtuelle Forschungsumgebungen 1 (VFU) lassen sich als digitale Infrastrukturen<br />

definieren, die es Forschern erlauben, die Potenziale elektronischer<br />

Medien für die Entwicklung neuer Forschungsmethoden <strong>und</strong> Untersuchung<br />

neuer Forschungsgegenstände zu nutzen. Die Vielfalt <strong>und</strong> Komplexität<br />

von VFU bietet neue Möglichkeiten im wissenschaftlichen Arbeitsprozess<br />

<strong>und</strong> stellt zugleich neue Anforderungen an die Kooperationsbereitschaft der<br />

Akteure, die Organisation, Finanzierung sowie den Technologieeinsatz.<br />

Technisch betrachtet bestehen sie (meist) aus einer Kernarchitektur mit allgemeinen<br />

Dienstleistungen <strong>und</strong> Werkzeugen, an die Umgebungen <strong>und</strong> Module<br />

für einzelne Forschungsgruppen mit spezifischen Konfigurationen <strong>und</strong><br />

Erweiterungen angeschlossen werden können. VFU können einen kompletten<br />

Zyklus von Arbeitsprozessen in der Forschung abdecken <strong>und</strong>, abhängig von<br />

den jeweiligen fachspezifischen <strong>und</strong> individuellen Charakteristika, strukturell<br />

sehr weit ausdifferenziert sein.<br />

Seit einigen Jahren sind VFU bzw. ähnliche Konzepte Gegenstand nationaler<br />

sowie europäischer Förderprogramme 2 . Auf europäischer Ebene hatte<br />

das 2002 eingesetzte ESFRI-Forum 3 Signalwirkung, das auf die Identifizie-<br />

1 Im englischsprachigen Raum kursieren unterschiedliche Bezeichnungen, die durchaus<br />

auch unterschiedliche Schwerpunkte der Zielsetzung signalisieren: e-infrastructures<br />

(ERA vision, ESFRI), cyberinfrastructures (USA), collaboratories (SURF). In der deutschen<br />

Diskussion überwiegt aber die Bezeichnung Virtuelle Forschungsumgebungen,<br />

die eine Übersetzung des britischen Begriffs „Virtual Research Environment“ ist.<br />

2 Im Jahre 2001 startete Großbritannien mit der Gründung des Nationalen e-Science Centers<br />

(http://www.nesc.ac.uk/) <strong>und</strong> dem e-Science-Kern-Programm (http://www.rcuk.ac.<br />

uk/escience/default.htm) großangelegte Förderprogramme. Die USA folgte nach der<br />

Veröffentlichung des Atkins-Reports im Jahre 2003 mit der Etablierung des Büros für<br />

Cyberinfrastructure (http://www.nsf.gov/dir/index.jsp?org=OCI).<br />

3 In deutscher Sprache bietet sich als Ausgangsinformation über ESFRI an:<br />

http://www.eubuero.de/arbeitsbereiche/infrastrukturen/esfri


424 Alexander Botte, Marc Rittberger, Christoph Schindler<br />

rung <strong>und</strong> Förderung von Forschungsinfrastrukturen abzielt, zu denen auch<br />

sogenannte „e-infrastructures“ gehören. Letztgenannte Thematik wurde 2006<br />

in einer Roadmap <strong>und</strong> im 7. Rahmenprogramm der Europäischen Kommission<br />

aufgegriffen: “Europe is ready to build on the ICT capabilities of existing<br />

infrastructures in order to create a new research environment, in which<br />

all scientists have an easy-to-use controlled access to unique or distributed<br />

scientific facilities, regardless of their type and location in the world.” 4 Im<br />

Weiteren wird der Begriff “virtual environment” in Zusammenhang mit den<br />

Zielsetzungen neuer Arbeits- <strong>und</strong> Organisationsmodelle sowie der Förderung<br />

disziplinübergreifenden Zugriffs auf gemeinsame Ressourcen gebracht.<br />

Neben <strong>und</strong> teilweise im Zuge der europäischen Initiative haben sich auf<br />

nationaler Ebene in Europa (z.B. UK, D, NL, SWE), den USA <strong>und</strong> Australien<br />

ähnliche wissenschaftspolitische Zielsetzungen in Förderprogrammen<br />

<strong>und</strong> teilweise auch in institutionalisierten Strukturen niedergeschlagen. In<br />

Europa ist das JISC-Programme Virtual Research Environment hervorzuheben,<br />

5 .<br />

Deutschland hatte schon frühzeitig förderpolitische Linien zur Unterstützung<br />

der virtuellen Vernetzung von Forschung eingeschlagen. Dazu zählen<br />

z. B. die unter dem Begriff Themenorientierte <strong>Information</strong>snetze seit 2000<br />

geförderten Projekte. Das DFG-Positionspapier „<strong>Wissen</strong>schaftliche Literaturversorgung<br />

<strong>und</strong> <strong>Information</strong>ssysteme – Schwerpunkte der Förderung bis<br />

2015“ aus dem Jahre 2006 benennt dann „Virtuelle Forschungsumgebungen“<br />

explizit als neuen Schwerpunkt. Diese sollen „als Plattform für netzbasierte<br />

kollaborative Arbeitsprozesse neue Formen der Zusammenarbeit sowie einen<br />

neuen Umgang mit wissenschaftlichen Daten <strong>und</strong> <strong>Information</strong>en ermöglichen“<br />

(Aktionslinie 13 VFU). Die bisher geförderten Projekte haben schon<br />

eine Reihe von Pionierentwicklungen sehr unterschiedlicher disziplinärer<br />

Herkunft angestoßen. Ebenso lassen sich einschlägige Förderaktivitäten des<br />

BMBF – wie D-Grid <strong>und</strong> e-Science <strong>und</strong> vernetztes <strong>Wissen</strong>smanagement –<br />

überwiegend in die Förderprogramme zu VFU einordnen 6 .<br />

Vor dem Hintergr<strong>und</strong> erster Erfahrungen mit der Förderung der <strong>Information</strong>sinfrastruktur<br />

für die deutsche <strong>Wissen</strong>schaft hat sich ein Bedarf an über-<br />

4 ESFRI-Roadmap: http://cordis.europa.eu/fp7/ict/e-infrastructure/overview_en.html<br />

5 JISC Programm unter http://www.jisc.ac.uk/whatwedo/programmes/vre.aspx<br />

6 D-Grid wurde 2005 als Förderprogramm gestartet <strong>und</strong> hat bisher 30 Projekte gefördert,<br />

wovon allerdings nur 11 als Virtuelle Forschungsumgebungen einschlägig sind.


Virtuelle Forschungsumgebungen 425<br />

geordneter wissenschaftspolitischer Steuerung dieses Prozesses abgezeichnet,<br />

der in zwei parallele Aktivitäten mündete. 2008 gründete sich die Schwerpunktinitiative<br />

„Digitale <strong>Information</strong>“ der Allianz-Partnerorganisationen der<br />

deutschen <strong>Wissen</strong>schaftsorganisationen 7 . Anfang 2010 hat die Gemeinsame<br />

<strong>Wissen</strong>schaftskonferenz die Kommission Zukunft der <strong>Information</strong>sinfrastruktur<br />

(KII) eingerichtet, die im Prinzip die gleichen Zielsetzungen verfolgt,<br />

allerdings noch stärkere förderungsprogrammatische Bedeutung hat.<br />

Lessons Learned: Barrieren <strong>und</strong> Erfolgsbedingungen<br />

Die internationalen Förderprogramme sind zum Teil schon gut dokumentiert<br />

<strong>und</strong> unter einigen Aspekten evaluiert 8 . Erste Ergebnisse signalisieren, dass<br />

die wissenschaftspolitischen Erwartungen erfüllt werden.<br />

Aus: [eResearch2020 2010: vi] 9<br />

7 Für einen zunächst bis 2012 befristeten Zeitraum haben sich in der Schwerpunktinitiative<br />

alle deutschen <strong>Wissen</strong>schaftsorganisationen zusammengeschlossen, um „<strong>Wissen</strong>schaftlerinnen<br />

<strong>und</strong> <strong>Wissen</strong>schaftler mit der bestmöglichen <strong>Information</strong>sinfrastruktur<br />

auszustatten, die sie für ihre Forschung brauchen“ http://www.allianzinitiative.de/de/.<br />

8 Verwendet wurden vor allem: [Carusi, Reimer 2010], [eResearch2020 2010], [van der<br />

Vaart 2010], evaluative Beiträge lieferte auch die „5th International Conference on e-<br />

Social Science” (Köln 2009). http://www.merc.ac.uk/?q=node/699


426 Alexander Botte, Marc Rittberger, Christoph Schindler<br />

Dass Beteiligte an solch aufwendigen Projekten eine generelle Tendenz<br />

zeigen, die Ergebnisse nicht im schlechten Licht darzustellen, kann als ein zu<br />

berücksichtigender Faktor (Bias) unterstellt werden, dennoch wird die prinzipielle<br />

Wirksamkeit von VFU im Sinne der Zielsetzung auch durch andere<br />

Evaluationsstudien bestätigt [Carusi, Reimer 2010, S. 22, Siemens 2010, S.<br />

42]. Die graduelle Wirksamkeit hängt aber unmittelbar von der Gültigkeit<br />

bestimmter formaler Rahmenbedingungen ab, zu denen die Studien reichhaltiges<br />

<strong>und</strong> weitgehend konvergentes Erfahrungsmaterial zusammentragen:<br />

• Verbesserter Zugang zu Ressourcen: Zentraler Erfolgsfaktor ist „immediate<br />

research advantage by virtuality”, womit vor allem der verbesserte<br />

Zugriff auf Dokumente, Daten, Hardware <strong>und</strong> Software gemeint ist. Weitere<br />

Motive sind die verteilte zeitsynchrone Bearbeitung, das intelligente<br />

integrierte Daten- <strong>und</strong> Publikationsmanagement sowie die Öffnung für<br />

multidisziplinäre Zugänge <strong>und</strong> Ansätze (Open Science).<br />

• Forschungsprozessnahe Entwicklung <strong>und</strong> generische Nachhaltigkeit:<br />

Eine zentrale Erkenntnis früher generischer Fehlentwicklungen ist die<br />

Forderung, dass VRE in Orientierung an konkreten Forschungsprozessen<br />

entwickelt werden müssen. Gleichzeitig ist im Sinne der Nachnutzbarkeit<br />

<strong>und</strong> Nachhaltigkeit von Infrastrukturen die Einbettung in eine generische<br />

Rahmenarchitektur anzustreben: “The frameworks would provide core<br />

services (such as authentication and rights management; repositories;<br />

project planning, collaboration and communication tools) and allow the<br />

development or easy integration of modules for specific uses.” [Carusi,<br />

Reimer 2010: 6].<br />

Da die Entwicklung allgemeiner modularer Referenzarchitekturen notwendigerweise<br />

die Heterogenität der unterschiedlichen Forschungszusammenhänge<br />

einbeziehen muss, wird die Aggregationsfähigkeit als<br />

entscheidend betrachtet. Prognostizierte Zukunftsszenarien setzen auf<br />

Flexibilität: “… multiple overlapping and intersecting networks rather<br />

than monolithic infrastructures; they will be a mixture of monopolies<br />

(within certain communities) and duplicate or parallel efforts, of essential<br />

tools for everyone within and across certain research communities and<br />

tools that are only occasionally used for specific purposes by a narrow<br />

subset within or across them, and of permanent but extensible large-scale<br />

systems that will provide indefinite and essential support for well-defined<br />

9 Für die Untersuchung eResearch2020 wurden 18 internationale Projekte befragt, die<br />

wegen des Förderungsvolumens meist als Großprojekte bezeichnet werden können.


Virtuelle Forschungsumgebungen 427<br />

large groups of users, but also light-weight tools without any lasting<br />

structure and only ad hoc constituencies …” [Eccles 2009 et al.: 10].<br />

• Komplexe Funktionalitäten ohne technologische Hürden: VFU müssen<br />

vielseitige Möglichkeiten der Vernetzung offerieren, dürfen aber nicht<br />

primär unter dem Aspekt vorangetrieben werden, avancierte ICT-Produkte<br />

zu entwickeln. Häufig wird auf die Gefahr hingewiesen, dass rein<br />

technische Sichtweisen zu Nutzungsbarrieren werden [vgl. van der Vaart<br />

2010, Siemens 2010]. Einfache Steuerbarkeit der Funktionalitäten ist erforderlich.<br />

In den neueren Diskussionen werden daher dezidiert neue Designansätze<br />

thematisiert, vom Usability-Engineering über nutzerzentriertes,<br />

partizipatives <strong>und</strong> evolutionäres Design bis hin zu Konzepten der<br />

Innovationsforschung bzw. Science and Technology Studies (STS)<br />

[bspw. Voss et al. 2007]. Iterative Designzyklen <strong>und</strong> das Verfahren des<br />

Community-Building werden empfohlen [Carusi, Reimer 2010: 5, 24ff.].<br />

Hinzu kommt, dass VFU-Angebote, die auf der gemeinsamen Nutzung<br />

von Content basieren, eine Critical Mass of Active Users mit entsprechenden<br />

Beteiligungsraten benötigen, um erfolgreich <strong>und</strong> sinnvoll zu<br />

sein (Beispiel MyExperiment, [De Roure 2009]).<br />

• Nachhaltigkeit <strong>und</strong> Verlässlichkeit: Nachhaltige Business- <strong>und</strong> Organisationsmodelle<br />

werden durchgängig in allen Studien als Defizit bezeichnet<br />

[z. B. eResearch2020 2010: 134]. Gerade Kollaborationen <strong>und</strong><br />

Förderprojekte, die über nationale Grenzen hinweggreifen, stellen besondere<br />

Anforderungen an die Nachhaltigkeit. Entscheidend ist ein auf Gegenseitigkeit<br />

beruhendes Organisations- <strong>und</strong> Beteiligungsmodell, das von<br />

nachhaltig geförderten Institutionen getragen wird. Ein wichtiger Erfolgs-<br />

<strong>und</strong> damit auch Risikofaktor ist selbstverständlich die Verlässlichkeit<br />

<strong>und</strong> Zuverlässigkeit der Anwendungen <strong>und</strong> Services [Carusi, Reimer<br />

2010: 36]. Vereinzelt gibt es auch jetzt schon Beispiele für die nachhaltige<br />

Absicherung von e-Infrastrukturen im D-Grid Verb<strong>und</strong>, z.B. das<br />

Hochenergiephysik Community Grid (HEP CG) <strong>und</strong> das Grid zum Geodaten-Processing<br />

für <strong>Wissen</strong>schaft <strong>und</strong> Industrie (GDI-Grid) 10 .<br />

• Offenheit <strong>und</strong> ethische Hürden: Ethische Probleme <strong>und</strong> Aspekte der Sicherheit<br />

bilden ebenfalls eine starke Nutzungsbarriere. Forscher fragen,<br />

welche Risiken sie eingehen, wenn sie ihre Daten <strong>und</strong> Ergebnisse frühzeitig<br />

kommunizieren. Die Bedrohung der individuellen wissenschaft-<br />

10 http://www.dgrid.de/index.php?id=398&L=1%20and%20user%3D0%20and%201%3D1


428 Alexander Botte, Marc Rittberger, Christoph Schindler<br />

lichen Profilierungsmöglichkeiten vor dem Hintergr<strong>und</strong> von ‚open data‘<br />

ist eine Herausforderung für VFU. Auch unter der Voraussetzung von<br />

geschlossenen Plattformen oder authentifizierten Zugängen können<br />

rechtliche <strong>und</strong> ethische Unsicherheiten fortbestehen, wie sie auf der Kölner<br />

Konferenz E-social science 2009 11 vielfach berichtet wurden.<br />

<strong>Information</strong>swissenschaftliche<br />

Forschungsfelder <strong>und</strong> Herausforderungen<br />

Wie erwähnt sind VFU in der Regel integrative Anwendungen <strong>und</strong> eröffnen<br />

in ihrer modularen Architektur eine extrem breite Palette von Funktionen <strong>und</strong><br />

Services. Damit berühren sie potenziell auch ebenso große Vielfalt an informationswissenschaftlichen<br />

Forschungsfeldern. Im Folgenden wollen wir uns<br />

auf die wissenschaftlichen Herausforderungen konzentrieren, die spezifisch<br />

für die Konzeption <strong>und</strong> Evaluation von VFU sind:<br />

Ausrichtung auf Forschungspraxis: Die als conditio sine qua non eingestufte<br />

Optimierung des spezifischen Forschungsprozesses durch VFU eröffnet<br />

ein noch wenig beachtetes Forschungsfeld 12 , das die <strong>Information</strong>swissenschaft<br />

in eine enge Kooperation <strong>und</strong> letztlich disziplinübergreifende<br />

Forschungszusammenarbeit mit den unterschiedlichen Fachwissenschaften<br />

führt. Zwar ist die <strong>Wissen</strong>schaft <strong>und</strong> deren <strong>Information</strong>sversorgung schon<br />

immer ein zentraler Gegenstand der <strong>Information</strong>swissenschaft gewesen, aber<br />

erst in jüngster Zeit wird auf die zentrale Herausforderung hingewiesen, die<br />

gesamte wissenschaftliche Wertschöpfungskette aufzugreifen [Borgman<br />

2007; 2008] <strong>und</strong> die Forscher selbst in die Konzeption von Infrastrukturen<br />

einzubeziehen 13 . Dies bedeutet auch, dass im Kontext von VFU nicht nur die<br />

11 http://www.merc.ac.uk/?q=node/699; vgl. auch Carusi, Reimer 2010: 36<br />

12 Dies, obwohl die primäre Ausrichtung auf den Forschungsprozess bereits dezidiert in<br />

der Gründungszeit der deutschsprachigen <strong>Information</strong>swissenschaft als eine zentrale<br />

Notwendigkeit formuliert wurde (siehe bspw. [Kunz, Rittel 1970]).<br />

13 Mit dem Forschungsprozess <strong>und</strong> dessen idealtypischer Verwendung setzen sich [Voss<br />

et al. 2009: 178 f.] auseinander, wobei von [Dunn 2009] darauf hingewiesen wird,<br />

dass der Arbeitsprozess in den Geisteswissenschaften individueller <strong>und</strong> weniger formalisierbar<br />

gestaltet wird. Neuerdings wird versucht, mit dem Konzept der „scholarly


Virtuelle Forschungsumgebungen 429<br />

optimierte Wiederverwendung von Objekten Aufgabe informationswissenschaftlicher<br />

Forschung sein sollte, sondern auch konkrete Handlungsfelder<br />

einer Forschergruppe 14 zu identifizieren <strong>und</strong> zu modellieren sind.<br />

Generalisierung – Spezifizierung: Die Zielsetzung, VFU so zu konzipieren,<br />

dass der Anteil generischer, d.h. in anderen Forschungssettings nachnutzbarer<br />

Features möglichst hoch ist, steht in einem unumgänglichen Spannungsverhältnis<br />

mit der primären Ausrichtung auf konkrete Forschungsprozesse.<br />

Lösungskonzepte können im modularen Aufbau von VFU oder in der<br />

Verlagerung von sehr spezifischen Anwendungen in „Low-Level“-Ergänzungen<br />

liegen. Neben klassischen Studien zum <strong>Information</strong>sbedarf <strong>und</strong> -verhalten<br />

(zur Methodologie vgl. [Kunz, Rittel, Schwuchow 1976]) etablierten<br />

sich in den letzten Jahren in der internationalen <strong>Information</strong>swissenschaft<br />

Forschungen zu wissenschaftlichen <strong>Information</strong>spraxen, die in ihren Analysen<br />

verstärkt auf sozio-kulturelle Ansätze <strong>und</strong> Konzepte der Science and<br />

Technology Studies zurückgreifen [Palmer et al. 2009; Borgman 2007].<br />

Darüber hinaus ist in diesem Kontext das breite Feld der Standardisierung,<br />

der Skalierbarkeit <strong>und</strong> Interoperabilität als Voraussetzung der Modularisierung<br />

<strong>und</strong> Übertragbarkeit in andere Forschungszusammenhänge angesprochen.<br />

Auf der Ebene der Gesamtarchitektur stellt sich die übergreifende<br />

Forschungsfrage: Wie können komplexe Funktionalitäten angeboten werden<br />

bei gleichzeitiger Berücksichtigung von spezifischen Forschungspraxen <strong>und</strong><br />

unterschiedlichen epistemischen Kulturen? [Knorr-Cetina 1999] Wie können<br />

bestehende <strong>Information</strong>sinfrastrukturen eingeb<strong>und</strong>en werden? Wie können<br />

dabei Usability- <strong>und</strong> Performance-Standards eingehalten werden? Deutlich<br />

wird in diesem Zusammenhang, dass die e-Science-Visionen der ersten St<strong>und</strong>e<br />

einer postulierten Revolution der <strong>Wissen</strong>schaft [Atkins 2003; Nentwich<br />

2003] nicht im luftleeren Raum stattfinden [vgl. Dunn 2009]. Welche Wirtschaftlichkeitsmodelle<br />

sichern nachhaltige Betriebsfähigkeit von VFU?<br />

Unter welchen Bedingungen funktioniert virtuelle <strong>Information</strong>, Kommunikation<br />

<strong>und</strong> Kollaboration? VFU sollen den qualitativen Sprung zu neuen<br />

Möglichkeiten der Forschung eröffnen. Die Erwartungen fokussieren sich<br />

primitives“ [Unsworth 2000] diese disziplinäre Heterogenität zu umgehen <strong>und</strong> die<br />

spezifischen Erkenntnisse zusammenzuführen [Palmer, Cragin 2008; Palmer et al.<br />

2009].<br />

14 In diesem Zusammenhang entsteht gerade am <strong>Information</strong>szentrum Bildung des DIPF<br />

eine Dissertation zu <strong>Information</strong>spraxen in der Bildungsforschung, die mit einem ethnografischen<br />

Ansatz fünf Bildungsforschungsprojekte untersucht.


430 Alexander Botte, Marc Rittberger, Christoph Schindler<br />

dabei vor allem auf die Ausdehnung der Potenziale (Inanspruchnahme verteilter<br />

Ressourcen), aber auch den Qualitätsgewinn durch Mehrperspektivität,<br />

Verhaltenserweiterungen (curation) <strong>und</strong> die Optimierung der Publikationsprozesse.<br />

Ob sich diese Erwartungen realisieren, hängt in hohem Maße vom<br />

<strong>Information</strong>s-, Kommunikations- <strong>und</strong> Kollaborationsverhalten der Forscher<br />

ab. Die <strong>Information</strong>swissenschaft kann hier einen breiten F<strong>und</strong>us von Forschungsergebnissen<br />

einbringen, die z.T. auch schon auf die konkreten Anwendungsszenarien<br />

in VFU bezogen wurden. Zu nennen sind hier die Kollaborationsforschungen<br />

[Olson, Olson 2000; Olson et al. 2008], die das<br />

Scheitern von Kollaborationen untersuchen, die Infrastrukturstudien [Edwards<br />

et al. 2009; Star, Ruhleder 1996], die die Realisierung <strong>und</strong> Stabilisierung<br />

von <strong>Information</strong>sinfrastrukturen erforschen, sowie Forschungen zu e-<br />

Research-Projekten [u.a. Barjac et al. 2009; Lin et al. 2008]. Im Hintergr<strong>und</strong><br />

steht stets die Frage, unter welchen Bedingungen die neuen virtuellen Möglichkeiten<br />

genutzt <strong>und</strong> Teil des Forschungsalltags werden. Zu untersuchen<br />

wäre auch, wie sich mittelbare Effekte über das Forschungsverhalten oder die<br />

systematische Forschungsdokumentation auch auf Veränderungen der Forschungsmethoden<br />

<strong>und</strong> damit auch der Ergebnisse erstrecken können [vgl.<br />

eResearch2020 2010: 132]. Das Feld der interdisziplinären Erweiterungen<br />

durch VFU ist noch weitgehend unerforscht 15 . Dazu gehören auch ungeplante<br />

Effekte, die z.B. dadurch entstehen, dass der Blick auf Forschungsdaten (z.B.<br />

Hieroglyphen-Tafeln), die bislang vor allem einer Disziplin (der Archäologie)<br />

zugänglich waren, nun auch anderen Disziplinen möglich ist (z.B.<br />

Sprachwissenschaftler). Unter welchen Bedingungen können VFU solche<br />

„transzendierenden“ Erweiterungen besonders begünstigen [vgl. Kertcher<br />

2010]?<br />

Ethische Probleme der vernetzten Forschung: Der offene Umgang mit<br />

Forschungsprozessen <strong>und</strong> -ergebnissen erzeugt auch rechtliche <strong>und</strong> persönliche<br />

Konfliktfelder, die durch frühzeitige Berücksichtigung in neu zu konfigurierende<br />

Mechanismen der Wahrung aller Interessen überführt werden<br />

müssen. Wie können bei möglichst <strong>frei</strong>em Zugang zu Daten <strong>und</strong> Publikationen<br />

die Sicherung der Urheberrechte, der Rechte auf Datenselbstbestimmung<br />

der Untersuchten <strong>und</strong> des Anspruchs des <strong>Wissen</strong>schaftlers auf individuelle<br />

Profilierung erfolgen?<br />

15 Frühzeitig hat sich [Bowker 2000a, 2000b] mit diesem Thema befasst <strong>und</strong> sich dezidiert<br />

mit Konzepten der Science and Technology Studies (STS) auseinandergesetzt.


Virtuelle Forschungsumgebungen 431<br />

Fazit: Zur Bewältigung der oben exemplarisch benannten Herausforderungen<br />

werden sehr unterschiedliche Ansätze <strong>und</strong> Methoden zu integrieren<br />

sein [vgl. dazu z.B. die Beiträge in: Anandarajan, Anandarajan 2010]. Trotz<br />

des klaren Anwendungsbezugs der VFU-Forschung sind auch Gr<strong>und</strong>lagenforschung<br />

(z.B. <strong>Information</strong>s- <strong>und</strong> Kommunikationsverhalten in Forschungszusammenhängen)<br />

<strong>und</strong> ihr methodisches Repertoire erforderlich. Die meisten<br />

Herausforderungen sind transdisziplinär anzugehen. Basis für diese Forschung<br />

bilden vielfältige empirische Bef<strong>und</strong>e, die am besten in breiter Kollaboration<br />

erhoben <strong>und</strong> evaluiert werden können.<br />

Literaturverzeichnis<br />

Anandarajan, M.; Anandarajan, A. (Hrsg.) (2010). e-Research Collaboration. Theory,<br />

Techniques and Challenges. Berlin/Heidelberg: Springer-Verlag.<br />

Atkins, D. E. et al. (2003). Revolutionizing Science and Engineering through Cyberinfrastructure.<br />

Report of the National Science Fo<strong>und</strong>ation Blue-Ribbon Advisory<br />

Panel on Cyberinfrastructure.<br />

http://www.nsf.gov/od/oci/reports/atkins.pdf (Retrieved November 08, 2010)<br />

Barjak, F. et al. (2009). Case Studies of e-Infrastructure Adoption. In: Special Issue<br />

on e-Social Science, Social Science Computing Review Journal. 27<br />

Borgman, C. L. (2007). Scholarship in the Digital Age: <strong>Information</strong>, Infrastructure,<br />

and the Internet. Cambridge, Ma/London: MIT Press.<br />

Borgman, C. L. (2008). Data, Disciplines, and Scholarly Publishing. In: Learned<br />

Publishing. 21. 29–38.<br />

Bowker, G. C. (2000a). Biodiversity Datadiversity. In: Social Studies of Science,<br />

30:5, 643–683.<br />

Bowker, G. C. (2000b). Mapping Biodiversity. In: International Journal of GIS, 14:8,<br />

739–754.<br />

Carusi, A.; Reimer, T. (2010). Virtual Research Environment. Collaborative Landscape<br />

Study. A JISC f<strong>und</strong>ed project.<br />

http://www.jisc.ac.uk/media/documents/publications/vrelandscapereport.pdf<br />

(Retrieved Nov. 08, 2010)<br />

De Roure, D. et al. (2009). Towards Open Science: The myExperiment approach. In:<br />

Concurrency and Computation: Practice and Experience, 9:8.<br />

http://eprints.ecs.soton.ac.uk/17270/1/CCPE09v8.pdf (Retrieved Nov. 08, 2010)


432 Alexander Botte, Marc Rittberger, Christoph Schindler<br />

Dunn, S. (2009). Dealing with the complexity deluge: Virtual Research Environments<br />

in the Arts and Humanities. In: Library Hi Tech, 27: 2, 205–216.<br />

Eccles, K. et al. (2009). The Future of e-Research Infrastructures. In: Proceedings of<br />

the International Conference on e-Social Science, Köln.<br />

http://www.merc.ac.uk/sites/default/files/events/conference//2009/papers/Eccles.pdf<br />

(Retrieved November 08, 2010)<br />

Edwards, P. N. et al. (2009). Introduction: An Agenda for Infrastructure Studies. In:<br />

Journal of the Association for <strong>Information</strong> Systems, 10: 5.<br />

eResearch2020 – The Role of e-Infrastructures in the Creation of Global Virtual<br />

Research Communities. European Commission, Directorate General <strong>Information</strong><br />

Society and Media. Bonn and Brussels.<br />

http://www.eresearch2020.eu/eResearch2020 Final Report.pdf (Retrieved November<br />

08, 2010)<br />

Kertcher, Z. (2010). Gaps and Bridges in Interdisciplinary Knowledge Integration.<br />

In: Anandarajan, M.; Anandarajan, A. (Hrsg.). e-Research Collaboration. Theory,<br />

Techniques and Challenges. Berlin/Heidelberg: Springer-Verlag. 49–64<br />

Knorr-Cetina, K. (1999). Epistemic Cultures: How the Sciences make Knowledge.<br />

Cambridge, MA: Harvard University Press.<br />

Kunz, W.; Rittel, H. (1970). Systemanalyse eines Forschungsprozesses. In: Kunz,<br />

W.; Rittel, H. (Hrsg.): Systemanalyse <strong>und</strong> <strong>Information</strong>sverarbeitung in der Forschung.<br />

München/Wien: Oldenburg Verlag.<br />

Kunz, W.; Rittel, H.; Schwuchow, W. (1976). Methods of Analysis and Evaluation<br />

of <strong>Information</strong> Needs. München: Verlag Dokumentation.<br />

Lin, Y. et al. (2008). Ontology building as a social-technical process: A case study.<br />

In: The Oxford e-Research Conference 2008.<br />

Nentwich, N. (2003). Cyberscience: Research in the Age of the Internet. Wien: Austrian<br />

Academy of Sciences Press.<br />

Olson, G. M.; Olson, J. S. (2000). Distance Matters. In: Human Computer Interaction,<br />

15, 139–178.<br />

Olson, G. M.; Zimmerman, A.; Bos, B. (2008). Scientific Collaboration on the Internet.<br />

Cambridge, Ma/London: MIT Press.<br />

Palmer, C. L.; Cragin, M. H. (2008). Scholarship and Disciplinary Practices. In:<br />

Annual Review of <strong>Information</strong> Science and Technology. 42: 1, 163–212.<br />

Palmer, C. L.; Teffeau, L. C.; Pirmann, C. M. (2009). Scholarly <strong>Information</strong> Practices<br />

in the Online Environment. Themes from the Literature and Implications for<br />

Library Service Development. Dublin, OH: OCLC Online Computer Library<br />

Center. http://www.oclc.org/research/publications/library/2009/2009-02.pdf<br />

(Retrieved November 08, 2010)


Virtuelle Forschungsumgebungen 433<br />

Siemens, L. (2010). Time, Place and Cyberspace: Fo<strong>und</strong>ations for Successful e-<br />

Research Collaboration. In: Anandarajan, M.; Anandarajan, A. (Hrsg.): e-Research<br />

Collaboration. Berlin/Heidelberg: Springer-Verlag.<br />

Star, S. L.; Ruhleder, K. (1996). Steps Toward an Ecology of Infrastructure: Design<br />

and Access for Large <strong>Information</strong> Spaces. In: <strong>Information</strong> Systems Research,<br />

7: 1.<br />

Unsworth, J. (2000). Scholarly Primitives: what methods do humanities researchers<br />

have in common, and how might our tools reflect this? In: symposium Humanities<br />

Computing: formal methods, experimental practice, King’s College, London.<br />

http://www3.isrl.illinois.edu/~unsworth/Kings.5-00/primitives.html<br />

(Retrieved November 08, 2010)<br />

van der Vaart, L. (2010). Collaboratories: Connecting Researchers How to facilitate<br />

choice, design and uptake of online research collaborations. SURF Fo<strong>und</strong>ation.<br />

http://www.surffo<strong>und</strong>ation.nl/SiteCollectionDocuments/Collaboratories Connecting<br />

Researchers.pdf (Retrieved Nov. 08, 2010)<br />

Voss, A. et al. (2007): e-Infrastructure Development and Community Engagement.<br />

In: Third International Conference on e-Social Science. Ann Arbor, Michigan,<br />

US, 2007. http://www.ncess.ac.uk/events/conference/2007/papers/paper170.pdf<br />

(Retrieved November 08, 2010)<br />

Voss, A.; Procter, R. (2009). Virtual research environments in scholarly work and<br />

communications. Library Hi Tech. 27:2, 2009. 174–190.


434 Rainer Kuhlen<br />

Der Streit um die Regelung des<br />

Zweitveröffentlichungsrechts<br />

im Urheberrecht<br />

oder: Was macht <strong>Wissen</strong>schafts<strong>frei</strong>heit aus?<br />

Rainer Kuhlen<br />

Prof. emeritus im Fachbereich Informatik <strong>und</strong> <strong>Information</strong>swissenschaft<br />

an der Universität Konstanz<br />

Zusammenfassung<br />

Albertinkatu 19B #27, 00120 Helsinki<br />

rainer.kuhlen@uni-konstanz.de, www.kuhlen.name<br />

Die Auseinandersetzung um die Verankerung eines Zweitveröffentlichungsrechts<br />

im Urheberrecht wird aus den unterschiedlichen Perspektiven der beteiligten<br />

Akteure diskutiert. Komplexer wird das Problem dadurch, dass das<br />

Zweitveröffentlichungsrecht als Mittel der indirekten oder direkten Begünstigung<br />

des Open-Access-Paradigmas gesehen wird. Zwar soll das Zweitveröffentlichungsrecht<br />

in erster Linie die informationelle Selbstbestimmung der<br />

Autoren fördern. Als Zweitveröffentlichungsverpflichtung zugunsten von<br />

Open-Access-Repositories soll jedoch auch dem Interesse der Öffentlichkeit<br />

an einem <strong>frei</strong>en Zugriff zu dem mit öffentlichen Mitteln erstelltem <strong>Wissen</strong><br />

Rechnung getragen werden. Das wird zumindest in Deutschland als Eingriff<br />

in <strong>Wissen</strong>schafts<strong>frei</strong>heit für problematisch gehalten. <strong>Wissen</strong>schafts<strong>frei</strong>heit<br />

hängt jedoch nicht von einer positiven Publikations<strong>frei</strong>heit bei der Zweitveröffentlichung<br />

ab. Ein Zweitveröffentlichungsrecht (der Autoren <strong>und</strong> der sie<br />

tragenden Institutionen) könnte als Übergang zu einer vollständig durch das<br />

Open-Access-Paradigma bestimmten <strong>Wissen</strong>schaftskommunikation angesehen<br />

werden.<br />

Abstract<br />

The author’s right to a secondary publication (in addition to a first publication<br />

in a commercial journal of the author’s choice) is discussed from the


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 435<br />

perspective of the different actors in scientific publication markets. The challenge<br />

for a copyright regulation of this right becomes even more complex<br />

because it is seen by many as indirectly, if not directly fostering the open<br />

access paradigm. First and foremost, this right strengthens the autonomy of<br />

the authors, but it is also <strong>und</strong>erstood as an obligation of the authors to have<br />

their institutions make these works publicly available, at least those works<br />

which have been supported by public f<strong>und</strong>ing. Such an institutional mandate<br />

is believed by some, at least in Germany, to contradict the freedom of science<br />

as guaranteed in the German constitution. The article provides some arguments<br />

to the effect that the right to a secondary publication and a concomitant<br />

institutional mandate is compatible with freedom of science.<br />

Worum geht es beim Zweitveröffentlichungsrecht?<br />

Es klingt wie ein abstraktes <strong>und</strong> marginales Problem: Zweitveröffentlichungsrecht<br />

1 : Es ist das Recht der Autoren nach einer gewissen Frist (Embargofrist<br />

genannt) zur kommerziellen Erstpublikation bei einem Verlag oder<br />

sogar zeitgleich zu dieser wieder über ihr Werk verfügen zu können.<br />

Ein solches Recht ist mit einer Frist von zwölf Monaten im Prinzip auch<br />

schon in § 38 des Urheberrechtsgesetzes (UrhG) vorgesehen. Danach dürfen<br />

Autoren ihre Werke wieder selber „vervielfältigen <strong>und</strong> verbreiten“ 2 , aber nur<br />

– <strong>und</strong> das ist die entscheidende Einschränkung – „wenn nichts anderes ver-<br />

1 Das Zweitveröffentlichungsrecht wird auch als „Zweitverwertungsrecht“ bezeichnet<br />

(zuweilen auch als „Zweitverwendungsrecht“). Um die in der Umgangssprache mitschwingende<br />

kommerzielle Bedeutung von „Verwertung“ zu vermeiden, spreche ich im<br />

Folgenden nur von „Zweitveröffentlichungsrecht“. Das Urheberrecht spricht „veröffentlichen“<br />

bzw. das Veröffentlichungsrecht nur bei den Persönlichkeitsrechten direkt<br />

an (§ 12 UrhG). Mit dem Zweitveröffentlichungsrecht der Autoren sind aber durchaus<br />

auch die unter §§ 15ff UrhG angesprochenen Verwertungsrechte gemeint, wie das Vervielfältigungsrecht<br />

(§ 16), das Verbreitungsrecht (§ 17) <strong>und</strong> das Recht der öffentlichen<br />

Zugänglichmachung (§ 19a) (worunter das Recht verstanden wird, das Werk über elektronische<br />

Netzwerke öffentlich zu machen).<br />

2 Das in § 19a UrhG kodierte Recht der öffentlichen Zugänglichmachung war zum Zeitpunkt<br />

der Verabschiedung des Textes von § 38 UrhG noch nicht im Urheberrecht vorhanden.<br />

Dieses Recht soll natürlich ebenfalls Bestandteil des Zweitveröffentlichungsrechts,<br />

eventuell sogar nur darauf beschränkt sein. Der Gesetzgeber sollte dies klarstellen.


436 Rainer Kuhlen<br />

einbart ist“ (§ 38, Abs. 1, Satz 2). Genau das ist aber bei den Verlagsvertragstexten<br />

meistens der Fall. <strong>Wissen</strong>schaftler, vor allem jüngere, sind kaum in<br />

der Lage, gegenüber den Verlagen ein Zweitveröffentlichungsrecht durchzusetzen.<br />

Sie wollen <strong>und</strong> müssen in renommierten Zeitschriften publizieren <strong>und</strong><br />

können wegen der weitgehenden Monopolstruktur auf den wissenschaftlichen<br />

Publikationsmärkten nicht einfach ein anderes Journal eines anderen<br />

Verlags wählen, wenn das Ansinnen von dem zunächst vorgesehenen Verlag<br />

zurückgewiesen wird.<br />

Das Recht aus § 38 UrhG wird durch die Vertragspraxis der Verlagswirtschaft<br />

faktisch außer Kraft gesetzt 3 . Es sollte leicht sein, dies zu korrigieren.<br />

Aber um dieses Recht <strong>und</strong> die damit verb<strong>und</strong>enen Interessen wird schon seit<br />

einigen Jahren weltweit gestritten. Aktuell in Deutschland, wo die Politik<br />

zum dritten Mal einen Anlauf nimmt, ein zeitgemäßes Urheberrecht zu schaffen.<br />

An diesem Problem kann exemplarisch deutlich gemacht werden, wie<br />

kompliziert es ist, eine vernünftige Balance zwischen den Interessen der Urheber,<br />

der kommerziellen Verwerter <strong>und</strong> der Nutzer von publizierten Werken<br />

zu erzielen. Für diese Interessen werden gewichtige Geschütze in Stellung<br />

gebracht.<br />

Es geht um <strong>Wissen</strong>schafts<strong>frei</strong>heit, um den Schutz des geistigen Eigentums,<br />

aber auch allgemein um dessen Sozialpflichtigkeit (beides gefordert durch<br />

Art. 14 des Gr<strong>und</strong>gesetzes) bzw. insbesondere um das Recht der Öffentlichkeit,<br />

zu dem mit öffentlichen Mitteln unterstützt produziertem <strong>Wissen</strong> <strong>frei</strong>en<br />

Zugang zu erhalten <strong>und</strong> natürlich um die Funktionsfähigkeit der wissenschaftlichen<br />

Fachkommunikation <strong>und</strong>, last not least, um den Bestand der Geschäftsmodelle<br />

auf den kommerziellen <strong>Information</strong>smärkten.<br />

3 Bis 1965 hatten Verleger nur einfache Nutzungsrechte an Zeitschriftenbeiträgen. Das<br />

wurde 1965 dahingehend korrigiert, dass Verleger/Herausgeber im Zweifel ein ausschließliches<br />

Nutzungsrecht erwerben. Die Rückgewinnungsregelung von 1965 kann<br />

daher als Kompensation für die Einschränkung der Autorenautonomie interpretiert werden.<br />

Aus heutiger Sicht ist diese jedoch unzureichend.


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 437<br />

Der Stand der politischen Auseinandersetzung<br />

um das Zweitveröffentlichungsrecht<br />

Das Zweitveröffentlichungsrecht ist deshalb erneut auf die politische Tagesordnung<br />

gekommen, weil der B<strong>und</strong>estag bei der Verabschiedung des Zweiten<br />

Korbs der Urheberrechtsreformen im Juli 2007 auf Antrag des Ausschusses<br />

des Deutschen B<strong>und</strong>estags für Bildung, Forschung <strong>und</strong> Technikfolgenabschätzung<br />

das B<strong>und</strong>esjustizministerium (BMJ) aufgefordert hatte, eine „Prüfung<br />

eines Zweitverwertungsrechts für Urheber von wissenschaftlichen Beiträgen,<br />

die überwiegend im Rahmen einer mit öffentlichen Mitteln finanzierten<br />

Lehr- <strong>und</strong> Forschungstätigkeit entstanden sind (§ 38 UrhG)“, vorzunehmen.<br />

Das wird nun im Rahmen der Anhörungen zum Dritten Korb verhandelt.<br />

Ein Zweitveröffentlichungsrecht für Urheber hätte der Gesetzgeber schon<br />

im Zweiten Korb verankern können. Der B<strong>und</strong>esrat hatte 2007 vorgeschlagen,<br />

das Gesetz unter anderem dahingehend zu ändern, dass zum einen die<br />

Frist, nach der dieses Recht dem Urheber wieder zufällt, in der Regel auf<br />

sechs Monate verkürzt wird <strong>und</strong> dass zum anderen dieses Recht nicht per<br />

Vertrag abbedungen werden kann 4 . Vor allem Letzteres hat heftigen Widerstand<br />

der Verlagswelt in Deutschland hervorgerufen. Offensichtlich hatte<br />

diese damals (<strong>und</strong> wie wir sehen werden, auch heute) kein Interesse an der<br />

Einsetzung eines verbindlichen Zweitveröffentlichungsrechts 5 .<br />

4 Der Vorschlag des B<strong>und</strong>esrats zur Regelung eines Zweitverwertungsrechts in seiner<br />

Stellungnahme zum Regierungsentwurf des Zweiten Korbes (BR-Drs. 257/06): „An<br />

wissenschaftlichen Beiträgen, die im Rahmen einer überwiegend mit öffentlichen Mitteln<br />

finanzierten Lehr- <strong>und</strong> Forschungstätigkeit entstanden sind <strong>und</strong> in Periodika erscheinen,<br />

hat der Urheber auch bei Einräumung eines ausschließlichen Nutzungsrechts<br />

das Recht, den Inhalt längstens nach Ablauf von sechs Monaten seit Erstveröffentlichung<br />

anderweitig öffentlich zugänglich zu machen, soweit dies zur Verfolgung nicht<br />

kommerzieller Zwecke gerechtfertigt ist <strong>und</strong> nicht in der Formatierung der Erstveröffentlichung<br />

erfolgt. Dieses Recht kann nicht abbedungen werden.“<br />

5 Zu unterscheiden ist das verbindliche Zweitveröffentlichungsrecht von der Praxis vieler,<br />

auch der großen Zeitschriftenverlage wie Elsevier, Wiley oder Springer, eine<br />

Selbstpublikation der Werke ihrer Autoren als Postprint zu erlauben (also die mit der in<br />

der Zeitschrift inhaltlich übereinstimmende, aber nicht verlagsformatierte Endversion<br />

des Artikels). Einige Verlage bzw. einzelne Zeitschriften (z.B. die von IEEE; vgl.<br />

http://bit.ly/9G5xoJ) erlauben dies sogar in der Verlagsversion. Nach der Sherpa-<br />

Romeo-Liste erlauben über 120 Verlage weltweit die Einstellung des Verlags-PDFs


438 Rainer Kuhlen<br />

Die damalige B<strong>und</strong>esregierung hatte diesen Vorschlag des B<strong>und</strong>esrats<br />

2007 zurückgewiesen 6 <strong>und</strong> zwar aus folgenden Gründen:<br />

a) Sie hatte zunächst den Vorschlag unter dem Gesichtspunkt einer Verpflichtung<br />

der Autoren, ihre Werke bei der Zweitveröffentlichung ihrer<br />

Institution anzubieten, geprüft <strong>und</strong> dagegen verfassungsrechtliche Bedenken<br />

(sprich: Verstoß gegen <strong>Wissen</strong>schafts<strong>frei</strong>heit) geltend gemacht.<br />

b) Danach wurde, eher formaljuristisch, zu bedenken gegeben, dass der<br />

Vorschlag des B<strong>und</strong>esrats möglicherweise als neuer Schrankenvorschlag<br />

anzusehen sei <strong>und</strong> nicht als eine bloße Veränderung im Urhebervertragsrecht<br />

(wo ja § 38 angesiedelt ist). Für neue Schrankenvorschläge gibt es<br />

aber in nationalen Gesetzen wegen der nach wie vor gültigen EU-Richtlinie<br />

von 2001 keinen Spielraum. Die dort angegebene Liste der möglichen<br />

Schranken ist abschließend formuliert.<br />

c) Und zuletzt sei „zu befürchten, dass der Vorschlag gerade den deutschen<br />

<strong>Wissen</strong>schaftlern mit internationalem Renommee, die ihre Forschungsergebnisse<br />

in internationalen Zeitschriften mit hoher Reputation veröffentlichen<br />

wollen, Publikationswege verstellen könnte.“ (ebd.)<br />

2010 ist die B<strong>und</strong>esregierung eine andere. Aber natürlich musste auch das<br />

jetzige BMJ die Forderung des damaligen B<strong>und</strong>estags aufgreifen. Bei den<br />

Vorbereitungen zum sogenannten Dritten Korb der Urheberrechtsreform hatte<br />

das BMJ in einem Prüfkatalog auch einige Fragen zum Thema Zweitveröffentlichungsrecht<br />

gestellt. Dieser Fragenkatalog richtete sich an die verschiedenen<br />

Interessenvertreter <strong>und</strong> -verbände.<br />

Konkret bat das BMJ in einem ersten Teil um Antworten zu den Fragen,<br />

ob die Embargofrist von sechs Monaten angemessen sei 7 , ob durch eine sol-<br />

ohne Restriktionen <strong>und</strong> zeitgleich mit dem Erscheinen (http://bit.ly/9P3jWp). Stevan<br />

Harnad spricht sogar davon, dass “91% of journals have even given author self-archiving<br />

their explicit green light” (http://bit.ly/1xpZGX).<br />

Strikt gegen ein Zweitveröffentlichungsrecht (vor allem bei kurzen Embargofristen) ist<br />

auf internationaler Ebene der Verlegerverband STM (The International Association of<br />

Scientific, Technical & Medical Publishers) in der Brussels Declaration on STM<br />

Publishing (http://bit.ly/a0YcNn). In Deutschland lehnt auch der Börsenverein des<br />

Deutschen Buchhandels ein im Urheberrecht verankertes Zweitveröffentlichungsrecht<br />

strikt ab.<br />

6 Gegenäußerung der B<strong>und</strong>esregierung zur Stellungnahme des B<strong>und</strong>esrates zum Entwurf<br />

eines Zweiten Gesetzes zur Regelung des Urheberrechts in der <strong>Information</strong>sgesellschaft<br />

(BR-Drs. 257/06 – Beschluss)


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 439<br />

che Regelung deutschen <strong>Wissen</strong>schaftlern Nachteile im internationalen Wettbewerb<br />

entstünden <strong>und</strong> in welchem Format des Werkes das Zweitveröffentlichungsrecht<br />

wahrgenommen werden solle (in der publizierten Verlags- oder<br />

der letzten Autorenversion).<br />

In einem zweiten Teil wurden Stellungnahmen zu Zwangslizenzmodellen<br />

erbeten. Durch solche Modelle wird das Zweitveröffentlichungsrecht um die<br />

Dimension einer Zweitveröffentlichungsverpflichtung erweitert. Dies wird –<br />

nicht überraschend – derzeit noch kontroverser diskutiert. Nach einem Vorschlag<br />

8 sollen Rechteinhaber verpflichtet werden, nach einer gewissen Embargozeit<br />

(z.B. sechs Monate) jedermann ein unbeschränktes einfaches Nutzungsrecht<br />

einzuräumen, aber nur mit dem Recht der öffentlichen Zugänglichmachung<br />

(vgl. Anm. 2) <strong>und</strong> nur für die mit öffentlichen Mitteln finanzierten<br />

Werke. Gefragt wurde ergänzend, ob dafür überhaupt eine Änderung<br />

im Urheberrecht nötig sei oder ob dies nicht über die Vergabebedingungen<br />

für Forschungsmittel geregelt werden könne.<br />

Gefragt wurde aber auch nach einem anderen Modell 9 , nach dem „der an<br />

einer Hochschule beschäftigte Urheber verpflichtet ist, ein im Rahmen seiner<br />

Lehr- <strong>und</strong> Forschungstätigkeit entstandenes Werk […] der Hochschule (exklusiv<br />

oder nicht exklusiv) zur Veröffentlichung anzubieten. Werde das<br />

Werk nicht binnen einer bestimmten Frist von der Hochschule veröffentlicht,<br />

sollen dem Urheber die Verwertungsrechte wieder unbeschränkt zustehen.“<br />

Das war <strong>und</strong> ist den Verfechtern eines strikten Verständnisses von <strong>Wissen</strong>schafts<strong>frei</strong>heit<br />

ein Dorn im Auge. International kommt ein solches „Institutional<br />

Mandate“ schon häufiger zur Anwendung.<br />

7 International scheint eine Embargofrist zwischen 6 <strong>und</strong> 12 Monaten konsensfähig zu<br />

sein. Aus der Open-Access-Sicht sollte allerdings „so früh wie möglich“ „zeitlich parallel<br />

zur Erstpublikation“ bedeuten. Ob es Sinn macht, mit Disziplinen-spezifischen Fristen<br />

zu experimentieren, ist auch eine noch offene Frage. Sowohl die Allianzinitiative<br />

als auch die Kulturministerkonferenz (letztere hält eine 6-Monate-Frist für angemessen)<br />

schätzen eine Differenzierung bei der Embargofrist als „praktisch nicht durchführbar“<br />

ein.<br />

8 Vgl. Gerd Hansen, GRUR Int. 2005, S. 378 ff.<br />

9 Vgl. Thomas Pflüger/Dietmar Ertmann, ZUM 2004, S. 436 – E-Publishing <strong>und</strong> Open<br />

Access – Konsequenzen für das Urheberrecht im Hochschulbereich


440 Rainer Kuhlen<br />

Zweitveröffentlichungsrecht <strong>und</strong> Zweitveröffentlichungsverpflichtung<br />

im Kontext von Open Access<br />

Das Autoren-Zweitveröffentlichungsrecht als ein im Urheberrecht zu kodifizierendes<br />

Recht ist für sich schon eine höchst umstrittene Angelegenheit.<br />

Vor allem von Seiten vieler Verlage wird zu bedenken gegeben, dass dadurch<br />

die ökonomische Verwertung der Erstpublikation <strong>und</strong> damit ihre Geschäftsgr<strong>und</strong>lage<br />

gefährdet werde. Die Debatte verschärft sich dadurch, dass viele<br />

Autoren es als eine indirekte oder direkte Verpflichtung ansehen 10 , ihren<br />

wiedergewonnenen Freiraum dazu zu verwenden, ihrer Institution oder einer<br />

anderen öffentlichen Einrichtung ihre Werke zu einer weiteren Publikation –<br />

in der Regel in einem Open-Access-Repository – anzubieten. Das, so das Argument,<br />

verstoße gegen ihre gr<strong>und</strong>gesetzlich garantierte <strong>Wissen</strong>schafts<strong>frei</strong>heit.<br />

Die meisten <strong>Wissen</strong>schaftsorganisationen in Deutschland halten eine Verpflichtung<br />

zur Open-Access-Publikation ebenfalls rechtlich nicht für möglich,<br />

auch wenn die Wahl<strong>frei</strong>heit für die Erstpublikation erhalten bleibt. Sie<br />

halten aber auch eine Zweitveröffentlichungsverpflichtung nicht für erforderlich,<br />

weil man davon ausgehen könne, dass Autoren selber die Vorteile<br />

von Open-Access-Publikationen erkennen würden, also eine Verpflichtung<br />

nicht erforderlich sei.<br />

Ein „Institutional Mandate“ wird hingegen mit dem Argument gefordert,<br />

dass bislang die Mehrzahl der Autoren nicht die Option der Open-Access-<br />

Publikation wahrnehme, sodass der Erwartung (<strong>und</strong> dem Bedarf) der Öffentlichkeit<br />

an <strong>frei</strong>er Verfügbarkeit der von ihr finanzierten Werke nicht in ausreichendem<br />

Umfang gerecht würde.<br />

10 Die Debatte um eine indirekte oder direkte Verpflichtung (requested vs required)<br />

wurde vor allem in den USA im Zusammenhang der Publikationspolitik des NIH (National<br />

Institute of Health) geführt; vgl. http://bit.ly/b9yhdN; zu den internationalen<br />

Open-Access-„Request vs. Requirement“-Policies vgl. http://bit.ly/b9yhdN; eine<br />

Übersicht dazu in Kapitel 8.5 „Open Access im internationalen Kontext“ in Rainer<br />

Kuhlen: Erfolgreiches Scheitern – eine Götterdämmerung des Urheberrechts? Schriften<br />

zur <strong>Information</strong>swissenschaft; Bd. 48. vwh – Verlag Werner Hülsbusch: Boizenburg<br />

2008; zum lateinamerikanischen Markt der Debatte vgl. SCIELO http://bit.ly/<br />

203Vvp; vgl. auch Stevan Harnad, Referenz in Anm. 5.


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 441<br />

Die kontroversen Positionen im einzelnen<br />

In Einklang mit der systematischen Zielsetzung des Urheberrechts, welches<br />

ja ein Recht der Urheber sein soll 11 , verstärkt ein Zweitveröffentlichungsrecht<br />

zunächst einmal die Position der Autoren selbst. Noch allgemeiner<br />

formuliert bedeutet dies eine Rückgewinnung der Autonomie der Autoren,<br />

verstanden als informationelle Selbstbestimmung über die Verwendung ihrer<br />

Werke. Eric W. Steinhauer stellt dieses in Bezug zu dem Recht der Autoren<br />

auf Sichtbarkeit ihrer publizierten Werke her: „Der <strong>Wissen</strong>schaftler sollte für<br />

den immer wichtiger werdenden Online-Bereich stets <strong>und</strong> immer die Möglichkeit<br />

haben, seine Publikationen der interessierten Öffentlichkeit zur<br />

Kenntnis zu geben“ 12 .<br />

Selbstbestimmung in diesem Kontext gilt zunächst für die Erstpublikation,<br />

für die die Autoren die uneingeschränkte Entscheidungs<strong>frei</strong>heit haben,<br />

ob, wann, wie <strong>und</strong> wo sie publizieren. Diese Freiheit wird derzeit von Niemandem<br />

bestritten. Vor allem die DFG, die vor einem Jahr durch den Heidelberger<br />

Appell mit dem (haltlosen) Vorwurf angegriffen wurde, wissenschaftliche<br />

Autoren zur Open-Access-Publikation zwingen zu wollen 13 , hat<br />

11 Faktisch ist es sicher so, dass durch die im Urhebervertragsrecht vorgesehene Übertragung<br />

der den Autoren explizit zustehenden Verwertungsrechte als Nutzungsrechte<br />

an die (i.d.R. kommerziellen) Verwerter das Urheberrecht zu großen Teilen auch den<br />

Interessen der <strong>Information</strong>swirtschaft entspricht. Nicht zuletzt auf Gr<strong>und</strong> des weltweiten<br />

Einflusses des angelsächsischen Copyright verwandelt sich das Urheberrecht in<br />

der Gegenwart seit den WTO/TRIPS- <strong>und</strong> WIPO-Regelungen/Verträgen zunehmend<br />

in Richtung eines Verwerter- oder Handelsrechts, auch wenn nach wie vor im EU-<br />

Bereich quasi als ideologischer Unterbau die Rechtegarantie für die persönlichen Urheber<br />

gilt.<br />

12 Eric W. Steinhauer: Das Recht auf Sichtbarkeit. Überlegungen zu Open Access <strong>und</strong><br />

<strong>Wissen</strong>schafts<strong>frei</strong>heit 2010, 47. Als gedrucktes Buch kann der Text online bestellt<br />

werden: http://www.mv-buchshop.de/catalog/index.php/cPath/36_159; <strong>frei</strong> herunterladbar<br />

unter: http://deposit.fernuni-hagen.de/2752/; auch aus dem INFODATA-eDepot<br />

der FH Potsdam.<br />

13 In der Öffentlichkeit bekannt gemacht wurde der gegen Google <strong>und</strong> gegen Open<br />

Access gerichtete Heidelberger Appell durch einen Zeitungsartikel von Roland Reuß<br />

unter dem Titel „Eine heimliche technokratische Machtergreifung“ in FAZ.NET<br />

vom 13.2.2009. Eine kritische Analyse des Appells von Matthias Spielkamp erschien<br />

unter dem Titel „Open Excess: Der Heidelberger Appell“ in Perlentaucher.de<br />

(http://bit.ly/SRMnd).


442 Rainer Kuhlen<br />

bei verschiedenen Gelegenheiten sehr deutlich gemacht, dass es weder bei<br />

der Erstpublikation 14 noch bei der Zweitpublikation einen Zwang geben dürfe.<br />

Dies widerspräche den Gr<strong>und</strong>sätzen der <strong>Wissen</strong>schaft.<br />

Dass das Zweitveröffentlichungsrechterforderlich ist <strong>und</strong> als Verstärkung<br />

der Autonomie der Autoren <strong>und</strong> damit auch von <strong>Wissen</strong>schafts<strong>frei</strong>heit anzusehen<br />

ist, darauf hat sich auch die Allianz der <strong>Wissen</strong>schaftsorganisationen in<br />

ihrem Katalog zur Neuregelung des Urheberrechts vom 9. Juli 2010 verständigt:<br />

„Als zwingende Regelung im Urhebervertragsrecht sollte wissenschaftlichen<br />

Autoren nach einer angemessenen Embargofrist ein unabdingbares <strong>und</strong> formatgleiches<br />

Zweitveröffentlichungsrecht für ihre Aufsätze <strong>und</strong> unselbständig erschienenen<br />

Werke eingeräumt werden. Dieses Zweitveröffentlichungsrecht, das<br />

für den <strong>Wissen</strong>schaftler keine Pflicht bedeutet, ist notwendig, um ihn in seiner<br />

Verhandlungsposition gegenüber großen wissenschaftlichen Verlagen zu stärken.<br />

Der <strong>Wissen</strong>schaftler erhält durch das Zweitveröffentlichungsrecht die<br />

Möglichkeit, selbst über den Grad der Sichtbarkeit seiner Forschungsergebnisse<br />

zu entscheiden. Er übt dabei in besonderer Weise das Gr<strong>und</strong>recht der <strong>Wissen</strong>-<br />

14 Wenn auch die Erstpublikation bislang überwiegend in kommerziellen Zeitschriften<br />

erfolgt, deutet alles darauf hin, dass der Zeitschriftenmarkt in absehbarer Zeit ein<br />

Markt der Open-Access-Zeitschriften werden wird <strong>und</strong> dass der elektronische Buchmarkt<br />

in der <strong>Wissen</strong>schaft folgen wird. SpringerOpen, nachdem Springer PubMed<br />

Central (PMC), den größten Open-Access-Anbieter, gekauft hat, ist nur der Frontrunner.<br />

Das Open-Geschäftsmodell beruht darauf, dass irgendjemand (wissenschaftliche<br />

Gesellschaften, Forschungsinstitute, Fachverbände, private oder öffentliche <strong>Wissen</strong>schaftsförderorganisationen<br />

oder die Länder aus den öffentlichen Haushalten) den<br />

Verlagen die Vorleistung der Erstellung ihrer <strong>Information</strong>sobjekte finanziert, nicht<br />

bloß die Kosten für einen einzelnen Artikel, sondern für die gesamte jeweilige Zeitschrift<br />

oder in Zukunft vielleicht sogar für die gesamte wissenschaftliche Verlagsproduktion.<br />

Wenn man von etwa 1,5 Millionen Artikeln pro Jahr aus den Peer-reviewed-Zeitschriften<br />

<strong>und</strong> von Kosten für einen Artikel in Höhe von 1000 Euro ausgeht, so könnte<br />

die gesamte Jahresproduktion an hochqualitativen Artikeln für 1,5 Milliarden Euro jedermann<br />

<strong>frei</strong> zur Verfügung gestellt werden. Interessant wäre es, diesem Betrag die<br />

gegenwärtigen weltweiten Kosten der Bibliotheken für den Kauf oder die Lizenzierung<br />

der Zeitschriften gegenüberzustellen (diese Zahlen sind aber nicht verfügbar).<br />

Was wäre kostengünstiger für die Öffentlichkeit – die Finanzierung der Bibliotheken<br />

(wie derzeit) <strong>und</strong> damit indirekt der Verlage oder die direkte Subventionierung der<br />

Verlage (wie im kommerziellen Open-Modell) oder die Finanzierung der von der<br />

<strong>Wissen</strong>schaft bzw. ihren Organisationen selbst betriebenen Zeitschriften nach dem<br />

Gold-Open-Access-Paradigma?


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 443<br />

schafts<strong>frei</strong>heit aus. Durch die Embargofrist wird sichergestellt, dass Verlage<br />

wirtschaftlich arbeiten können“ (http://bit.ly/bJJ8Qp).<br />

Mit dem Argument der <strong>Wissen</strong>schafts<strong>frei</strong>heit operiert auch der Deutsche<br />

Hochschulverband (DHV), der traditionell eher die Interessen der <strong>Wissen</strong>schaftler<br />

als Autoren, weniger die der <strong>Wissen</strong>schaftler als Nutzer vertritt. Er<br />

kommt zu einem ganz anderen Ergebnis: In einer Pressemitteilung vom 23.<br />

März 2010 warnt er „vor einer Relativierung des Urheberrechts“ <strong>und</strong> vor<br />

einer Einschränkung der <strong>Wissen</strong>schafts<strong>frei</strong>heit: „Den <strong>Wissen</strong>schaftlerinnen<br />

<strong>und</strong> <strong>Wissen</strong>schaftlern müsse es als Urhebern vorbehalten bleiben, zu bestimmen,<br />

ob, wann, wo <strong>und</strong> wie sie ihre Werke veröffentlichen“ 15 . Er sieht in<br />

dem Einsatz der Allianzorganisationen für ein Zweitverwertungsrecht die<br />

Gefahr, dass <strong>Wissen</strong>schaftler verpflichtet würden, auf eine bestimmte Art<br />

<strong>und</strong> Weise zu publizieren. Dies sei mit der <strong>Wissen</strong>schafts<strong>frei</strong>heit nicht vereinbar<br />

16 .<br />

Bezeichnend für die konfliktäre Debatte um dieses Thema ist, wie die explizite<br />

Positionierung der Allianzinitiative – durch das Zweitveröffentlichungsrecht<br />

werde das Gr<strong>und</strong>recht der <strong>Wissen</strong>schafts<strong>frei</strong>heit gestärkt – ins<br />

Gegenteilverkehrt wird. Warum an dieser offensichtlichen Fehlinterpretation<br />

aus dem Umfeld des Heidelberger Appells festgehalten wird, darüber kann<br />

nur spekuliert werden 17 . Ist es die Sorge um die Geschäftsgr<strong>und</strong>lage mittel-<br />

15 Diese Pressemitteilung des Deutschen Hochschulverbands ist leider nicht mehr auf<br />

dem Server des DHV abrufbar; der ursprüngliche Link geht ins Leere: http://www.hochschulverband.de/cms1/pressemitteilung+M5eacaf755f9.html;<br />

vgl. dazu die Stellungnahme<br />

im NETETHICS-Blog vom 26. 3. 2010 unter dem Titel „Verteidigen Deutscher<br />

Hochschulverband <strong>und</strong> Börsenverein wirklich <strong>Wissen</strong>schafts<strong>frei</strong>heit oder geht es<br />

nur um obsolete Privilegien?“ – http://bit.ly/bEGuls.<br />

16 Dagegen z.B. Ehmann bei IUWIS.DE: http://bit.ly/d7klvq<br />

17 Der Mit-Initiator des Heidelberger Appells (vgl. Anm. 13), Uwe Jochum, hat sich in<br />

der FAZ vom 3.11.2010 mit der Warnung vor dem „digitalen Tod des <strong>frei</strong>en Forschers“<br />

in diese Debatte erneut eingeschaltet <strong>und</strong> dabei auch die Position der CDU-<br />

B<strong>und</strong>estagsfraktion (s. Anm. 22) kritisiert: „Was hier pathetisch gefordert wird,<br />

schwächt in Wahrheit die Position des Autors. Denn wenn der Autor einem Verlag,<br />

der in seine Publikation investiert, kein zeitlich begrenztes ausschließliches Nutzungsrecht<br />

mehr anbieten kann, wird seine Souveränität nicht gestärkt, sondern beschnitten.<br />

Er verliert seine Vertrags<strong>frei</strong>heit. Das Investitionsrisiko des Verlags wird zu groß <strong>und</strong><br />

dem Autor wird nur übrig bleiben, seine unlektorierten <strong>und</strong> unbeworbenen Schriften<br />

im ach so überschaubaren Netz allein ,sichtbar‘ zu machen.“ (http://bit.ly/csVpry)<br />

(dagegen Kuhlen im NETETHICS-Blog vom 5.11.2010 : http://bit.ly/cM422i). Olaf<br />

Gefeller, Direktor des Instituts für Medizininformatik, Biometrie <strong>und</strong> Epidemiologie


444 Rainer Kuhlen<br />

ständischer Verlage in Deutschland, die nach wie vor für die Buchproduktion<br />

in den Geisteswissenschaften wichtig sind?<br />

Exkurs: Auch <strong>Wissen</strong>schafts<strong>frei</strong>heit ist von positiven<br />

Gesetzen abhängig<br />

Der Verweis auf Gr<strong>und</strong>sätze der <strong>Wissen</strong>schaft <strong>und</strong> die gr<strong>und</strong>gesetzlich geschützte<br />

<strong>Wissen</strong>schafts<strong>frei</strong>heit sollte prinzipiell nicht dogmatisch strikt <strong>und</strong><br />

ohne weitere Begründung verwendet werden. Weder sind diese Gr<strong>und</strong>sätze<br />

der <strong>Wissen</strong>schaft, wenn sie denn überhaupt jemals verbindlich formuliert<br />

wurden, ein Naturgesetz, noch sind die politischen Entscheidungsinstanzen<br />

von der Notwendigkeit be<strong>frei</strong>t, das Ausmaß der <strong>Wissen</strong>schafts<strong>frei</strong>heit durch<br />

gesetzliche Regelungen festzulegen. <strong>Wissen</strong>schafts<strong>frei</strong>heit, wie auch alle<br />

anderen Gr<strong>und</strong>rechte, kann durch positive Gesetzgebung allerdings nur eingeschränkt<br />

werden, wenn daran ein allgemeines öffentliches Interesse besteht,<br />

etwa zum Zwecke der nationalen Sicherheit, des Daten- oder des Jugendschutzes.<br />

Die Sicherstellung der <strong>Wissen</strong>schaftskommunikation <strong>und</strong> der<br />

Funktionsfähigkeit der <strong>Wissen</strong>schaftsmärkte liegt sicherlich auch im öffentlichen<br />

Interesse. Aber gewiss kann <strong>Wissen</strong>schafts<strong>frei</strong>heit als Gr<strong>und</strong>recht nie<br />

gänzlich in Frage gestellt werden.<br />

Begriffe wie Gr<strong>und</strong>sätze oder <strong>Wissen</strong>schafts<strong>frei</strong>heit sollten nicht dogmatisch<br />

defensiv (zur Abwehr von Eingriffen) verwendet werden. Vielmehr<br />

sollte überprüft werden, wie diese Gr<strong>und</strong>sätze der <strong>Wissen</strong>schaft <strong>und</strong> <strong>Wissen</strong>schafts<strong>frei</strong>heit<br />

mit dem Interesse der Öffentlichkeit an der <strong>frei</strong>en Verfügbarkeit<br />

der Werke, deren Entstehen sie entscheidend über vielfältige Maßnahmen<br />

finanziert hat, zusammengehen kann. Darauf zu setzen, dass Autoren,<br />

an der Friedrich-Alexander-Universität (ebenfalls in der FAZ vom 1.12.2010), weist<br />

die Vorwürfe der Heidelberger gegen die Allianz zurück: „Für mich ist ein wesentliches<br />

Element der <strong>frei</strong>en <strong>Wissen</strong>schaft die <strong>frei</strong>e <strong>Wissen</strong>schaftskommunikation. Dazu<br />

gehört auch die Zugänglichkeit zu wissenschaftlicher <strong>Information</strong> <strong>und</strong> wissenschaftlichen<br />

Veröffentlichungen. Jede Initiative, die hier Verbesserungen im Sinne eines Abbaus<br />

von Hemmnissen des Zugangs schafft, findet daher meine Zustimmung. Ich sehe<br />

in den Vorschlägen der Allianzinitiative das aufrichtige Bemühen um Verbesserungen<br />

<strong>und</strong> vernünftige Schritte in die richtige Richtung.“


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 445<br />

sobald sie das Zweitveröffentlichungsrecht zurückgewonnen hätten, in absehbarer<br />

Zeit ihre Werke den entsprechenden Open-Access-Repositories zur<br />

Verfügung stellen werden, ist eine sehr vage Hoffnung. Darauf zu warten,<br />

kann heute der Öffentlichkeit nicht mehr zugemutet werden.<br />

Auch wenn das Urheberrecht schon dem Wortsinn nach das Recht der<br />

Urheber ist, gehören doch Schrankenregelungen, die direkt auf die Interessen<br />

der Öffentlichkeit, also der Nutzer von publizierten <strong>und</strong> urheberrechtsgeschützten<br />

Werken, Rücksicht nehmen, systematisch dazu. Dies zeigt, dass<br />

Prinzipien wie <strong>Wissen</strong>schafts<strong>frei</strong>heit nicht absolute individuelle Rechte sind,<br />

sondern auch über das Urheberrecht (in Grenzen) eingeschränkt werden können.<br />

Diese Einschränkungen beziehen sich dabei in erster Linie auf die Genehmigungs<strong>frei</strong>heit<br />

bei der Nutzung urheberrechtlich geschützter Werke,<br />

ohne die Vergütungsverpflichtung in Frage zu stellen.<br />

Die Freiheit der <strong>Wissen</strong>schaft <strong>und</strong> das Interesse der <strong>Wissen</strong>schaftler sind<br />

kaum an die exklusive individuelle Verfügungsgewalt über das produzierte<br />

<strong>Wissen</strong> geb<strong>und</strong>en. Ist Freiheit der <strong>Wissen</strong>schaft nicht in erster Linie das<br />

Recht, unabhängig forschen zu dürfen <strong>und</strong> entscheiden zu dürfen, ob, wie<br />

<strong>und</strong> wann man als <strong>Wissen</strong>schaftler publizieren will? Und gehört zur <strong>Wissen</strong>schafts<strong>frei</strong>heit<br />

nicht auch das Recht, das publizierte <strong>Wissen</strong> umfassend nutzen<br />

zu können?<br />

In Ergänzung zur Rückgewinnung der informationellen Autonomie der<br />

Autoren kann eine institutionelle Verpflichtung zur Open-Access-Zweitveröffentlichung<br />

dreifach begründet werden:<br />

• durch das Interesse <strong>und</strong> das Recht der <strong>Wissen</strong>schaftler, die ja immer auch<br />

Nutzer sind, auf <strong>frei</strong>en Zugriff zum publizierten <strong>Wissen</strong>,<br />

• durch das Interesse <strong>und</strong> das Recht der Öffentlichkeit, das mit öffentlichen<br />

Mitteln geförderte <strong>Wissen</strong> <strong>frei</strong> nutzen zu können,<br />

• durch das Interesse <strong>und</strong> das Recht der die jeweiligen Autoren beschäftigenden<br />

öffentlich finanzierten Einrichtungen 18 , die dort erstellten Werke<br />

so breit wie möglich in der Fachöffentlichkeit, aber auch in der allgemeinen<br />

Öffentlichkeit bekannt zu machen.<br />

18 Bei privaten Einrichtungen wie Unternehmen der Wirtschaft mag das Interesse nicht<br />

unbedingt vorhanden sein, das <strong>Wissen</strong>, dessen Erstellung mit öffentlichen Mitteln unterstützt<br />

wurde, so früh wie möglich allen <strong>frei</strong> zugänglich zu machen. Aber wenn das<br />

Unternehmen sich für eine Erstpublikation entschieden hat, sollte auch hier nichts dagegen<br />

sprechen, dass eine Zweitveröffentlichung für jedermann <strong>frei</strong> zugänglich ist.


446 Rainer Kuhlen<br />

Es macht also Sinn, das Zweitveröffentlichungsrecht in ein persönliches der<br />

Autoren <strong>und</strong> in ein institutionelles der die Autoren tragenden Organisationen<br />

aufzuteilen <strong>und</strong> eben beiden das (nicht-kommerzielle) Recht der öffentlichen<br />

Zugänglichmachung zuzusprechen.<br />

Soll das Urheberrecht die kommerzielle Gr<strong>und</strong>lage<br />

der <strong>Information</strong>swirtschaft schützen?<br />

Dass der Börsenverein des Deutschen Buchhandels (BV), zusammen mit der<br />

Arbeitsgemeinschaft wissenschaftlicher Verleger (AwV), diese oben skizzierte<br />

Kritik des DHV gerne aufgreift, ist nur zu nachvollziehbar: „Kein Autor“,<br />

so der Verleger Vittorio Klostermann, „[…] sollte gedrängt werden,<br />

seine Werke der Öffentlichkeit kostenlos zur Verfügung zu stellen […] Solche<br />

Forderungen untergraben die Freiheit der Autoren, ihre Werke in der<br />

bestmöglichen Form zu publizieren“ 19 . Gemeint ist wohl eher die Bedrohung<br />

der „ökonomischen Gr<strong>und</strong>lagen der <strong>Wissen</strong>schaftsverlage“. Ein Zweitveröffentlichungsrecht,<br />

so der Börsenverein, „ließe keinen Raum mehr für privatwirtschaftliche<br />

Verlage“.<br />

Dies wird vom Börsenverein in einer ausführlichen Replik auf den Vorschlag<br />

der Allianzorganisationen weiter ausgeführt 20 . Der Börsenverein sieht<br />

gar keinen Regelungsbedarf für die Einführung eines Zweitveröffentlichungsrecht,<br />

schon gar nicht zugunsten von Open Access, da es „jedem <strong>Wissen</strong>schaftler<br />

[…] bereits heute <strong>frei</strong> [steht], seine Forschungsergebnisse Open<br />

Access zu veröffentlichen“. Besonders bedroht sieht der Börsenverein die<br />

Geschäftsmodelle der Verlage, wenn der Forderung der Allianz entsprochen<br />

würde, das Zweitveröffentlichungsrecht im Format des Verlags wahrzunehmen:<br />

„Damit würde aber nicht nur dem auf Finanzierung durch Zahlungen von Nutzern<br />

angelegten Subskriptionsmodell kommerzieller Verlage der Boden entzogen,<br />

sondern zugleich auch den Anbietern originärer open access-Publika-<br />

19 Beleg in NETETHICS-Blog vgl. Anm. 17<br />

20 Vgl. Kommentar zur Stellungnahme der Allianz der deutschen <strong>Wissen</strong>schaftsorganisationen<br />

„Neuregelung des Urheberrechts: Anliegen <strong>und</strong> Desiderate für einen Dritten<br />

Korb“ – http://bit.ly/b5EQQ3


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 447<br />

tionen („golden road“) eine ruinöse Konkurrenz erwachsen, die den mit open<br />

access verb<strong>und</strong>enen Veröffentlichungskosten durch Enteignung von Verlagsleistungen<br />

ausweicht. […] In Summe würde der Vorschlag <strong>Wissen</strong>schaftsverlagen,<br />

die in die Selektion von, Navigation durch <strong>und</strong> Qualitätssicherung bei wissenschaftlichen<br />

Publikationen in elektronischer oder gedruckter Form investieren,<br />

jeden Anreiz für ihre Aktivitäten nehmen.“ (ebd.)<br />

Auf diesen sicherlich komplexen Zusammenhang der Auswirkungen eines<br />

Zweitveröffentlichungsrechts auf die Verlagswirtschaft kann hier nur knapp<br />

eingegangen werden. Es kann aber nicht die Aufgabe des Urheberrechts sein,<br />

der Verlagswirtschaft ihre bisherigen Geschäftsmodelle zu sichern – natürlich<br />

auch nicht, die kommerzielle Gr<strong>und</strong>lage dieser volkswirtschaftlich zweifellos<br />

wichtigen Tätigkeit zu zerstören. Das derzeit gültige Urheberrecht hat<br />

über vielfältige Einschränkungen durch die Schrankenregelungen (so z.B. in<br />

den §§ 52a <strong>und</strong> b, 53 <strong>und</strong> 53a UrhG), die die Nutzung an sich begünstigen,<br />

dafür gesorgt, dass die <strong>Information</strong>swirtschaft nicht vorschnell, unbillig oder<br />

sogar ruinös durch die in elektronischen Umgebungen möglichen Nutzungsformen<br />

beeinträchtigt wird.<br />

Der <strong>Information</strong>swirtschaft wurde ein langer Zeitraum zugestanden, sich<br />

um neue, elektronischen Umgebungen angemessene Geschäfts- <strong>und</strong> Organisationsmodelle<br />

für das Publizieren zu kümmern.<br />

Diese Schonzeit – ob nun von der Politik bewusst zugestanden oder nur<br />

faktisch gegeben, sei dahingestellt – sollte vorbei sein. Es ist an der Zeit, die<br />

im Urheberrecht erforderliche Balance wieder stärker auf die Autoren <strong>und</strong><br />

die Nutzer zu richten. Zu starker Schutz der kommerziellen Interessen der<br />

Verlagswirtschaft ist nicht nur für die Ziele des Urheberrechts, sondern auch<br />

für die allgemeine produzierende Wirtschaft kontraproduktiv. Wenn es nicht<br />

gelingt, profitable Modelle z.B. im Rahmen von Freeconomics zu entwickeln,<br />

also einer Wirtschaftsform, bei der die eigentliche <strong>Information</strong> gebühren<strong>frei</strong><br />

nutzbar ist, aber mit anderen Mehrwertleistungen, verdient wird,<br />

dann mag die Zeit der kommerziellen Publikationswirtschaft im bisherigen<br />

Stil abgelaufen sein. Bildung <strong>und</strong> <strong>Wissen</strong>schaft, gleichermaßen Autoren <strong>und</strong><br />

Nutzer, können nicht länger unbillige Einschränkungen ihrer Rechte an ihren<br />

Werken <strong>und</strong> deren Nutzung hinnehmen. <strong>Wissen</strong>schaftliches Publizieren sollte<br />

auch von der kommerziellen <strong>Information</strong>swirtschaft vollständig nach dem<br />

Open-Access-Paradigma organisiert sein.


448 Rainer Kuhlen<br />

Diversifizierung des Zweitveröffentlichungsrechts —<br />

Zwangslizenzen<br />

Was folgt aus alldem? Um aus dem Dilemma „Recht oder Verpflichtung“<br />

herauszukommen, empfiehlt sich, wie oben angedeutet, eine Diversifizierung<br />

des Zweitveröffentlichungsrechts. Der Autor bekommt dieses Recht als einfaches<br />

Verwertungsrecht zugesprochen. Aber auch die Institution des Autors,<br />

die die Arbeit finanziert hat, erhält ein einfaches Zweitpublikationsrecht.<br />

Systematisch könnte das im Urheberrecht entweder über die Nutzungsrechte<br />

im Urhebervertragsrecht oder durch eine neue Schranke geregelt werden.<br />

Da auf Gr<strong>und</strong> der Vorgaben der EU-Richtlinie von 2001, in der eine<br />

abschließende Liste von möglichen Schrankenregelungen vorgegeben ist, die<br />

Einführung einer neuen Schranke für den deutschen Gesetzgeber derzeit<br />

nicht möglich ist, kommt wohl nur das Urhebervertragsrecht in Frage. Eine<br />

entsprechende Änderung von § 38 UrhG, der in der Diskussion bevorzugt<br />

wird, ist mit Blick auf ein institutionelles Zweitveröffentlichungsrecht jedoch<br />

schwierig, da bislang dieser Paragraf das Recht des individuellen Autors<br />

regelt. Aber es sollte überprüft werden, ob eine Änderung möglich ist.<br />

Eine andere Möglichkeit wäre die Einführung einer neuen Zwangslizenz,<br />

wie sie im Urheberrecht in § 42a als Zwangslizenz zur Herstellung von Tonträgern<br />

vorgesehen ist 21 . Eine Zwangslizenz, die sich direkt auf das zurückgewonnene<br />

Zweitpublikationsrecht der Autoren bezieht, nach der die Autoren<br />

im Sinne eines „Institutional Mandate“ veranlasst würden, ihre Werke<br />

ihrer Institution zur Aufnahme in ein Open-Access-Repository zu überlassen,<br />

wäre eine mögliche <strong>und</strong> international eher unproblematische Lösung, die<br />

allerdings, wie ausgeführt, in Deutschland auf absehbare Zeit auf heftigen<br />

Widerstand von vielen Seiten stößt (besonders gewichtig von Seiten der<br />

21 Gerd Hansen hatte alternativ zu einer Änderung von § 38 UrhG zu erwägen gegeben,<br />

ob nicht Rechteinhaber verpflichtet werden sollten, nach einer Embargofrist jedermann<br />

ein unbeschränktes, einfaches Nutzungsrecht zu gewähren, allerdings nur für<br />

Werke, die im Rahmen einer öffentlichen Förderung entstanden sind (in GRUR Int.<br />

2005, S. 378 ff.). Jüngst hat auch Reto Hilty das Mittel der Zwangslizenz wieder ins<br />

Spiel gebracht, um Entwicklungen im internationalen Publikationsgeschehen entgegenzusteuern,<br />

bei denen „Mechanismen des Wettbewerbes letzten Endes zum Erliegen<br />

kommen“ (vgl. Reto M. Hilty: Renaissance der Zwangslizenzen im Urheberrecht?<br />

Gedanken zu Ungereimtheiten auf der urheberrechtlichen Wertschöpfungskette. Gewerblicher<br />

Rechtsschutz <strong>und</strong> Urheberrecht (GRUR) 2009, 633–644).


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 449<br />

Deutschen Forschungsgemeinschaft). Alternativ könnte eine Zwangslizenz<br />

gegenüber den kommerziellen Rechteinhabern eingeführt werden. Dieser<br />

Vorschlag, im Urheberrecht intensiver von Zwangslizenzen Gebrauch zu<br />

machen, wenn durch Marktversagen das öffentliche Interesse an einer unproblematischen<br />

Nutzung publizierter Werke eingeschränkt ist, ist nicht zuletzt<br />

im Münchener Max-Planck-Institut für Geistiges Eigentum, Wettbewerbs-<br />

<strong>und</strong> Steuerrecht entwickelt worden (vgl. Anm. 21).<br />

Das B<strong>und</strong>esjustizministerium hatte in seinem Fragekatalog zur Vorbereitung<br />

des Dritten Korbs gefragt, ob eine solche Regelung Zwangslizenz sinnvoll<br />

sei. In der Antwort der Kulturministerkonferenz wurde eine Zwangslizenz<br />

als Einschränkung der Rechte des Autors für problematisch gehalten.<br />

Hingegen wäre eine Zwangslizenz gegenüber den Verlagen, die ja durch die<br />

Erstpublikation Rechteinhaber sind, möglicherweise ein geeignetes Mittel,<br />

um „dem monopolisierten Verhalten einiger international agierender <strong>Wissen</strong>schaftsverlage<br />

wirkungsvoll im Sinne der Freiheit von <strong>Wissen</strong>schaft <strong>und</strong><br />

Forschung“ entgegen zu wirken. Leider gab es bei der Anhörung des BMJ<br />

zum Zweitveröffentlichungsrecht keinen Kommentar zur Frage nach der<br />

Möglichkeit einer Zwangslizenz. Die Brisanz dieses Mittels wurde offenbar<br />

nicht gesehen.<br />

Wie wird, wie sollte die Politik entscheiden?<br />

Man darf gespannt sein, zu welchem Vorschlag das BMJ bei dem für 2011 zu<br />

erwartenden Referentenentwurf für den Dritten Korb in dieser Sache kommt<br />

<strong>und</strong> wie der B<strong>und</strong>estag, zunächst über den Rechtsausschuss, <strong>und</strong> der B<strong>und</strong>esrat<br />

darauf reagieren werden.<br />

Leider bedeutet es nicht viel, dass bei der Anhörung des BMJ vom 13. Juli<br />

2010 sowohl in der Fachöffentlichkeit als auch quer durch die politischen<br />

Parteien 22 eine breite Mehrheit darüber zustande kam (entgegen dem skiz-<br />

22 Z.B. von der CDU-B<strong>und</strong>estagsfraktion, Michael Kretschmer <strong>und</strong> Tankred Schipanski,<br />

am 13.7.2010: „Es besteht Gesetzgebungsbedarf, um einerseits Open Access<br />

zu fördern <strong>und</strong> andererseits die Stellung der wissenschaftlichen Urheber rechtlich<br />

stärker abzusichern. Ein verbindliches Zweitveröffentlichungsrecht wäre der geeignete<br />

Weg, um Open Access zielführend <strong>und</strong> wissenschaftsfre<strong>und</strong>lich auszubauen.“<br />

(http://bit.ly/aSF4Md)


450 Rainer Kuhlen<br />

zierten heftigen Widerstand der Publikationswirtschaft), dass ein Zweitveröffentlichungsrecht<br />

im Gesetz verankert werden soll. In welcher Form<br />

<strong>und</strong> zu welchem Ende, darüber wird allerdings weiter gestritten, vor allem ob<br />

dadurch ein Schritt in Richtung einer umfassenden Open-Access-Verfügbarkeit<br />

bereits publizierter Werke gemacht werden kann.<br />

Das Zweitveröffentlichungsrecht ist ein wichtiger Schritt in Richtung<br />

mehr Autorenautonomie <strong>und</strong> die allgemein <strong>frei</strong>e Verfügbarkeit der mit öffentlichen<br />

Mitteln produzierten Werke. Man braucht nicht mehr darüber zu<br />

diskutieren, dass Open Access – nicht nur in der <strong>Wissen</strong>schaft – nicht aufzuhalten<br />

ist. Das wissen auch die Verlage, auch wenn sie versuchen so lange<br />

wie möglich mit ihren alten Modellen – der Verknappung des Zugriffs <strong>und</strong><br />

der Nutzung – Geld zu verdienen. Weltweit gibt es eine ständig wachsende<br />

Allianz, die es nicht länger akzeptieren will, dass das mit öffentlichen (Steuer-)<br />

Mitteln finanzierte <strong>Wissen</strong> den kommerziellen Verwertungsumweg mit<br />

all den in der Warenwirtschaft nötigen Verknappungsformen (über Gebühren,<br />

technische <strong>und</strong> rechtliche Einschränkungen) nehmen soll.<br />

Mit dem Zweitveröffentlichungsrecht <strong>und</strong> der Erweiterung durch ein „Institutional<br />

Mandate“ sind sicher nicht alle Probleme für den Umgang mit<br />

Konstantin von Notz <strong>und</strong> Kai Gehring von der B<strong>und</strong>estagsfraktion Bündnis 90/Die<br />

Grünen am 13.7.2010: „Die heutige Anhörung [des BMJ – RK] hat deutlich gemacht,<br />

wie dringend wir eine Reform der Urheberrechtsregelungen zur erleichterten Nutzbarmachung<br />

von öffentlich finanzierter Forschung für die Allgemeinheit brauchen. Nur<br />

so sind wir in der Lage, künftig dem berechtigten Interesse der Öffentlichkeit nach<br />

Nutzung der durch sie finanzierten Forschung entgegenzukommen <strong>und</strong> die enormen<br />

Chancen, die Open Access unserer Gesellschaft für die Vermehrung von <strong>Wissen</strong> bietet,<br />

besser zu nutzen.“ (http://bit.ly/9ydOzm)<br />

René Röspel von der SPD-B<strong>und</strong>estagsfraktion: „Wir brauchen neue rechtliche Rahmenbedingungen<br />

für das wissenschaftliche Publizieren <strong>und</strong> wir brauchen ein bildungs-,<br />

wissenschafts- <strong>und</strong> forschungsfre<strong>und</strong>liches Urheberrecht für die <strong>Information</strong>s-<br />

<strong>und</strong> <strong>Wissen</strong>sgesellschaft. Überaus deutlich wurde der dringende gesetzgeberische<br />

Handlungsbedarf, um Open Access im Bereich von <strong>Wissen</strong>schaft, Forschung <strong>und</strong> Bildung<br />

zu ermöglichen <strong>und</strong> um die Stellung der wissenschaftlichen Urheber zu stärken.<br />

Ein wichtiger erster Schritt wäre die Ermöglichung eines verbindlichen Zweitveröffentlichungsrechts<br />

nach einer kurzen ,Embargofrist‘, um Open Access als ergänzendes<br />

Publikationsmodell zu ermöglichen <strong>und</strong> zu fördern.“ (http://bit.ly/8X3oot)<br />

Für die B<strong>und</strong>estagsfraktionen der FDP <strong>und</strong> Die Linke gibt es bislang keine verbindlichen<br />

Stellungnahmen bezüglich des Zweitveröffentlichungsrechts. Bei der FDP ist<br />

Skepsis, bei Die Linke eher Zustimmung zu erwarten, auch bezüglich eines institutionellen<br />

Zweitveröffentlichungsrechts.


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 451<br />

<strong>Wissen</strong> <strong>und</strong> <strong>Information</strong> in Bildung <strong>und</strong> <strong>Wissen</strong>schaft gelöst. Vor allem besteht<br />

dringender Bedarf, die zurzeit kaum noch nachvollziehbaren Ausnahmebestimmungen<br />

(Schranken) des Urheberrechts in Bezug auf Bildung <strong>und</strong><br />

<strong>Wissen</strong>schaft, die zunehmend die Anwaltskanzleien <strong>und</strong> die Gerichte beschäftigen,<br />

durch eine allgemeine umfassende <strong>Wissen</strong>schaftsklausel zu ersetzen<br />

23 . Eine solche Klausel sollte die Nutzung publizierter Werke, für welchen<br />

wissenschaftlichen <strong>und</strong> bildungsbezogenen Zweck auch immer, genehmigungs<strong>frei</strong><br />

ermöglichen 24 .<br />

Ein solchermaßen wissenschaftsfre<strong>und</strong>liches Urheberrecht harmoniert mit<br />

den Zielen von Open Access. Die politische Behandlung des Zweitveröffentlichungsrechts<br />

(als eines der Autoren <strong>und</strong> ihrer Institutionen) wird zeigen,<br />

wie nah oder wie weit entfernt Deutschland davon ist.<br />

23 Vgl. Rainer Kuhlen: In Richtung einer allgemeinen <strong>Wissen</strong>schaftsklausel. In: <strong>Information</strong><br />

– <strong>Wissen</strong>schaft <strong>und</strong> Praxis (IWP) 2010, 461–467; Preprint: http://bit.ly/cZyGNW.<br />

24 Vgl. dazu den entsprechenden Vorschlag für einen „European copyright code“, vorgelegt<br />

vom Wittem Project, April 2010 – www.copyrightcode.eu


452 Rainer Kuhlen


Der Streit um die Regelung des Zweitveröffentlichungsrechts ... 453<br />

Session 11:<br />

E-Learning / Social Media Marketing


454 Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

Abstract<br />

Integrating industrial partners into<br />

e-teaching efforts<br />

Using social networks to support the initiation of<br />

co-operations<br />

Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

University of Bamberg, Media Informatics<br />

Feldkirchenstraße 21, D-96045 Bamberg<br />

tobias.fries@uni-bamberg.de, sebastian-wilhelm.boosz@stud.unibamberg.de,<br />

andreas.henrich@uni-bamberg.de<br />

Since 2008 we have been using the existing university-wide learning management<br />

system (LMS) “Virtual Campus” (VC) to incorporate industrial<br />

partners into e-teaching courses at the University of Bamberg. We have developed<br />

different co-operation types and evaluated their appropriateness in<br />

pilot co-operations between lecturers of the University of Bamberg and regional<br />

industrial partners – respecting legal requirements, too. The vast<br />

amount of LMS courses available for students lead to a special co-operation<br />

web portal for companies, which we have ported to common social networks<br />

using the OpenSocial API. The social network application elevates the convenience<br />

for the company users, supports the matching of companies’ interests<br />

and co-operation topics and uses the social graph of the project partners<br />

to reach potential attendees.<br />

In this paper we give a general overview of popular social networks. We<br />

describe similarities and differences in target groups, APIs, and also application<br />

and data protection policies. We explicate the use cases of our application<br />

and explain the process of developing applications based on the Open-<br />

Social API. We also describe the experiences we have made with the<br />

application admission procedures of different social networks and give an<br />

outlook on how we want to utilize Facebook’s Social Graph API and embed<br />

Facebook widgets and features (e.g. recommendation and authorization) into<br />

the existing web version of our co-operation portal.


Integrating industrial partners into e-teaching efforts 455<br />

1 Backgro<strong>und</strong><br />

Centrally administered university-wide learning management systems (LMS)<br />

– which have evolved out of the former variety of competing LMS used by<br />

different faculties or chairs at most universities in recent years (Henrich,<br />

Sieber, Wolf 2007) – provide a powerful infrastructure to support cooperations<br />

(co-ops) and bi-directional knowledge transfer between universities<br />

and companies. They help to overcome obstacles of temporal synchronization<br />

and spatial distances in co-ops between different institutions.<br />

Lecturers<br />

Communication<br />

Providing content<br />

Providing topics<br />

Accessing content<br />

Already available<br />

To be established<br />

Fig. 1: Incorporating companies<br />

University-wide Learning<br />

Management System<br />

Documents<br />

Company<br />

Management<br />

Students<br />

Company<br />

Staff<br />

Fig. 1 describes the usage scenario to incorporate company management<br />

and staff into academic teaching. The green arrows symbolize the conventional<br />

usage of a university LMS: Lecturers provide topics and content to<br />

students and set up discussion forums about course topics. Students mainly<br />

access and download provided content. Forums and chats are used for communication<br />

between lecturers and students. Our approach incorporates two<br />

more parties: company management and staff. Company staff can access<br />

course content and – especially in exercise courses or seminars – the man-


456 Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

agement can provide topics and content to increase practical relevance of the<br />

courses. The students should also be encouraged to upload content and all<br />

four parties can discuss topics via the LMS (red arrows). Our approach permits<br />

different types of co-ops depending on the kind of course (lecture, seminar<br />

or exercise course) and the desired degree of involvement (active/passive)<br />

of the companies. At the University of Bamberg we had co-ops ranging<br />

from granting company members access to lecture notes, slides, lecture recordings<br />

and discussion forums up to courses, where students tested, evaluated<br />

or improved company products. Company representatives are not just<br />

learners, but contribute knowledge, experience and real-life questions to the<br />

courses.<br />

Home View<br />

Top 3 co‐op offers<br />

Canvas View/Profile View<br />

LMS4KMU Application<br />

Co‐op overview Course overview Lecturer overview<br />

Search field Description<br />

Search options<br />

Pre‐sorted co‐ops<br />

Fig. 2: Views of our app<br />

Participate<br />

Further info<br />

To lecturer details<br />

To co‐op overview<br />

Office<br />

Contact options<br />

To course<br />

When granting company members access to certain courses in a university<br />

LMS, privacy, data protection and copyright issues have to be considered,<br />

but common LMS offer built-in or additional features to support the<br />

legal requirements (Fries, Henrich 2010b). Another critical success factor is<br />

minimizing necessary efforts for companies and lecturers to start co-ops. For<br />

that purpose we have developed a co-op web portal that provides access to<br />

only the courses available for companies (out of over 1,400 courses in the


Integrating industrial partners into e-teaching efforts 457<br />

LMS “Virtual Campus” 1 (VC) in winter 2010/11). The portal harvests information<br />

about courses and lecturers from different IT systems in use at the<br />

university and provides them in a target-group specific manner to the companies<br />

(Fries, Henrich 2010a).<br />

The co-op web portal 2 is a convenient tool for the company members to<br />

find suitable co-op offers, get contact information about the lecturers and<br />

start co-ops. Our industrial project partners experienced no major problems<br />

in using the web portal. After the successful pilot phase of our project, we<br />

want to invite further companies to co-operate with lecturers and students.<br />

The key to this is getting company members to navigate to our co-op portal.<br />

The usage of social networks (SNs) like Xing 3 , LinkedIn 4 or Facebook 5 (FB)<br />

has increased massively and their APIs have become very powerful and standardized<br />

(apart from FB almost all SNs provide Google’s OpenSocial (OS)<br />

API 6 ). So, integrating our co-op portal into SNs and integrating SN widgets<br />

into our web portal may have potential to further increase the convenience<br />

for interested companies and to recommend our portal to their contacts.<br />

In chapter 2 we give a brief overview of popular SNs. We identify major<br />

similarities, show main differences and compare their APIs. Chapter 3 presents<br />

use cases (both adapted from our web portal and newly designed ones)<br />

of SNs for our purpose including carefully accessing users’ data. In chapter 4<br />

we describe our app prototype and experiences with the networks and APIs.<br />

Chapter 5 gives an outlook on future work.<br />

2 Social Networks, APIs and Application Quality<br />

With the increasing popularity of SNs, a change in the way of how people<br />

search information on the internet may be about to take place. While<br />

1 http://vc.uni-bamberg.de/moodle (checked Jan 17, 2011)<br />

2 http://www.uni-bamberg.de/minf/lms4kmu-portal (checked Jan 17, 2011)<br />

3 http://www.xing.com (checked Jan 17, 2011)<br />

4 http://www.linkedin.com (checked Jan 17, 2011)<br />

5 http://www.facebook.com (checked Jan 17, 2011)<br />

6 http://code.google.com/intl/de-DE/apis/opensocial (checked Jan 17, 2011)


458 Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

google.com is still the most visited website with a daily reach of approx. 45%<br />

of <strong>global</strong> internet users, facebook.com has reached the second rank with<br />

about 39% 7 . Instead of using search engines to find information about a more<br />

or less clearly defined topic, many people browse information recommended<br />

by their friends over SNs. Microsoft and FB seem to believe, that both approaches<br />

can be reasonably combined to subjectively increase quality of<br />

search results, as Microsoft’s Bing will soon display recommendations of the<br />

searcher’s FB contacts among the usual search results (Braun, 2010).<br />

With over 500 million registered users, FB is the most popular <strong>global</strong> SN.<br />

Started as a SN for students at the Harvard University in 2004 and extended<br />

to other US students in 2006, it is now available in over 80 languages for<br />

everyone. In Germany a very similar SN called studiVZ 8 (VZ) was started. In<br />

the beginning, when no German FB localization existed, VZ was clearly the<br />

most popular SN amongst German students. But in recent years, FB has become<br />

more and more popular amongst German students. VZ has also opened<br />

up for non-students, providing SNs called meinVZ and schülerVZ which are<br />

closely connected to VZ. FB and VZ have a clear focus on leisure time and<br />

entertainment. For both platforms a vast amount of third party apps (mainly<br />

games) exist.<br />

Despite the general dominance of FB (over 14 million registered German<br />

users 9 ) and the VZ networks (over 17 million users 10 ) niche markets for specialized<br />

SNs still exist. For our attempt to initiate co-ops with companies,<br />

especially SNs with a more business-oriented focus are worth examining. In<br />

Germany, Xing is the most popular amongst these, whereas <strong>global</strong>ly,<br />

LinkedIn has the most registered users in this domain (Briegleb, 2010). Both<br />

platforms provide third party apps, but in contrast to the thousands of mainly<br />

entertainment focused apps available in FB and VZ, Xing and LinkedIn allow<br />

only a handful of apps.<br />

APIs and third-party apps<br />

In May 2007 FB opened the website for third-party apps by launching the so<br />

called “FB Platform”. Apps are displayed in a container inside a FB page and<br />

77 http://www.alexa.com/topsites (checked Jan 17, 2011)<br />

78 http://www.studivz.net (checked Jan 17, 2011)<br />

79 http://www.facebakers.com/facebook-statistics/germany (checked Jan 17, 2011)<br />

10 http://www.studivz.net/l/about_us/1 (checked Jan 17, 2011)


Integrating industrial partners into e-teaching efforts 459<br />

can include FB widgets (e.g. the Like Button) and access users’ profile data.<br />

The app can be implemented as usual JavaScript-enhanced HTML page<br />

(iframe) or in the FB Markup Language (FBML) and FB JavaScript (FBJS).<br />

To interact with FB’s backend, a REST API is provided and user data can be<br />

accessed via the FB Query Language (FQL) (Graham, 2008). In December<br />

2008 “FB Connect” became available, allowing developers to include FB’s<br />

widgets into independent websites not running as apps inside FB. In 2010 the<br />

REST API was replaced by the more modern Graph API, giving developers<br />

three possibilities for interaction with the SN: (1) FB for Websites allows the<br />

usage of social plugins and comfortable solutions like a single sign-on procedure<br />

on any website. (2) Apps on Facebook.com allows to run web apps in a<br />

dedicated iframe on FB, place widgets on users’ profile pages and update a<br />

user’s FB stream. (3) Mobile Apps is a collection of services for web apps<br />

running on mobile devices (Krutisch 2010).<br />

In contrast to the proprietary Social Graph API which is limited to FB,<br />

Google released version 0.7 of its counterpart OS API in late 2007 <strong>und</strong>er an<br />

Apache 2.0 and Creative Commons license. Most SNs have implemented the<br />

OS API so far 11 . So Google’s aim to provide an API for cross-platform apps<br />

seems to be achieved, although different versions of the API are implemented<br />

in the SNs (version 1.1 was released in November 2010, but version 0.8<br />

(Wartala 2008) is still very wide-spread). OS can be seen as a container for<br />

apps written in HTML, JavaScript and CSS, which can be placed on web<br />

pages inside SNs, providing a standardized AJAX request mechanism to<br />

contact the app developer’s web server and also standardized access to user<br />

data in the SN (Häsel, Iacono 2010). For security and data protection reasons,<br />

SN users can define access rules for apps in general or individually when<br />

they add an app to their profile page (cf. chapter 4).<br />

As Xing is the most popular business network in Germany, we started implementing<br />

our app as an OS 0.8 app, focusing on Xing’s requirements. Xing<br />

supports three OS views, Home View (HV), Canvas View (CV) and Profile<br />

View (PV). The HV is an app container to be included in the user’s personal<br />

page with a fixed size of 315 x 180 pixels. It is only available for users who<br />

added the app to their accounts. HV can access user data if permitted by the<br />

user. CV can be larger than HV and therefore display more content. Like HV<br />

it is only accessible for the user himself and can access the same data as HV.<br />

PV can be as large as CV and is displayed inside the user’s profile page,<br />

11 http://wiki.opensocial.org/index.php?title=Containers (checked Jan 17, 2011)


460 Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

which is available to other users depending on the user’s permissions. Apart<br />

from the owner’s data, PV can also access data of the user viewing the app<br />

on another user’s profile page (if the viewer permits).<br />

3 Use Cases<br />

The prototypical implementation of our app on iGoogle 12 demonstrates number<br />

1 to 6 of the use cases described and depicted in fig. 3. The app provides<br />

the functionality of our web portal (Fries, Henrich 2010a) and has additional<br />

advantages: (1) The project partners (companies and lecturers) are already<br />

using Xing to manage their business contacts; our app valorizes the wellknown<br />

environment. (2) Accessing users’ interests via OS, co-op offers can<br />

be ordered and filtered accordingly. (3) Users’ friends are informed about the<br />

app when browsing status updates or visiting profile pages. (4) Users can<br />

easily recommend the app within the SN. (5) The SN profile can be used to<br />

identify and authorize users for personalized features of the web portal. (6)<br />

Lecturers, companies and students can communicate via the SN with others<br />

that have added the app.<br />

The OS version of our app supports three in most SNs available views (cf.<br />

chapter 2). The HV with very limited display size provides the three most<br />

appropriate co-op offers for the user. It is placed on the homepage of the user<br />

that has installed the app when he logs in to the SN. The CV and PV of the<br />

app provide the same functionality as our web portal, but the co-op offers are<br />

ordered by relevance for the user who has installed the app (CV) or who<br />

views the app (PV). Fig. 2 depicts the relationship between the views. When<br />

the user logs in to the network, he finds the HV, containing the three co-op<br />

offers that best match his interests. If he clicks on “more co-op offers” the<br />

larger CV is displayed, containing all available co-op offers ordered by relevance<br />

for his interests, a basic search field and advanced search and filter<br />

options. If the user clicks on a co-op offer in HV or CV, a course overview is<br />

displayed in CV, giving a description as well as links for participation, further<br />

information and the lecturer’s contact data. If the user clicks on a lecturer’s<br />

name or picture (HV) or on the “lecturer’s details” link (course over-<br />

12 http://www.google.de/ig/directory?q=lms4kmu (checked Jan 17, 2011)


Integrating industrial partners into e-teaching efforts 461<br />

view in CV), the lecturer’s contact data are displayed in CV. If a user that has<br />

not installed the app (yet) finds it on another users profile or gets a recommendation,<br />

he can access the PV, which is similar to the CV.<br />

Fig. 3 depicts the eight use cases (UC) our OS app is designed for. UCs 1<br />

to 6 have already been implemented in our prototype, UCs 7 and 8 are to be<br />

implemented next. UC 1 allows to look for an interesting co-op offer. Having<br />

logged in, the user finds the top three co-ops for his interests in the app’s HV<br />

on his Xing homepage and can click on an offer to get more information<br />

about it or click on “see more offers” to get the full list (in both cases the CV<br />

is being displayed). UC 2 starts with a Xing user finding the app (by reading<br />

in the status updates that a friend has installed the app or joined a co-op,<br />

watching another user’s profile, getting a recommendation from another user<br />

or browsing the list of available apps). When he opens the app, the PV is<br />

displayed, showing all available offers (ordered by his interests if permitted).<br />

He can use most of the features of the portal and install the app to get full<br />

access. UC 3 is about searching for co-ops. The user can just type in a keyword<br />

to the search field (CV or PV) and the app will display matching co-ops<br />

only. He can also use the advanced search where he can define which fields<br />

(co-op title, description, information for companies, lecturer name) should be<br />

included in the search and which criteria (current semester, co-op type, lecture<br />

type) the possible co-ops have to fulfill. UC 4: When the user has fo<strong>und</strong><br />

an interesting-looking co-op in any view, he can get more details about it by<br />

clicking on the co-op name. When he gets a recommendation, clicking the<br />

recommendation link also displays the co-op details (after the user has installed<br />

the app). The view changes to CV in any case. UC 5 allows contacting<br />

the lecturer for a co-op. It is possible to click on the lecturer’s name next<br />

to a co-op offer in any of the three views (HV also provides a clickable picture)<br />

or click on “contact data” (course overview in CV or PV). If the lecturer<br />

is present at Xing himself, the user is forwarded to his Xing profile page,<br />

showing his current contact data. If the lecturer does not have a Xing profile,<br />

the app shows the lecturer’s picture, office address, university webpage,<br />

email address and telephone number in CV or PV.<br />

UC 6: When the user has decided to join a co-op, he can click on the corresponding<br />

link (in course overview). If he declares not to have a user account<br />

for the university LMS yet, the self-registration page for the LMS<br />

opens in a new browser tab. As soon as the user has registered to the LMS,<br />

he can enter his user name and password and “auto-enroll”. The app enrolls<br />

him to the course and provides a link for direct access to the course page.


462 Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

UC 1<br />

UC 2<br />

UC 3<br />

UC 4<br />

UC 5<br />

UC 6<br />

UC 7<br />

User logs in<br />

User finds<br />

app or gets<br />

recommend.<br />

User opens<br />

Canvas View/<br />

Profile View<br />

User fo<strong>und</strong> co‐<br />

op in any view<br />

Click lecturer<br />

name or picture<br />

(Home View)<br />

Click lecturer<br />

name (Canvas/<br />

Profile View)<br />

Click "contact<br />

data" (course<br />

details)<br />

User reads<br />

course details<br />

App requests<br />

enrolment from<br />

server<br />

Server enrols<br />

user to co‐op<br />

User clicks<br />

"offer co‐op" in<br />

Home/Canvas<br />

Admin approves<br />

new co‐op offer<br />

User clicks<br />

"recommend" in<br />

course overview<br />

Xing checks if<br />

friend already<br />

installed app<br />

UC 8<br />

yes<br />

no<br />

Xing displays<br />

Profile View<br />

(friend=viewer)<br />

Homepage with<br />

app’s Home<br />

View appears<br />

User opens app<br />

User types<br />

keyword in<br />

search field<br />

User opens<br />

advanced search<br />

options<br />

User clicks on<br />

course name<br />

User clicks "join<br />

co‐op"<br />

Users clicks<br />

"automatically<br />

enrol"<br />

App displays<br />

"enrolment<br />

successfull"<br />

App changes to<br />

Canvas View<br />

System<br />

administrator<br />

checks data<br />

Display Xing’s<br />

form for sending<br />

messages<br />

Friend clicks on<br />

recommen‐<br />

dation link<br />

Xing displays<br />

Home View<br />

(friend=owner)<br />

App displays<br />

recommended<br />

co‐op‘s details<br />

App sends users<br />

interests to<br />

server<br />

Display Profile<br />

View (by viewer<br />

interests)<br />

User clicks "start<br />

search"<br />

User changes<br />

search settings<br />

Server request<br />

Check if lecturer no<br />

has Xing profile<br />

yes<br />

Change to<br />

lecturer’s Xing<br />

profile<br />

Display<br />

participation<br />

options<br />

User fills in his<br />

VC user name<br />

and password<br />

Users clicks "to<br />

course page in<br />

VC"<br />

Co‐op details<br />

form is<br />

displayed<br />

Co‐op data and<br />

contact data are<br />

saved<br />

Insert<br />

recommend.<br />

text/co‐op link<br />

User’s friend<br />

gets recommen‐<br />

dation message<br />

App displays<br />

recommended<br />

co‐op‘s details<br />

Friend installs<br />

app<br />

Server sends<br />

Top 3 co‐ops for<br />

interests<br />

User installs app<br />

App sends<br />

search request<br />

to server<br />

Change to<br />

Canvas View<br />

Change to<br />

Canvas View<br />

User clicks<br />

"register to VC"<br />

Display VC<br />

course page in<br />

new tab<br />

User inputs data<br />

about co‐op idea<br />

App sends form<br />

data and profile<br />

data to server<br />

User chooses<br />

reveiver(s) out<br />

of his friend list<br />

App sends<br />

recommend. to<br />

user’s friend(s)<br />

Friend joins<br />

co‐op<br />

Fig. 3: Use cases of our OpenSocial application<br />

User navigates<br />

to Canvas View<br />

for more co‐ops<br />

Matching co‐ops<br />

are displayed<br />

Course details<br />

are displayed<br />

Display<br />

lecturer’s<br />

contact data<br />

Display VC page<br />

for registration<br />

in new tab<br />

User registers to<br />

VC<br />

User clicks<br />

submit button<br />

App retrieves<br />

user’s profile<br />

data from Xing<br />

User customi‐<br />

zes recommen‐<br />

dation text<br />

User clicks<br />

"send recom‐<br />

mendation"<br />

Look for interesting co‐op<br />

Find, try out and install app<br />

Search for co‐operations<br />

Get co‐operation details<br />

Contact lecturer<br />

Join co‐operation<br />

Offer co‐operation<br />

[not yet implemented]<br />

Recommend<br />

co‐operation<br />

[not yet implemented]


Integrating industrial partners into e-teaching efforts 463<br />

UCs 1 to 6 are derived from the UCs of our web portal and are also available<br />

for users/viewers that do not allow the app to access their profile data.<br />

UC 7 and 8 explicitly require access to the user’s profile. UC 7: Company<br />

members can offer co-op ideas to lecturers by entering their idea and the<br />

possible co-op type in a form in CV. The app sends these together with the<br />

user’s contact data to our server, where they are checked and added to the<br />

available co-ops. Also lecturers can add ideas about future courses, mutually<br />

planned with companies, to the portal. UC 8 provides a convenient possibility<br />

to recommend co-ops between users of the SN. When a user finds a co-op<br />

offer that could be interesting for a friend, he can just click on “recommend”<br />

(course overview). The app will then open a standard message sending dialogue<br />

of the SN and insert the subject, a default recommendation text and a<br />

direct link to the co-op offer to the message. The user can then choose the<br />

receiver(s) of the message from his friends list and change the text or subject.<br />

The friend(s) receive the message and can click on the link. If the friend has<br />

already installed the app, the CV opens, displaying the course overview. If<br />

the friend has not installed the app yet, the senders PV of the app displays the<br />

course details and the friend can install the app.<br />

4 Implementation and Experiences<br />

We have developed an OpenSocial app for Xing first, because its target audience<br />

highly resembles ours. As Xing does not allow general access to the<br />

developer’s sandbox, we started developing and testing our app using the OS<br />

Development Environment 13 (OSDE) for Eclipse, based on Apache Shindig 14<br />

(Häsel, Rieke 2009). Apart from a required XML file, specifying metadata<br />

and views (Grewe, 2009), we have implemented the app completely in<br />

JavaScript. Most of the code from the existing web portal could be adopted in<br />

a straightforward way. Functions handling AJAX requests had to be adapted<br />

to work with OS’s AJAX mechanism. Functions accessing users’ profile data<br />

had to be implemented and the app had to meet Xing’s corporate design.<br />

Apart from our Shindig server, we also tested our app on iGoogle, where it is<br />

13 http://code.google.com/p/opensocial-development-environment (checked Jan 17, 2011)<br />

14 http://shindig.apache.org (checked Jan 17, 2011)


464 Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

still available 15 . Unfortunately, Xing rejected our concept and app prototype<br />

immediately, possibly due to restrictive app permission policies.<br />

We then offered our app to LinkedIn, which has a similar target group as<br />

Xing, but a more international focus. In contrast to Xing, LinkedIn does not<br />

ask for a detailed concept paper, but offers a web form, where one can briefly<br />

describe the app idea 16 . Unfortunately, we have only received an automatic<br />

reply, but no decision about acceptance or rejection of our app from LinkedIn<br />

so far. At present we concentrate on VZ and FB, which are not as business<br />

oriented, but reach a lot of people and have less strict demands for third party<br />

apps. On both platforms getting access to the developer’s sandbox is straightforward<br />

and allows testing the app directly within the SN.<br />

We started developing the FB version as “App on Facebook.com” – rendered<br />

on our own server and integrated into FB as iframe. Just entering the<br />

URL of our existing web portal was sufficient for the start. Accessing the<br />

user’s profile data and integrating FB widgets (“Like” button) are the upcoming<br />

targets. On VZ, the previously developed OS version works in principle.<br />

VZ, however, supports different views than Xing and has different size restrictions.<br />

Also some of our JavaScript DOM manipulations seem to be<br />

overwritten by VZ’s CSS styles.<br />

Privacy policies<br />

The SNs follow different approaches to protect their users’ data. Xing apps<br />

can only access data declared to be public by the user and the contact list of<br />

the user who installed the app. Data of viewers, not having installed the app,<br />

are protected. VZ uses a system of virtual business cards which the users<br />

create and allocate to their installed apps. Besides basic information, the app<br />

may only access the information given on each vcard or if necessary ask the<br />

user to update his vcard. Accessing viewers’ data is not possible. Additionally,<br />

Xing and VZ demand links to the general business terms and to the<br />

privacy policy of the app provider in each rendered view. On FB all apps can<br />

access general information like the user’s and his friends’ names, the profile<br />

picture URL and his unique user ID as well as all information with visibility<br />

level “Everyone”. Furthermore the user can define privacy settings applying<br />

to all apps and different settings for individual apps. FB was recently criti-<br />

15 http://www.google.de/ig/directory?q=lms4kmu (checked Jan 17, 2011)<br />

16 http://developer.linkedin.com/themes/linkedin-home/form-inapps.html (Jan 17, 2011)


Integrating industrial partners into e-teaching efforts 465<br />

cized for allowing apps to access viewers’ data by default (Lischka, 2010).<br />

To be trustworthy, our app only requests those fields of user data absolutely<br />

necessary to provide its functionality and basic features of the app are available<br />

for users, who do not allow profile access at all. It will also not send<br />

messages to the user’s friends unless he agrees.<br />

5 Outlook<br />

SNs provide handy interfaces for third party developers to utilize users’ social<br />

graphs and profile data to increase an app’s range and usability. Most<br />

SNs provide Google’s OS API, allowing the development of platformindependent<br />

apps. The most popular SN FB, however, requires an individual<br />

implementation. Business-oriented SNs like Xing and LinkedIn provide a<br />

more homogenous and less entertainment-oriented user group than FB and<br />

VZ, but have stricter app acceptance policies. Our prototypical OS implementation<br />

fulfills its purpose and works fine on iGoogle and in the sandbox<br />

of VZ. The existing web portal can be included into FB as iframe. We will<br />

enhance it with FB widgets and access to the social graph. This way we will<br />

be able to implement two advanced use cases in the OS and FB app version<br />

as well as in our web portal version (using “FB for Websites”).<br />

To reach new users we also want to provide apps for smartphones. A<br />

slightly modified version of our web portal 17 already works on Adobe Air 18 ,<br />

which has lately been released for Android 2.2 19 . We also plan to implement<br />

versions for iOs, Symbian and Windows Phone 7 utilizing the special features<br />

of the mobile devices (touch screen etc.) to increase convenience and<br />

user experience.<br />

17 http://www.tobiasfries.de/lms4kmu/lms4kmu.air (checked Jan 17, 2011)<br />

18 http://www.adobe.com/de/products/air (checked Jan 17, 2011)<br />

19 http://www.heise.de/newsticker/meldung/Adobe-Air-fuer-Android-verfuegbar-<br />

1104071.html (published Oct 10, 2010)


466 Tobias Fries, Sebastian Boosz, Andreas Henrich<br />

References<br />

Braun, H. (2010). Microsoft <strong>und</strong> Facebook arbeiten gemeinsam an Bing. In: c’t<br />

23/2010: Heise, p. 30.<br />

Briegleb, V. (2010). Xing mit bisher bestem Quartalsergebnis. Heise online Newsticker.<br />

http://www.heise.de/newsticker/meldung/Xing-mit-bisher-bestem-Quartalsergebnis-<br />

1054604.html (Retrieved October 14, 2010)<br />

Fries, T.; Henrich, A. (2010a). Integrating Industrial Partners into e-Teaching Efforts<br />

– a Portal to Support the Initiation of Co-operations. In: IADIS eLearning 2010<br />

(IADIS International Conference e-Learning 2010). Freiburg.<br />

Fries, T.; Henrich, A. (2010b). Integrating Industrial Partners into e-Teaching Efforts<br />

– legal pitfalls and circumventions. In: Book of Abstracts 2010 (Online EDUCA<br />

Berlin 2010). Berlin.<br />

Graham, W. (2008). Facebook API Developers Guide. New York: Apress.<br />

Grewe, L. (2009). OpenSocial Network Programming. Indianapolis: Wiley Publishing,<br />

Inc.<br />

Häsel, M.; Iacono, L. (2010). Soziale Netze mit OpenSocial erweitern – Offene Beziehung.<br />

In: iX 6/2010: Heise, pp. 134–140.<br />

Häsel, M.; Rieke, K. (2009). Aktuelles Schlagwort – OpenSocial. In: Informatik<br />

Spektrum 32/3, 2009: pp. 250–254.<br />

Henrich, A.; Sieber, S.; Wolf, S. (2007). Integration eines hochschulweiten LMS in<br />

die Systemlandschaft einer Hochschule – ein pragmatischer Ansatz. In: Flexibel<br />

integrierbares e-Learning – Nahe Zukunft oder Utopie?: Proc. Workshop on<br />

e-Learning 2007. Leipzig: Hochschule für Technik, Wirtschaft <strong>und</strong> Kultur, pp.<br />

57–76.<br />

Krutisch, J. (2010). Facebook-Schnittstelle für Entwickler. In: iX 10/2010: Heise, pp.<br />

38–43.<br />

Lischka, K. (2010). Facebook-Anwendungen reichen unerlaubt Nutzerdaten weiter.<br />

Spiegel Online. http://www.spiegel.de/netzwelt/web/0,1518,723636,00.html<br />

(Retrieved October 28, 2010)<br />

Wartala, R. (2008). Anwendungen mit der Opensocial-API entwickeln. In: iX<br />

9/2008: Heise, pp. 54–60.


E-Learningkurs Globalisierung 467<br />

E-Learningkurs Globalisierung<br />

Konzeption <strong>und</strong> Evaluation eines Beispielkurses<br />

Christopher Stehr 1 , Melanie Hiller 2<br />

1<br />

German Graduate School of Management & Law (GGS)<br />

Bahnhofstr. 1, 74072 Heilbronn<br />

christopher.stehr@ggs.de<br />

Zusammenfassung<br />

2 Universität Ulm<br />

Helmholtzstr. 22, 89081 Ulm<br />

melanie.hiller@uni-ulm.de<br />

Das Themenfeld Globalisierung steht beispielhaft für komplexe Kursinhalte,<br />

die ob ihres Umfanges nicht zur Gänze über e-Learning-Konzepte geschult<br />

werden können. Im Vordergr<strong>und</strong> des vorliegenden Kursdesigns stehen daher<br />

die wesentlichen fachlichen <strong>und</strong> inhaltlichen Dimensionen. Die Entwicklung<br />

einer eigenen Position zum Thema Globalisierung im Diskurs mit einer Lerngruppe<br />

ist eines der zentralen Lernziele. Im Rahmen dieses Artikels werden<br />

die wichtigsten Herausforderungen <strong>und</strong> die Umsetzungsmöglichkeiten eines<br />

solchen e-Learningkonzeptes anhand eines Praxisbeispiels aus der Bildungsarbeit<br />

themen- <strong>und</strong> kontextspezifisch diskutiert.<br />

Abstract<br />

The subject <strong>global</strong>ization as an e-learning content seems to be too complex to<br />

be thought. The whole matter has to include the specific <strong>global</strong>ization content<br />

and state of the art. Besides, a target of such a course should also be teaching<br />

of individual competences and developing critical reflection abilities within<br />

an e-learning group. Chosen from a concrete successfully implemented elearning<br />

course on <strong>global</strong>ization, the following article will discuss possibilities,<br />

risks and challenges of this course design.


468 Christopher Stehr, Melanie Hiller<br />

1 Einleitung <strong>und</strong> Problembeschreibung<br />

E-Learningangebote zum Themenfeld Globalisierung unterliegen besonderen<br />

Herausforderungen bei der <strong>Wissen</strong>svermittlung. Neben einem wertneutralen<br />

Zugang zum Inhalt müssen die Lernenden selbständig die Vor- <strong>und</strong> Nachteile<br />

von Globalisierungsprozessen beurteilen können, um die Kompetenz auszubilden,<br />

sich selbstgesteuert <strong>und</strong> reflektiert an Globalisierungsprozessen zu<br />

beteiligen. Wie ist es also möglich, einen e-Learning-Kurs zum Thema Globalisierung<br />

so zu gestalten <strong>und</strong> so tutoriell zu begleiten, dass dieses Lernziel<br />

erfolgreich erreicht wird? Auf welcher Plattform ist dies am besten umzusetzen?<br />

Steht der Entwicklungs- <strong>und</strong> Betreuungsaufwand in Relation zum<br />

(Lern-) Erfolg? Das sind die zentralen Fragen, die in diesem Beitrag bearbeitet<br />

<strong>und</strong> beantwortet werden.<br />

Die empirische Gr<strong>und</strong>lage hierzu bietet die Evaluation eines bestehenden<br />

Kurses eines Anbieters aus der außerschulischen Erwachsenenbildung. Das<br />

tutorengestützte, berufsbegleitende Angebot wurde bis ins Jahr 2010 insgesamt<br />

zwölf Mal über einen Zeitraum von vier bis acht (insgesamt 400 Teilnehmer)<br />

durchgeführt. Die mit diesen Teilnehmern durchgeführte formative<br />

<strong>und</strong> summative Evaluation, inklusive einer Befragung des Entwickler- <strong>und</strong><br />

des Tutorenteams (Triangulation), bilden die empirische Basis der nachfolgenden<br />

Ausarbeitung.<br />

2 Gr<strong>und</strong>lagen der Konzeption von e-Learning<br />

E-Learning als Begriff gehört zu den definitorisch vielseitig verstandenen<br />

Termini. Im Folgenden wird e-Learning im weit gefassten Sinne als ein übergeordneter<br />

Begriff für softwareunterstütztes Lernen verstanden [Baumgartner<br />

et al. 2002] 1 , das verschiedene Lernformen <strong>und</strong> Schwerpunktsystematiken<br />

zusammengefasst. Diese werden per <strong>Information</strong>stechnologie unterstützt<br />

[Moser 2010]. Neben reinen Content-Management-Systemen, die nur der<br />

<strong>Information</strong>sbereitstellung dienen, stehen auch Learning-Communities auf<br />

1 Ein Überblick über technische Systeme findet sich u.a. in [Niegemann et al. 2008].<br />

S. 457 ff.


E-Learningkurs Globalisierung 469<br />

Basis des Austauschs mehrerer Lernender [Dietinger 2001] zur Verfügung.<br />

Interaktive wie individuelle Lernprozesse werden in Learning-Managment-<br />

Systemen (LMS) abgebildet. 2<br />

Ziele eines e-Learning-Einsatzes sind u.a. Kostenreduktion [Moser 2010],<br />

zeitliche <strong>und</strong> örtliche Flexibilität [Leidhold 2001; Mair 2005], die eine berufs-<br />

oder tätigkeitsbegleitende Einbindung ermöglicht [Risku, Peschel<br />

2010], <strong>und</strong> die Nachhaltigkeit [Lehmann 2002; Baume 2009] des Lernprozesses.<br />

Zusätzlich können solche e-Learningkomponenten mit Präsenzveranstaltungen<br />

gekoppelt werden (Blended Learning) [Back et al. 2001; Euler<br />

2002; Reß 2003]. Für den Erfolg einer e-Learning-Maßnahme werden die<br />

Selbstlernfähigkeiten des Lernenden [Eichelberger et al. 2009] <strong>und</strong> die adäquate<br />

technische Umsetzung gefordert [Hagedorn 2002]. Für die Erstellung<br />

dieses Kurskonzeptes wurden daher neben den bereits oben genannten vor<br />

allem die Faktoren qualifizierte Begleitung [Frankfurth 2010], klar kommunizierte<br />

<strong>und</strong> durchgeführte Organisation von Zeit <strong>und</strong> Inhalten, engagierte,<br />

innovationsfreudige <strong>und</strong> lerninteressierte Teilnehmer, optimale technische<br />

Nutzungsvoraussetzungen sowie attraktiver, abwechslungsreicher Medieneinsatz<br />

[Hagedorn 2002] <strong>und</strong> Orientierung an der Handlungswirklichkeit der<br />

Teilnehmer zur Erleichterung des Transfers [Krause 2004] als bestimmend<br />

für den Lernerfolg identifiziert.<br />

3 Globalisierung als Lerninhalt<br />

Das Thema Globalisierung steht als Synonym für ein komplexes, besetztes 3 ,<br />

vom Lernenden inhaltlich nur schwer zu kategorisierendes <strong>und</strong> zu überblickendes<br />

Lernthema, 4 dessen Rezeption nur im Austausch mit einem themen-<br />

2 Unter Interaktivität wird Adaptionsfähigkeit des Systems wie Kommunikation mit<br />

Lernenden <strong>und</strong> Tutoren gleichermaßen verstanden. Vgl.: [Haak 02], S. 128.<br />

3 Als zwei ausgewählte Beispiele aus den Anfängen der in Deutschland z.T. emotional<br />

geführten Globalisierungsdebatte: Vgl. Forrester (1997) <strong>und</strong> Martin/Schumann (1998),<br />

neue Ansätze u.a. vgl. Weißeno (2008).<br />

4 Google-Hits (Eingabe Begriff Globalisierung) im Februar 2008: 3,39 Mio., im Januar<br />

2011: 4,55 Mio. Listungsergebnisse. Eingabe des Begriffes Globalisierung bei Amazon:<br />

im Juli 1999: 194 Bücher (vgl. Altvater/Mahnkopf (2002), S. 19), im Januar 2011:<br />

27.214 Bücher.


470 Christopher Stehr, Melanie Hiller<br />

erfahrenen Lehrenden verwirklicht werden kann. Darüber erfolgt je nach<br />

Standpunkt <strong>und</strong> Betroffenheit eine persönliche wertende Kategorisierung<br />

[Debiel et al. 2006].<br />

Das zentrale Problem bei der Stoffreduktion <strong>und</strong> der Lernzielfestlegung<br />

ist also: ,Die Globalisierung‘ wird in der öffentlichen Diskussion <strong>und</strong> auf der<br />

persönlichen Ebene als psychologische Projektionsfläche verwendet. 5 Ein<br />

Lernangebot zu Globalisierung kann daher nicht nur auf reine <strong>Information</strong>svermittlung<br />

beschränkt sein, es muss Möglichkeiten beinhalten, eigene Einstellungen<br />

geführt zu hinterfragen <strong>und</strong> ggf. zu adaptieren, sowie eigenes<br />

Handeln kritisch zu überdenken <strong>und</strong> ggf. verändertes Verhalten vorzubereiten<br />

[Eichelberger et al. 2009; Seiler-Schiedt et al. 2006; Andriessen 2010].<br />

Eine Möglichkeit, die umfangreichen Lerninhalte zu reduzieren <strong>und</strong> an<br />

unterschiedliche Zielgruppen <strong>und</strong> Kenntnisstände anzupassen, ist die Modularisierung<br />

des Lernstoffs in verschiedene, voneinander unabhängige inhaltliche<br />

Module [Kübler 2008]. Im vorliegenden Beispiel wurde daher eine thematische<br />

Unterteilung in ein sogenanntes Gr<strong>und</strong>lagenmodul, sowie sieben<br />

weitere themenspezifische Wahlmodule vorgenommen. Jedes dieser Module<br />

besteht aus einer inhaltlichen Komponente, die den Schwerpunkt des Bausteins<br />

zunächst definitorisch <strong>und</strong> theoretisch vorstellt <strong>und</strong> wird auch in Form<br />

einer zusammenfassenden Druckversion (ca. 150 Seiten) <strong>und</strong> als Podcast zur<br />

Verfügung gestellt. Innerhalb der Themenbausteine werden zudem neben<br />

dem gr<strong>und</strong>lagenbildenden Selbstlernbereich (Inhaltliche Komponente) auch<br />

weiterführende Vertiefungsangebote <strong>und</strong> ein betreutes Forum mit Tages-,<br />

Wochen- <strong>und</strong> Kursaufgaben (Interaktive Komponente) angeboten.<br />

Da die Wahl der zu diesem Konzept passenden Lernplattform entscheidenden<br />

Einfluss auf Art <strong>und</strong> Ablauf der späteren Kursgestaltung hat [Baumgartner<br />

et al. 2002] 6 , wurde für den vorliegenden Kurs eine Entscheidung für<br />

die OpenSource-Lernplattform Moodle gefällt, da v.a. die kooperativen Lerninstrumente<br />

unter Moodle besser unterstützt werden [Leidhold 2001] <strong>und</strong> da<br />

das modulare Kursdesign dieses vorliegenden Kurses weitgehende Übereinstimmungen<br />

mit dem didaktischen Konzept der Lernplattform aufweist. Darüber<br />

hinaus wurden die Kriterien Systemkompatibilität, Autorentools/Management,<br />

Add-Ons, Usability, verfügbare Sprachversionen, sowie Anschaf-<br />

5 Zur öffentlichen Wahrnehmung vs. empirische Datenlage vgl. u.a. Speck (2009).<br />

6 Für einen Überblick über gängige Systeme vgl. [Baumgartner 2002] S. 47–295 sowie<br />

[Niegemann et al. 2008]. S. 457 ff.


E-Learningkurs Globalisierung 471<br />

fungs- <strong>und</strong> Unterhaltskosten berücksichtigt [Baumgartner 2002; Niegemann<br />

et al. 2008].<br />

4 Ergebnisse der Kursevaluation<br />

Die nachfolgenden Ergebnisse basieren auf einem triangulierten Analyseverfahren<br />

im Rahmen der Evaluation von zwölf durchgeführten Kursen (drei<br />

Kurse mit Präsenzeinheiten/Blended Learning) mit insgesamt r<strong>und</strong> 400 Teilnehmern.<br />

Die abschließende Evaluation mittels schriftlicher Teilnehmerbefragung<br />

fand in zwei Kursen im Rahmen einer Abschlussveranstaltung statt.<br />

Die restlichen 10 Kurse füllten die Befragung digital aus <strong>und</strong> sandten sie<br />

online ein. Die schriftliche Befragung umfasst u.a. Kriterien wie Zufriedenheit,<br />

subjektiver Lernerfolg, Zeitaufwand <strong>und</strong> Erfüllung der Erwartungshaltung,<br />

sowie offene Rückmeldungsmöglichkeiten zu Tutoren, zur Organisation<br />

(Zeitplan <strong>und</strong> -ablauf, Technik, im speziellen Funktionalität der Lernplattform)<br />

sowie zu Lerninhalten <strong>und</strong> Lernzielen. Darüber hinaus fand eine<br />

quantitative Auswertung der Aktivität der Lernenden via Logfileanalyse statt.<br />

Im Laufe von vier Wochen Kursdauer erreichen die aktivsten 10% der<br />

Teilnehmer ca. 1100 Views 7 , je nach Durchführung. 5–15% der Teilnehmer<br />

brechen den Kurs während der Laufzeit ab oder beginnen ihn erst gar nicht.<br />

Die restlichen Teilnehmer tätigen im Durchschnitt 450 Views. R<strong>und</strong> 65% der<br />

Lernenden beteiligen sich regelmäßig im Forum, je nach Aktivität mit<br />

5–10 Beiträgen pro Woche.<br />

Die Ergebnisse der Evaluationen ergaben in allen Kursen eine gleichartig<br />

hohe Zufriedenheit mit der tutoriellen Betreuung. Besonders hervorgehoben<br />

wurden im Rahmen der qualitativen Rückmeldungen die schnelle <strong>und</strong> kompetente<br />

Bearbeitung organisatorischer <strong>und</strong> inhaltlicher Rückfragen. Ebenso<br />

positiv bewertet wurden die individuellen inhaltlichen <strong>und</strong> persönlichen<br />

Rückmeldungen, sowie auch die Bestärkung durch Lob. Auch die vom Tutor<br />

eingebrachten tagesaktuellen Zusatzinformationen <strong>und</strong> Diskussionen über<br />

von Teilnehmern vorgebrachte Inhalte wurden als positiv rückgemeldet.<br />

Im Diskussionsforum aktive Teilnehmer meldeten eine höhere Zufriedenheit<br />

mit dem Kursverlauf <strong>und</strong> subjektiv bessere Lernfortschritte zurück. Eine<br />

7 Seitenaufrufe im inhaltlichen Bereich des Kurses.


472 Christopher Stehr, Melanie Hiller<br />

qualitative Inhaltsanalyse der Beiträge einzelner Teilnehmer ergab, dass sie<br />

einzelne Lerninhalte des Forums später in ihre Argumentationsketten bei der<br />

abschließenden Bearbeitung der Kursaufgabe integrierten. Diese Teilnehmer<br />

gaben allerdings ebenso an, deutlich mehr als die in der Kursbeschreibung<br />

zur Bearbeitung empfohlenen 3–4 St<strong>und</strong>en Zeit pro Woche investiert zu haben.<br />

Ihre Kursbearbeitungszeit lag bei durchschnittlich 9,5 St<strong>und</strong>en in der<br />

Woche.<br />

Das gebotene Fachwissen innerhalb des gesamten Kurskonzepts wurde<br />

von 85% der Teilnehmer als umfangreich bis sehr umfangreich bewertet<br />

(sechspolige Lieckertskala). Die qualitativen Rückmeldungen bezeichneten<br />

es v.a. als ansprechend <strong>und</strong> abwechslungsreich. Das verfügbare Angebot hat<br />

den Erwartungen der Teilnehmer (53%) entsprochen, sie bei 18% der Befragten<br />

sogar übertroffen. Die große Vielfalt <strong>und</strong> die Aktualität der eingestellten<br />

Themen, sowie deren qualitative Aufbereitung wurden in den qualitativen<br />

Rückmeldungen besonders oft als positiv genannt. Die Aktualität bzw. Tagesaktualität<br />

der Inhalte hat aus Sicht der Teilnehmer einen wesentlichen<br />

Beitrag zum Lernerfolg beigesteuert. 55% aller Teilnehmer gaben an, überdurchschnittlich<br />

sowie durchschnittlich (36%) zum Themenfeld Globalisierung<br />

<strong>und</strong> zu den inhärent vermittelten ,Globalisierungskompetenzen‘ (u.a.<br />

<strong>Information</strong>sverarbeitung, <strong>Wissen</strong>sgenerierung) gelernt zu haben. Auffallend<br />

zeigte sich auch: Die Zufriedenheit der Teilnehmer in nicht vorher festgelegten<br />

Themenkursen, also in Kursen, in denen die Wahlmodule erst nach einer<br />

Erwartungsabfrage zusammengestellt wurden, war höher. Diese erhielten signifikant<br />

bessere Bewertungen als von vornherein thematisch festgelegte Kurse,<br />

die als solche öffentlich ausgeschrieben waren. Von der technischen Seite<br />

her wurde die intuitive Handhabung der Lernplattform Moodle von über 67%<br />

aller Teilnehmer als Erfolgskriterium für die eigene hohe Lernbereitschaft<br />

<strong>und</strong> als letztendlich ausschlaggebend für den Lernerfolg genannt.<br />

5 Fazit<br />

Die dargestellten Besonderheiten in Bezug auf Inhalte <strong>und</strong> Kursablauf haben<br />

signifikante Auswirkungen auf eine Gestaltung von Lehr-Lern-Einheiten<br />

zum Thema Globalisierung <strong>und</strong> lassen Schlussfolgerungen über die Themen-


E-Learningkurs Globalisierung 473<br />

bereiche Gestaltung, Konzeption, Lernplattform, Lernerfolg, tutorielle Begleitung<br />

<strong>und</strong> Relation Aufwand zum Ertrag zu:<br />

Globalisierung als Inhalt <strong>und</strong> Stoffreduktion<br />

Das Thema Globalisierung in seiner gesamten Fülle <strong>und</strong> Tagesaktualität ist<br />

zu vielschichtig <strong>und</strong> zu umfangreich. Eine vollständige Vermittlung aller<br />

Inhalte ist daher erstrebenswert, allerdings unter der Kosten-Nutzen-Relation<br />

schwierig bis gar nicht umzusetzen (Relation Aufwand zum Ertrag). Daher<br />

liegt ein besonderer Fokus bei der Konzeption auf der Eingrenzung sowohl<br />

der wesentlichen Lerninhalte als auch der Lernziele. Trotz einer inhaltlichen<br />

Reduktion ist die schematische Darstellung der Komplexität, aber auch bewertungsrelevanter<br />

Kriterien der Chancen <strong>und</strong> Risiken der Globalisierungsprozesse<br />

(Gestaltung) ein wichtiger Bestandteil für den Lernerfolg der Teilnehmer.<br />

Die Rückmeldungen der schriftlichen Befragung bewerteten die<br />

Lernerfolge in Abhängigkeit zum eigenen Engagement <strong>und</strong> Vorwissen als<br />

gut bis sehr gut, hierbei wurden insbesondere die angebotenen Vertiefungsmöglichkeiten<br />

als besonders positiv bewertet.<br />

Modularisierter Aufbau <strong>und</strong> tutorielle Betreuung<br />

Aus der letztendlich durchgeführten Beschränkung der Inhalte bei gleichzeitiger<br />

größtmöglicher Flexibilität gegenüber dem Lernenden ergibt sich<br />

zwangsläufig ein modularer Aufbau. Bei Lerneinheiten ohne vorgeschriebene<br />

curriculare Anforderungen bietet sich insbesondere eine Orientierung <strong>und</strong><br />

Ausrichtung an der Teilnehmererwartung an, was die Teilnehmerzufriedenheit,<br />

wie auch in diesem Fall, steigert. Das modulare <strong>und</strong> flexible Konzept ermöglichte<br />

es, die Stofftiefe an die Vorkenntnisse <strong>und</strong> die Motivation der<br />

Teilnehmer anzupassen (Konzeption). Die Evaluation zeigt, dass v.a. die<br />

Ausrichtung auf die Teilnehmerinteressen als auch die intensive individualisierte<br />

tutorielle Betreuung zu signifikant besser bewerteten Lernerfolgen beitrug.<br />

Kompetenz <strong>und</strong> Auswahl der Tutoren<br />

Die inhaltliche <strong>und</strong> didaktische Qualifikation der Tutoren ist letztendlich ein<br />

entscheidendes Moment. Die Tutoren müssen über weitaus mehr als rudimentäres<br />

Globalisierungswissen verfügen. Kenntnisse der Standard- <strong>und</strong><br />

Sek<strong>und</strong>ärliteratur gehören ebenso zur Gr<strong>und</strong>voraussetzung wie die Bereitschaft<br />

zur kontinuierlichen Weiterbildung <strong>und</strong> zur Lektüre der aktuellen Berichterstattung.<br />

Gr<strong>und</strong>sätzlich erforderlich ist eine wertneutrale Vermittlungs-


474 Christopher Stehr, Melanie Hiller<br />

bereitschaft zum Themenkomplex Globalisierung, ebenso wie Erfahrung mit<br />

den Möglichkeiten der Lernplattformen, sowie mit didaktischen Möglichkeiten<br />

des e-Learning. Der menschliche Faktor ist nicht nur auf Tutorenebene<br />

entscheidend. Insbesondere die hohe intrinsische Motivation der Teilnehmer<br />

spielt neben der Empathie <strong>und</strong> dem Engagement der Dozenten bzw. Tutoren<br />

eine zentrale Rolle (Tutorielle Begleitung). Versäumnisse in diesem Bereich<br />

machen sich sofort bemerkbar <strong>und</strong> einen Erfolg eines solchen e-Learningkurses<br />

unmöglich. Allerdings schmälern der hier beschriebene hohe Aufwand<br />

bei der Auswahl der Tutoren sowie bei der tutoriellen Begleitung die<br />

Relation Aufwand zum monetären Ertrag – aber eben nicht zum ,pädagogischen<br />

<strong>und</strong> didaktischen <strong>Wissen</strong>s-Ertrag‘ (Lernerfolg).<br />

Globalisierungskompetenzen entwickeln <strong>und</strong> stärken<br />

Neben Fakten <strong>und</strong> <strong>Information</strong>en spielt bei der Bewertung von Globalisierungsprozessen<br />

die individuelle Erfahrung <strong>und</strong> Positionierung des Lernenden<br />

eine wesentliche Rolle. So sollte der Lernende bei gleichzeitiger Ambiguitätstoleranz<br />

dennoch die Flexibilität gewinnen, Globalisierung aus anderer<br />

Sichtweise heraus zu interpretieren (zentrales Lernziel). Hierzu sind entsprechende<br />

Lernmethoden in die – sich in diesem Kurs sehr bewährt habende –<br />

Plattform Moodle (Lernplattform) integriert bzw. zu integrieren, wie z.B.<br />

Rollenspiele <strong>und</strong> gezielte Übungen mit Perspektivwechsel. Es zeigte sich bei<br />

der quantitativen Auswertung der Teilnehmeraktivität, dass die spielerischen<br />

Elemente im betreuten Forum besonders hohe Beteiligungen erzielten. Gleiches<br />

gilt für Perspektivwechsel-Tagesaufgaben. Zu Kursbeginn sind die dortigen<br />

Beteiligungen deutlich umfangreicher als bei <strong>Wissen</strong>s- oder Rechercheaufgaben.<br />

Es ist daher davon auszugehen, dass diese vorwissen-unabhängigen<br />

Aufgaben die Hemmschwelle zur aktiven Beteiligung im Forum herabsetzen,<br />

was im Verlauf der weiteren Forschung untersucht werden soll.<br />

References/Literaturverzeichnis<br />

Altvater, E.; Mahnkopf, B. (2002): Grenzen der Globalisierung. 5. Aufl. Münster.<br />

Andriessen, F. (2010): Europa. In Bohr-Jankowski, K,; Jankowski, H.-D. (Hrsg.):<br />

Europa 2010 – Das Ende der Solidarität? München. S. 15–18.


E-Learningkurs Globalisierung 475<br />

Arnold, P; Mayrberger, K.; Merkt, M. (2006): E-Learning als Prozessinnovation<br />

zwischen Strategie <strong>und</strong> Didaktik- am Beispiel des Change Management Projekts<br />

„KoOP“ der Hamburger Hochschulen. In Seiler Schiedt, E.; Kälin, S.; Sengstag,<br />

C. (Hrsg.): E-Learning – alltagstaugliche Innovation? Münster. S. 27–36.<br />

Back, A.; Bendel, O.; Stoller-Schai, D. (2001): E-Learning im Unternehmen. Gr<strong>und</strong>lagen<br />

– Strategien – Methoden – Technologien. Zürich.<br />

Baume, M. (2009): Computerunterstützte Planspiele für das <strong>Information</strong>smanagement:<br />

Realitätsnahe <strong>und</strong> praxisorientierte Ausbildung in der universitären Lehre<br />

am Beispiel der „CIO-Simulation“. Norderstedt.<br />

Baumgartner, P.; Häfele, H.; Maier-Häfele, K.(2002): E-Learning Praxishandbuch,<br />

Auswahl von Lernplattformen. Marktübersicht – Funktionen – Fachbegriffe.<br />

Innsbruck.<br />

Beck, U. (1997): Was ist Globalisierung? Frankfurt am Main.<br />

Bhagwati, J. (2004): In Defense of Globalization. Oxford.<br />

Debiel, T.; Messner, D.; Nuscheler, F. (2006): Globale Trends 2007. Bonn.<br />

Dietinger, T. (2001): GENTLE BWT. Der sanfte Einstieg in die virtuelle Hochschule.<br />

In Albrecht, R.; Wagner, E. (Hrsg.): Lehren <strong>und</strong> Lernen mit neuen Medien.<br />

Plattformen Modelle Werkzeuge. Münster, New York, München, Berlin. S. 59<br />

bis 68.<br />

Dohmen, D.; Michel, L. P. (2003): Marktpotentiale <strong>und</strong> Geschäftsmodelle für eLearning-Angebote<br />

deutscher Hochschulen. Bielefeld.<br />

Dörr, G.; Strittmatter, P. (2002): Multimedia aus pädagogischer Sicht. In (Issing, L.<br />

J.; Klimsa, P., (Hrsg.): <strong>Information</strong> <strong>und</strong> Lernen mit Multimedia <strong>und</strong> Internet.<br />

Lehrbuch für Studium <strong>und</strong> Praxis. 3. vollständig überarbeitete Auflage. Weinheim.<br />

S. 29–44.<br />

Eichelberger, H.; Stary, C. et al (2009): Unterrichtsentwicklung via eLearning. München.<br />

Euler, D. (2002): From Connectivity to Community. Elektronische Medien als Katalysator<br />

einer Kultur des selbstorganisierten Lernens im Team. In Spoun, S.;<br />

W<strong>und</strong>erlich, W. (Hrsg.): Medienkultur im digitalen Wandel. Prozesse, Potenziale,<br />

Perspektiven. Facetten einer Medienkultur. Bd. 2. Bern. S. 205–226.<br />

Forrester, V.(1997): Der Terror der Ökonomie. Wien.<br />

Frankfurth, A. (2010): e-Learning-Architekturmanagement. Kassel.<br />

Haak, J. (2002): Interaktivität als Kennzeichen von Multimedia <strong>und</strong> Hypermedia. In<br />

Issing, L. J.; Klimsa, P. (Hrsg.): <strong>Information</strong> <strong>und</strong> Lernen mit Multimedia <strong>und</strong> Internet.<br />

Lehrbuch für Studium <strong>und</strong> Praxis. 3. vollständig überarbeitete Auflage.<br />

Weinheim. 127–138.


476 Christopher Stehr, Melanie Hiller<br />

Hagedorn, F. (2002): Wann ist E-Learning erfolgreich? Das netzbasierte Lernen<br />

vermittelt nicht nur Kompetenzen, sondern setzt auch welche voraus. In Lehmann,<br />

B.; Bloh, E., (Hrsg.): Online-Pädagogik. Hohengehren. S. 201–207.<br />

Johannsen, A.; Böhmer, T.; Krcmar, H. (2001): In Hesse, F. W.; Friedrich, H. F.<br />

(Hrsg.): Partizipation <strong>und</strong> Interaktion im virtuellen Seminar. Münster. S. 217 bis<br />

242.<br />

Krause, S. (2004): Situiertes Lernen in virtuellen Realitäten – die Didaktik der neuen<br />

Medien?. In Rinn, U.; Meister, D. M. (Hrsg.): Didaktik <strong>und</strong> neue Medien. Konzepte<br />

<strong>und</strong> Anwendungen in der Hochschule. Münster. S. 197–208.<br />

Kubler, H.-D. (2008): Mythos <strong>Wissen</strong>sgesellschaft: Gesellschaftlicher Wandel zwischen<br />

<strong>Information</strong>, Medien <strong>und</strong> <strong>Wissen</strong>. Eine Einführung. Wiesbaden.<br />

Lehmann, B. (2002): Konzeption von <strong>und</strong> Erfahrung mit netzbasiertem Lehren <strong>und</strong><br />

Lernen. In: Lehmann B.; Bloh E. (Hrsg.): Online-Pädagogik. Hohengehren. S.<br />

323–340.<br />

Leidhold, W. (2001): ILIAS. Entwicklung des Integrierten Lern-, <strong>Information</strong>s- <strong>und</strong><br />

ArbeitskooperationsSystems ILIAS – Konzeption <strong>und</strong> Einsatz. In Albrecht, R.;<br />

Wagner, E. (Hrsg.): Lehren <strong>und</strong> Lernen mit neuen Medien. Plattformen Modelle<br />

Werkzeuge. Münster, New York, München, Berlin. S. 27–44.<br />

Mair, D. (2005): E-Learning – Das Drehbuch. Handbuch für Medienautoren <strong>und</strong><br />

Projektleiter. Berlin.<br />

Mandl, H.; Gruber, H.; Renkl, A. (2002): Situiertes Lernen in multimedialen Lernumgebungen.<br />

In Issing, L. J.; Klimsa, P. (Hrsg.): <strong>Information</strong> <strong>und</strong> Lernen mit<br />

Multimedia <strong>und</strong> Internet. Lehrbuch für Studium <strong>und</strong> Praxis. 3. vollständig überarbeitete<br />

Auflage. Weinheim. S. 139–150.<br />

Martin, H-P; Schumann, H. (1998): Die Globalisierungsfalle. Der Angriff auf Demokratie<br />

<strong>und</strong> Wohlstand. Reinbeck bei Hamburg.<br />

Meister, D.; Tergan, S.-O.; Zentel, P. (2004): Evaluation von eLearning – eine Einführung.<br />

In Meister, D.; Tergan, S.-O.; Zentel, P. (Hrsg.): Evaluation von E-Learning:<br />

Zielrichtungen, methodologische Aspekte, Zukunftsperspektiven. Münster.<br />

S. 7–22.<br />

Messner, D. (2009): E-Learning – Vom Nutzen ohne direkten Nutzen: E-Medienkompetenz<br />

als Kulturtechnik, In Dittler, U. et al. (Hrsg.): E-Learning: Eine Zwischenbilanz:<br />

Kritischer Rückblick als Basis eines Aufbruchs. Münster. S. 233 bis<br />

243.<br />

Moser, H. (2010): Einführung in die Medienpädagogik: Aufwachsen im Medienzeitalter.<br />

Wiesbaden.<br />

Müller, A (2003): Netzgestützte Seminare in der Politikwissenschaft. In Kandzia,<br />

P.-T.; Ottmann, T. (Hrsg.): E-Learning für die Hochschule. Erfolgreiche Ansätze<br />

für ein flexibles Studium. Münster. S. 201–220.


E-Learningkurs Globalisierung 477<br />

Niegemann, H; et al. (2009): Kompendium multimediales Lernen. Berlin.<br />

OECD (2003): Bildungspolitische Analyse 2002. Paris.<br />

Reß, L. (2003): Live-Online-Lehren. Methoden <strong>und</strong> Übungen für das virtuelle Seminar.<br />

Friedberg.<br />

Risku, H.; Peschel, M. (2010): Kognition <strong>und</strong> Technologie im kooperativen Lernen:<br />

Vom <strong>Wissen</strong>stransfer zur Knowledge Creation. Göttingen.<br />

Ritter, M; Zeitler, K. (2000): Armut durch Globalisierung – Reichtum durch Regionalisierung.<br />

Graz.<br />

Safranski, R. (2003): Wieviel Globalisierung verträgt der Mensch. München.<br />

Speck, P. (2009): Employability – Herausforderungen für die strategische Personalentwicklung:<br />

Konzepte für eine flexible, innovationsorientierte Arbeitswelt von<br />

morgen. Wiesbaden.<br />

Stehr, C. (2003a): Ist Globalisierung messbar? In Beschorner, D.; Stehr, C. (Hrsg.):<br />

Globalisierung – Chancen <strong>und</strong> Risiken. Ulm.<br />

Stehr, C. (2003b): Globalisierung <strong>und</strong> Destabilisierungstendenzen innerhalb des Internationalen<br />

Systems: eine Indikatorenanalyse für ausgewählte Nationalstaaten.<br />

Berlin.<br />

Stehr, C. (2005): Brasilien im Zeitalter der Neuen Globalisierung. Eine Indikatorenuntersuchung<br />

zur Feststellung des Globalisierungsgrades von Brasilien. In Stehr,<br />

C. (Hrsg.): Brasilien <strong>und</strong> Globalisierung – Handlungsspielräume aktueller brasilianischer<br />

Wirtschaftspolitik. Aus der Reihe: Globalisierung – Chancen <strong>und</strong> Risiken.<br />

Ulm. S.203–249.<br />

Teusch, U. (2004): Was ist Globalisierung? Ein Überblick. Darmstadt.<br />

Varwick, J. (2002): Globalisierung. In Woyke, W. (Hrsg.): Handwörterbuch Internationale<br />

Politik. Bonn. S. 136–147.<br />

Wedekind, J. (2001): Transfer von Medienkompetenz. In Hesse, F. W.; Friedrich, H.<br />

F. (Hrsg.): Partizipation <strong>und</strong> Interaktion im virtuellen Seminar. Münster. S. 191<br />

bis 208.<br />

Weißeno, G. (2008): Politikkompetenz: Was Unterricht zu leisten hat. Wiesbaden.<br />

Welge, M. K.; Holtbrügge, D. (2001): Internationales Management. 2. Aufl. Landsberg/Lech.<br />

Zürn, M. (1998): Regieren jenseits des Nationalstaats. Frankfurt a.M.


478 M. Burghardt, M. Heckner, T. Schneidermeier, C. Wolff<br />

Social-Media-Marketing im Hochschulbereich<br />

Manuel Burghardt, Markus Heckner, Tim Schneidermeier,<br />

Christian Wolff<br />

Lehrstuhl für Medieninformatik<br />

Institut für <strong>Information</strong> <strong>und</strong> Medien, Sprache <strong>und</strong> Kultur<br />

Universität Regensburg, 93040 Regensburg<br />

E-Mail: Vorname.Nachname@sprachlit.uni-regensburg.de<br />

Zusammenfassung<br />

Ziel dieser Studie ist es, Strategien <strong>und</strong> Werkzeuge des Social-Media-Marketing<br />

für den Bereich der Hochschulen vorzustellen <strong>und</strong> zu diskutieren. Dabei<br />

wird insbesondere auf relevante Zielgruppen <strong>und</strong> Marketingziele eingegangen.<br />

Aktuelle Social Media-Marketingbestrebungen des 2010 neu eingeführten<br />

Studiengangs „Medieninformatik“ der Universität Regensburg werden<br />

anhand einer Feldstudie diskutiert.<br />

Abstract<br />

This paper presents social media marketing strategies and methods for the<br />

academic area regarding specific target groups and marketing goals. Current<br />

social media marketing activities for promoting the newly established chair<br />

of media informatics at the University of Regensburg are discussed by analyzing<br />

a corresponding field study.<br />

1 Einleitung<br />

Facebook <strong>und</strong> YouTube liegen im Ranking der meistbesuchten Websites<br />

weltweit unmittelbar hinter Spitzenreiter Google, die Plattformen Blogger<br />

<strong>und</strong> Twitter folgen dicht danach [vgl. Alexa Internet 2010]. Im Kontext dieser<br />

Social Web-Dienste hat sich Social Media-Marketing entwickelt, um die<br />

Besonderheiten der Social Media-Plattformen zur Bewerbung von Produkten


Social-Media-Marketing im Hochschulbereich 479<br />

<strong>und</strong> Marken zu nutzen. Aktuelle Studien des Fraunhofer-Instituts für Angewandte<br />

<strong>Information</strong>stechnik <strong>und</strong> des Deutschen Instituts für Marketing bestätigen<br />

die steigende Verbreitung <strong>und</strong> Relevanz von Social Media-Marketing<br />

in der Geschäftswelt. Über die optimale Nutzung <strong>sozial</strong>er Medien für wirtschaftliche<br />

Zwecke gibt es bereits umfangreiche Literatur [vgl. Brown 2009,<br />

Dunay & Krueger 2010, Hettler 2010, Hünnekens 2010, Li & Bernoff 2009,<br />

Scott 2010, Tuten 2008 u.v.m]. Obwohl Reformen von Lehre <strong>und</strong> Studium<br />

<strong>und</strong> der zunehmende Wettbewerb um die klügsten Köpfe von den Hochschulen<br />

Profilbildung verlangen [vgl. Lehmkuhl 2008], werden die Möglichkeiten<br />

von Social Media-Marketing im Hochschulbereich noch kaum erkannt oder<br />

in Unkenntnis der Anforderungen an eine Social Media-Strategie eher halbherzig<br />

betrieben. 1 Erste Empfehlungen zur Nutzung von Web 2.0-Kommunikationsinstrumenten<br />

für das Hochschulmarketing finden sich in Olbrich <strong>und</strong><br />

Albrecht [2009]. Vor dem Hintergr<strong>und</strong> der Social Media-Strategie für den<br />

2010 neu geschaffenen Studiengang Medieninformatik an der Universität<br />

Regensburg sollen Möglichkeiten der <strong>sozial</strong>en Onlinemedien für den Hochschulbereich<br />

aufgezeigt werden <strong>und</strong> eine Diskussion der bisherigen Social<br />

Media-Strategie der Regensburger Medieninformatik erfolgen.<br />

2 Was ist Social Media?<br />

Ein wesentliches Merkmal des Web 2.0 ist die Verfügbarkeit zahlreicher<br />

Dienste <strong>und</strong> Plattformen zum <strong>sozial</strong>en Identitäts- <strong>und</strong> Beziehungsmanagement,<br />

die sich als Social Web zusammenfassen lassen. Social Web bedeutet<br />

eine Fokussierung auf den Nutzer <strong>und</strong> die Unterstützung <strong>und</strong> Beförderung<br />

der Interaktion zwischen Nutzern über das WWW. Zu diesen Interaktionen<br />

zählen der gegenseitige Austausch von <strong>Information</strong>, das Herstellen <strong>und</strong> Pflegen<br />

von <strong>sozial</strong>en Kontakten <strong>und</strong> die Kommunikation mit anderen Mitmenschen<br />

[Ebersbach et al. 2008, S. 29]. Zu den bekanntesten Ausprägungen von<br />

Social Media gehören neben Blogs, Wikis <strong>und</strong> Foren <strong>sozial</strong>e Netzwerke wie<br />

Facebook <strong>und</strong> MySpace, multimediale Social Tagging-Plattformen wie You-<br />

Tube <strong>und</strong> Flickr sowie seit wenigen Jahren auch Microblogging-Dienste wie<br />

1 Vgl. entsprechende Diskussionen der Mailingliste “http://www.b<strong>und</strong>esverband- hochschulkommunikation.de/”


480 M. Burghardt, M. Heckner, T. Schneidermeier, C. Wolff<br />

Twitter. Social Media-Marketing ist der Versuch von Unternehmen <strong>und</strong> Organisationen,<br />

über entsprechende Plattformen Teil dieser User-Interaktion zu<br />

werden <strong>und</strong> Aufmerksamkeit für eine Marke oder ein Produkt zu erzeugen,<br />

denn durch Social Media wird „M<strong>und</strong>propaganda schnell zu Weltpropaganda“<br />

[vgl. Qualmann 2010, S. 19ff].<br />

3 Welche <strong>sozial</strong>en Medien für welchen Zweck?<br />

Das Marketing mithilfe von Social Media kann von der Akquise neuer K<strong>und</strong>en<br />

<strong>und</strong> zur Erhöhung der Besucherzahl einer Webseite über die Etablierung<br />

oder Bewerbung eines Produkts bis hin zur Produktentwicklung durch die<br />

Community unterschiedlichste Zielsetzungen verfolgen. Dabei eignen sich<br />

verschiedene <strong>sozial</strong>e Medien für die Erreichung spezifischer Ziele unterschiedlich<br />

gut, wie die nachfolgende knappe Merkmalsübersicht deutlich<br />

machen soll [vgl. Ebersbach 2008, S. 33ff, Weinberg 2010, S. 4ff].<br />

• Blogs | Blogs eignen sich in ihrer Eigenschaft als digitales „Tagebuch“<br />

sehr gut dazu, z.B. den Fortschritt eines Projekts oder die Entwicklung<br />

einer bestimmten Kampagne zu kommunizieren.<br />

• Microblogs | Seit 2006 ist der bekannteste Microblogging-Dienst Twitter<br />

online. In Analogie zur SMS stehen maximal 140 Zeichen für eine Nachricht<br />

zur Verfügung. Mit Microblogs lassen sich hochfrequente, rasche<br />

Entwicklungsschritte oder Ereignisse kommunizieren. Die Interaktion<br />

unter den Nutzern findet über das Beantworten oder Weiterleiten sogenannter<br />

Tweets, oder auch über das Senden von Direktnachrichten an einen<br />

einzelnen User statt.<br />

• Foren/Newsgroups | Foren widmen sich üblicherweise bestimmten<br />

Themen. Die von Nutzern verfassten Diskussionsbeiträge können von jedem<br />

beantwortet <strong>und</strong> kommentiert werden. Daher werden sie vor allem<br />

für <strong>Information</strong>s- <strong>und</strong> Meinungsaustausch <strong>und</strong> die Diskussion genutzt.<br />

• Soziale Netzwerke | Soziale Netzwerke eignen sich zum Aufbau von<br />

K<strong>und</strong>ennetzwerken <strong>und</strong> für die Initiierung von viralen Marketingkampagnen.<br />

Im Vordergr<strong>und</strong> dieser Plattformen steht das Knüpfen <strong>und</strong> Verwalten<br />

von Kontakten, die einen Social Graph bilden. Häufig integrieren<br />

Social Networks zusätzliche Social Media-Dienste wie z.B. Microblogging<br />

<strong>und</strong> Tagging. Bei der Wahl eines <strong>sozial</strong>en Netzwerks gilt es, die je-


Social-Media-Marketing im Hochschulbereich 481<br />

weilige Community vorher genau zu analysieren, da sie häufig eine bestimmte<br />

Zielgruppe repräsentiert.<br />

• Social Tagging | Social Tagging ermöglicht es Nutzern, Webseiten oder<br />

Dokumente mit Schlagwörtern (Tags) oder einer persönlichen Wertung<br />

zu versehen. Getaggte Inhalte werden andern Usern zur Verfügung gestellt<br />

<strong>und</strong> können zu komplexen Taxonomien (Folksonomies) erweitert<br />

werden. Ebenso wie ein gutes Ranking bei linkbasierten Suchmaschinen<br />

ist im Kontext der Social Search auch eine gute Sichtbarkeit in Folksonomies<br />

anzustreben.<br />

• Media-Sharing | (Multimediale) Inhalte werden mit anderen Nutzern<br />

geteilt <strong>und</strong> können ebenso mit Schlagworten (Tags) versehen werden.<br />

Die Reichweite von Diensten wie Flickr <strong>und</strong> YouTube ist prädestiniert<br />

für das Social Media-Marketing. Einige Werbespots werden mittlerweile<br />

exklusiv über solche Plattformen vertrieben, da sie hier keinen weiteren<br />

Einschränkungen wie etwa Zeitlimits unterliegen [vgl. Puma 2010].<br />

4 Allgemeine Anforderungen<br />

an eine Social Media-Strategie<br />

Angesichts der Heterogenität der Social Media-Dienste ist die Zielsetzung<br />

für den Einsatz von Social Media als Kommunikations- <strong>und</strong> Marketinginstrument<br />

zu präzisieren [vgl. Biederlack et al. 2009, S. 2]:<br />

• Aufbau eines eigenen Netzwerks<br />

• Präsentieren <strong>und</strong> Bereitstellen eigener (multimedialer) Inhalte<br />

• Kommunikation <strong>und</strong> Feedback<br />

Häufig überschneiden sich diese Anwendungsbereiche: So ist die Kommunikation<br />

aktueller Ereignisse erst dann sinnvoll, wenn bereits ein Netzwerk<br />

aufgebaut wurde. Viele Social Media-Dienste wie z.B. Facebook zielen bewusst<br />

darauf ab, verschiedene Anwendungsbereiche auf einer integrierten<br />

Plattform anzubieten. Aus Social Media-Marketing-Sicht stellt sich die Frage,<br />

ob eine parallele bzw. red<strong>und</strong>ante Nutzung von Social Media-Angeboten<br />

ein akzeptables Kosten-Nutzen-Verhältnis aufweist. In vielen Fällen ist es<br />

jedoch möglich, verschiedene Plattformen zu koppeln, sodass beispielsweise<br />

eine Statusmeldung in Facebook automatisch auch auf einem entsprechenden


482 M. Burghardt, M. Heckner, T. Schneidermeier, C. Wolff<br />

Twitter-Channel publiziert wird [vgl. Twittermash 2010]. Für den Betrieb<br />

einer Social Media-Präsenz ist zu beachten, dass Kommunikation in den<br />

<strong>sozial</strong>en Medien nicht steuerbar ist, weil alle Nutzer im Netzwerk potenzielle<br />

Sender sind <strong>und</strong> durch Feedback oder Kommentare die Kommunikationsziele<br />

beeinflussen oder gr<strong>und</strong>legend verändern können: „Das unkontrollierbare<br />

Eigenleben der Nutzer kann eine Kampagne unterstützen, aber auch binnen<br />

kürzester Zeit das gewünschte Ergebnis ad absurdum führen“ [Postel et al.<br />

2010, S. 2]. Das illustriert auch ein Worst Case-Beispiel aus der jüngeren<br />

Vergangenheit des Lebensmittelriesen Nestlé, in dem eine Social Media-<br />

Kampagne spektakulär scheiterte <strong>und</strong> die Facebook-Fanpage in kürzester<br />

Zeit zu einem „virtuellen Kriegsschauplatz“ wurde [vgl. Imke 2010, Hutter<br />

2010]. Bei der strategischen Planung ist zu berücksichtigen, dass die Präsenz<br />

auf einer Social Media-Plattform über den anfänglichen Erstellungsaufwand<br />

hinaus ständiger Pflege <strong>und</strong> Wartung bedarf: Inhalte müssen redaktionell<br />

erstellt <strong>und</strong> aktualisiert werden, Benutzeranfragen in angemessener Zeit bearbeitet,<br />

Kontakte gepflegt <strong>und</strong> implizites Feedback in Form von Kommentaren<br />

ausgewertet werden [vgl. Biederlack et al. 2009, S. 3].<br />

5 Social Media für das Hochschulmarketing<br />

Was im angloamerikanischen Raum aufgr<strong>und</strong> anderer sozioökonomischer<br />

Rahmenbedingungen der Finanzierung des Hochschulwesens schon lange<br />

praktiziert wird, gewinnt auch an deutschen Hochschulen an Bedeutung: Von<br />

Corporate Design-Bestrebungen bis hin zu Fan-Artikeln für Studierende<br />

versuchen Hochschulen verstärkt, sich als Marke zu etablieren [vgl. Heimann<br />

2009]. Dass die Bedeutung der <strong>sozial</strong>en Onlinemedien für diese Profilierungsversuchen<br />

zunimmt, kann auf drei Ebenen beobachtet werden:<br />

• Universitätsübergreifend z.B. Hochschulinitiative Neue B<strong>und</strong>esländer 2 ,<br />

• auf Universitätsebene: z.B. RWTH Aachen [vgl. Aperto 2010] oder<br />

• auf Studiengangsebene: z.B. Medieninformatik Regensburg (s. u.).<br />

Die nachfolgende Tabelle zeigt, wie Marketingziele im Hochschulbereich<br />

mit Social Media-Diensten zielgruppenspezifisch umgesetzt werden können.<br />

2 http://www.hochschulinitiative.de/


Social-Media-Marketing im Hochschulbereich 483<br />

Tabelle 1:<br />

Marketingziele <strong>und</strong> deren Umsetzung mithilfe von Social-Media-Diensten.<br />

Aufbau eines<br />

Netzwerks<br />

Studieninteressierte schülerVZ, Facebook<br />

Präsentation von<br />

Inhalten<br />

YouTube, Flickr,<br />

iTunes U<br />

Studierende studiVZ, Facebook YouTube, Flickr,<br />

iTunes U<br />

Alumni XING, LinkedIn,<br />

Facebook<br />

Allgemeine<br />

Außendarstellung<br />

Facebook YouTube, Flickr,<br />

iTunes U<br />

Kommunikation<br />

Blog, (Twitter),<br />

Facebook<br />

Blog, Twitter, Facebook,<br />

Forum<br />

YouTube, Flickr Blog, Facebook<br />

Blog, Facebook<br />

Vor allem beim Netzwerkaufbau zeigen sich zielgruppenspezifische Unterschiede,<br />

die auf den jeweils speziell zugeschnittenen Angeboten basieren.<br />

Für die Präsentation <strong>und</strong> Distribution von Inhalten bieten sich gr<strong>und</strong>sätzlich<br />

alle drei genannten Plattformen an. Vorlesungen oder Screencasts, die über<br />

iTunes U vertrieben werden, können vor allem den Studieninteressierten als<br />

Orientierung <strong>und</strong> den Studierenden als Unterstützung dienen. Die wichtigste<br />

Funktion von Social Media, die Kommunikation, kann durch die Verwendung<br />

von Blogs oder Facebook erfüllt werden. Wegen ihrer kurzen Mitteilungen<br />

bieten sich für Studierende zudem Microblogs an. Studieninteressierten<br />

im Entscheidungsfindungsprozess kann Twitter ebenfalls als Quelle<br />

dienen. Als Diskussionsplattform für Studenten kann auf ein zugangsbeschränktes<br />

Forum zurückgegriffen werden. Facebook läßt sich wegen seiner<br />

Marktdurchdringung <strong>und</strong> aufgr<strong>und</strong> der Möglichkeit andere Diensten wie<br />

Twitter oder YouTube zu integrieren für beinahe alle Bereiche nutzen.<br />

6 Fallstudie: Social Media-Marketing für den<br />

Studiengang Medieninformatik an der Uni<br />

Regensburg<br />

Der Studiengang Medieninformatik ist zum Wintersemester 2010/11 erstmalig<br />

eingeführt worden. Neben bewährten „traditionellen“ Kommunikati-


484 M. Burghardt, M. Heckner, T. Schneidermeier, C. Wolff<br />

onsmitteln wie Flyern <strong>und</strong> <strong>Information</strong>sveranstaltungen wird dabei insbesondere<br />

auf den Einsatz <strong>sozial</strong>er Medien für das Marketing gesetzt.<br />

6.1 Social Media-Konzept<br />

In einem ersten Schritt werden die zu erreichenden Ziele <strong>und</strong> die zu adressierende<br />

Zielgruppe erarbeitet. Das primäre Ziel ist, den neuen Studiengang<br />

publik zu machen, einen möglichst hohen Bekanntheitsgrad unter Studieninteressierten<br />

zu erlangen <strong>und</strong> diese als Studierende zu gewinnen. Neben den<br />

Charakteristika der Regensburger Medieninformatik gegenüber anderen<br />

Standorten 3 <strong>und</strong> Studieninhalten, sollen auch außercurriculare Aktivitäten<br />

<strong>und</strong> die Vorzüge der Stadt kommuniziert werden. Dies dient primär der externen<br />

Kommunikation im Gegensatz etwa zur lehrstuhl- oder institutsinternen<br />

Kommunikation, die keine marketingrelevante Zielsetzung hat.<br />

Für die Regensburger Medieninformatik als neu geschaffenen Studiengang<br />

ist die Zielgruppe der Studieninteressierten besonders relevant. Mit<br />

einem durchschnittlichen Alter von 21,9 Jahren im ersten Hochschulsemester<br />

4 kann diese den sogenannten Digital Natives [vgl. Prensky 2001] zugerechnet<br />

werden [vgl. Statistisches B<strong>und</strong>esamt Deutschland 2010]. Aktuellen<br />

Studien zufolge ist die Gesamtheit aller 14- bis 19-Jährigen (100%) <strong>und</strong><br />

98,4% der 20- bis 29-Jährigen Deutschen online. Während die Kommunikation<br />

über Foren oder Newsgroups an Bedeutung verliert, gewinnen <strong>sozial</strong>e<br />

Netzwerke in den letzten Jahren deutlich an Akzeptanz. Knapp 80% der 14-<br />

bis 29-Jährigen nutzen regelmäßig <strong>sozial</strong>e Netzwerke <strong>und</strong> beinahe die Hälfte<br />

der deutschen Internetnutzer besitzen ein eigenes Profil in einer privaten oder<br />

beruflichen Community. 5 Sieht man vom Alter ab, wirkt diese strikte Unterteilung<br />

in berufliche <strong>und</strong> private Kontakte überholt. Auch private Netzwerke<br />

ermöglichen neuerdings die Abgrenzung von <strong>Information</strong>sinhalten für spezifische<br />

Gruppen von Fre<strong>und</strong>en 6 [vgl. van Eimeren & Frees 2010]. Ferner<br />

konnte der als rein privates Netzwerk gestartete Branchenprimus Facebook<br />

3 Insbesondere die Ansiedelung an einer geistes- <strong>und</strong> kulturwissenschaftlichen Fakultät<br />

<strong>und</strong> die personelle, inhaltliche <strong>und</strong> historische Nähe zur <strong>Information</strong>swissenschaft.<br />

4 WS 2007/08 <strong>und</strong> 2008/09.<br />

5 nur 7% bei beruflichen Netzwerken [vgl. Eimeren & Frees 2010]<br />

6 Facebook erlaubt dem Nutzer die Gesamtheit seiner Kontakte in Gruppen mit unterschiedlichen<br />

Rechen zu unterteilen.


Social-Media-Marketing im Hochschulbereich 485<br />

mit 6,9 Millionen Benutzern in Deutschland seine Mitglieder im vergangenen<br />

Jahr beinahe verdoppeln Den größten Anstieg im Bereich der <strong>sozial</strong>en Medien<br />

in Deutschland kann der Microblogging-Dienst Twitter für sich verzeichnen.<br />

Das Media Sharing-Portal YouTube stellt mit 13 Millionen Besuchern<br />

sowohl Facebook als auch Twitter in den Schatten [vgl. Nielsen Media<br />

Research GmbH 2010]. Das Social Media-Marketing der Medieninformatik<br />

Regensburg konzentriert sich daher auf diese Plattformen. Gestützt wird diese<br />

Entscheidung durch die Integrations- bzw. Synchronisierungsfähigkeit von<br />

Facebook <strong>und</strong> Twitter. Beide Plattformen können so ohne Mehraufwand<br />

gepflegt werden. Die Möglichkeit, auf YouTube gehostete Videos zusätzlich<br />

auf Facebook einzubinden, unterstützt diesen Workflow zusätzlich. Alle<br />

Mitarbeiter der Medieninformatik erhalten die Zugangsdaten, um aktiv am<br />

Social Media-Marketing mitwirken zu können. Als interne Maßgabe wird ein<br />

mindestens einwöchentlicher Veröffentlichungszyklus definiert, wobei der<br />

Fokus auf Qualität <strong>und</strong> nicht auf der Quantität der Posts liegen soll. Aufgr<strong>und</strong><br />

des geringen Zeitaufwands hat sich Twitter bereits nach einer kurzen<br />

Zeitspanne als passendes Medium für kurze Mitteilungen durchgesetzt.<br />

6.2 Studie zur Überprüfung des Erfolgs<br />

des Social Media-Konzepts<br />

Mit einem Fragebogen wurde zum Start des WS 2010/2011 überprüft, ob die<br />

Annahmen über den Wirkungsgrad des Social Media-Marketings <strong>und</strong> den<br />

zugr<strong>und</strong>e gelegten Studien verifiziert werden können. Da die Befragung in<br />

der ersten Sitzung der Einführungsveranstaltung stattfand, wurde erhoben,<br />

welche Social Media-Angebote die Studenten vor Beginn ihres Studiums<br />

genutzt haben um sich über den Studiengang zu informieren. <strong>Information</strong>en<br />

über diese Angebote sind nur auf der Homepage der Medieninformatik vorhanden.<br />

Eine gezielte Heranführung an das Thema in Kursen <strong>und</strong> Seminaren<br />

fand nicht statt. Alle Erstsemester wurden gebeten, den dafür entworfenen<br />

Fragebogen, der neben demografischen Angaben <strong>und</strong> Fragen zum Studiengang<br />

<strong>und</strong> dem Onlineverhalten insbesondere das Nutzungsverhalten in Hinblick<br />

auf <strong>sozial</strong>e Medien erfasst, auszufüllen. Der Fragebogen wurde mit der<br />

Evaluationssoftware EvaSys entworfen <strong>und</strong> erfasst 7 . Die Auswertung der<br />

7 http://www.electricpaper.de


486 M. Burghardt, M. Heckner, T. Schneidermeier, C. Wolff<br />

quantitativen Daten erfolgte zusätzlich mit dem Statistikpaket SPSS 8 . Von<br />

den 118 befragten Studenten sind 66 männlich <strong>und</strong> 52 weiblich. Der Altersdurchschnitt<br />

liegt bei 20,86 Jahren, wobei 18 die kleinste <strong>und</strong> 30 die größte<br />

Ausprägung ist. Bis auf eine Ausnahme kommen alle Studenten aus Bayern<br />

<strong>und</strong> haben je zur Hälfte einen eher ländlichen (Einwohnerzahl < 10.000)<br />

bzw. städtischen Hintergr<strong>und</strong> (Einwohnerzahl > 10.000).<br />

6.3 Ergebnisse<br />

Auf die Frage wie sie auf den Studiengang aufmerksam wurden, geben 0,8%<br />

der Studierenden Facebook, 2,5% die Fachstudienberatung, 7,6% die Presse,<br />

je 9,2% die zentrale Studienberatung <strong>und</strong> die <strong>Information</strong>sveranstaltung am<br />

Regensburger Hochschultag, 14,3% den Studiengangsflyer <strong>und</strong> mit 75,6%<br />

die absolute Mehrheit die Webseite der Medieninformatik Regensburg an.<br />

Entscheidend für die Studiengangwahl war für 84% der Befragten das Interesse<br />

am Fach. Knapp 80% verbringen zwischen zwei <strong>und</strong> acht St<strong>und</strong>en<br />

täglich online, ein Zehntel weniger als zwei <strong>und</strong> 11,4% mehr als acht St<strong>und</strong>en.<br />

Bei möglichen Mehrfachnennungen führen Dreiviertel der Befragten<br />

einen Laptop, etwas mehr als die Hälfte einen Desktoprechner <strong>und</strong> 41,2% ein<br />

Smartphone auf. Netbooks (9,2%) <strong>und</strong> Tablets (3,4%) haben keine weite<br />

Verbreitung.<br />

Den Kern der Evaluation bilden die Fragen über die Gewohnheiten <strong>und</strong><br />

Verhaltensweisen im Social Web. 9 Die Plattformen LinkedIn, XING, MySpace<br />

<strong>und</strong> Flickr sowie das Pflegen eines eigenen Blogs werden von weniger als<br />

10% wahrgenommen. 21 der 118 Befragten (17,6%) haben einen Account<br />

beim Microblogging-Dienst Twitter, 27 beim <strong>sozial</strong>en Netzwerk Lokalisten<br />

(22,7%) <strong>und</strong> 79 bei einem der VZ-Dienste (66,4%). Die Media Sharing-<br />

Plattform YouTube wird von 79% der Studenten genutzt, noch überboten<br />

durch 89,1% Facebook-Usern. Die mobilen Nutzungsstatistiken 10 weichen<br />

am stärksten im Hinblick auf die Nutzung der VZ-Dienste (19,6%), YouTube<br />

(45,1%) <strong>und</strong> der Plattform Lokalisten (4%) ab. Twitter <strong>und</strong> Facebook werden<br />

88 http://www.spss.com/de/<br />

99 Bei Angaben zur Nutzung von Social Media <strong>und</strong> zu Kenntnis <strong>und</strong> Nutzung der Angebote<br />

der Regensburger Medieninformatik sind Mehrfachnennungen erlaubt.<br />

10 Nutzung auf dem Smartphone; 41,2% aller Befragten besitzen ein Smartphone <strong>und</strong><br />

dienen als Gr<strong>und</strong>lage für diese Frage.


Social-Media-Marketing im Hochschulbereich 487<br />

mobil von 9,8% beziehungsweise 82,4% genutzt. Über diese rein deskriptiven<br />

Statistiken hinaus sind insbesondere Korrelationen verschiedener Parameter<br />

interessant. Für die Feststellung potenzieller Zusammenhänge von Variablen<br />

bzw. deren Unabhängigkeit wird ein Chi-Quadrat-Test eingesetzt. Als<br />

Wert wird die zweiseitige asymptotische Signifikanz angegeben. 11<br />

90<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

Facebook Twitter Youtube<br />

Kenntnis<br />

Nutzung<br />

Abbildung 1:<br />

Kenntnis/Nutzung der aktiven Plattform-Nutzer der Medieninformatik-Angebote<br />

• Werden Social Media-Dienste häufiger genutzt, wenn zusätzlich zu einem<br />

Computer ein Smartphone vorhanden ist?<br />

22,44% der Smartphone-Nutzer <strong>und</strong> 14,29% der Befragten ohne ein eigenes<br />

Smartphone verwenden Twitter (p=0,252). Vier von elf nutzen den<br />

Microblog auch mobil. Facebook wird von 95,92% aller Smartphonenutzer<br />

regelmäßig aufgesucht. 83% davon nutzen den Dienst auch unterwegs.<br />

Die Nutzungsausprägung bei Befragten ohne Smartphone liegt bei<br />

84,29% (p=0,450). Auch bei YouTube mit 77,6% bzw. 80% kann kein<br />

signifikanter Unterschied festgestellt werden (p=0,747).<br />

• Gibt es geschlechtsspezifische Unterschiede der Social Media-Nutzung?<br />

Mit 90,38% der weiblichen <strong>und</strong> der 87,88% männlichen Medieninformatiker<br />

gibt es bei der Nutzung von Facebook keinen signifikanten Unterschied<br />

(p=0,666); auch bei Twitter mit 17,31% bzw. 18,18% (p=0,902)<br />

<strong>und</strong> YouTube (78,8% bzw. 80,3%; p=0,845) verhält es sich ähnlich.<br />

11 Der Fokus liegt hier bei den Ergebnissen zu den Diensten Facebook, Twitter <strong>und</strong><br />

Youtube, da diese auch von der Medieninformatik genutzt werden.


488 M. Burghardt, M. Heckner, T. Schneidermeier, C. Wolff<br />

• Wie viele der aktiven Nutzer von Facebook, Twitter <strong>und</strong> YouTube kennen<br />

<strong>und</strong> nutzen die Angebote der Medieninformatik Regensburg?<br />

82 der 106 Facebook-User kennen die Webpräsenz der Medieninformatik,<br />

wovon 75,61% auch angeben sie zu nutzen. Der Account MedienInfRgb<br />

auf Twitter ist 18 von 21 Twitter-Nutzern geläufig, 14 folgen<br />

den Tweets. Die Media Sharing-Plattform YouTube besuchen insgesamt<br />

79% der Befragten. Mehr als der Hälfte davon (52,1%) ist der Kanal der<br />

Medieninformatik bekannt. Genutzt wird er von 69,39%.<br />

7 Diskussion <strong>und</strong> Ausblick<br />

Die Tatsache, dass über 75% aller Studienanfänger über die Webseite der<br />

Regensburger Medieninformatik auf den Studiengang aufmerksam wurden,<br />

zeigt einen deutlichen Trend hin zur Online-Recherche bei der Studiengangswahl.<br />

Während damit klar sein dürfte, dass Online-Medien im Sinne<br />

des „Web 1.0“ eine entscheidende Rolle für die Außenkommunikation spielen,<br />

dürfte die Bedeutung <strong>sozial</strong>er Medien in Zukunft noch weiter wachsen.<br />

Auffällig ist, dass über die Kanäle der <strong>sozial</strong>en Medien bislang nur etwa 1%<br />

der Studienanfänger auf den neuen Studiengang aufmerksam wurde. Berücksichtigt<br />

man allerdings, dass Social Media-Marketing vor allem auf virale<br />

Effekte <strong>und</strong> M<strong>und</strong>propaganda innerhalb <strong>sozial</strong>er Netzwerke setzt, so ist die<br />

geringe Wahrnehmung des gerade neu eingeführten Studiengangs nicht weiter<br />

verw<strong>und</strong>erlich. Die hohen Nutzungszahlen der <strong>sozial</strong>en Medien durch die<br />

Studierenden allgemein bestätigen jedoch die Bedeutung der eingeschlagenen<br />

Social Media-Strategie. Zur Überwachung <strong>und</strong> Optimierung der Social<br />

Media-Strategie sind für die Zukunft auch weiterhin Befragungen geplant.<br />

Zudem konnten durch diese Befragung Charakteristika der Zielgruppe identifiziert<br />

werden, die für eine künftige Optimierung der Marketingstrategie, z.B.<br />

in Form einer Anpassung für den Bereich Mobile Devices, genutzt werden<br />

können. Gr<strong>und</strong>sätzlich ist bei allen Erweiterungen des Social Media-Repertoires<br />

auf die Wartbarkeit <strong>und</strong> Integrierbarkeit der Dienste zu achten. Hier<br />

bieten sich Plattformen wie iTunes U an, die als Zweit- oder Drittverwerter<br />

von Inhalten angedacht sind. Die starke Präsenz der Zielgruppe im <strong>sozial</strong>en<br />

Netzwerk Facebook erübrigt zumindest zunächst ein zusätzliches Profil auf<br />

rein beruflichen Plattformen wie XING oder LinkedIn.


Social-Media-Marketing im Hochschulbereich 489<br />

Literaturverzeichnis<br />

Alexa Internet (2010). Top Sites. http:www.alexa.com, letzter Zugriff am 07.11.2010<br />

Aperto (2010). Exzellenz im Hochschulmarketing: Aperto modernisiert RWTH Aachen<br />

im Web.<br />

http://www.aperto.de/start/presse/pressemitteilungen-2010/Aperto-modernisiert-<br />

RWTH.html, letzter Zugriff am 27.10.2010<br />

Biederlack, C. (2009). Sicherer Einstieg in <strong>sozial</strong>e Netzwerke. 10 Tipps, die Nutzer<br />

beachten sollten. Social Media Fachgruppe im BVDW.<br />

http://www.bvdw.org/mybvdw/media/download/bvdw-sm-leifaden-sicherereinstieg.pdf?file=1273,<br />

letzter Zugriff am 18.9.2010<br />

Brown, R. (2009). Public relations and the social web. How to use social media and<br />

Web 2.0 in communications. London: Kogan Page.<br />

Dunay, P. & Krueger, R. (2009). Facebook Marketing for Dummies. Hoboken: Wiley<br />

Publishing.<br />

Ebersbach, A., Glaser, M. & Heigl, R. (2008). Social Web. Konstanz: UKV.<br />

Hettler, U. (2010). Social Media-Marketing. Marketing mit Blogs, <strong>sozial</strong>en Netzwerken<br />

<strong>und</strong> weiteren Anwendungen des Web 2.0. München: Oldenbourg.<br />

Heimann, A. (2009). Die Uni als Marke. Studenten werden zu Fans der eigenen Universität.<br />

http://www.welt.de/lifestyle/article4229837/Studenten-werden-zu-Fans-der-eigenen-<br />

Universitaet.html, letzter Zugriff am 01.11.2010<br />

Hochschulinitiative Neue B<strong>und</strong>esländer (2010).<br />

http://www.hochschulinitiative.de/, letzter Zugriff am 02.11.2010<br />

Hutter, T. (2010). Blogpost am 21.3.2010. Blog zu Social Media. „Facebook: wenn<br />

Fanpages zum Kriegsschauplatz werden.“<br />

http://www.thomashutter.com/index.php/2010/03/facebook-wenn-fanpageskriegsschauplatz-werden/,<br />

letzter Zugriff am 22.10.2010<br />

Hünnekens, W. (2010). Die Ich-Sender. Das Social Media-Prinzip: Twitter, Facebook<br />

& Communities erfolgreich einsetzen. 2. Aufl. Göttingen: Business-Village.<br />

Imke, H. (2010). Nestlé: Social Media Desaster. Oder: Wenn Werbung plötzlich ins<br />

Gegenteil umschlägt.<br />

http://www.beyond-print.de/2010/03/21/nestle-social-media-desaster-2/,<br />

letzter Zugriff am 22.10.2010<br />

Lehmkuhl, U. (2008). Begrüßung. In: K. Siebenhaar (Hrsg.). Unternehmen Universität.<br />

<strong>Wissen</strong>schaft <strong>und</strong> Wirtschaft im Dialog. Wiesbaden: VS Verlag für Sozialwissenschaften.<br />

Li, C. (2009). Marketing in the Gro<strong>und</strong>swell. Boston: Harvard Business Press.


490 M. Burghardt, M. Heckner, T. Schneidermeier, C. Wolff<br />

Nelles, D. (2009). Der Blick in die Social Media Kristallkugel – Was passiert 2010.<br />

http://digital-conversation.de/2009/12/08/der-blick-in-die-social-media-kristallkugelwas-passiert-2010/,<br />

letzter Zugriff am 26.10.2010<br />

Nielsen Media Research GmbH (2010). Facebook, Youtube <strong>und</strong> Wikipedia sind die<br />

beliebtesten Social Media Seiten in Europa <strong>und</strong> den USA.<br />

http://de.nielsen.com/news/NielsenPressemeldung02.02.2010-<br />

SocialMediaSites.shtml, letzter Zugriff am 06.11.2010<br />

Olbrich, R. & Albrecht, P. (2009). Hochschulmarketing – Aufgabenfelder <strong>und</strong> Institutionalisierung<br />

im Zeitalter des Medienbruchs. (18) Hagen: Berichte aus dem<br />

Lehrstuhl für Betriebswirtschaftslehre, insb. Marketing.<br />

http://www.fernuni-hagen.de/marketing/download/forschungsberichte/fb18_web.pdf,<br />

letzter Zugriff am 07.11.2010<br />

Postel, Matthias et al. (2010). BVDW Leitfaden „Messbarer Erfolg im Social Media<br />

Marketing – 10 Tipps für den Einstieg“. Social Media Fachgruppe im BVDW.<br />

http://www.bvdw.org/mybvdw/media/download/bvdw-sm-leifaden-smmarketing.pdf?file=1438,<br />

letzter Zugriff am 18.9.2010<br />

Prensky, M. (2001). Digital natives, digital immigrants. On the Horizon, 9(5), 1–2.<br />

http://www.marcprensky.com/writing/Prensky%20-%20Digital%20Natives,%20Digital%20Immigrants%20-%20Part1.pdf,<br />

letzter Zugriff am 11.10.2010<br />

Puma (2010). Puma Youtube-Channel.<br />

www.pumahardchorus.com, letzter Zugriff am 01. November 2010<br />

Qualman, E. (2010): Socialnomics. Wie Social Media Wirtschaft <strong>und</strong> Gesellschaft<br />

verändern. 1. Aufl. Heidelberg: mitp (IT-fachportal.de).<br />

Schmidt, H. (2010). Deutschland klettert auf Rang 3 der Social Media Weltrangliste.<br />

http://faz-community.faz.net/blogs/netzkonom/archive/2010/08/30/deutschland-aufrang-3-der-social-media-weltrangliste.aspx<br />

, letzter Zugriff am 30.10.2010<br />

Scott, David Meerman (2010): Die neuen Marketing- <strong>und</strong> PR-Regeln im Web 2.0.<br />

Heidelberg: mitp.<br />

Tuten, Tracy L. (2008): Advertising 2.0: Social Media Marketing in a Web 2.0<br />

world. Westport: Praeger.<br />

Statisches B<strong>und</strong>esamt Deutschland (2010). Studienanfänger/-innen.<br />

http://www.destatis.de/jetspeed/portal/cms/Sites/destatis/Internet/DE/Content/Statisti<br />

ken/BildungForschungKultur/Hochschulen/Tabellen/Content50/StudierendeErstesHS<br />

B<strong>und</strong>eslaender,templateId=renderPrint.psml, letzter Zugriff am 26.10.2010<br />

Twittersmash (2010). Blogpost, am 26.3.2010. Twitter mit Facebook verbinden.<br />

http://twittersmash.com/facebook-mit-twitter-verbinden,<br />

letzter Zugriff am 17.10.2010<br />

van Eimeren, B. & Frees, B. (2010). Fast 50 Millionen Deutsche online – Multimedia<br />

für alle? Ergebnisse der ARD/ZDF-Onlinestudie 2010.


Social-Media-Marketing im Hochschulbereich 491<br />

http://www.ard-zdf-onlinestudie.de/fileadmin/Online10/07-08-<br />

2010_van_Eimeren.pdf, letzter Zugriff am 02.11.2010<br />

Weinberg, T. & Heymann-Reder, D. & Lange, C. (2010): Social Media Marketing.<br />

Strategien für Twitter, Facebook & Co. Beijing: O’Reilly.


492 M. Burghardt, M. Heckner, T. Schneidermeier, C. Wolff


Social-Media-Marketing im Hochschulbereich 493<br />

Posterpräsentationen


494 Peter Böhm, Marc Rittberger<br />

Nutzungsanalyse des<br />

Deutschen Bildungsservers <strong>und</strong> Konzeption<br />

eines Personalisierungsangebots<br />

Peter Böhm, Marc Rittberger<br />

Deutsches Institut für Internationale Pädagogische Forschung<br />

Schloßstraße 29, 60486 Frankfurt am Main<br />

{boehm | rittberger}@dipf.de<br />

Zusammenfassung<br />

Das Poster beschreibt Ergebnisse einer Nutzungsanalyse des Deutschen Bildungsservers<br />

<strong>und</strong> einer Onlineumfrage im Hinblick auf eine Neuentwicklung<br />

des Personalisierungsangebots.<br />

Abstract<br />

The poster shows results of a usage analysis of the German Education Server<br />

and of an online survey regarding the redevelopment of its personalization<br />

feature.<br />

Nutzungsanalyse<br />

Unter Verwendung der mittels der quelloffenen Webanalysesoftware Piwik<br />

vom 01.07. bis 30.11.2009 beim Deutschen Bildungsserver (DBS) erhobenen<br />

Daten sollte der Frage nachgegangen werden, ob sich Unterschiede in der<br />

DBS-Nutzung hinsichtlich der drei Einstiegsarten Direkteinstieg, Suchmaschineneinstieg<br />

<strong>und</strong> Einstieg über eine Verweisseite feststellen lassen.<br />

19,9% der Sitzungen entfallen auf Direkteinstiege, 68,7% auf Suchmaschineneinstiege<br />

<strong>und</strong> 11,4% auf Einstiege über sonstige Verweisseiten. Die<br />

durchschnittliche Anzahl von Aktionen je Sitzung unterscheidet sich kaum<br />

nach Einstiegsart. Bei Direkt- <strong>und</strong> bei Suchmaschineneinstiegen finden im


Nutzungsanalyse des Deutschen Bildungsservers <strong>und</strong> Konzeption ... 495<br />

Schnitt 3,4 Aktionen statt, verglichen mit 3,9 Aktionen bei Einstiegen über<br />

sonstige Verweisseiten. Der Anteil von Besuchern, die den DBS nach dem<br />

Ende einer Sitzung erneut aufrufen, liegt bei Direkteinstiegen bei 47,5% <strong>und</strong><br />

damit deutlich höher als bei Suchmaschineneinstiegen (16%), sonstigen<br />

Verweisen (14,9%) <strong>und</strong> auch dem Gesamtwert (22,2%). Dieser hohe Anteil<br />

wiederkehrender Besucher bei Direkteinstiegen ist ein starkes Indiz dafür,<br />

dass jene Besucher als Stammnutzer angesehen werden können.<br />

Personalisierung<br />

Unterschieden wird zwischen einer expliziten <strong>und</strong> impliziten Personalisierung.<br />

Bei der expliziten Personalisierung macht der Nutzer aktiv <strong>und</strong> bewusst<br />

Angaben zu seinen Interessen (beispielsweise in Form eines Profils), bewertet<br />

Inhalte des Webangebots oder passt eine Internetseite interaktiv seinen<br />

Wünschen an. Bei der impliziten Personalisierung wird die Anpassung automatisch<br />

vorgenommen.<br />

Ziel einer primär expliziten Personalisierung ist eine Stärkung der Loyalität<br />

der vorhandenen Stammnutzer <strong>und</strong> die Bindung von Gelegenheitsnutzern.<br />

Gr<strong>und</strong>sätzlich lassen sich verschiedene Personalisierungsfunktionen unterscheiden,<br />

darunter Dashboards mit Widgets, personalisierbare RSS-Reader,<br />

ein veränderbares Layout, eine persönliche Startseite, persönliche Empfehlungen<br />

<strong>und</strong> gespeicherte Suchlisten.<br />

Gemäß einer beim DBS durchgeführten Online-Umfrage wünschen sich<br />

die Teilnehmer unter den vorgeschlagenen Personalisierungsfunktionen am<br />

häufigsten eine persönliche Startseite, gefolgt von persönlichen Empfehlungen,<br />

gespeicherten Suchlisten, Tagging <strong>und</strong> einem veränderbaren Layout.<br />

Auf Gr<strong>und</strong>lage dieser Umfrageergebnisse wurde ein Prototyp entwickelt<br />

(http://www.bildungsserver.de/demo/personalisierung/demo.html). Aufgr<strong>und</strong><br />

der geringen Nachfrage nach Interaktivität wurde ein vom Nutzer nicht beeinflussbarer<br />

Bereich mit zielgruppenspezifischen Neuigkeiten aus dem DBS<br />

geschaffen. Der Protoyp wurde mittels einer Expertenevaluation überprüft<br />

<strong>und</strong> wird derzeit auf Gr<strong>und</strong>lage deren Ergebnisse weiterentwickelt.


496 Andreas Bohne-Lang, Elke Lang<br />

A landmark in biomedical information:<br />

many ways are leading to PubMed<br />

MediaWiki tags open remote literature access to PubMed<br />

Abstract<br />

Andreas Bohne-Lang 1 , Elke Lang 2<br />

1<br />

Heidelberg University – Medical Faculty Mannheim<br />

Ludolf-Krehl-Straße 13–17, D-68167 Mannheim<br />

bohne-lang@medma.uni-heidelberg.de<br />

2<br />

Darmstadt University of Appl. Sci. – Media Faculty<br />

Haardtring 100, D-64295 Darmstadt<br />

elke.lang@h-da.de<br />

Entrez PubMed (http://www.ncbi.nlm.nih.gov) is a central biomedical information<br />

hub. Its comprehensiveness, reliability and availability policy make it<br />

a primary information resource for many specialized portals concer–ning<br />

theme-focused information. NCBI offers programming tools for inclu–ding<br />

automated information access into external applications. We present our<br />

plug-in (http://www.mediawiki.org/wiki/Extension:Pubmed) for remote access<br />

and presentation of PubMed literature data (single hits and result sets)<br />

within a MediaWiki page.<br />

PubMed Extension Implementation<br />

Up to now, PubMed literature data could not be included automatically into a<br />

MediaWiki page. The described PubMed extension [http://www.mediawiki.<br />

org/wiki/Extension:Pubmed] uses hooks and tag-function associations in the<br />

wiki software part. It is based on a PHP SOAP class and contains methods to<br />

connect to the PubMed API functions listed in [http://www.ncbi.nlm.nih.gov<br />

/entrez/query/static/esoap_help.html]. Programming details can be fo<strong>und</strong> in


A landmark in biomedical information: many ways are leading to PubMed 497<br />

[Bohne 2008]. The extension is invoked by the tag and transmits<br />

a query to PubMed using the described method. The result set consists of the<br />

PubMed article IDs related to the query. A PubMed request causes the server<br />

to send the answer as a large data set in a XML record. In the next step, the<br />

algorithm extracts the necessary parts by mapping the related fields. This step<br />

is necessary, as some attribute names unfortunately are not unique, like the<br />

‘Forename’ or the ‘Firstname’ attribute in the author definition. The following<br />

step is the layout process building the HTML code from the map–ped<br />

data using a HTML template file. In addition to the primary literature data,<br />

some links are generated and included. At the moment there are three default<br />

links: A link back to the PubMed page by the PMID, a link to the journal on<br />

Worldcat.org by ISSN and a link to the full text at the publisher’s page, if<br />

DOI information is available. Thus the MediaWiki plug-in provides a new<br />

tag within the markup language. The tag establishes a po–werful<br />

connection to PubMed by submitting the value between opening and closing<br />

tag as a query string to PubMed. The tag can possess three attributes<br />

influencing the result set layout. The attribute ‘limit’ controls the number<br />

of result records returned by the layout generator. The limit set by the<br />

NCBI utilities is 500 result records per query. The limit parameter should be<br />

used with complex queries – e.g. to present the first 20 hits. The attributes<br />

‘layoutfile’ and ‘layoutlinks’ can set the current layout to temp–lates different<br />

from the default mode. Two other pieces of information about publication<br />

status are added in brackets – information about the publication medium and<br />

status (P for paper, I for Internet) and information about pub–lication status<br />

(p for published, a for ahead of print, and e for epublished).<br />

The MediaWiki plug-in is an easy-to-use tool for users not familiar with<br />

programming. Using the tag helps them to integrate literature<br />

reference data and links into their own wiki pages, opening access to free or<br />

subscribed related sources like full text or Worldcat data.<br />

Reference<br />

Bohne-Lang, A.; Lang, E. (2008). Application Note: A MediaWiki extension to open<br />

remote access to literature data from Pubmed. Biomedical Digital Libraries, Vol<br />

5, No 1.


498 Ina Blümel, René Berndt<br />

3D-Modelle in bibliothekarischen Angeboten<br />

Zusammenfassung<br />

Ina Blümel 1 , René Berndt 2<br />

1 TIB Hannover<br />

Welfengarten 1B, D-30167 Hannover<br />

ina.bluemel@tib.uni-hannover.de<br />

2 TU Graz<br />

Inffeldgasse 16c, A-8010 Graz<br />

r.berndt@cgv.tugraz.at<br />

Dieser Beitrag umreißt semi-automatische Inhaltserschließung <strong>und</strong> visuell-interaktive<br />

Suche in 3D-Modellen im Forschungsprojekt PROBADO.<br />

Abstract<br />

This paper describes semi-automatic, content-based indexing and visual-interactive<br />

searching of 3D models within the PROBADO project.<br />

PROBADO 3D<br />

PROBADO 3D ist Teilbereich des Forschungsprojekts PROBADO, das den<br />

prototypischen Aufbau <strong>und</strong> Betrieb einer verteilten digitalen Bibliothek für<br />

heterogene, multimediale Dokumente zum Ziel hat. Dabei werden alle<br />

Schritte der bibliothekarischen Verarbeitungskette vom Bestandsaufbau über<br />

semi-automatische Inhaltserschließung bis hin zu visuell-interaktiver Suche<br />

<strong>und</strong> Präsentation sowie Betriebsaspekten betrachtet. Partner innerhalb von<br />

PROBADO 3D sind die Universität Bonn, TU Darmstadt, TU Graz <strong>und</strong> TIB<br />

Hannover. PROBADO wird von der Deutschen Forschungsgemeinschaft<br />

DFG im LIS-Programm als Leistungszentrum für Forschungsinformation


3D-Modelle in bibliothekarischen Angeboten 499<br />

gefördert <strong>und</strong> ist bis 7/2011 ausgelegt. Weitere <strong>Information</strong>en siehe<br />

www.probado.de.<br />

Zur Evaluation der Suchfunktionalität, zu Demonstrationszwecken <strong>und</strong><br />

zur Sammlung von Erfahrung mit Digitalisierungs- <strong>und</strong> Datenintegrationsarbeiten<br />

wurde an der TIB Hannover ein umfangreicher 3D-Testdatenbestand<br />

aufgebaut, vornehmlich mit Modellen von Gebäuden <strong>und</strong> Einrichtungsgegenständen.<br />

Das Einstellen neuer Daten veranlasst die Ausführung eines<br />

entsprechend vorkonfigurierten Workflows (Berndt 2010): Vor der inhaltsbasierten<br />

Erschließung werden technische Metadaten extrahiert, in ein einheitliches<br />

Format für die verschiedenen inhaltsbasierten Indexer konvertiert<br />

<strong>und</strong> Vorschaudateien erzeugt. Zur Modellverwaltung wird eine Datenbanklösung<br />

mit integriertem Webfrontend benutzt, das verteilten Zugriff <strong>und</strong> ein<br />

feinstufiges Benutzer- <strong>und</strong> Gruppenmanagement bietet.<br />

Einer Studie unter Architekten zufolge (Blümel 2009) sind Benutzer sowohl<br />

an der gewohnten textbasierten Suche als auch am Content Based Retrieval<br />

interessiert. PROBADO 3D bietet sowohl die Suche in Metadaten als<br />

auch modellvergleichende sowie 2D- <strong>und</strong> 3D-Skizziersuchen an (Berndt<br />

2009). Dafür werden <strong>global</strong>e sowie lokale 3D-Formdeskriptoren sowie ein<br />

weiterer zur Erkennung von sog. Raumstrukturgraphen verwendet (Wessel<br />

2008). Außerdem werden Techniken wie maschinelles Lernen <strong>und</strong> Benchmarking<br />

eingesetzt, um die Modelle automatisch mit Metadaten anzureichern<br />

<strong>und</strong> so textbasierte Suche zu ermöglichen. Hierzu wurde ein Benchmark für<br />

Objektmodelle aus dem Fachbereich Architektur entwickelt (Wessel 2009).<br />

References/Literaturverzeichnis<br />

Berndt, R., Blümel, I., Wessel, R. (2010). PROBADO3D – Towards an Automatic<br />

Multimedia Indexing Workflow for Architectural 3D Models. Proceedings of<br />

ELPUB 2010.<br />

Berndt, R. et al. (2009). Demonstration of User Interfaces for Querying in 3D Architectural<br />

Content in PROBADO3D. Proceedings of ECDL 2009.<br />

Blümel, I., Sens, I. (2009). Das PROBADO-Projekt: Integration von nichttextuellen<br />

Dokumenten am Beispiel von 3D Objekten in das Dienstleistungsangebot von<br />

Bibliotheken. ZfBB, Heft 2, 2009, Klostermann.


500 Ina Blümel, René Berndt<br />

Wessel, R. Blümel, I., Klein, R. (2009). A 3D Shape Benchmark for Retrieval and<br />

Automatic Classification of Architectural Data. Proceedings of Eurographics<br />

2009 Workshop on 3D Object Retrieval.<br />

Wessel, R., Blümel, I., Klein, R (2008). The room connectivity graph: Shape retrieval<br />

in the architectural domain. Proceedings of WSCG 2008.


First Aid for <strong>Information</strong> Chaos in Wikis 501<br />

First Aid for <strong>Information</strong> Chaos in Wikis<br />

Collaborative <strong>Information</strong> Management<br />

Enhanced Through Language Technology<br />

Nicolai Erbs, Daniel Bär, Iryna Gurevych, Torsten Zesch<br />

Abstract<br />

UKP Lab, Technische Universität Darmstadt<br />

http://www.ukp.tu-darmstadt.de<br />

We present a system to prevent information chaos in wikis as one example of<br />

an information management system. The system utilizes Natural Language<br />

Processing techniques to support users with respect to the typical tasks of<br />

adding, organizing, and finding content.<br />

First Aid for <strong>Information</strong> Chaos in Wikis<br />

In recent years, the Web has turned into a ubiquitous information space and a<br />

collaborative information management system. Wikis are one of the most<br />

popular tools for managing unstructured textual information. While wikis<br />

have become widely adopted in corporate and private settings (Buffa, 2006),<br />

they suffer from a number of disadvantages resulting from their distributed<br />

and collaborative way of construction. Over time, this leads to significant<br />

usability limitations which make it more difficult to contribute (Désilets et<br />

al., 2005).<br />

In this poster, we show how these issues can be targeted utilizing Natural<br />

Language Processing (NLP) techniques, such as keyphrase extraction, topic<br />

segmentation, text summarization, or link discovery. Gurevych and Zesch<br />

(2008) introduce the overall idea of supporting wiki users utilizing NLP<br />

techniques, while Hoffart et al. (2009) describe the actual system architecture<br />

of the enhanced wiki.


502 Nicolai Erbs, Daniel Bär, Iryna Gurevych, Torsten Zesch<br />

The poster presents the Wikulu system and highlights the major enhancements<br />

of collaborative information management in wikis. It describes<br />

our approach to link discovery in more detail as one particular example of an<br />

NLP technique utilized by the Wikulu system. Finally, selected results of the<br />

user study as well as some future research directions are discussed.<br />

While wikis represent an excellent and particularly interesting application<br />

area of collaborative information management, the presented NLP techniques<br />

could be applied to any means of unstructured information management, e.g.<br />

in scientific information management for research papers.<br />

Acknowledgements<br />

The Wikulu project has been supported by the Klaus Tschira Fo<strong>und</strong>ation<br />

<strong>und</strong>er grant No. 00.133.2008. The utilized NLP techniques have been supported<br />

by the Volkswagen Fo<strong>und</strong>ation as part of the Lichtenberg-Professorship<br />

Program <strong>und</strong>er grant No. I/82806.<br />

Literature<br />

Buffa, M. (2006). Intranet Wikis. In Proceedings of the IntraWebs Workshop 2006 at<br />

the 15th International World Wide Web Conference, Edinburgh, Scotland.<br />

Désilets, A., Paquet, S., and Vinson, N. G. (2005). Are wikis usable? WikiSym ’05:<br />

In Proceedings of the 2005 international symposium on Wikis, pages 3–15, San<br />

Diego, California, USA.<br />

Gurevych, I. and Zesch, T. (2008). Selbstorganisierende Wikis. In Proceedings of<br />

KnowTech, BITKOM, pages 317–324, Frankfurt, Germany.<br />

Hoffart, J., Zesch, T., and Gurevych, I. (2009). An Architecture to Support Intelligent<br />

User Interfaces for Wikis by Means of Natural Language Processing. Wiki-<br />

Sym ’09: In Proceedings of the 5 th International Symposium on Wikis and Open<br />

Collaboration, pages 1–10, Orlando, Florida, USA.


Multilingual Interface Usage 503<br />

Multilingual Interface Usage<br />

Maria Gäde, Juliane Stiller<br />

Berlin School of Library and <strong>Information</strong> Science – Humboldt-Universität<br />

10117 Berlin<br />

{maria.gaede, juliane.stiller}@ibi.hu-berlin.de<br />

Zusammenfassung<br />

Zu der elementaren Ebene des mehrsprachigen Zugangs zu <strong>Information</strong>en im<br />

Web gehört die Benutzeroberfläche. Das Poster beschreibt am Beispiel der<br />

Europeana 1 die tatsächliche Nutzung der mehrsprachigen Benutzeroberfläche<br />

des Portals. Mittels einer Log-Dateien-Analyse werden Sessions in denen die<br />

Sprache der Benutzeroberfläche gewechselt wurde bestimmt <strong>und</strong> die vorrangig<br />

genutzten Sprachen identifiziert.<br />

Abstract<br />

The most elementary level of multilingual information access is the user<br />

interface. Using the example of Europeana 1 this poster describes the usage of<br />

the multilingual interface. Through a log file analysis we determined the<br />

occurrence of sessions with an interface language change, including the most<br />

frequently selected languages.<br />

Multilingual Interface Usage<br />

The change of the interface language of an information system is an active<br />

intervention of the user, indicating preferences for favored languages. The<br />

Europeana portal integrates digital objects from Europe’s cultural institutions<br />

such as libraries, audio-visual archives, museums and archives and displays<br />

all static interface pages in 27 European languages. In line with a user survey<br />

1 http://www.europeana.eu/portal/


504 Maria Gäde, Juliane Stiller<br />

on multilingual information access, the majority of the participants expressed<br />

their preference for manually switching the user interface to their native language<br />

[EuropeanaConnect 09].<br />

Currently the Europeana portal provides two different options for language<br />

change: either the user selects the interface language by a drop-downmenu<br />

or the language is selected automatically based on the language a user<br />

determined before (via cookie). Another option is that the user clicks on a<br />

link requesting the local Europeana version from a referrer page such as<br />

search engine results. The Europeana Clickstream Logger, which logs and<br />

gathers extended information on user behavior, records the interface language<br />

and the change of the interface language for each session [Gäde 10].<br />

The analysis of ca. 350.000 sessions from July to December 2010, excluding<br />

bots, showed that roughly a third contained another interface language than<br />

the default one in English.<br />

For those sessions that included a different interface language than English<br />

the appropriate languages were extracted. The results give indications about<br />

the actual usage, preferred languages and options for language determination<br />

of the multilingual interface within a digital library.<br />

References<br />

EuropeanaConnect (2009). D 2.1.1 Multilingual <strong>Information</strong> Access in Digital Libraries:<br />

Report on User Preferences and <strong>Information</strong> Retrieval Scenarios for Multilingual<br />

Access in Europeana.<br />

http://www.europeanaconnect.eu/documents/D2.1.1_eConnect_Report_UserPreferen<br />

ces_MLIA_v1.0_20091222.zip<br />

Gäde, M., Petras, V., Stiller, J. (2010). Which Log for Which <strong>Information</strong>? Gathering<br />

Multilingual Data from Different Log File Types. In: Multilingual and Multimodal<br />

<strong>Information</strong> Access Evaluation, Vol. 6360 (2010), pp. 70–81.


Fassettierte Suche in Benutzeroberflächen von digitalen Bibliotheken 505<br />

Fassettierte Suche in Benutzeroberflächen<br />

von digitalen Bibliotheken<br />

Jasmin Hügi, Rahel Birri Blezon, René Schneider<br />

Haute Ecole de Gestion – <strong>Information</strong>swissenschaft<br />

7, route de Drize, CH-1227 Carouge, Genf<br />

E-Mail: {jasmin.hugi | rahel.birri-blezon | rene.schneider}@hesge.ch<br />

Zusammenfassung<br />

Das Poster stellt die Ergebnisse zweier qualitativer, komparativer Benutzerakzeptanztests<br />

mit dem Schwerpunkt der Fassettierung vor. Dabei wurde das<br />

System Swissbib (www.swissbib.ch) der fassettierten Suche von SIRIS<br />

(http://collections.si.edu/search) gegenübergestellt, während das Projekt<br />

e-codices.ch (www.e-codices.ch) mit der digitalen Handschriftensammlung<br />

Penn in Hand (http://dla.library.upenn.edu/dla/medren/index.html) verglichen<br />

wurde. Aus den jeweiligen Resultaten wurden allgemeine Empfehlungen abgeleitet,<br />

welche ebenfalls mit dem Poster präsentiert werden.<br />

Abstract<br />

The poster presents the results of two qualitative and comparative user acceptance<br />

tests with the focus on faceted search. For this test the system Swissbib<br />

(www.swissbib.ch) has been confronted with the faceted search of SIRIS<br />

(http://collections.si.edu/search), whereas the project e-codices.ch (www.ecodices.ch)<br />

was compared with the digital manuscript collection Penn in<br />

Hand (http://dla.library.upenn.edu/dla/medren/index.html). General recommendations<br />

were derived from the respective results and are described on the<br />

poster.


506 Jasmin Hügi, Rahel Birri Blezon, René Schneider<br />

Thesen<br />

Nachstehende Thesen sind das Resultat zweier komparativer Usability-Tests<br />

zum fassettierten Suchen. Dafür wurde das System Swissbib (www.swissbib.ch)<br />

der fassettierten Suche von SIRIS (http://collections.si.edu/search)<br />

gegenübergestellt, welches sich durch komplexere Funktionalitäten auszeichnet.<br />

Das Projekt e-codices.ch (www.e-codices.ch) wurde mit der digitalen<br />

Handschriftensammlung Penn in Hand (http://dla.library.upenn.edu/dla/medren/index.html)<br />

verglichen.<br />

Verallgemeinernd können aufgr<strong>und</strong> der Testergebnisse folgende Rückschlüsse<br />

gezogen werden, die nachstehend wiedergegeben werden.<br />

• Fassetten sind zu Beginn jeder neuen Suche, die im Suchschlitz durchgeführt<br />

wird, auf Null zurückzusetzen <strong>und</strong> Bildschirmelemente zum Wegklicken<br />

von Fassetten sind prominent zu platzieren.<br />

• Faceted Breadcrumbs sind zur Darstellung von benutzten Filtern zu vermeiden.<br />

• Sowohl die Auswahl der Fassetten als auch die ausgewählten Fassetten<br />

sind am linken Bildschirmrand zu platzieren.<br />

• Fehler in der Sacherschließung müssen vermieden werden. Fassetten mit<br />

inkonsistenter Sacherschließung sollen nicht angeboten werden.<br />

• Eine äußerst differenzierte Fassettierung erscheint wenig angebracht. Der<br />

Vorzug ist den eindeutig verständlichen Fassetten zu geben.<br />

• Die Verknüpfungsmöglichkeiten einzelner Fassetten sind als möglichst<br />

einfach <strong>und</strong> visuell nachvollziehbar zu gestalten. Die Benutzeroberfläche<br />

soll Fehlschlüsse minimieren. Die Darstellung einer ODER-Verknüpfung<br />

durch eine Checkbox <strong>und</strong> eine UND-Verknüpfung durch einen Link<br />

reicht nicht aus.<br />

Gr<strong>und</strong>sätzlich gilt für die Realisierung von Interaktionswerkzeugen zum<br />

fassettierten Suchen: „Keep it simple“. Jede komplexe Erweiterung, die über<br />

die Gr<strong>und</strong>funktionalität einer Fassette als Filter hinausführt, sollte getestet<br />

werden. Eine komplexe Ausgestaltung darf den kognitiven Ballast nicht vergrößern<br />

<strong>und</strong> soll von einem erwiesenen Nutzen für die Benutzer sein.


Ordnung im Weltwissen 507<br />

Zusammenfassung<br />

Ordnung im Weltwissen<br />

Hanna Knäusl<br />

Institut für <strong>Information</strong> <strong>und</strong> Medien, Sprache <strong>und</strong> Kultur<br />

Universität Regensburg<br />

93040Regensburg<br />

hanna.knaeusl@sprachlit.uni-regensburg.de<br />

Um die Verteilung der Inhalte auf die verschiedenen Sach- <strong>und</strong> Fachgebiete<br />

einer Enzyklopädie zu untersuchen, wurde dafür ein Ordnungssystem entwickelt.<br />

Abstract<br />

To explore how the content of miscellaneous encyclopedic works is spread<br />

over the different subject areas it was necessary to develop a classification<br />

system.<br />

1 Einleitung<br />

Um die Verteilung der Artikel einer Enzyklopädie auf die verschiedenen<br />

Fach- <strong>und</strong> Sachgebiete zu untersuchen <strong>und</strong> untereinander zu vergleichen,<br />

benötigt man ein Ordnungssystem, um die Artikel zu kategorisieren. Die in<br />

Enzyklopädien vorhandenen Ordnungssystematiken wie etwa die alphabetische<br />

Sortierung oder das Kategoriensystem der Wikipedia sind aus verschiedenen<br />

Gründen dazu nicht geeignet, da sie entweder keinen Aufschluss über<br />

die Inhalte geben oder aber zu detailliert <strong>und</strong> damit zu groß sind [Ha08].


508 Hanna Knäusl<br />

2 Forschungsziel<br />

Besonders interessant ist die Verteilung der Inhalte in der deutschsprachigen<br />

Wikipedia im Vergleich zu einer traditionellen Enzyklopädie wie zum Beispiel<br />

der Brockhaus Enzyklopädie in der 21. Auflage. Aufgr<strong>und</strong> von Stichproben<br />

(6 Stichproben à ca. 100 Lemmata wurden auf Vorhandensein in beiden<br />

Werken untersucht, Deckungsgleichheit zwischen 11% <strong>und</strong> 23%) wurde<br />

die Annahme getroffen, dass die Verteilung der Inhalte unterschiedlich ausfällt.<br />

Um diese Vermutung empirisch zu überprüfen, wurde speziell dafür ein<br />

Ordnungssystem entwickelt.<br />

3 Anforderungen an das Ordnungssystem<br />

Ähnlich einer Top-Level Ontologie soll das Ordnungssystem nur relativ allgemeine<br />

Merkmale erfassen, da es einerseits für alle <strong>Wissen</strong>sdomänen anwendbar<br />

sein soll, aber andererseits überschaubar <strong>und</strong> fest begrenzt sein muss,<br />

um eine sinnvolle Aussage über die Verteilungen machen zu können. Auch<br />

Mehrfachzuordnungen <strong>und</strong> Überschneidungen dürfen nicht zulässig sein.<br />

4 Das Ordnungssystem<br />

Das entwickelte System erfasst fünf Aspekte eines Enzyklopädieartikels:<br />

Typ, Sachbereich, Zeitraum, regionale Zugehörigkeit <strong>und</strong> Relevanz des Lemmas<br />

für eine Enzyklopädie. Für die Sortierung gibt es eindeutige Zuweisungsregeln.<br />

Damit soll trotz des Verzichts auf Details die Zuordnung bei den verschiedenen<br />

Enzyklopädien so konsistent wie möglich gehalten werden.<br />

Literaturverzeichnis<br />

[Ha08]: Hammwöhner, Rainer; Kattenbeck, Markus; Köstlbacher, Anton (2008): Das<br />

Kategoriensystem der Wikipedia. In Druck; Vortrag im Rahmen der ISKO 2008.


Die European Psychology Publication Platform 509<br />

Die European Psychology<br />

Publication Platform<br />

Eine Publikationsinfrastruktur für die europäische<br />

Psychologie <strong>und</strong> ihre Nachbardisziplinen<br />

Isabel Nündel, Erich Weichselgartner, Günter Krampen<br />

Leibniz-Zentrum für Psychologische <strong>Information</strong> <strong>und</strong> Dokumentation<br />

Universitätsring 15, D-54286 Trier<br />

E-Mail: nuendel@zpid.de<br />

Zusammenfassung<br />

Um die europäische psychologische Forschung sichtbarer, leichter zugänglich<br />

<strong>und</strong> effektiver zu machen, entwickelt das Leibniz-Zentrum für Psychologische<br />

<strong>Information</strong> <strong>und</strong> Dokumentation (ZPID) mit weiteren Kooperationspartnern<br />

die European Psychology Publication Platform. Diese Open-<br />

Access-Publikationsinfrastruktur ist als Knotenpunkt für die wissenschaftliche<br />

Gemeinschaft gedacht <strong>und</strong> wird durch ihre Vielfalt an Sprachen, Publikationsvarianten<br />

<strong>und</strong> Mehrwertdiensten die Qualität der <strong>Information</strong>sversorgung<br />

sowie die internationale Zusammenarbeit auf dem Feld der Psychologie<br />

<strong>und</strong> ihrer Nachbardisziplinen positiv befördern.<br />

Abstract<br />

In order to make European psychological research more visible, easier accessible<br />

and more effective the Leibniz-Institute for Psychology <strong>Information</strong><br />

(ZPID) and its cooperation partners are developing the European Psychology<br />

Publication Platform. This open access publication infrastructure shall become<br />

a junction for the scientific community and will, based on its diversity<br />

of languages, publication types and value-added services, foster the quality of<br />

information supply as well as the international cooperation on the field of<br />

Psychology and its related disciplines.


510 Isabel Nündel, Erich Weichselgartner, Günter Krampen<br />

Die European Psychology Publication Platform<br />

In 2008 hat das ZPID eine umfangreiche Analyse der europäischen Publikationssituation<br />

für die Psychologie vorgenommen [Uhl & Weichselgartner,<br />

2009] <strong>und</strong> dabei den Bedarf für eine effektive Publikationsplattform erkannt.<br />

Daher entwickelt das ZPID gemeinsam mit zahlreichen internationalen Kooperationspartnern<br />

die European Psychology Publication Platform, einen<br />

multilingualen Knotenpunkt für <strong>Wissen</strong>schaftler <strong>und</strong> Praktiker, um <strong>Information</strong>en<br />

aus der Psychologie <strong>und</strong> ihren Nachbardisziplinen sowohl zu veröffentlichen<br />

als auch zu beziehen. Dadurch wird die Vernetzung unter europäischen<br />

<strong>Wissen</strong>schaftlern vereinfacht <strong>und</strong> der effektive Austausch von <strong>Information</strong>en<br />

auf internationaler Ebene gefördert. Gleichzeitig bleibt die Sprachenvielfalt<br />

Europas erhalten <strong>und</strong> die europäische psychologische Forschung<br />

wird sichtbarer <strong>und</strong> leichter zugänglich.<br />

Die Plattform wird verschiedensten Publikationsvarianten von Artikeln<br />

<strong>und</strong> Monografien über Forschungsberichte <strong>und</strong> Konferenzbeiträge bis hin zu<br />

Postern offenstehen. Des Weiteren sollen auch Primärdaten, Tests <strong>und</strong> multimediale<br />

Formate aufgenommen werden. Peer-Review gewährleistet die<br />

Einhaltung höchster Qualitätsstandards. Zudem sollen Zusatzfunktionen wie<br />

beispielsweise mehrsprachige Metadaten, Verlinkung von Zitaten, „lebende<br />

Artikel“ <strong>und</strong> Kommentare möglich sein.<br />

Die Konzeption der European Psychology Publication Platform ist ein<br />

Gemeinschaftsprojekt unter der Beteiligung von Einrichtungen aus zwölf<br />

europäischen Ländern. Aufbauend auf diesen vorbereitenden Arbeiten wird<br />

in 2011 am ZPID mit der Realisierung der Plattform begonnen.<br />

Literaturverzeichnis<br />

Uhl, M. & Weichselgartner, E. (2009). Aufbau einer innovativen Publikations-Infrastruktur<br />

für die europäische Psychologie. <strong>Information</strong>: Droge, Ware oder Commons?<br />

Wertschöpfungs- <strong>und</strong> Transformationsprozesse auf den <strong>Information</strong>smärkten.<br />

Proceedings des 11. Internationalen Symposiums für <strong>Information</strong>swissenschaft<br />

(ISI 2009), 105–114.


IUWIS (Infrastruktur Urheberrecht in <strong>Wissen</strong>schaft <strong>und</strong> Bildung) 511<br />

IUWIS (Infrastruktur Urheberrecht in <strong>Wissen</strong>schaft<br />

<strong>und</strong> Bildung): Urheberrecht zwischen<br />

Fakten <strong>und</strong> Diskursen<br />

Zusammenfassung<br />

Projektteam IUWIS<br />

Institut für Bibliotheks- <strong>und</strong> <strong>Information</strong>swissenschaft<br />

Humboldt-Universität zu Berlin<br />

Unter den Linden 6, D-10099 Berlin<br />

info@iuwis.de<br />

Die Web-Plattform IUWIS bietet <strong>Wissen</strong>schaftlerInnen <strong>und</strong> Rechtsexpert-<br />

Innen die Möglichkeit zum Austausch über das Thema Urheberrecht in <strong>Wissen</strong>schaft<br />

<strong>und</strong> Bildung. Diese sind eingeladen, sich aktiv mit Fragen oder<br />

Diskursbeiträgen einzubringen. Derzeit entsteht auf IUWIS eine semantisch<br />

erschlossene Sammlung von Dokumenten zum Thema, die die im Internet<br />

verstreuten Veröffentlichungen an einem Ort versammelt <strong>und</strong> nutzbar macht.<br />

Abstract<br />

The web platform IUWIS offers information on copyright in research and<br />

education setting up an infrastructure where researchers, scientists and legal<br />

professionals can discuss their problems. Additionally IUWIS assembles a<br />

database of available publications on the topic of German copyright. The<br />

texts are indexed based on a comprehensive semantic system in order to<br />

make the publication activity more accessible for the scientific communities.<br />

Stimmen zum Urheberrecht aus der <strong>Wissen</strong>schaft<br />

Mit IUWIS entsteht eine webbasierte Infrastruktur zum Thema Urheberrecht<br />

für <strong>Wissen</strong>schaft <strong>und</strong> Bildung, die die Orientierung in dem komplexen Feld<br />

Urheberrecht erleichtern soll. In <strong>Wissen</strong>schaft <strong>und</strong> Bildung beeinflussen ur-


512 Projektteam IUWIS<br />

heberrechtliche Fragen gr<strong>und</strong>sätzlich die Arbeitsbedingungen für Lehrende,<br />

Forschende <strong>und</strong> Studierende. Jedoch sind viele Regelungen des Urheberrechts<br />

für juristische Laien unverständlich, wodurch Unsicherheiten bei der<br />

Anwendung entstehen.<br />

IUWIS folgt dem Web 2.0-Paradigma <strong>und</strong> nutzt dort entwickelte Methoden<br />

der Interaktion durch Foren, nutzergenerierte Inhalte <strong>und</strong> Verschlagwortung<br />

(Tags), um seinen NutzerInnen niedrigschwellige Interaktionsformen zu<br />

bieten. IUWIS versteht sich also als <strong>sozial</strong>er Dienst, in dem die NutzerInnen<br />

ihr <strong>Wissen</strong> mit anderen teilen <strong>und</strong> gemeinsam Lösungsvorschläge für Probleme<br />

erarbeiten. Die Redaktion fungiert dabei in erster Linie als <strong>Information</strong>broker,<br />

der Antworten <strong>und</strong> Kontakte vermittelt, <strong>und</strong> bietet nur in eingeschränktem<br />

Maß eigene Inhalte an. Durch eine Art „Wiki-Prinzip“ werden<br />

perspektivisch die von den Nutzern erstellten Inhalte von anderen Nutzern<br />

überprüft <strong>und</strong> korrigiert.<br />

Ein Mehrwert von IUWIS ist die Erfassung <strong>und</strong> Zugänglichmachung der<br />

im Netz existierenden Inhalte im Infopool. In den Dossiers können dann die<br />

Diskussionsstränge, die im Internet derzeit häufig ins Leere laufen, gebündelt<br />

abgerufen werden. IUWIS ist über diverse persönliche <strong>und</strong> institutionelle<br />

Verbindungen in der Szene aktiv (Aktionsbündnis für Urheberrecht <strong>und</strong> Bildung,<br />

iRights.info, verschiedene rechtswissenschaftliche Institute) <strong>und</strong> bindet<br />

dadurch Experten ein.<br />

IUWIS bündelt die <strong>Information</strong>s- <strong>und</strong> Diskursangebote mit dem Ziel, den<br />

Bedürfnissen heterogener Zielgruppen gerecht zu werden <strong>und</strong> auch gegensätzlichen<br />

Meinungen – zum Beispiel in Hinblick auf die Reform des Urheberrechtsgesetzes<br />

– Raum zu geben. Ausgehend von der Diversität der NutzerInnen<br />

entsteht mit IUWIS ein virtueller Diskursraum, der je nach Bedarf<br />

<strong>und</strong> Intention von allen AkteurInnen genutzt werden kann. Dabei konzentriert<br />

sich IUWIS auf die Entwicklungen in Deutschland. Durch den nutzerzentrierten<br />

Ansatz ist es jedoch jederzeit möglich, dass etwa Nutzer aus Österreich<br />

<strong>und</strong> der Schweiz vermehrt Dokumente <strong>und</strong> Diskurse aus den<br />

dortigen Rechtsräumen auf die Webplattform bringen. Auch gibt es enge<br />

Verbindungen mit verschiedenen europäischen Initiativen, die eine Erweiterung<br />

des Angebots in Zukunft möglich machen.<br />

Mehr Info auf der IUWIS-Website: www.iuwis.de


Die Kulturgüterdatenbank der Region Trier 513<br />

Die Kulturgüterdatenbank der Region Trier<br />

Ein multimedialer <strong>und</strong> mobiler Onlineführer<br />

Zusammenfassung<br />

Helge Klaus Rieder<br />

FH Trier, FB Wirtschaft<br />

Schneidershof, D-54208 Trier<br />

E-Mail: h.rieder@fh-trier.de<br />

Die Kulturgüterdatenbank mit Einträgen von Kulturdenkmälern, Naturdenkmälern<br />

<strong>und</strong> historischen Plätzen in der Region Trier hat das Ziel, Interessenten<br />

– Touristen wie Einheimischen – das kulturelle Erbe der Region von über<br />

17.000 Denkmälern auf dem derzeitigen Stand der Internettechnologie nahe<br />

zu bringen.<br />

Abstract<br />

The Cultural Heritage Database covers the territory of the City of Trier and<br />

the surro<strong>und</strong>ing municipalities. It contains information on 17,000 buildings,<br />

monuments and places of cultural and historical interest as well as on interesting<br />

elements of the countryside such as natural and wildlife preserves.<br />

1 Ziel des Projekts<br />

Die Datenbank der Kulturgüter in der Region Trier ist ein gemeinsames Projekt<br />

der Planungsgemeinschaft Region Trier, der FH Trier, des Freilichtmuseums<br />

Roscheider Hof <strong>und</strong> der NETGis, Trier. Viele Einträge <strong>und</strong> Bilder<br />

wurden von Benutzern der Kulturgüterdatenbank erstellt. Aufgr<strong>und</strong> der vielen<br />

sensiblen Kulturdenkmäler (jüdische Friedhöfe, Nazi-Bauten etc.) werden<br />

sie vor der Veröffentlichung redaktionell geprüft. Die komplette Neuimplementierung<br />

des Projekts mit PHP <strong>und</strong> PostgreSQL hatte das Ziel, die kom-


514 Helge Klaus Rieder<br />

plett georeferenzierte Datenbank in Kartenserver einbinden zu können, <strong>und</strong><br />

die Bedienung für stationäre <strong>und</strong> verschiedene mobile Anwendungen zu optimieren.<br />

Siehe http://www.RoscheiderHof.de/kulturdb.<br />

2 Kulturgüter für zu Hause <strong>und</strong> für unterwegs<br />

Vorrangiges Ziel des Projekts ist es, Kultur- <strong>und</strong> Naturgüter bekannt <strong>und</strong><br />

auffindbar zu machen <strong>und</strong> sie durch das dadurch entstehende öffentliche<br />

Interesse zu schützen. Ziel ist es, durch eine XML-Schicht die Kulturgüterdatenbank<br />

in verschiedenste Anwendungen einbinden zu können. Zu jeder Seite<br />

– auch zu den Navigationsseiten – ist eine XML-Seite hinterlegt. Dadurch ist<br />

es möglich, verschiedene Layouts für verschiedene Endgeräte zu produzieren.<br />

Die XML-Schicht ist auch öffentlich zugänglich <strong>und</strong> in der Dokumentation<br />

beschrieben. Damit ist es Dritten möglich, diese <strong>Information</strong>en in ihr<br />

eigenes Angebot zu integrieren. Für die Planung von Ausflügen <strong>und</strong> Exkursionen<br />

können Benutzer Listen von Kulturdenkmälern erstellen <strong>und</strong> diese<br />

dann mit mobilen Endgeräten <strong>und</strong> Routenplanern unterwegs aufrufen.<br />

Bei mobilen Anwendungen ist die Darstellung auf kleinen Bildschirmen<br />

von Smartphones von der Einbindung der Daten in Routenplaner zu unterscheiden.<br />

Bei ersterem geht es um die Anpassung der Darstellung <strong>und</strong> der<br />

Navigation an kleinere Bildschirme. Die <strong>Information</strong>en wurden dabei auf die<br />

im mobilen Einsatz sinnvollen Inhalte beschränkt <strong>und</strong> die Navigation etwas<br />

vereinfacht. Die Daten der Kulturdenkmäler können in Navigationsgeräte<br />

(PKW), GPS-Geräte (handhelds wie Garmin etc.) wie auch für Routenplaner<br />

auf Smartphones <strong>und</strong> PCs durch den Download entsprechender Konfigurationsdateien<br />

(derzeit im Wesentlichen gpx-Dateien) integriert <strong>und</strong> dort weiterverarbeitet<br />

werden.<br />

3 Navigation <strong>und</strong> Geo-Anwendungen<br />

Bei der Suche nach Sehenswürdigkeiten kann über eine Menüstruktur nach<br />

verschiedensten Kriterien (Kategorien, Ortsteile, etc.) <strong>und</strong> über eine Stringsuche<br />

gesucht werden. Vom aktuellen eigenen Standort oder von einem gef<strong>und</strong>enen<br />

Objekt aus kann <strong>und</strong> in einer selbst gewählten Entfernung um das


Die Kulturgüterdatenbank der Region Trier 515<br />

Objekt nach der gleichen Kategorie, dem gleichen Ortsteil etc. gesucht werden.<br />

Alle Objekte <strong>und</strong> alle Suchergebnisse (mit mehreren bzw. vielen Sehenswürdigkeiten)<br />

können auf einer Karte dargestellt <strong>und</strong> weiterverarbeitet<br />

werden. Derzeit werden Umgebungskarten um den Standort des Benutzers<br />

mit relevanten Kulturgütern entwickelt.


516 Karl Voit, Keith Andrews, Wolfgang Wintersteller, Wolfgang Slany<br />

TagTree:<br />

Exploring Tag-Based Navigational Structures<br />

Karl Voit 1 , Keith Andrews 2 ,<br />

Wolfgang Wintersteller 3 , Wolfgang Slany 4<br />

1<br />

Institute for Software Technology (IST) – Graz University of Technology<br />

Karl.Voit@IST.TUGraz.at<br />

2<br />

Institute for <strong>Information</strong> Systems and Computer Media (IICM)<br />

Graz University of Technology<br />

kandrews@iicm.edu<br />

3 Graz University of Technology<br />

wintersw@sbox.tugraz.at<br />

4<br />

Institute for Software Technology (IST) – Graz University of Technology<br />

Wolfgang.Slany@tugraz.at<br />

Abstract<br />

This poster describes a new concept of storing files and folders in and retrieving<br />

from TagTrees using tagging and automatically maintained navigational<br />

hierarchies.<br />

Although desktop search engines are now widely available on the computers<br />

of typical users, navigation through folder hierarchies is still the dominant<br />

mode of information access. Most users still prefer to store and search for<br />

their information within a strict hierarchy of folders.<br />

TagTrees are compatible with all currently prevalent software environments.<br />

A prototype implementation called tagstore provides a flexible<br />

framework for experimentation and a testbed for both usability studies and<br />

longer term field tests. (Voit 2011)<br />

From the early file storage systems of the last century until modern desktop<br />

computer systems, the method of storing files into a hierarchy of folders<br />

has not changed. The amount of information has increased dramatically


TagTree: Exploring Tag-Based Navigational Structures 517<br />

within the last fifty years. Therefore advanced methods of accessing information<br />

in local files are an important issue.<br />

Tagging seems to be a promising approach for handling a large number of<br />

items. Within the last thirty years a variety of personal information management<br />

tools were developed with little or no influence on the average computer<br />

desktop as Voit et al. (2009) summarizes.


518 Karl Voit, Keith Andrews, Wolfgang Wintersteller, Wolfgang Slany<br />

Storing files in TagTrees provides multi-path navigation to the same information.<br />

Users are able to browse to files using associative tags. This kind<br />

of navigation does not rely on a mental model of the folder hierarchy system.<br />

Therefore, within a large set of files, navigation performance in TagTrees is<br />

able to provide better performance than browsing in strict folder hierarchies.<br />

Ongoing user studies show that users are able to adopt this new way of<br />

browsing their file system very fast. Subjective impression of test users is<br />

very positive.<br />

References<br />

Voit, Karl (2011). tagstore. http://www.tagstore.org/ (Accessed 2011-01-17)<br />

Voit, Karl, Keith Andrews, and Wolfgang Slany (2009). Why Personal <strong>Information</strong><br />

Management (PIM) Technologies Are Not Widespread.


Link server aggregation with BEACON 519<br />

Abstract<br />

Link server aggregation with BEACON<br />

Jakob Voß 1 , Mathias Schindler 2 , Christian Thiele<br />

1 Verb<strong>und</strong>zentrale des GBV (VZG)<br />

Platz der Göttinger Sieben 1, 37073 Göttingen<br />

2 Wikimedia Germany<br />

Eisenacher Strasse 2, 10777 Berlin<br />

We demonstrate BEACON, the simplest possible file format to exchange<br />

links. It is successfully used by more than 50 institutions to provide links to<br />

be aggregated by Wikipedia and other projects.<br />

Link servers and aggregation<br />

Although links are its most powerful feature, the WWW is primarily build of<br />

documents. The limitation to embedded, outgoing hyperlinks, instead of links<br />

as first class objects, has been criticized regularly. Dedicated link servers<br />

allow links to be created, managed, and reused in context (Signer et al. 2009;<br />

Michaelides 2001). But link server standards such as the F<strong>und</strong>amental Open<br />

Hypermedia Model have not been widely adopted, and link servers such as<br />

SFX (Robertson et al 2009) remain closed data silos. With SeeAlso we have<br />

developed a simple link server protocol based on OpenSearch Suggestions<br />

and unAPI (Voß 2008). SeeAlso is used for catalog enrichment in German<br />

libraries, and implemented as open source. However, the protocol is not designed<br />

for aggregating large amounts of links from many different data providers.<br />

Neither the OAI harvesting protocol seems to provide an adequate<br />

way to exchange simple sets of links, especially for small data providers with<br />

limited technical skills. A possible solution for aggregating links is providing<br />

them as Linked Open Data in RDF. However, with multiple serialization


520 Jakob Voß, Mathias Schindler, Christian Thiele<br />

formats and ontologies, RDF adds more complexity than needed. For this<br />

reason we created the BEACON file format as the simplest thing that could<br />

possibly work. The main design goal was ease of creation: files can be generated<br />

manually or with simple tools, such as spreadsheets, provided by any<br />

transport mechanism (HTTP, OA, …). Later they can be converted to RDF. 1<br />

BEACON format and its usage<br />

The UTF-8 encoded format starts with a set of meta fields, followed by an<br />

unordered list of links, one per line. Each link is build of an identifier as<br />

source, a target URI, and an optional label and/or description. The following<br />

excerpt contains links from German name authority records (PND) to lists of<br />

appropriate holdings of the Bavarian State library, with the number of hits:<br />

#FORMAT: PND-BEACON<br />

#PREFIX: http://d-nb.info/gnd/<br />

#TARGET: http://opacplus.bsb-muenchen.de/search?pnd={ID}<br />

118584596|5819<br />

11850553X|4151<br />

Its condensed form (the first link is from http://d-nb.info/gnd/118584596 to<br />

http://opacplus.bsb-muenchen.de/search?pnd=118584596, annotated with<br />

‘5819’ hits) allows storing one million such links uncompressed with a size<br />

of 12.5 MB (3.35 MB compressed). Links in BEACON format are already<br />

provided by more than 50 institutions and harvested BEACON files are used<br />

in projects such as Wikipedia-Personensuche, 2 Bayerisches Musiker-Lexikon<br />

Online, 3 and ‘Linked History’ at University of Leipzig. 4<br />

1 See detailed description of BEACON at http://meta.wikimedia.org/wiki/BEACON and<br />

its applications at http://de.wikipedia.org/wiki/Wikipedia:PND/BEACON (German).<br />

2 See Wikipedia People Search at http://toolserver.org/~apper/pd/ (German).<br />

3 See http://www.bmlo.lmu.de/ (German).<br />

4 See http://aksw.org/Projects/LinkedHistory/pnd/ (not limited to BEACON format).


Link server aggregation with BEACON 521<br />

References<br />

Michaelides, D., Millard, D., Weal, M., Roure, D. (2001). Auld Leaky: A Contextual<br />

Open Hypermedia Link Server. Proc. of the ACM Conference on Hypertext and<br />

Hypermedia, Springer, LNCS 2266, p. 59–70.<br />

Robertson, W., Soderdahl, P. (2004). Everything you always wanted to know about<br />

SFX but were afraid to ask. The Serials Librarian 47:1/2, p. 129–138.<br />

Signer, B., de Spindler, A., Norrie, M. (2009). A Framework for Link Sharing in<br />

Cooperative Cross-Media <strong>Information</strong> Spaces. Proc. of CDVE ’09, Springer,<br />

LNCS 5738, p. 185–192.<br />

Voß, J. (2008). SeeAlso: A Simple Linkserver Protocol. Ariadne Issue 57, October<br />

30 th . http://www.ariadne.ac.uk/issue57/voss/.


522 Jakob Voß, Mathias Schindler, Christian Thiele


<strong>Wissen</strong>schaft trifft Praxis 523<br />

Praxis-Tracks


524 Matthias Görtz<br />

<strong>Wissen</strong>schaft trifft Praxis<br />

Der 1. ISI-Praxis-Track als Plattform für den Austausch<br />

zwischen informationswissenschaftlicher Forschung <strong>und</strong><br />

Erfahrungen der <strong>Information</strong>sarbeit in der Praxis<br />

Matthias Görtz<br />

Institut für <strong>Information</strong>swissenschaft <strong>und</strong> Sprachtechnologie<br />

Universität Hildesheim<br />

E-Mail: matthias.goertz@uni-hildesheim.de<br />

Zusammenfassung<br />

Neben den wissenschaftlichen Beiträgen werden auf dem 12. Internationalen<br />

Symposium der <strong>Information</strong>swissenschaft (ISI) des Hochschulverbands <strong>Information</strong>swissenschaft<br />

(HI) auch Erfahrungsberichte aus der Praxis in das<br />

Vortragsprogramm integriert. Der 1. ISI-Praxis-Track bietet so die Gelegenheit,<br />

Erfahrungen aus der Anwendung, Evaluation <strong>und</strong> Weiterentwicklung<br />

informationswissenschaftlicher Konzepte in öffentlichen <strong>und</strong> privatwirtschaftlichen<br />

Institutionen in den <strong>Wissen</strong>schaftsbetrieb zurückzuspielen. Ein<br />

derartiger Austausch zwischen Theorie <strong>und</strong> Praxis könnte zu einer festen<br />

Institution der ISI-Tagungsreihe werden.<br />

Abstract<br />

In addition to scientific contributions to the 12th International Symposium of<br />

<strong>Information</strong> Science (ISI) of the German Higher Education Association for<br />

<strong>Information</strong> Science (HI) practical experience is included in the conference<br />

program in the form of field reports and case studies from information professionals.<br />

The 1 st ISI Corporate Track thus offers a platform for the reflection<br />

of concepts of <strong>Information</strong> Science in the application, evaluation and<br />

advancement in public and commercial institutions. Such an exchange between<br />

theory and practice may be established as valuable addition to the<br />

regular ISI conference series.


<strong>Wissen</strong>schaft trifft Praxis 525<br />

Praxis Track 1 — <strong>Information</strong> in der Praxis<br />

Peter Schäuble (Eurospider <strong>Information</strong> Technology AG) berichtet vom<br />

Transfer des Name Matching aus der Theorie in die Praxis der Bankenbranche.<br />

Nationale <strong>und</strong> internationale Vorschriften weisen Banken <strong>und</strong> andere<br />

Finanzintermediäre an, riskante <strong>und</strong> verbotene K<strong>und</strong>enbeziehungen zu erkennen.<br />

Die hierfür eingesetzte Name Matching Software muss unter anderem<br />

ein spezifisches <strong>Information</strong> Retrieval Problem lösen: Es müssen zum<br />

K<strong>und</strong>en <strong>Information</strong>en gesucht werden, um diesen zu identifizieren <strong>und</strong><br />

schließlich das Risiko einzuschätzen. Spezielle Kategorisierungsmethoden<br />

<strong>und</strong> Entitäten-Erkennungen unterstützen diese Aufgabe. Im Rahmen des Beitrags<br />

wird auch gezeigt, dass aus einer Verbesserung der Qualität der Treffer<br />

direkt eine Aufwandsreduktion resultiert.<br />

Christian Dirschl (Wolters Kluwer) argumentiert, dass das Semantic Web<br />

sehr viele Probleme zu adressieren vermag, mit denen sich aktuell <strong>Information</strong>sdienstleister<br />

wie Wolters Kluwer in der <strong>Information</strong>sakquisition, -anreicherung<br />

<strong>und</strong> -nutzung beschäftigen. Um Herausforderungen wie u.a. <strong>Information</strong><br />

Overload, fehlenden Möglichkeiten zur inhaltlichen Annotierung <strong>und</strong><br />

mangelnder <strong>Information</strong>squalität zu begegnen, hat Wolters Kluwer beschlossen,<br />

als Industriepartner in einem von der EU geförderten Projekt<br />

http://lod2.eu teilzunehmen, damit das Semantic Web sich in eine Richtung<br />

weiterentwickelt, die <strong>Information</strong>sdienstleistern wie Wolters Kluwer <strong>und</strong><br />

seinen K<strong>und</strong>en hilft.<br />

Yasan Budak (VICO Research & Consulting GmbH) erörtert, ob Social<br />

Media mehr als nur ein Kommunikationskanal ist. Anhand von Praxisbeispielen<br />

<strong>und</strong> Studienergebnissen wird unter Einsatz informationswissenschaftlicher<br />

bzw. computerlinguistischer Methoden aufgezeigt, welchen Einfluss<br />

das Social Web auf das Verhalten der Konsumenten hat bzw. wie man mittels<br />

Einsatz von eigenen Aktionen im Social Web das Verhalten der Konsumenten<br />

beeinflussen kann. Zum Abschluss des Vortrags wird anhand von<br />

Praxisbeispielen aufgezeigt, welche Vorzüge sich aus einem Social Media<br />

Monitoring ergeben <strong>und</strong> welche Möglichkeiten sich für Unternehmen dadurch<br />

eröffnen.


526 Matthias Görtz<br />

Robert Strötgen (Georg-Eckert-Institut für internationale Schulbuchforschung)<br />

präsentiert Erfahrungen aus der Implementierung einer community-basierten<br />

virtuellen Forschungsumgebung für die internationale Bildungsmedienforschung.<br />

Diese stellen <strong>Information</strong>sanbieter vor die Herausforderung,<br />

über die bisherigen Funktionen (vor allem bei der <strong>Information</strong>sbeschaffung)<br />

hinaus im Forschungsprozess Unterstützung zu leisten. Das<br />

Georg-Eckert-Institut entwickelt <strong>und</strong> erprobt derzeit im Rahmen einer DFG-<br />

Projektförderung innerhalb seines <strong>Information</strong>s- <strong>und</strong> Kommunikationsportals<br />

Edumeres.net eine virtuelle Arbeits- <strong>und</strong> Forschungsumgebung (VRE). Dabei<br />

wird sowohl auf heuristische <strong>und</strong> benutzerzentrierte Usability-Studien als<br />

auch auf die praktischen Erfahrungen mit den Demonstrationsprojekten eingegangen.<br />

Insbesondere wird die Notwendigkeit der Unterstützung von Forschern<br />

<strong>und</strong> damit die Veränderung von Rollen in der Digitalen Bibliothek<br />

diskutiert.<br />

Praxis Track 2 — Usability in der Praxis<br />

Martin Beschnitt <strong>und</strong> Andrea Struckmeier (eResult Gmbh) erläutern,<br />

warum „gutes Aussehen“ nicht immer von Vorteil ist. Diese Erkenntnis bezieht<br />

sich auf Überlegungen zum Einfluss der optischen Gestaltung von Prototypen<br />

auf das Nutzerverhalten im Usability-Test. Die Ergebnisse einer Studie<br />

der eResult GmbH implizieren, dass Prototypen geringer visueller Verfeinerung<br />

mindestens ebenso für die Systemevaluation geeignet sind wie Prototypen<br />

von hoher visueller Verfeinerung. Sofern nicht explizit das Design<br />

eines Systems getestet werden soll, empfiehlt es sich sogar, auch in späteren<br />

Designphasen noch mit Prototypen von geringer visueller Verfeinerung zu<br />

arbeiten, da diese häufig mehr funktionale Probleme zu Tage fördern als<br />

visuell stark ausgereifte Prototypen <strong>und</strong> im Hinblick auf die Usability-Bewertung<br />

weniger anfällig sind für den Einfluss der optischen Erscheinung des<br />

Prototyps.<br />

Nadine Wacker <strong>und</strong> Steffen Weichert (usability.de / qualitylabs) präsentieren<br />

die benutzerzentrierte Neuentwicklung einer Industrieverband-Website<br />

<strong>und</strong> was passiert, wenn User-Centered-Design auf Unternehmenskultur trifft.<br />

Dabei gehen sie insbesondere darauf ein, wie typische Usability-Methoden in


<strong>Wissen</strong>schaft trifft Praxis 527<br />

der Praxis eingesetzt werden <strong>und</strong> welche Herausforderungen <strong>und</strong> Lösungsansätze<br />

bestehen. Im Kontext eines abgeschlossenen Projekts wurde der Einfluss<br />

der Unternehmens- bzw. Verbandskultur auf den Projektverlauf <strong>und</strong> den<br />

Einsatz von User-Research-Methoden deutlich. Auf Basis dieser Erfahrungen<br />

zeigen die Autoren auf, wie agile Vorgehensmodelle (Scrum, Agile User Experience<br />

Design etc.) an die Unternehmenskultur angepasst werden müssen,<br />

um zielführend zu bleiben.<br />

Alexander Friedel (macio GmbH) <strong>und</strong> Stefanie Zürn (s.c.z. kommunikationsdesign)<br />

berichten von den Herausforderungen des User Interface Designs<br />

für Hersteller von Geräten <strong>und</strong> Maschinen bei der Internationalisierung<br />

von Software. Zum einen sollten dabei – in der geringsten Anforderung –<br />

Textelemente lesbar <strong>und</strong> in das User Interface passend in die relevante Landessprache<br />

überführt werden können. Zum anderen erfolgt die visuelle <strong>und</strong><br />

inhaltliche Anpassung der Bedienanwendung an die kulturellen Eigenheiten<br />

<strong>und</strong> Gepflogenheiten des jeweiligen Zielmarktes. Diese Internationalisierung<br />

bedeutet neben der Berücksichtigung im Design immer auch einen Eingriff in<br />

das Software Engineering. Anhand eines realen Projektes stellen die Autoren<br />

ein für den weltweiten Markt entwickeltes User Interface vor.<br />

Klaus Tochtermann <strong>und</strong> Tamara Pianos (ZBW Leibniz-<strong>Information</strong>szentrum<br />

Wirtschaft) stellen ihre Arbeit zur Ermöglichung wirtschaftswissenschaftlicher<br />

Recherche unter Berücksichtigung von K<strong>und</strong>enwünschen vor.<br />

Dabei bewegen sie sich laut eigenen Aussagen zwischen der Forderung<br />

„Don’t make me think“ <strong>und</strong> dem Bedürfnis nach komplexen Suchoptionen.<br />

Ihr Fachportal für die Wirtschaftswissenschaften, EconBiz, will die Komplexität<br />

im Hintergr<strong>und</strong> verarbeiten, um die Suche bequem zu gestalten. Dabei<br />

wird versucht, möglichst viele (u.a. auch ortsbasierte) Services <strong>und</strong> Optionen<br />

anzubieten, ohne das Portal zu komplex zu gestalten. Um dies bestmöglich<br />

zu erreichen, wird die Community über Web 2.0-Funktionen (z.B. Open Innovation<br />

Ideenwettbewerbe) sowie einen gezielt von der ZBW eingestellten<br />

Community Manager immer mehr in die Weiterentwicklung <strong>und</strong> Anpassungen<br />

einbezogen.


528 Matthias Görtz


Mittendrin statt nur dabei 529<br />

Studierendenprogramm


530 Katrin Geist<br />

Mittendrin statt nur dabei<br />

<strong>Information</strong>swissenschaftliche Forschungsarbeiten<br />

<strong>und</strong> -projekte von Studierenden<br />

Katrin Geist<br />

Institut für <strong>Information</strong>swissenschaft <strong>und</strong> Sprachtechnologie<br />

Universität Hildesheim<br />

E-Mail: geistk@uni-hildesheim.de<br />

Zusammenfassung<br />

Das studentische Programm bietet Studierenden der <strong>Information</strong>swissenschaft<br />

Gelegenheit, ihre Projekte <strong>und</strong> Arbeiten vorzustellen <strong>und</strong> so ein größeres<br />

wissenschaftliches Publikum zu erreichen. Es hat sich als fester Bestandteil<br />

des Internationalen Symposiums der <strong>Information</strong>swissenschaft (ISI)<br />

etabliert. Als Plattform für den Austausch zwischen den Studierenden verschiedener<br />

Standorte <strong>und</strong> als Brücke zur informationswissenschaftlichen<br />

Forschung, versammelt das diesjährige Programm Beiträge von Studierenden<br />

aus Abo (Finnland), Berlin, Chur (Schweiz), Hildesheim, Potsdam <strong>und</strong> Regensburg.<br />

Abstract<br />

The student program offers a unique opportunity for students of <strong>Information</strong><br />

Science to present their work at the 12th International Symposium of <strong>Information</strong><br />

Science (ISI). It has become a valued regular event at the ISI conference<br />

series and is a platform for exchange between students and scholars<br />

from different universities, which also connects their work with the scientific<br />

community. This year it brings together presentations of students from Abo<br />

(Finland), Berlin, Chur (Switzerland), Hildesheim, Potsdam and Regensburg.


Mittendrin statt nur dabei 531<br />

Nadja Böller (HTW Chur) beschreibt ihre Annäherung an die Frage, inwiefern<br />

<strong>Information</strong>skompetenz im Weiterbildungsangebot der Hochschuldidaktik<br />

berücksichtigt wird. Ausgehend von den heutigen Anforderungen an eine<br />

arbeitsmarktorientierte Hochschulausbildung <strong>und</strong> der damit verb<strong>und</strong>enen<br />

optimalen Kompetenzförderung durch die Hochschulen wird angenommen,<br />

dass Hochschullehrende selbst über <strong>Information</strong>skompetenz verfügen müssen,<br />

um diese auch bei ihren Studierenden fördern zu können. Das methodische<br />

Vorgehen <strong>und</strong> die Ergebnisse ihrer Experteninterviews werden diskutiert.<br />

Elena di Rosa (Humboldt-Universität Berlin) beschäftigt sich in ihrer<br />

Masterarbeit mit den Auswirkungen von Creative-Commons-Lizenzen auf<br />

den wissenschaftlichen Publikationsprozess. Anhand von Interviews mit<br />

<strong>Wissen</strong>schaftlerInnen, ExpertInnen <strong>und</strong> Tätigen aus dem Verlagswesen werden<br />

Antworten gesucht, wie sich die Zusammenhänge von Creative-Commons-Lizenzen<br />

<strong>und</strong> der <strong>Wissen</strong>schaft derzeit gestalten <strong>und</strong> sich in Zukunft<br />

entwickeln könnten.<br />

Feng Gu (Department of <strong>Information</strong> Studies, Åbo Akademi, Finland)<br />

thematisiert wissenschaftliches <strong>Information</strong>sverhalten im Internet. Anhand<br />

einer Online-Befragung <strong>und</strong> Interviews an chinesischen <strong>und</strong> finnischen Universitäten<br />

<strong>und</strong> Forschungsinstitutionen findet eine Annäherung an <strong>Information</strong>sverhalten<br />

von <strong>Wissen</strong>schaftlern in Social Media statt. Es wird versucht<br />

wissenschaftliche Kommunikation in Social Media in einem Modell abzubilden<br />

<strong>und</strong> <strong>Information</strong>skompetenz zu evaluieren.<br />

Dirk Eichel (FH-Potsdam) präsentiert die Ergebnisse eines Projekts zur<br />

ökologischen Nachhaltigkeit von Bibliotheken. Das Projekt wurde gemeinsam<br />

mit Anastasia Schadt, Anja Skudlarek <strong>und</strong> Anja Wagner durchgeführt.<br />

Die Bibliothek ist ein Ort, an dem Menschen kollaborativ <strong>und</strong> transdisziplinär<br />

mit Unterstützung modernster <strong>Information</strong>ssysteme an innovativen Problemlösungen<br />

arbeiten können. Die Beachtung von ökologischen Kriterien<br />

sollte ein selbstverständlicher <strong>und</strong> integraler Bestandteil der Nachhaltigkeitsstrategie<br />

einer jeden Bibliothek sein.<br />

Konstantin Baierer (Humboldt-Universität Berlin) stellt ein System vor,<br />

mit dem sich halbstrukturierte bibliographische Referenzen parsen lassen.<br />

Das Parsing von bibliographischen Referenzen, wie sie in Fußnoten <strong>und</strong> Lite-


532 Katrin Geist<br />

raturverzeichnissen wissenschaftlicher Arbeiten verwendet werden, ist ein<br />

höchst komplexes Problem, für das verschiedene Softwarelösungen existieren.<br />

Ein neu entwickeltes System (Citation::Multi::Parser) wird vorgestellt,<br />

das verschiedene etablierte Verfahren kombiniert <strong>und</strong> die Ergebnisse durch<br />

heuristische Verfahren <strong>und</strong> Datenbankabfragen verschmilzt, korrigiert <strong>und</strong><br />

anreichert. Die Software ist noch ein Prototyp, kann aber schon genutzt werden.<br />

Gabriele Pätsch (Universität Hildesheim) stellt Ansätze für den Einsatz<br />

von Mobile Learning in Entwicklungsländern vor <strong>und</strong> regt zur Auseinandersetzung<br />

mit der Frage an, welche Potentiale Mobile Learning in diesem Kontext<br />

birgt. Sie verdeutlicht dies am Beispiel des Projekts I-Call der österreichischen<br />

Firma common sense – eLearning & training consultants GmbH,<br />

welches interaktive Audio-Geschichten in Subsahara-Afrika einsetzen wird.<br />

Isabella Hastreiter (Uni Regensburg) präsentiert die Entwicklung einer<br />

mobilen Anwendung für die Elektronische Zeitschriften Bibliothek im Rahmen<br />

eines Seminars zu Softwareergonomie <strong>und</strong> User Experience. Die einzelnen<br />

Etappen vom Problemszenario über die Anforderungsanalyse bis zum<br />

fertigen Papier-Prototypen werden ebenso thematisiert, wie die spezielle<br />

Umsetzung theoretischer Usability Konzepte in der Praxis.<br />

Oliver Schönbett (Universität Hildesheim) berichtet von den Ergebnissen<br />

seiner Magisterarbeit zur Verwendung von standortbezogenen <strong>Information</strong>en<br />

für die Spracherkennung. Er erläutert inwiefern Kontextinformationen zugänglich<br />

sind <strong>und</strong> wie sie in einem Dialogsystem eingesetzt werden können.<br />

Nach einer Diskussion der Bedeutung von Kontext für Dialogsysteme wird<br />

abschließend ein Demonstrationsprogramm vorgestellt, das einen solchen<br />

Ansatz implementiert.<br />

Wissam Tawileh (Universität Hildesheim) berichtet von den Ergebnissen<br />

der Auseinandersetzung mit der vergleichenden Evaluierung von Websuchmaschinen<br />

in arabischer Sprache im Rahmen seiner Masterarbeit. Das Design<br />

von Retrievaltests muss in diesem Kontext nicht nur den besonderen Anforderungen<br />

des Internets genügen, sondern auch interkulturelle Besonderheiten<br />

arabischer Nutzer berücksichtigen.


Mittendrin statt nur dabei 533


534<br />

Sachregister<br />

Weitere Titel aus dem vwh-Verlagsprogramm (Auszug)<br />

Reihe „E-Learning“<br />

E. Abfalterer: Foren, Wikis, Weblogs<br />

<strong>und</strong> Chats im Unterricht<br />

2007, 24,90 €, ISBN 978-3-9802643-3-4<br />

K. Himpsl: Wikis im Blended Learning<br />

2007, 26,90 €, ISBN 978-3-9802643-5-8<br />

M. Hornbostel: E-Learning <strong>und</strong> Didaktik<br />

2007, 24,90 €, ISBN 978-3-940317-00-1<br />

T. Bernhardt/M. Kirchner:<br />

E-Learning 2.0 im Einsatz<br />

2007, 31,90 €, ISBN 978-3-940317-16-2<br />

A. Schett: Selbstgesteuertes Lernen<br />

2008, 27,50 €, ISBN 978-3-940317-25-4<br />

S. Dreer: E-Learning an berufsbildenden<br />

Schulen 2008, 32,90 €, 978-3-940317-28-5<br />

H. Ernst: Mobiles Lernen in der Praxis<br />

2008, 27,50 €, ISBN 978-3-940317-30-8<br />

E. Kaliva: Personal Learning<br />

Environments in der Hochschullehre<br />

2009, 25,90 €, ISBN 978-3-940317-40-7<br />

S. Graf: Identity Management <strong>und</strong> E-<br />

Portfolios 2009, 33,50 €, 978-3-940317-55-1<br />

S. Panke: <strong>Information</strong>sdesign von<br />

Bildungsportalen<br />

2009, 32,90 €, ISBN 978-3-940317-59-9<br />

A. S. Nikolopoulos: Sicherung der<br />

Nachhaltigkeit von E-Learning-<br />

Angeboten an Hochschulen<br />

2010, 32,50 €, ISBN 978-3-940317-60-5<br />

U. Höbarth: Konstruktivistisches<br />

Lernen mit Moodle - 2. Aufl. -<br />

2010, 31,50 €, ISBN 978-3-940317-77-3<br />

J. Drummer: E-Learning im Unterricht<br />

Ein Leitfaden zum Einsatz von Lernplattformen<br />

in der Schule<br />

2011, 22,90 €, ISBN 978-3-940317-84-1<br />

M. Krüger: Selbstgesteuertes <strong>und</strong><br />

kooperatives Lernen mit Vorlesungsaufzeichnungen<br />

2011, 31,90 €, ISBN 978-3-940317-88-9<br />

D. Ammer:<br />

Die Umwelt des World Wide Web<br />

Bildung für nachhaltige Entwicklung im<br />

Medium World Wide Web aus pädagogischer<br />

<strong>und</strong> systemtheoretischer Perspektive<br />

2011, 31,90 €, ISBN 978-3-940317-86-5<br />

Reihe „Typo | Druck“<br />

C. Bouchon: Infografiken<br />

2007, 27,90 €, ISBN 978-3-940317-07-0<br />

M. Liebig: Browser-Typografie<br />

2008, 35,90 €, ISBN 978-3-940317-09-4<br />

U. Franzki: Identität durch Schrift –<br />

Schrift durch Identität Studien zum<br />

Kommunikationspotenzial von Schrift<br />

Erscheint 3/2011, ISBN 978-3-940317-87-2<br />

Reihe „Game Studies“<br />

S. Schwingeler: Die Raummaschine<br />

2008, 28,90 €, ISBN 978-3-940317-24-7<br />

T. Rittmann: MMORPGs als virtuelle<br />

Welten 2008, 26,50 €, 978-3-940317-20-9<br />

B. Rapp:<br />

Selbstreflexivität im Computerspiel<br />

2008, 32,90 €, ISBN 978-3-940317-35-3<br />

R. Seda: Interactive Storytelling im<br />

Computerspiel<br />

2008, 35,90 €, ISBN 978-3-940317-33-9<br />

M. Mosel (Hg.): Gefangen im Flow?<br />

2009, 29,90 €, ISBN 978-3-940317-37-7<br />

A. Stoll: „Killerspiele“ oder E-Sport?<br />

2009, 28,90 €, ISBN 978-3-940317-42-1<br />

J. Sieck/M. A. Herzog (Hg.): Kultur<br />

<strong>und</strong> Informatik: Serious Games<br />

(14./15. Mai 2009, Berlin, Tagungsband)<br />

2009, 30,90 €, ISBN 978-3-940317-47-6<br />

R. T. Inderst:<br />

Vergemeinschaftung in MMORPGs<br />

2009, 34,90 €, ISBN: 978-3-940317-50-6<br />

A. Beyer/G. Kreuzberger (Hg.): Digitale<br />

Spiele – Herausforderung <strong>und</strong><br />

Chance 2009, 32,50 €, 978-3-940317-04-9<br />

M. Mayer: Warum leben, wenn man<br />

stattdessen spielen kann?<br />

2009, 36,90 €, ISBN 978-3-940317-54-4<br />

D. Pietschmann:<br />

Das Erleben virtueller Welten<br />

2009, 28,90 €, ISBN 978-3-940317-44-5<br />

R. T. Inderst/D. Wüllner:<br />

10 Fragen zu Videospielen<br />

2009, 22,90 €, ISBN 978-3-940317-56-8<br />

A. Tolino: Gaming 2.0 – Computerspiele<br />

<strong>und</strong> Kulturproduktion<br />

2010, 44,90 €, ISBN 978-3-940317-66-7


K.-M. Behr: Kreativer Umgang mit<br />

Computerspielen<br />

2010, 31,50 €, ISBN 978-3-940317-75-9<br />

G. Werdenich: PC bang, E-Sport <strong>und</strong><br />

der Zauber von StarCraft<br />

2010, 25,90 €, ISBN 978-3-940317-74-2<br />

R. T. Inderst/P. Just (Hg.): Contact ·<br />

Conflict · Combat Zur Tradition des<br />

Konfliktes in digitalen Spielen<br />

2011, 29,90 €, ISBN 978-3-940317-89-6<br />

Reihe „Web 2.0“<br />

C. Mörl/M. Groß: Soziale Netzwerke<br />

im Internet Analyse der Monetarisierungsmöglichkeiten<br />

<strong>und</strong> Entwicklung<br />

eines integrierten Geschäftsmodells<br />

2008, 28,90 €, ISBN 978-3-940317-22-3<br />

T. Seeber: Weblogs – die 5. Gewalt?<br />

2008, 25,50 €, ISBN 978-3-940317-23-0<br />

J. Moskaliuk (Hg.): Konstruktion <strong>und</strong><br />

Kommunikation von <strong>Wissen</strong> mit Wikis<br />

2008, 27,50 €, ISBN 978-3-940317-29-2<br />

J. L. Brinning:<br />

Persönliches Publizieren im Web 2.0<br />

2008, 27,50 €, ISBN 978-3-940317-32-2<br />

F.-R. Habbel/A. Huber (Hg.): Web 2.0<br />

für Kommunen <strong>und</strong> Kommunalpolitik<br />

2008, 27,50 €, ISBN 978-3-940317-36-0<br />

A. Hutter: Watchblogs: Medienkritik<br />

2.0? Eine inhaltsanalytische Untersuchung<br />

journalistischer Qualität in medienkritischen<br />

Weblogs 2009, 27,90 €, 978-3-940317-12-4<br />

M. Mara: Narziss im Cyberspace<br />

2009, 27,90 €, ISBN 978-3-940317-46-9<br />

R. Stephan:<br />

Cyber-Bullying in <strong>sozial</strong>en Netzwerken<br />

2010, 20,90 €, ISBN 978-3-940317-64-3<br />

F.-R. Habbel/A. Huber (Hg.):<br />

Wirtschaftsförderung 2.0<br />

2010, 29,90 €, ISBN 978-3-940317-68-1<br />

H. Frohner: Social Tagging Gr<strong>und</strong>lagen,<br />

Anwendungen, Auswirkungen auf <strong>Wissen</strong>sorganisation<br />

<strong>und</strong> <strong>sozial</strong>e Strukturen der User<br />

2010, 26,90 €, ISBN 978-3-940317-03-2<br />

Sachregister<br />

535<br />

R. Bauer: Die digitale Bibliothek von<br />

Babel Über den Umgang mit <strong>Wissen</strong>sressourcen<br />

im Web 2.0<br />

2010, 26,90 €, ISBN 978-3-940317-71-1<br />

Reihe „Medienwirtschaft“<br />

K. Huemer: Die Zukunft des Buchmarktes<br />

Verlage <strong>und</strong> Buchhandlungen<br />

im digitalen Zeitalter<br />

2010, 24,90 €, ISBN 978-3-940317-73-5<br />

J.-F. Schrape: Gutenberg-Galaxis Reloaded?<br />

Der Wandel des deutschen Buchhandels<br />

durch Internet, E-Books <strong>und</strong> Mobile<br />

Devices 2011, 17,90 €, 978-3-940317-85-8<br />

Reihe „E-Business“<br />

J. S. Günther: Erfolgreiches Onlinemarketing<br />

mit Google<br />

2008, 43,90 €, ISBN 978-3-940317-26-1<br />

S. Sobczak/M. Groß: Crowdsourcing<br />

2010, 24,90 €, ISBN 978-3-940317-61-2<br />

Reihe „E-Humanities“<br />

C. Russ: Online Crowds Massenphänomene<br />

<strong>und</strong> kollektives Verhalten im Internet<br />

2010, 31,50 €, ISBN 978-3-940317-67-4<br />

Reihe „Multimedia“<br />

J. Sieck (Hg.): Interaktive Systeme<br />

6./7. Mai 2010, Berlin, Tagungsband<br />

2010, 31,50 €, ISBN 978-3-940317-72-8<br />

Reihe „Medientheorie“<br />

H. Hillgärtner: Das Medium als Werkzeug<br />

2008, 30,90 €, ISBN 978-3-940317-31-5<br />

W. Drucker: Von Sputnik zu Google<br />

Earth Über den Perspektivenwechsel hin<br />

zu einer ökologischen Weltsicht<br />

2011, 25,90 €, ISBN 978-3-940317-82-7<br />

Kleine Schriften<br />

M. Pankow: In kurzen Sätzen zur weiten<br />

Welt Eine funktionale Analyse des<br />

Phänomens Twitter [Softcover]<br />

2010, 12,80 €, ISBN 978-3-940317-65-0<br />

Varia<br />

nestor Handbuch Eine kleine Enzyklopädie<br />

der digitalen Langzeitarchivierung<br />

2009, 24,90 €, ISBN 978-3-940317-48-3<br />

Reihe „Schriften<br />

zur <strong>Information</strong>swissenschaft“<br />

siehe ausführlich folgende Seite<br />

Aktuelle Ankündigungen, Inhaltsverzeichnisse <strong>und</strong> Rezensionen<br />

finden sie im vwh-Blog unter www.vwh-verlag.de.<br />

Das komplette Verlagsprogramm mit Buchbeschreibungen sowie eine direkte<br />

Bestellmöglichkeit im vwh-Shop finden Sie unter www.vwh-verlag-shop.de.


536<br />

Sachregister<br />

Weitere Bände aus der Reihe<br />

„Schriften zur <strong>Information</strong>swissenschaft“<br />

Alexander Warta: Kollaboratives <strong>Wissen</strong>smanagement in Unternehmen<br />

Indikatoren für Erfolg <strong>und</strong> Akzeptanz am Beispiel von Wikis<br />

(Bd. 57 ; 2011) Boizenburg : vwh, 300 S., ISBN 978-3-940317-90-2, 30,90 €<br />

Marco Prestipino: Die virtuelle Gemeinschaft als <strong>Information</strong>ssystem<br />

<strong>Information</strong>squalität nutzergenerierter Inhalte in der Domäne Tourismus<br />

(Bd. 56 ; 2010) Boizenburg : vwh, 304 S., ISBN 978-3-940317-69-8, 30,90 €<br />

Andreas Ratzka: Patternbasiertes User Interface Design für multimodale<br />

Interaktion Identifikation <strong>und</strong> Validierung von Patterns auf Basis einer Analyse<br />

der Forschungsliteratur <strong>und</strong> explorativer Benutzertests an Systemprototypen<br />

(Bd. 55; 2010) Boizenburg: vwh, 400 S., ISBN 978-3-940317-62-9, 33,90 €<br />

Thomas Memmel: User Interface Specification for Interactive Software Systems<br />

(Bd. 54; 2009) Boizenburg: vwh, 362 S., ISBN 978-3-940317-53-7, 33,90 €<br />

Joachim Griesbaum: Mehrwerte des kollaborativen <strong>Wissen</strong>smanagements in<br />

der Hochschullehre Integration asynchroner netzwerkbasierter Szenarien des<br />

CSCL in der Ausbildung der <strong>Information</strong>swissenschaft im Rahmen des K3-Projekts<br />

(Bd. 53; 2009) Boizenburg: vwh, 480 S., ISBN 978-3-940317-52-0, 35,90 €<br />

Monika Maßun: Collaborative <strong>Information</strong> Management in Enterprises<br />

(Bd. 52; 2009) Boizenburg: vwh, 222 S., ISBN 978-3-940317-49-0, 28,90 €<br />

Susanne Mühlbacher: <strong>Information</strong> Literacy in Enterprises<br />

(Bd. 51; 2009) Boizenburg: vwh, 342 S., ISBN 978-3-940317-45-2, 32,90 €<br />

Rainer Kuhlen (Hg.): <strong>Information</strong>: Droge, Ware oder Commons?<br />

Wertschöpfungs- <strong>und</strong> Transformationsprozesse auf den <strong>Information</strong>smärkten<br />

Proc. des 11. Internationalen Symposiums für <strong>Information</strong>swissenschaft (ISI 2009)<br />

(Bd. 50; 2009) Boizenburg: vwh, 578 S., ISBN 978-3-940317-43-8, 38,90 €<br />

Markus Heckner: Tagging, Rating, Posting Studying Forms of User<br />

Contribution for Web-based <strong>Information</strong> Management and <strong>Information</strong> Retrieval<br />

(Bd. 49; 2009) Boizenburg: vwh, 244 S., ISBN 978-3-940317-39-1, 27,90 €<br />

Rainer Kuhlen: Erfolgreiches Scheitern – eine Götterdämmerung des Urheberrechts?<br />

(Bd. 48; 2008) Boizenburg: vwh, ISBN 978-3-940317-21-6, 644 S., 39,90 €<br />

Ralph Kölle: Java lernen in virtuellen Teams Kompensation defizitärer Rollen<br />

durch Simulation (47; 2007) Boizenburg: vwh, 978-3-940317-17-9, 284 S., 29,90 €<br />

A. Oßwald, M. Stempfhuber, C. Wolff (Hg.): Open Innovation<br />

Beiträge des 10. Intern. Symposiums für <strong>Information</strong>swissenschaft, Köln (ISI 2007)<br />

(Bd. 46; 2007) Konstanz: UVK, ISBN 978-3-86764-020-6, XI, 518 S., 54,00 €<br />

T. Mandl, C. Womser-Hacker (Hrsg.): Effektive <strong>Information</strong> Retrieval<br />

Verfahren in Theorie <strong>und</strong> Praxis Beiträge HIER 2005 (Bd. 45; 2006)<br />

Konstanz: UVK, ISBN 978-3-89669-561-1, VIII, 244 S., 34,00 €<br />

Die Bände 41 <strong>und</strong> 43 ff. sind über den vwh-Online-Buchshop unter<br />

www.vwh-verlag-shop.de oder per Mail an vertrieb@vwh-verlag.de zu beziehen.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!