Diskussionsbeitrag_17_Technikkommunikation bei ...
Diskussionsbeitrag_17_Technikkommunikation bei ...
Diskussionsbeitrag_17_Technikkommunikation bei ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Grundsätzliches zur <strong>Technikkommunikation</strong> und zur Inhaltsanalyse<br />
Zu unterscheiden wäre noch zwischen instrumenteller, Intercoder- und Intracoder-<br />
reliabilität. Welche Reliabilität letztlich für die Untersuchung entscheidend ist, hängt vom<br />
Untersuchungsdesign selbst ab. Die instrumentelle Reliabilität fragt nach der Überein-<br />
stimmung der Codierung gleicher Inhalte zwischen dem Inhaltsanalytiker und dem Codie-<br />
rer. Diese Übereinstimmung ist besonders dann gefährdet, wenn es sich um sehr fachspezi-<br />
fische Inhalte und um Möglichkeiten polysemantischer Codierungen handelt. Deshalb ist<br />
es in einem solchen Fall günstiger, wenn die Codierung vom Inhaltsanalytiker selbst über-<br />
nommen wird.<br />
Bei der Intercoderreliabilität handelt es sich um die Zuverlässigkeit der Codierentschei-<br />
dungen unterschiedlicher Codierer und <strong>bei</strong> der Intracoderreliabilität um die Zuverlässigkeit<br />
der Codierentscheidungen eines Codierers zu verschiedenen Zeitpunkten, d. h. die Codie-<br />
rer ändern ihre Entscheidungen während des Codierzeitraumes.<br />
Um verlässliche Aussagen zur Reliabilität von Codierungen zu erhalten, müssten alle<br />
Codierer und Codiervorgänge überprüft werden, was in der Praxis nicht geschieht und<br />
auch nicht möglich ist. Die übliche Verfahrensweise, dass die paarweisen Übereinstim-<br />
mungen von zwei oder auch mehr Codierern überprüft werden, reicht nicht aus, um die<br />
Zuverlässigkeit der gesamten Inhaltsanalyse zu überprüfen. Lauf weist zu Recht auf diese<br />
und andere Unzulänglichkeiten der Prüfung der Reliabilität hin, indem er provozierend<br />
fragt, welche Reliabilität geprüft werden soll, welche Koeffizienten ermittelt werden sollen<br />
usw. 111 . Bei seiner Untersuchung zu Reliabilitätstests <strong>bei</strong> den im Zeitraum von 1990 bis<br />
1999 veröffentlichten Inhaltsanalysen stellt er fest, dass „in den deutschen Zeitschriften die<br />
Reliabilität sogar nur in 30 % der inhaltsanalytischen Darstellungen angesprochen<br />
wird“ 112 . (Zum Problem der Reliabilität der inhaltsanalytischen Untersuchungen im Hochtechnologiebereich<br />
siehe die Kapitel 4.1, 5.2 und 6).<br />
Bei der aus der Forschungsfrage folgenden Kategorienbildung - die Kategorien stellen<br />
letztlich ein inhaltliches Ordnungs- und Klassifizierungssystem dar - sind zunächst zwei<br />
unterschiedliche Methoden zu unterscheiden: die theoriegeleitete und die empiriegeleitete<br />
111 Lauf, E. (2001). Es fällt auf, dass es keine verbindlichen Schwellenwerte gibt und von den einzelnen<br />
Autoren solche wohl mehr aus der Erfahrung des Möglichen heraus als wissenschaftlich begründet normativ<br />
festgesetzt werden.<br />
112 Lauf, E. (2001), S. 65-66. Untersucht wurden die Zeitschriften „Rundfunk und Fernsehen“, „Publizistik“<br />
und „Media Perspektiven“. Vergleichsweise sind in amerikanischen kommunikationswissenschaftlichen<br />
Zeitschriften Reliabilitätstests von Inhaltsanalysen wesentlich häufiger anzutreffen.<br />
37