Jeder gegen jeden: - ColorMunki
Jeder gegen jeden: - ColorMunki
Jeder gegen jeden: - ColorMunki
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
News & Trends Headliner Testlabor Mac Life Mac Professional Mac Help Mac Fun<br />
076<br />
Hardware zur Monitorkalibration und -profilierung<br />
scheibe, liefert aber bei der Umgebungslichtmessung<br />
präzise Ergebnisse.)<br />
Keine Frage – das i1 Display 2 ist<br />
das Gerät, dass X-Rite nach dem Aufkauf<br />
von GretagMacbeth statt des DTP94<br />
hätte auslaufen lassen sollen.<br />
aber abgesehen davon, dass jeder Käufer<br />
ein solches Exemplar erwischen kann,<br />
sieht das Ergebnis ohne Einbeziehung dieses<br />
Exemplars nicht viel freundlicher aus.<br />
Um die Handhabung ist es ebenfalls<br />
nicht sonderlich gut bestellt. Zusätzlich zu<br />
dem für LCD-Monitore geeigneten weichen<br />
Schaumstoffrand enthält die Unterseite<br />
des i1 Display 2 jede Menge Saugnäpfe,<br />
die, obgleich für LCD-Monitore ohne Funktion,<br />
nicht abgenommen werden können<br />
und sich bei unseren Tests immer wieder<br />
ungewollt am Monitor festsaugten und ihn<br />
zu beschädigen drohten. Und das Gegengewicht<br />
so am USB-Kabel zu befestigen,<br />
dass es nicht alsbald wieder herabfällt, ist<br />
eine Aufgabe für Masochisten.<br />
Das i1 Display 2 ist für die Messung<br />
von Umgebungslicht vorgesehen und<br />
besitzt dafür sogar eine weiße Streuscheibe,<br />
die ansonsten als Abdeckung<br />
der Messunterseite des Gerätes dient<br />
(in unserer Abbildung in der Mitte). Die<br />
Messergebnisse für Umgebungslicht sind<br />
aber, gleich mit welcher Software, derart<br />
„daneben“, dass man die Messung stattdessen<br />
auch bleiben lassen kann. (Das<br />
Spyder 3 hat keine solche schicke Streu-<br />
Damit ist unser Überblick über die<br />
erhältlichen Messgeräte zur Farbmessung<br />
abgeschlossen. In der nächsten<br />
Ausgabe der Mac Life werden wir uns<br />
der passenden Messsoftware zuwenden<br />
und die möglichen Kombinationen aus<br />
Soft- und Hardware besprechen.<br />
Wir bedanken uns beim Bundesverband<br />
Druck und Medien e.V. (bvdm) und der<br />
European Color Initiative (ECI) für die<br />
Unterstützung unserer Messgerätetests<br />
im Rahmen des Print Media Production<br />
Forum 2007 (www.pmpf.de).<br />
Uli Zappe<br />
So haben wir gemessen<br />
Die Messqualität eines Farbmessgerätes ist offenkundig das alles entscheidende Kriterium<br />
für seine Bewertung, sie zu überprüfen allerdings leider ein kompliziertes Unterfangen.<br />
Das liegt daran, dass es – anders als bei den meisten anderen physikalischen Messgrößen<br />
– kaum verlässliche Vergleichsnormale gibt. Selbst die in den dafür zuständigen physikalischen<br />
Instituten europäischer Länder aufbewahrten Farbnormale unterscheiden sich<br />
teilweise in einem Maße, das den Unterschieden zwischen einigen unserer Testexemplare<br />
nahekommt. Dabei ist eine Faustregel, dass die Genauigkeit eines zur Überprüfung eines<br />
Messgerätes herangezogenen Vergleichsnormals eigentlich mindestens um den Faktor 10<br />
höher als die des zu prüfenden Gerätes sein sollte.<br />
Unter solch misslichen Bedingungen ist ein übliches Vorgehen, die Qualität eines einzelnen<br />
Messgerätes anhand seiner Abweichung zu dem durchschnittlichen Messergebnis<br />
einer großen Zahl von Messgeräten zu ermitteln, in der Hoffnung, dass dieser durchschnittliche<br />
Wert individuelle Abweichungen herausmittelt und eine gute Näherung zum<br />
objektiv korrekten Wert darstellt. Garantiert ist dies natürlich aber nicht.<br />
Wir haben daher ein aufwändiges mehrstufi ges Messverfahren angewandt, um möglichst<br />
objektive Ergebnisse vorlegen zu können.<br />
Zunächst haben wir die uns zu Verfügung stehenden 14 Testexemplare in zwei unterschiedliche<br />
Messverfahren unter Verwendung stets derselben Profilierungssoftware miteinander<br />
verglichen (mit Ausnahme des zu der verwendeten Profilierungssoftware inkompatiblen<br />
huey und des zu diesem Zeitpunkt noch nicht erhältlichen Spyder 3). Zum einen haben<br />
wir den Weißpunkt eines Testmonitors mit allen Geräten je dreimal (um vereinzelte Messfehler<br />
auszuschließen) gemessen. Da die Messungen unmittelbar hintereinander erfolgten,<br />
kann vernünftigerweise angenommen werden, dass der Weißpunkt des Monitors konstant<br />
blieb und Unterschiede in den Messergebnissen den Messgeräten geschuldet waren. Zum<br />
anderen haben wir für den Testmonitor mit jedem Messgerät – wiederum unmittelbar hintereinander<br />
– drei ICC-Profile erstellt.<br />
Nach Abschluss dieser Messungen haben wir für jedes mögliche Paar zweier unserer<br />
Messungen die Abweichungen zwischen den gemessenen Weißpunkten bzw. den erstellten<br />
Profi len ausgewertet. Dadurch ergab sich ein Gefl echt relativer Nähe oder Ferne zwischen<br />
den einzelnen Testgeräten. Zwei Testgeräte, ein DTP94 und ein i1 Pro, fi elen dabei durch<br />
besonders große Übereinstimmung untereinander und Mittigkeit im Gefl echt auf und wurden<br />
dadurch zu möglichen Kandidaten für eine Referenz.<br />
Mit freundlicher Unterstützung des Bundesverbandes Druck und Medien e.V. (bvdm)<br />
und der European Color Initiative (ECI) haben wir im nächsten Schritt 9 unserer Testgeräte<br />
auf dem von diesen beiden Institutionen veranstalteten Print Media Production<br />
Forum 2007 einem weiteren, von der Deutschen farbwissenschaftlichen Gesellschaft<br />
durchgeführten Test unterzogen, an dem neben unseren Testgeräten 23 weitere Testgeräte<br />
von Forumsteilnehmern beteiligt waren. Nicht nur wurde dadurch eine größere statistische<br />
Basis geschaffen, auch erfolgte bei diesen Tests ein Vergleich mit dem im Rahmen<br />
des Standes der Technik hochpräzisen Telespectroradiometer CS1000 von Konica Minolta.<br />
Gemessen wurde in zwei Durchgängen an einem Referenzmonitor und an einer Präzisions-<br />
LED-Lichtquelle.<br />
Erfreulicherweise bestätigten diese Tests die vermutete hohe Genauigkeit unserer<br />
Referenz-Kandidaten. Daraufhin wählten wir diese beiden unserer Testgeräte als Referenz<br />
für unsere weiteren Messungen aus.<br />
Für den endgültigen Testdurchlauf erstellten wir mit jedem unserer Testgeräte in Kombination<br />
mit jeder zu dem Gerätetyp kompatiblen Profi lierungssoftware jeweils ein ICC-Profi<br />
l. Diese Profi le wurden dann mithilfe der Prüfsoftware U-DACT (Ugra Display Analysis<br />
and Certification Tool) der UGRA (dem schweizerischen Verein zur Förderung wissenschaftlicher<br />
Untersuchungen in der Grafischen Industrie) in jeweils zwei Messdurchgängen<br />
bewertet, wobei einmal unser Referenz-i1-Pro und einmal unser Referenz-DTP94 der<br />
U-DACT-Software als Messgerät diente. Die Mittelwerte aus den Ergebnissen dieser beiden<br />
Messdurchgänge bilden die Grundlage für unsere Bewertung. Da stets die Messungen<br />
zweier unterschiedlicher Messgeräte in die Überprüfung eingehen, hatte kein Exemplar<br />
unserer Testgeräte ein reines „Heimspiel“.<br />
Das U-DACT wurde in gewisser Weise bei unserem Test „zweckentfremdet“, da es<br />
eigentlich dafür gedacht ist, unter Annahme eines idealen Messgerätes Abweichungen<br />
eines Monitors zu messen, während wir unter Annahme eines idealen Monitors die Abweichungen<br />
unserer Test-Messgeräte beurteilt haben. Die Testgeräte könnten bei einem tatsächlich<br />
„idealen Monitor“ also allesamt geringere Abweichungen aufweisen; da dies aber<br />
für alle Testgeräte gleichermaßen gilt, ist es für einen Vergleich der Testgeräte untereinander<br />
unerheblich, zumal die geringen Abweichungen der besten getesteten Geräte zeigen,<br />
dass etwaige Monitorabweichungen in der Tat unerheblich sein dürften. (Als Testmonitor<br />
diente ein 30"-Cinema-Display von Apple.)<br />
04.2008