10.10.2013 Aufrufe

Automatische Erkennung von Cover-Versionen und Plagiaten in ...

Automatische Erkennung von Cover-Versionen und Plagiaten in ...

Automatische Erkennung von Cover-Versionen und Plagiaten in ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Klassifizierung 79<br />

jedoch <strong>von</strong> solchen <strong>Versionen</strong> als Gr<strong>und</strong>wahrheit aus, die offiziell als solche bezeich-<br />

net werden, so kann anhand <strong>von</strong> Tra<strong>in</strong><strong>in</strong>gsdaten e<strong>in</strong> s<strong>in</strong>nvoller Schwellwert für jede<br />

geeignete Komb<strong>in</strong>ation aus Feature <strong>und</strong> Klassifizierungsmethode ermittelt werden. Im<br />

Folgenden werden nun zwei Ansätze zur Klassifizierung vorgestellt.<br />

Der e<strong>in</strong>e stammt aus [18] <strong>und</strong> beschreibt direkt die Verwendung des <strong>in</strong> Kapitel 3.4 vorge-<br />

stellten HPCP-Features sowie des um Transpositions-Robustheit erweiterten THPCP-<br />

Features aus Abschnitt 3.5 zur <strong>Cover</strong>-Versions-<strong>Erkennung</strong> basierend auf dem Dynamic<br />

Time Warp-Algorithmus. Dieser f<strong>in</strong>det häufig <strong>in</strong> der Spracherkennung Anwendung <strong>und</strong><br />

wird auch <strong>in</strong> [10] zur Strukturanalyse verwendet. Im Rahmen dieser Arbeit erfolgt zu-<br />

dem e<strong>in</strong>e Adaption zur <strong>Cover</strong>-Versions-<strong>Erkennung</strong> anhand der extrahierten Melodie.<br />

Der zweite – <strong>in</strong> dieser Arbeit entwickelte – Ansatz unterstellt e<strong>in</strong>e konstante globale<br />

Tempo-Variation zwischen Orig<strong>in</strong>al <strong>und</strong> <strong>Cover</strong>-Version. Die Annahme ersche<strong>in</strong>t s<strong>in</strong>n-<br />

voll, da Tempoänderungen oft mit der Interpretation e<strong>in</strong>es Songs <strong>in</strong> e<strong>in</strong>em anderen Stil<br />

verb<strong>und</strong>en s<strong>in</strong>d. Dieser Stil hat dann jedoch <strong>in</strong> der Regel e<strong>in</strong> charakteristisches Tem-<br />

po, das <strong>in</strong>nerhalb e<strong>in</strong>es Stücks beibehalten wird. Gegenüber lokal sehr beschränkter<br />

Änderungen des Tempos, wie sie etwa bei abweichender Phrasierung auftreten, ist die<br />

Methode dennoch robust. Sie wird im Weiteren als die des l<strong>in</strong>earen Zeitzusammenhangs<br />

bezeichnet.<br />

4.1 Ähnlichkeits-Matrizen<br />

Ausgangsbasis für alle hier vorgestellten Klassifizierungsmethoden ist die Ähnlichkeits-<br />

Matrix SM der beiden zu vergleichenden Stücke. Jede Zelle SMi,j enthält dabei das<br />

Maß an Übere<strong>in</strong>stimmung des i-ten Frames aus e<strong>in</strong>em Song mit dem j-ten des anderen.<br />

In Bezug auf das (T)HPCP-Feature wurden dazu bereits <strong>in</strong> Kapitel 3.7.1 sowie Ab-<br />

schnitt 3.7.6 folgende Metriken vorgestellt, die alle e<strong>in</strong>en möglichen Wertebereich <strong>von</strong><br />

[0, 1] besitzen. Die Distanzen aus [10] wurden dabei ebenfalls zu Ähnlichkeitsmaßen<br />

umgeformt.<br />

• Normierte Differenz nach [22]<br />

Die Ähnlichkeit entspricht der Kürze des normierten Differenzvektors.<br />

r(i, j) = 1 − |<br />

−→ u (i)<br />

maxc uc(i) − −→ v (j)<br />

maxc vc(j) |<br />

√ 12<br />

(4.1)<br />

Aufgr<strong>und</strong> der hohen Geschw<strong>in</strong>digkeit mit der dieses Maß berechnet werden kann,<br />

ist es jenes, auf das <strong>in</strong> dieser Arbeit zurückgegriffen wird. Alle folgenden Schritte<br />

bauen somit darauf auf.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!