Automatische Erkennung von Cover-Versionen und Plagiaten in ...
Automatische Erkennung von Cover-Versionen und Plagiaten in ...
Automatische Erkennung von Cover-Versionen und Plagiaten in ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Klassifizierung 79<br />
jedoch <strong>von</strong> solchen <strong>Versionen</strong> als Gr<strong>und</strong>wahrheit aus, die offiziell als solche bezeich-<br />
net werden, so kann anhand <strong>von</strong> Tra<strong>in</strong><strong>in</strong>gsdaten e<strong>in</strong> s<strong>in</strong>nvoller Schwellwert für jede<br />
geeignete Komb<strong>in</strong>ation aus Feature <strong>und</strong> Klassifizierungsmethode ermittelt werden. Im<br />
Folgenden werden nun zwei Ansätze zur Klassifizierung vorgestellt.<br />
Der e<strong>in</strong>e stammt aus [18] <strong>und</strong> beschreibt direkt die Verwendung des <strong>in</strong> Kapitel 3.4 vorge-<br />
stellten HPCP-Features sowie des um Transpositions-Robustheit erweiterten THPCP-<br />
Features aus Abschnitt 3.5 zur <strong>Cover</strong>-Versions-<strong>Erkennung</strong> basierend auf dem Dynamic<br />
Time Warp-Algorithmus. Dieser f<strong>in</strong>det häufig <strong>in</strong> der Spracherkennung Anwendung <strong>und</strong><br />
wird auch <strong>in</strong> [10] zur Strukturanalyse verwendet. Im Rahmen dieser Arbeit erfolgt zu-<br />
dem e<strong>in</strong>e Adaption zur <strong>Cover</strong>-Versions-<strong>Erkennung</strong> anhand der extrahierten Melodie.<br />
Der zweite – <strong>in</strong> dieser Arbeit entwickelte – Ansatz unterstellt e<strong>in</strong>e konstante globale<br />
Tempo-Variation zwischen Orig<strong>in</strong>al <strong>und</strong> <strong>Cover</strong>-Version. Die Annahme ersche<strong>in</strong>t s<strong>in</strong>n-<br />
voll, da Tempoänderungen oft mit der Interpretation e<strong>in</strong>es Songs <strong>in</strong> e<strong>in</strong>em anderen Stil<br />
verb<strong>und</strong>en s<strong>in</strong>d. Dieser Stil hat dann jedoch <strong>in</strong> der Regel e<strong>in</strong> charakteristisches Tem-<br />
po, das <strong>in</strong>nerhalb e<strong>in</strong>es Stücks beibehalten wird. Gegenüber lokal sehr beschränkter<br />
Änderungen des Tempos, wie sie etwa bei abweichender Phrasierung auftreten, ist die<br />
Methode dennoch robust. Sie wird im Weiteren als die des l<strong>in</strong>earen Zeitzusammenhangs<br />
bezeichnet.<br />
4.1 Ähnlichkeits-Matrizen<br />
Ausgangsbasis für alle hier vorgestellten Klassifizierungsmethoden ist die Ähnlichkeits-<br />
Matrix SM der beiden zu vergleichenden Stücke. Jede Zelle SMi,j enthält dabei das<br />
Maß an Übere<strong>in</strong>stimmung des i-ten Frames aus e<strong>in</strong>em Song mit dem j-ten des anderen.<br />
In Bezug auf das (T)HPCP-Feature wurden dazu bereits <strong>in</strong> Kapitel 3.7.1 sowie Ab-<br />
schnitt 3.7.6 folgende Metriken vorgestellt, die alle e<strong>in</strong>en möglichen Wertebereich <strong>von</strong><br />
[0, 1] besitzen. Die Distanzen aus [10] wurden dabei ebenfalls zu Ähnlichkeitsmaßen<br />
umgeformt.<br />
• Normierte Differenz nach [22]<br />
Die Ähnlichkeit entspricht der Kürze des normierten Differenzvektors.<br />
r(i, j) = 1 − |<br />
−→ u (i)<br />
maxc uc(i) − −→ v (j)<br />
maxc vc(j) |<br />
√ 12<br />
(4.1)<br />
Aufgr<strong>und</strong> der hohen Geschw<strong>in</strong>digkeit mit der dieses Maß berechnet werden kann,<br />
ist es jenes, auf das <strong>in</strong> dieser Arbeit zurückgegriffen wird. Alle folgenden Schritte<br />
bauen somit darauf auf.