Warum erkennt Shazam keine Live-Musik und selbst gesungene Lieder?
Laut https://support.shazam.com/hc/en-us/articles/204462958 kann Shazam keine Live-Musik, selbst gesummte oder gesungene Musik erkennen.
Warum ist das so? Was ist der technische Grund dafür?
6 Antworten
Weil diese Gratis-App mit den ABER-Millionen von Songs, Musikstücken, bridges, Solos, und dann natürlich klassischer Musik eben hoffnungslos überfordert ist. Wie sollte Shazam z.B. jede Sequenz aus einer 30minütogen Sinfonie erkennen? Wie sollte Shazam bei bekannten Songs die 139. Cover-Version von 588 erkennen? Wie soll Shazam es schaffen, die ca. 200 neuen Songs, die JEDEN TAG auf der Welt herauskommen, speichern udn erkennen?
Es gibt naheuzu KEINE Live-Aufnahme, die genauso klingt wie die Studioaufnahme. Das kann Shazam nicht erkennen.
Es muss ein perfektes Zsmspiel von Band und Sänger sein und shazam kann genau die originale Audiospur für das lied auswendig und vergleicht dein Lied mit seinen Audiospuren. Das heißt, sobald du z.B. singst, ist die Audiospur anders und dein Lied ist unbekannt.
vielleicht haben sie auch eine nur gesungene Version vom Lied gespeichert und akzeptieten Abweichungen, die du singst. Also ein Melodie-erkennungs-Programm vielleicht ;)
Die Konkurrenz von Soundhound (siehe
https://play.google.com/store/apps/details?id=com.melodis.midomiMusicIdentifier&hl=de
) kann auch gesummte oder gepfiffene Lieder erkennen. Wie machen die
das?
Weil davon keine Vergleichsdatei vorliegt, mit dem Shazam das abgleichen könnte. Es hat also keine Vorlage. Eine gleiche Melodie anders gesungen oder gesummt sieht als abgespeicherte Datei völlig anders aus als das Original.
Das wüsste ich auch gerne! :) Ich hab leider keine Ahnung, wie das funktioniert.
Solche Dienste wie Shazam haben ein große Datenbank von Liedern welche sie zuvor Analysiert haben. Die Analyse der Lieder für die Datenbank beruht sich auf ein einzigartiges Muster im Lied welches einem Code ähnelt.
Zur Technik und Analyse: wie du aus meinem Beispielsbild sehen kannst, besteht Musik aus ganz vielen Frequenzen die wir als Töne wahrnehmen. Diese Frequenzen lassen sich auflisten in einem Code welches dem Lied individuell ist - so entsteht eine Art Fingerabdruck im Muster. Wenn die App "zuhören" lässt vergleicht sie aus ihrer Datenbank den gehörten Code. Stimmen die überein und das Lied ist in der Datenbank gespeichert so kann das Lied gefunden werden.
Wenn du live ein Konzert hörst, hört sich für dich idealerweise, kein Unterschied zur einer Datei aus dem Radio oder MP3 Player. Es ist nicht möglich exakt das aufgenommene Lied live nach zu spielen, da allein das zupfen der einzelnen Akkorden unterschiedlich ist sowie das Tempo. Mit anderen Worten kannst du es dir so vorstellen, dass jedes live gespielte Lied nur einmal Existiert :-)
Beim Nachsingen ist es das gleiche, ganzgleich wie gut du das nachsingen kannst wirst du niemals der Aufzeichnung entsprechen können obwohl für uns Menschen das kaum bis gar keinen Unterschied ausmacht.

Die Konkurrenz von Soundhound (siehe https://play.google.com/store/apps/details?id=com.melodis.midomiMusicIdentifier&hl=de) kann auch gesummte oder gepfiffene Lieder erkennen. Wie machen die das?
Weil shazam genau die tone mit den datenbanken abgleicht die abgespielt werden des halb kommen nur ergebnisse heraus wenn dei töne 1:1 übereuinstimmen
Die Konkurrenz von Soundhound (siehe
https://play.google.com/store/apps/details?id=com.melodis.midomiMusicIdentifier&hl=de
) kann auch gesummte oder gepfiffene Lieder erkennen. Wie machen die
das?
Die Konkurrenz von Soundhound (siehe https://play.google.com/store/apps/details?id=com.melodis.midomiMusicIdentifier&hl=de ) kann auch gesummte oder gepfiffene Lieder erkennen. Wie machen die das?