SEO - Eine Dienstleistung für alle Städte in Deutschland - Wie Duplicate Content vermeiden?
Hallo liebe Suchmaschinenoptimierer, ich habe folgende Frage: Ich möchte ein Dienstleistung für alle Städte in Deutschland anbieten. Und für alle Städte möchte ich eine eigene Unterseite machen. Sprich ich habe später Seiten mit den Keywords "Dienstleistung Hamburg", "Dienstleistung München", "Dienstleistung Berlin", usw.
Da es im Endeffekt aber über 12.000 Seiten werden, bin ich ein bisschen überfordert mit der Frage bezüglich des Duplicate Contents. Leider ist es nicht möglich für alle 12.000 Seiten unique Texte zu bestellen oder zu schreiben, sodass ich z.B. 100 verschiedene Texte habe und diese dann abwechselnd auf den 12.000 Seiten einbauen würde.
Das wäre im Endeffekt aber natürlich enorm viel duplicate content. Habt ihr da vielleicht irgendwelche Tipps oder Ratschläge für mich?
Vielen Dank schonmal für eure Hilfe!
6 Antworten
So viel Duplicate Content sieht Google sicher nicht gern. Ich würde die Städteseiten auch auf "noindex" stellen, und dann versuchen, einige sehr starke Contentseiten rund um deine Dienstleistung zu erstellen, die dann für die Dienstleistung an sich, aber auch für die Kombination Dienstleistung + "Stadt" ranken. Zudem gibts vielleicht noch andere Suchphrasen, die rund um dein Angebot eingegeben werden und auf die du optimieren kannst.
Noindex für einzelne Städteseiten ist ne Idee, aber sinnvoller/ alternativ halte ich es für die Leistung ne holistische Seite anzulegen:Dann nach einer allgemeinen Intro für jede Stadt eine Sektion mit Ankerlink auf die h2 (Überschrift und Ankerlink sollten zu einander passen). So kann Google dann die Städtenamen als Sitelink bzw. Ankerlink ziehen. Experimentiere damit derzeit bspw. hier: https://www.spezialgeruestbau.de/geruestbau-bayern/Funktioniert nicht immer, aber immer öfter.
Das scheint nicht zwingend so zu sein.
Kuck dir als Beispiel "meinestadt.de" an. Da steht auch prinzipiell immer der gleiche Text. Einer für Großstädte, einer für kleinere Städte, mit ortsspezifischen kleinen Abwandlungen. Die werden vermutlich über Platzhalter o.ä. aus einer Datenbank eingetragen.
So viele Seiten mit dem (beinahe) selben Inhalt würden natürlich ziemlich sicher als Duplicate Content gewertet, lässt sich auch schlecht verhindern wenn man keine Möglichkeit hat den Content halbwegs unique zu machen / variieren.
Wenn es reine "Landing Pages" (also z.B. für AdWords etc) sein sollen, würde ich die eher auf noindex setzen als eine Abstrafung durch DC zu riskieren.
Willst du aber wirklich mit jeder dieser Seiten gefunden werden (können), wirst du kaum darum herumkommen irgendwie für jede Seite unique Content zu erstellen, sonst wird das denke ich nichts.
Ich habe das vor einiger Zeit mal bei einem Newscrawler (ging zufällig auch um Städte, halt Lokalnachrichten) so gemacht, dass ich aus offenen Datenbanken Informationen (PLZ, Einwohnerzahl, Koordinaten, Vorwahl u.Ä., alles was sich finden ließ) zu den jeweiligen Städten erfasst und dort eben angezeigt habe, dazu noch einen Twitterfeed zu "#stadtname", aber ansonsten kein wirklicher Content sondern einfach nur externe Links zu aktuellen Newsbeiträgen über die jeweilige Stadt, das hat eigtl recht gut funktioniert so, also es reichen imho auch relativ geringe Unterschiede, nur z.B. komplette Texte immer wiederholen (oder nur den Stadtnamen darin ersetzen) würde ich jetzt nicht gerade.
Duplicate content wird von vielen Missverstanden. Du kannst in der Tat für jede Stadt die Dienstleistung anbieten, aber der Traffic abgesehen von den Großstädten ist minimal.
Ich würde dir raten die Landing Pages automatisch zu erstellen. Aber eine Strafe wirst du daruch nicht kriegen.
Hier gibt es noch einen ausführlichen Artikel darüber: https://marketingwerkberlin.de/ist-duplicate-content-schlecht-fur-seo/