Zusammenfassung:
John Mueller hat kürzlich einen interessanten Kommentar zum Thema Reduzierung von Duplicate Content auf einer Website hinterlassen.
Mueller merkte an, dass bei Problemen mit dem Crawling die Behandlung einzelner Seiten nicht viel helfe. Man müsse nach Lösungen suchen, die die Duplizierung um den Faktor 10 reduzieren. Man solle sich nicht auf einzelne Seiten konzentrieren, sondern an der gesamten Website arbeiten.
Mueller zufolge sind doppelte Inhalte definitiv ein technisches Problem und nicht etwas, das von individuellen Handlungen abhängt.
Wir bieten auch: SEO für Online Shops
Ein Beispiel im Online Shop
Wenn eine Website beispielsweise 100.000 Produkte enthält und jedes Produkt 50 URLs hat, wäre eine Verringerung der Anzahl der URLs von 5 Millionen auf 500.000 (5 URLs pro Produkt) definitiv die Mühe wert und würde sich positiv auf das Crawling auswirken.
Durch die Verringerung der Anzahl von Duplicate Content wird es für Google außerdem einfacher, die Signale innerhalb der Hauptprodukt- oder Kategorieseite zusammenzufassen, was dazu beiträgt, die Anzeige der falschen Seiten in den SERPs zu vermeiden.
Interner Duplicate Content – erkennen und vermeiden
Wenn also Duplicate Content auf einer Website ein Problem darstellt, lohnt es sich, mit den Entwicklern darüber zu sprechen, wie sichergestellt werden kann, dass die kanonische URL den Nutzern und Google angezeigt wird.
Es könnte sich lohnen, andere Möglichkeiten der Nachverfolgung in Betracht zu ziehen, um die Erstellung doppelter URLs zu vermeiden und herauszufinden, ob es Fehler gibt, die unnötigen Duplicate Content verursachen.