Zusammenfassung:
Auf der Google I/O-Konferenz sprach ein Google-Vertreter über die Probleme beim Scannen und Indexieren rein JavaScript-Framework basierten Websites. Die Verarbeitung solcher Seiten erfolgt in zwei Phasen: Primäres Scannen und vollständiges Rendern. Laut Unternehmensangaben kann Google deshalb wichtige Daten überspringen.
Auf der Stufe des vollständigen Renderings prüft Googlebot das rel=canonical Attribut und Meta-Tags nicht. Wenn sie während des ersten Scans nicht verarbeitet wurden, werden sie vom System daher nicht angezeigt, und die Site wird falsch indiziert.
Zum Beispiel, wenn die Website, die eine PWA Anwendung darstellt (Progressive Web Apps, eine Technologie, die die Website ermöglicht es den Benutzer als eine Anwendung zu interagieren), dann hat wohl jede URL eine Vorlage, die mit Inhalten über AJAX oder Fetch-Anfragen gefüllt wird. Wenn der Client auf dem Client auf das Rendern angewiesen ist, werden kanonische Tags in der ersten Verarbeitungsstufe nicht erkannt. Und da Googlebot sie in der zweiten Phase nicht überprüft, fehlen diese Angaben.
Der Spezialist der Suchqualitätsabteilung John Müller sagte, dass zur Vermeidung dieses Problems die Websites dynamisches Rendering verwenden können, indem sie die Vollversion dem Googlebot und normale Version dem JavaScript-Benutzer anzeigen.
Nach Ansicht des Experten kann dieser Ansatz nicht als Cloacking angesehen werden, da sowohl Nutzer als auch Googlebot den gleichen Inhalt sehen, aber unterschiedlich präsentiert werden.
Kürzlich sagte John Müller, dass Googlebot immer noch ein altes Chrome-Engine einsetzt, um die Websites zu rendern. Dies bedeutet, dass der Bot einige der Funktionen, die in der neuesten Browserversion unterstützt werden, nicht verarbeiten kann.