SMX Liveblog: Fortgeschrittene technische SEO-Probleme

Veröffentlicht: 2022-06-12

Beim Eintauchen in die technische SEO haben wir die folgenden geschätzten Referenten:

  • Bill Hunt, Präsident, Back Azimuth (@billhunt)
  • Maile Ohye, Sr. Developer Programs Engineer, Google (@maileohye)
  • Eric Wu, Vizepräsident, Wachstum & Produkt, SpinMedia (@eywu)

klein Für einige ist es noch etwas früh und die Leute hier scheinen sich heute Morgen etwas langsam zu bewegen, aber ich habe meine Tasse Kaffee ausgetrunken und bin bereit, heute Morgen in technische Probleme mit diesen Lautsprechern einzutauchen. Ich liebe es, technische SEO-Probleme auf Kundenseiten anzugehen, und je größer die Seite, desto größer sind normalerweise die Probleme. Hoffentlich haben diese Experten ein paar gute Informationen für uns.

Maile Ohye: Javascript-Ausführung und Vorteile von HTTPS

„Wir empfehlen, sicherzustellen, dass der Googlebot auf alle eingebetteten Ressourcen zugreifen kann, die sinnvoll zum sichtbaren Inhalt oder Layout Ihrer Website beitragen“, sagte Ohye.

Am 23. Mai gab Google bekannt, dass sie mehr JavaScript-Exe machen. Sie haben an der Feinabstimmung gearbeitet und konnten endlich veröffentlichen. Kurz nachdem sie Fetch as Google gestartet haben, das jetzt 200 KB einer Seite anzeigt, Textinhalte anzeigt und blockierte Ressourcen mit einer Rate von 500 Abrufen pro Woche repariert. Sie können verschiedene Crawler einschließlich Mobile auswählen. Verwenden Sie dies, um zu überprüfen und sicherzustellen, dass Google in der Lage ist, alle wichtigen Teile Ihrer Website abzurufen.

Modale und Interstitials – sie sind überall. Sie müssen feststellen, ob es sich lohnt, den Arbeitsablauf des Benutzers zu unterbrechen. Diese unterbrechen ihren Arbeitsablauf, wenn dies möglicherweise nicht erforderlich ist. Überprüfen Sie die Analyse, um festzustellen, ob sie überhaupt benötigt wird. Wenn Sie nicht möchten, dass Ihr Modal oder Interstitial indexiert wird, überprüfen Sie den Abruf als Google-Rendering, um festzustellen, ob dies der Fall ist, und Sie können dies jederzeit in robots.txt verbieten. Überprüfen Sie noch einmal, ob die Sperrung funktioniert hat.

Optimieren Sie den indizierten Inhalt. Stellen Sie sicher, dass Ihre CSS/JS-Ressourcen gecrawlt werden können. Verwenden Sie den Abruf als Google, um sicherzustellen, dass sie rendern, und denken Sie daran, die solide Serverleistung zu priorisieren. Erwägen Sie, alte js-Dateien auf dem Server zu behalten (anstatt sie zu löschen). Manchmal benötigt Google diese Dateien beim Crawlen. Abschließend gut degradieren, da nicht alle Browser und SEs JS ausführen. Stellen Sie sicher, dass Sie testen.

HTTPS-Vorteile

Wer priorisiert Sicherheit? Sicherheit wird immer wichtiger und es gibt mehrere große Websites, die jetzt sicheres Surfen anbieten. Warum der Schalter

Durch die Verwendung von TLS können Benutzer wissen, dass sie sich auf einer Website dort befinden, wo sie es erwarten – Authentifizierung; Es gibt Ihnen Datenintegrität und verschlüsselt auch Daten. TLS bietet eine zusätzliche Sicherheitsebene für die Benutzer. Google kann https spinnen. Ja, https ist suchfreundlich. Junge, das war vor ein paar Jahren noch nicht so. Webmaster-Tools ist für https gerüstet. Sie können eine https-Site tatsächlich innerhalb von GWT verifizieren. Stellen Sie sicher, dass nur eine Version zum Crawlen verfügbar ist, um Probleme zu vermeiden.

Crawlen und Indizieren von https-Sites – Sie möchten einen 301 von http zu https durchführen, um doppelte Inhalte zu vermeiden. Stellen Sie alle https-Ressourcen bereit und stellen Sie sicher, dass Ihr rel=canonical korrekt ist. Wenn Sie sich entscheiden, auf https umzusteigen, stellen Sie sicher, dass Sie Ihre Website in Browsern testen, um sicherzustellen, dass alle Ihre Ressourcen korrekt angezeigt werden.

Das Web wächst in Richtung Authentifizierung, Integrität und Verschlüsselung, seien Sie also bereit. Die HTTPS-Site-Migration kann immer noch suchfreundlich sein, wenn Sie es richtig machen und konsequent Ressourcen bereitstellen.

Puh, sie hat sehr schnell eine Menge Daten durchgesehen.

Eric Wu: Ajax ist wie Gewalt – wenn es Ihre Probleme nicht löst, setzen Sie es nicht genug ein

Die meisten Websites verwenden Dinge wie jQuery, eckiges JavaScript oder sogar Backbone-JavaScript. Diese helfen, die Website zu beschleunigen, je nachdem, wie Sie sie verwenden. Die Idee ist, die Website-Geschwindigkeit zu verbessern, um die Benutzererfahrung und Crawlbarkeit einer Website zu verbessern. Bei einem Test konnte Erics Team nach der Verbesserung der Website-Geschwindigkeit eine 80-prozentige Steigerung der organischen Suchsitzungen feststellen.

Google versucht seit 2004, js zu crawlen. Im Laufe der Jahre sind sie immer besser geworden, bis heute, wo sie endlich sagen können, dass sie es crawlen können. Das GWT Fetch & Render ist eine Möglichkeit zu sehen, dass sie dazu jetzt in der Lage sind.

Eric schlägt vor, Infinite Scroll zu implementieren. Nicht nur, weil es auf Mobilgeräten gut funktioniert, sondern auch, weil es eine bessere Benutzererfahrung bietet. Verwenden Sie rel=next / prev bei der Implementierung von Infinite Scroll.

Continuous Content verwendet PushState, für das ein einfacher Code erforderlich ist:

History.pushState (
{}
TitelDerSeite,
neueURL
);
History.replaceState ();

Ajax-Galerien in Bezug auf Diashows auf Websites wie Verlagen. Diashows bieten Ihnen ein großes Benutzerengagement, mehr Social Shares und zahlreiche andere Vorteile. Eric erwähnt Vox als eine Seite, die pushState verwendet, und in diesem Fall effektiv rel=next / prev.

Das verzögerte Laden von Bildern ist etwas, für das es laut Eric noch keine gute Lösung gibt. Problemumgehungen umfassen die Verwendung von 1 × 1-Leerzeichen, Skelettbildschirmen oder die Verwendung einer niedrigen Auflösung als „faule“ Ladelösung.

Wenn Sie responsive Bilder verwenden, können Sie Folgendes verwenden:
• Scrset
• Polyfill
• Ua-Erkennung

Um Bilder für verschiedene Geräte zu laden, schlägt Eric die Verwendung von noscript vor.

Bill Hunt: Verbesserung der Indexierbarkeit und Relevanz

Als letzter Redner für diese Sitzung verspricht Hunt, nicht so „geeky“ zu sein wie die vorherigen Redner.

Er verspricht Basic, also unterteilt er SEO in vier Bereiche: Indexierbarkeit, Relevanz, Autorität und Klickbarkeit. Bill wird über 2 dieser Punkte sprechen.

Um die Indexierbarkeit zu verbessern, müssen Sie daran denken, dass Spider, wenn sie nicht auf den Inhalt zugreifen können, ihn nicht speichern können! Verbessern Sie die Crawling-Effizienz auf großen Websites, damit die Spider an den Inhalt gelangen können. Reduzieren Sie die Fehler, indem Sie sie überprüfen und beheben. Je komplizierter die Entwicklung wird, desto mehr müssen Sie den Suchmaschinen mitteilen, wohin sie gehen und wie sie die Daten abrufen können, die Sie indizieren möchten.

Wenn Sie eine XML-Sitemap an die Suchmaschinen senden, suchen Sie nach Fehlern und beheben Sie alle gemeldeten. Bing hat angegeben, dass, wenn mehr als 1 % der übermittelten Seiten Fehler aufweisen, das Crawlen der URLs in der XML-Sitemap eingestellt wird. Bereinigen Sie Ihre Fehler, Leute; erleichtern die Suchmaschinen. Es ist nicht ihr Problem, das herauszufinden, es ist Ihres. Sie möchten keine Diskrepanz zwischen der Anzahl der Seiten auf einer Website und der Anzahl der Seiten in Sitemaps haben. Wenn Google und Bing sich die Mühe machen, Ihnen mitzuteilen, wo Sie Probleme auf Ihrer Website haben, nehmen Sie dies zur Kenntnis und beheben Sie sie tatsächlich.

Einige häufige Herausforderungen, die Bill auf Websites gesehen hat, sind:

  • Inkonsistenz zwischen Groß- und Kleinschreibung bei URLs: Die URLs der Website enthalten sowohl Groß- als auch Kleinschreibung
  • Seite ohne Angebote: Fast 2 Millionen Soft 404-Fehler sind darauf zurückzuführen, dass keine Angebote/Inhalte vorhanden sind
  • Kanonische Tags, die zu 2-200 doppelten Seiten führen.

Bill schlägt vor:

  • URLs in Kleinbuchstaben vorgeben
  • Wenn es fünf oder weniger Ergebnisse auf einer Seite gibt, fügen Sie noindex & nofollow hinzu
  • Implementieren Sie benutzerdefiniertes 404 mit 404-Header
  • Dynamisch erstelltes XML basierend auf Taxonomielogik
  • Sitemap-Fehlerüberprüfung zum wöchentlichen Arbeitsablauf hinzufügen

Nutzen Sie hrefs auf globalen Websites. hrefs kann Duplicate Content von Länderseiten verhindern und den Suchmaschinen helfen zu verstehen, welche Version für welches Land und welche Sprache ist. Wenn Sie hrefs machen, MÜSSEN Sie irgendwo im Code auf die ursprüngliche URL verweisen. Viele Websites tun dies nicht und viele Tools tun dies nicht. Ein weiterer Fehler ist die Angabe des falschen Landes und der falschen Sprache. Bill hat tatsächlich einen Href-Builder (hrefbuilder.com) gebaut, der Ihnen beim Erstellen von URLs helfen wird.

Und damit ist Bill fertig. Diese Session hat gehalten, was sie versprochen hat – viele technische SEO-Goodies für uns Geeks.