[Web Semineri Özeti] Orbit'te SEO: İndekslemenin sırlarını açığa çıkarmak

Yayınlanan: 2019-11-06

Dizine eklemenin sırlarını çözme web semineri, SEO in Orbit serisinin bir parçasıdır ve 12 Haziran 2019'da yayınlandı. Bu bölümde Kevin Indig, sayfaların dizine eklenmesi, bir site için dizine eklenen sayfaların site genelinde nasıl etkilendiği konusundaki düşüncelerini paylaşıyor. sıralamalar ve hangi sayfaların dizine eklenmemesi gerektiği. Sayfaların keşfedilmesi ve SERP'lerde görünmesini sağlamak arasındaki bu aracı adıma yönelik doğru yaklaşım nedir?

SEO in Orbit, SEO'yu uzaya gönderen ilk web semineri dizisidir. Dizi boyunca, en iyi SEO uzmanlarından bazılarıyla teknik SEO'nun bugününü ve geleceğini tartıştık ve en iyi ipuçlarını 27 Haziran 2019'da uzaya gönderdik.

Tekrarını buradan izleyin:

Kevin Indig'i Tanıtmak

Kevin Indig, yeni başlayanların son 10 yılda +100 milyon kullanıcı kazanmasına yardımcı oldu. O, Growth @ GermanAccelerator için bir akıl hocası olan SEO & CONTENT @ G2 Başkan Yardımcısıdır ve daha önce SEO @ Atlassian ve Dailymotion'ı yönetmiştir. Uzmanlık alanı kullanıcı edinme, marka oluşturma ve kullanıcı tutmadır. Kevin'in birlikte çalıştığı şirketler arasında eBay, Eventbrite, Bosch, Samsung, Pinterest, Columbia, UBS ve diğerleri yer alıyor. Ayrıca teknik pazarlama bülteni Tech Bound'u da yönetiyor.

Bu bölüm, OnCrawl'ın İçerik Yöneticisi Rebecca Berbel tarafından sunuldu. NLP'ye ve özellikle dilin makine modellerine ve genel olarak sistemlere ve bunların nasıl çalıştığına hayran olan Rebecca, teknik SEO konularının heyecanını asla kaybetmez. Arama motorlarında web sitesi performansını anlamak için teknolojiyi yaymaya ve verileri kullanmaya inanıyor.

Tanımlar

İndeksleme hakkında konuşmanın önemli olmasının nedenlerinden biri, bunun karmaşık bir konu olmasıdır. Birçok SEO, indeksleme ve onu nasıl etkileyeceği konusunda mücadele eder.

- Emekleme

Basit terimlerle tarama, arama motorlarının bir web sayfasını ve tüm bileşenlerini anlamasının teknik keşif sürecidir.

Bu, Google'ın daha sonra geri dönüp oluşturabileceği ve ardından dizine ekleyebileceği ve sonunda sıralayabileceği tüm URL'leri bulmasına yardımcı olur.

– Google'ın 3 adımlı süreci

Tarama, Google'ın arama sonuçları oluşturabilmeye giden 3 adımlı sürecinin bir parçasıdır:

  1. Emekleme
  2. işleme
  3. indeksleme

Bunlar, farklı programlar veya arama motorunun bölümleri tarafından ele alınan teknik olarak farklı süreçlerdir.

Sıralama, potansiyel olarak bu süreçte dördüncü bir adımdır.

– İndeksleme

Dizine ekleme, Google'ın olası sonuçların uzun "listesine" URL ekleme işlemidir. Kevin'in indeksleme tanımında "indeks" kelimesinden kaçınması gerekiyorsa, mecazi bir "liste" hakkında konuşmayı tercih ederdi: Google, sıralamak ve kullanıcılara en iyi sonuçları göstermek için kullanabileceği bir URL "listesi"ne sahiptir. .

- Log dosyaları

Web sunucuları, herhangi biri veya herhangi bir şey sunucuda bir sayfa veya kaynak istediğinde bir geçmiş tutar.

Kevin, konu Google'ın sitenizi nasıl taradığını ve oluşturduğunu anlama konusunda gerçeğin kaynağı olarak günlük dosyaları konusunda gerçekten tutkulu.

Günlüklerde, Google'ın sitenizi ne sıklıkla ziyaret ettiğine ve orada ne yaptığına ilişkin sunucu bilgilerini çok basit ve basit bir şekilde bulabiliriz. Günlük dosyaları, siteye yapılan her ziyaretin bireysel kayıtlarını içerir.

Günlük dosyalarından bir ton bilgi alabilirsiniz:

  • Belirli durum kodu hataları
  • Tarama ile ilgili sorunlar
  • Oluşturma ile ilgili sorunlar
  • Googlebot sitenizde ne kadar zaman harcıyor?
  • Hangi Googlebot'ların sitenize geldiği. Örneğin, Mobil Öncelikli dizini ile dizine eklemek için kullanılan ana Googlebot yakın zamanda güncellendi.
  • Teknik site yapınızın Google'ın takip ettiği bir şey olup olmadığı veya orada optimize edilebilecek bir şeyiniz olup olmadığı.

İndekslemeyi kontrol etmenin yolları

– Önerilmez: “site:” sorguları

Kevin yaklaşık 10 yıl önce SEO'ya başladığında, Google'da "site:" aramaları yaparak sitesindeki hangi sayfaların dizine eklendiğini görecekti. Bunu bazen kullansa da, artık bir URL'nin dizine eklenip eklenmediğini öğrenmenin güvenilir bir yolu değildir.

Daha yakın zamanlarda, John Mueller'e bu stratejiyi sordu; Google'ın neyi dizine eklediğini veya eklemediğini kontrol etmenin artık bunun önerilmediğini doğruladı.

– Önerilen: Search Console URL İncelemesi

John Mueller bunun yerine, neyin dizine eklendiğini kontrol etmek için Search Console'daki URL Denetleme Aracı'nı kullanmanızı önerir.

– Önerilen: XML site haritaları ve Kapsam Raporu

Search Console'da bir XML site haritası göndermek, toplu URL'lerinizi kontrol etmenin ve ardından arama konsolundaki Kapsam Raporu'ndaki site haritasını kontrol etmenin bir yoludur.

Tarama-işleme-dizini arasında ayrım yapmanın önemi

Belirtildiği gibi, Google'ın bir sayfayı taradığı, oluşturduğu ve dizine eklediği 3 adımlı bir süreç vardır. Bu adımların her birini ayırt etmek çok önemlidir. Web daha karmaşık hale geldikçe, Google bu süreçleri ayrı ayrı uyarlamak, ayırmak ve iyileştirmek zorunda kaldı.

Farklı Googlebot'lar

Google tarafından web sitelerini taramak ve oluşturmak için birden çok Googlebot kullanılır. Farklı türde kaynaklarınız var: resimler, videolar, haberler, metin… Google, her tür içeriği anlamak için farklı Googlebot'lar kullanır.

Google, yaklaşık bir ay önce, oluşturma motorlarını her zaman yeşil kalan Googlebot ve en yeni Chromium motorunda çalışacak şekilde yükselttiklerini duyurdu.

Tarama ve oluşturma, dizine eklemeye giden gerekli adımlar olduğundan bu önemlidir.

Google'ın sürecinde değişen öncelikler

Google, indeksleme amacıyla masaüstü Googlebot ile tarama yapardı. Bu değiştirildi; artık indeksleme amacıyla akıllı telefon Googlebot'u kullanıyorlar.

Mobil Öncelikli dizine ekleme, Temmuz 2019'dan itibaren tüm yeni siteler için uygulanacaktır ve halihazırda değiştirilmemişlerse bilinen tüm mevcut siteler için gelecektir.

Tarama: Google'ın dizine eklenecek URL'leri bulma yolları

Bir sayfayı dizine ekleyebilmek için Google'ın onu taraması gerekir.

Dizine eklemeye giden süreçteki ilk adım olarak, sayfalarınızın doğru ve hızlı bir şekilde dizine eklenmesini sağlamak için, taramanızın "güvenli ve sağlam" olduğundan emin olmanız gerekir.

Google'ın URL'leri bulmasının temel olarak üç yolu vardır:

  1. Bağlantılar: Tüm PageRank patenti, köprüler aracılığıyla yeni siteler bulmaya dayanıyordu.
  2. XML site haritaları
  3. Geçmiş taramalar

– Google, URL'lere nasıl öncelik verir (Tarama bütçesi)

Google, hangi sitelerin ne sıklıkta taranacağına öncelik verir. Buna genellikle "tarama bütçesi" denir.

Google Web Yöneticisi blogunda, Google'ın taranacak sitelere nasıl öncelik verdiğine ilişkin birkaç fikir veren, tarama bütçesiyle ilgili bir makale vardı.

– Popülerlik: geri bağlantılar ve PageRank

Bu makalenin ortaya koyduğu noktalardan biri, PageRank'in bir web sitesi için indeksleme hızının ve hacminin arkasındaki ana itici güç olmasıdır.

Geri bağlantılar, elbette, PageRank'in önemli bir bileşenidir ve bu nedenle, tarama hızı ve dizine ekleme üzerinde bir etkiye sahiptir.

– Durum kodları

Durum kodları da dikkate alınır. Örneğin, sitenizde çok sayıda 404 sayfanız varsa, bu muhtemelen Google'ın tarama sıklığını azaltmasına yol açacaktır.

Başka bir örnek, yönlendirme zincirleri ve döngülerdir.

– Site hijyeni

Siteniz, çok fazla tarama bütçesini boşa harcayacak şekilde organize edilmişse, Google sitenizde harcadığı zamanı azaltabilir.

– Sayfa hızı ve sunucu yanıt süresi

Tarama bütçesi, sayfa hızından ve sunucu yanıt süresinden de etkilenir. Google, sitenizi DDoS yapmak istemiyor; sunucunuzun istediği oranda sayfa ve kaynak sağlamakta zorlandığını görürse, tarama açısından sunucunuzun neler yapabileceğini ayarlayacaktır.

Rendering: Kafein güncellemesi

Birkaç yıl önce çıkan Kafein güncellemesi, temelde Google'ın render yapısında yapılan bir güncellemeydi.

İndeksleme: İçerik türleri için farklı kümeler

Google'ın farklı sonuçlar döndürmek için kullandığı farklı dizin arşivleri vardır. Haber sonuçları için dizinde farklı kümeler ve görüntü sonuçları vb. için başka kümeler olduğunu hayal etmek mantıklıdır.

Sıralama: Ayrı algoritmalar

Son olarak, dizine eklenen URL'ler sıralanır, ancak bu tamamen farklı bir algoritmadır.

İndeksleme hızını iyileştirme

Hem sayfaların daha hızlı dizine eklenmesi hem de daha fazla sayfanın dizine eklenmesi, PageRank'ten ve dolayısıyla geri bağlantılardan büyük ölçüde etkilenir. Ancak her birini iyileştirme stratejileri farklıdır.

Sayfaların daha hızlı dizine eklenmesini istiyorsanız, ilk iki adımı (tarama ve oluşturma) optimize etmek istersiniz. Bu, aşağıdaki gibi bileşenleri içerecektir:

  • Dahili bağlantı
  • Site Haritaları
  • sunucu hızı
  • sayfa hızı

Dizine eklenen sayfaların sayısını artırma

Daha fazla sayfanın dizine eklenmesini istiyorsanız, tarama yönünün daha önemli olduğu yer burasıdır. Google'ın tüm sayfalarınızı bulmasını kolaylaştırmak isteyeceksiniz. Bu, bin URL'li küçük bir web sitesinde basittir, ancak milyonlarca URL'li daha büyük bir sitede çok daha zordur.

Örneğin, G2'de tonlarca farklı sayfa türünden sayfa vardır. Kevin'in SEO ekibi, tarama derinliği ve bu türden kaç sayfa olursa olsun, Google'ın tüm sayfaları bulabildiğinden emin olmak istiyor; bu, farklı açılardan yaklaşılması gereken büyük bir zorluktur.

Sayfa profiline göre tarama oranlarındaki değişiklik

Kevin, sayfanın türüne bağlı olarak genellikle Google tarafından farklı tarama oranları bulur. Bu genellikle URL'nin geri bağlantı profiline ve dahili bağlantıya bağlıdır. Günlük dosyalarının en çok kullanıldığını bulduğu yer burasıdır.

Sitenin tarama verimliliğinin nerede olmadığını veya tarama verimliliğinin nerede çok yüksek olduğunu anlamak için sitesini sayfa türüne göre bölümlere ayırır.

Tarama hızı, indeksleme hızı ve sıralama arasındaki ilişki

Kevin, her sayfa türü için tarama hızı, indeksleme hızı ve sıralama arasında kesin korelasyonlar gözlemledi. Bu sadece birlikte çalıştığı sitelerde değil, sektördeki diğer SEO'larla yazışmalarda da geçerliydi.

Tarama, dizine ekleme ve sıralama arasında bir nedensellik ilişkisi ortaya koymadan, dizine eklemeyi sağlayan benzer unsurlar da bir sayfanın sıralanması söz konusu olduğunda hesaba katılıyor gibi görünmektedir. Örneğin, belirli bir sayfa türü için belirli bir sayfa şablonuna tonlarca geri bağlantınız varsa (örneğin: açılış sayfaları), günlük dosyalarınızda Google'ın bu sayfalarda daha yüksek bir tarama hızına sahip olması durumunda bulacağınız şey şudur: site, Google da bu sayfaları daha hızlı dizine ekler ve genellikle bu sayfaları diğer sayfalardan daha üst sıralarda sıralar.

Tüm siteler için geçerli olan evrensel ifadeler yapmak zordur, ancak Kevin herkesi bunun kendi sitelerinde de doğru olup olmadığını görmek için günlük dosyalarını kontrol etmeye teşvik eder. OnCrawl, analiz ettikleri birçok farklı sitede de durumun böyle olduğunu buldu.

Bu, kendisinin ortaya koyduğu TIPR dahili bağlantı modeliyle özetlemeye çalıştığı şeyin bir parçası.

Tarama hızının ölçülmesi

Tarama hızını ölçmek için şu soruyu yanıtlamak istiyorsunuz: Belirli bir Googlebot belirli bir URL'yi ne sıklıkla ziyaret ediyor?

Bu başka bir soruyu nasıl "dilimleyip zar" alıyorsunuz. Kevin, haftalık olarak Googlebot isabetlerinin sayısına bakmayı sever. Ayrıca günlük veya aylık olarak da bakabilirsiniz.

- Öncesine/sonrasına odaklanmak

Kullandığınız dönemden daha önemli olan, tarama hızındaki değişikliklere bakmaktır. Değişiklik yapmadan önce ve uygulandıktan sonra kurlara bakmalısınız.

– Sayfa türleri arasındaki farklılıklara odaklanmak

Tarama hızını ölçmenin bir başka anahtarı da sitenizdeki boşlukların nerede olduğuna bakmaktır. Sayfa türü düzeyinde, tarama oranları arasındaki farklar nerede? Hangi sayfa türü bir ton taranır? Hangi sayfa türleri zor taranır?

– Tarama davranışında yaygın gözlemler

Kevin'in geçmişte yaptığı bazı ilginç gözlemler şunlardır:

  • En çok taranan URL: robots.txt
  • Çoğu zaman bir URL/URL grubu üzerinde harcanır: XML site haritaları, özellikle biraz büyüdüğünde

Sayfa türleri arasındaki gezinme davranışındaki farklılıkları bulmak için günlük dosyalarına göz atmak son derece ufuk açıcıdır. Hangi URL'lerin günlük olarak tarandığına ve hangi URL'lerin aylık olarak tarandığına bakın. Bu, sitenizin yapısının tarama (ve arada bir adım olsa da) için ne kadar verimli olduğu hakkında size çok şey söyleyebilir.

İş modeline göre tarama bütçesinin dağılımı

Tarama verimliliğini artırmak için strateji genellikle Google'ın bazı sayfa türlerine verdiği ilgiyi azaltmak ve web sitesi için daha önemli olan sayfalara yönlendirmektir.

Bunu nasıl halletmek istediğiniz, sitede dönüşümlerin nasıl işlendiğine bağlı olacaktır. Kevin iki temel site modelini ayırt eder: merkezi ve merkezi olmayan iş modelleri:

  • Merkezi olmayan modeller , kullanıcıları herhangi bir sayfada dönüştürebilir. İyi bir örnek Trello'dur: herhangi bir sayfada kaydolabilirsiniz. Tüm sayfa türleri nispeten benzerdir. Kayıtlar için hiçbir sayfa diğerinden daha değerli olmadığından, amaç tüm sitede eşit bir tarama hızına sahip olmak olabilir: Her tür sayfanın aşağı yukarı aynı hızda taranmasını istersiniz.
  • Merkezi modeller Jira gibi bir şey olabilir. Jira'nın milyonlarca kez çoğaltabileceğimiz tek bir sayfa türü yok: İnsanların kaydolabileceği yalnızca birkaç açılış sayfası var. Bunun gibi bir sitedeki tarama bütçenizin dönüşüm noktalarınız (açılış sayfalarınız) etrafında toplandığından emin olmak istiyorsunuz.

Tarama bütçenizin nasıl dağıtılmasını istediğiniz, sitenizin nasıl para kazandığı ve bunda hangi tür sayfaların en önemli rolü oynadığı sorusuna geri döner.

Tarama israfını ele almak

Googlebot'ların, dönüşümler için daha az önemli olan sayfalara tarama bütçesi harcamasını önlemek için çeşitli yöntemler vardır.

Taramayı atlamanın en iyi yolu robots.txt dosyasıdır:

  • Vakaların %99,999999'unda Google, robots.txt yönergelerine uymaktadır.
  • Robots.txt, sitenizin ince veya yinelenen içeriğe sahip büyük bölümlerinde taramanın engellenmesine yardımcı olabilir (Klasik örnekler: bir forumdaki kullanıcı profilleri; parametre URL'leri…)

Bir sayfanın dizine eklenmemesini, ancak yine de taramaya yardımcı olmasını isteyebileceğiniz meşru durumlar vardır. Kevin, bazı hub sayfalarının bu kategoriye girdiğini düşünür. Burası bir meta noindex kullanacağı yer.

John Mueller'in meta noindex etiketlerinin nihayetinde nofollow olarak ele alındığını söylediğini biliyor, ancak Kevin şimdiye kadar bunun yerinde olduğunu hiç görmedi. Bunun olmasının çok uzun zaman almasından (bir yıldan fazla veya daha uzun) kaynaklanabileceğini kabul ediyor. Bunun yerine, Googlebot'ları "açgözlü" bulmaya ve mümkün olduğunca çok sayıda bağlantı arayıp takip etmeye eğilimlidir.

Kevin'in tavsiyesi robots.txt dosyasını kullanmak ve onu tam anlamıyla kullanmaktır. Bazı şeyleri taranmaktan korumak için joker karakterler ve bazı çok karmaşık teknikler kullanabilirsiniz.

İzlenecek temel kural, içerik ne kadar ince olursa, taramadan hariç tutulmaya aday olma olasılığının o kadar yüksek olmasıdır.

Robots.txt aracılığıyla tarama dışında bırakılan sayfalar, dahili bağlantıları veya kendilerine yönelik geri bağlantıları varsa Google tarafından dizine eklenebilir. Böyle bir durumda, arama sonuçlarındaki açıklama metni, Google'ın robots.txt dosyasındaki bir kısıtlama nedeniyle sayfayı tarayamadığını gösterecektir. Genel olarak, ancak bu sayfalar, robots.txt dosyasında kısa süre önce hariç tutulmadıkları sürece yüksek sıralamaya sahip değildir.

Benzer sayfalardan kaynaklanan indeksleme sorunları

– Kanonik hatalar

Programatik olarak, kurallı bildirimlerin yanlış anlaşılması son derece kolaydır. Kevin, kurallı ifadede iki nokta üst üste (:) yerine noktalı virgül (;) olduğu durumu birkaç kez gördü ve sonra tonlarca sorunla karşılaştınız.

Kanonikler bazı durumlarda çok hassastır ve Google'ın tüm kanoniklerinize güvenmemesine neden olabilir ve bu da büyük bir sorun olabilir.

Kanoniklerle ilgili en yaygın sorunlardan biri, unutulmuş kanoniklerdir.

– Site taşımaları

Site geçişleri genellikle standartlarla ilgili bir sorun kaynağıdır; Kevin, sitenin yeni etki alanını standartlara eklemeyi unuttuğu sorunları gördü.

Bunu unutmak son derece kolaydır, özellikle de CSM'nizin geçiş sırasında değişiklik yapmak için manuel (programlı değil) bir ayarlamaya ihtiyacı olduğunda.

Varsayılan ayar, başka bir URL'yi işaret etmek için belirli bir neden olmadıkça, bir sayfanın kurallı öğesinin kendisini göstermesi gerektiğidir.

- HTTP'den HTTPS'ye

Bu, doğru URL'nin dizine eklenmesini engelleyen başka bir yaygın kurallı hatadır. Kanonikte bazen yanlış protokol kullanılır.

– Google, beyan edilen kurallıyı yok saydığında hata kaynağı bulma

Google bazen kendi kuralını seçer. Bildirilen kurallı bilginize güvenmediklerinde, genellikle bir temel neden vardır.

Kevin, Google'a iki çelişkili sinyal gönderiyor olabileceğiniz durumlardan kaçınmanızı önerir:

  • XML site haritalarınıza bakın
  • Kendi sitenizi tarayın ve hatalı kanonikleri arayın
  • Çakışan ayarları bulmak için Arama Konsolunuzdaki parametre ayarlarına bakın
  • Noindex ve canonicals'ı aynı anda kullanmayın

Dizin şişkinliğine katkıda bulunan sayfa türleri

On yıl önce SEO'da, dizine eklenecek mümkün olduğunca çok sayfa göndermek istediniz: ne kadar çok sayfa dizine eklenirse o kadar iyi.

Bugün, artık durum böyle değil. Dükkanınızda sadece en kaliteli şeyleri istiyorsunuz. Dizinde herhangi bir alt par içerik istemiyorsunuz.

"Dizin şişkinliği" genellikle değer sağlamayan bir sayfa türünü tanımlamak için kullanılır. Bu, özellikle her yeni sayfada önemli bir değer sağlamadan mevcut sayfaların sayısını çoğalttığınız veya çoğalttığınız durumlarda, genellikle her türlü ince içeriğe geri döner.

Belirli bir sayfa türünden kaçının dizine eklendiğine ve bunların ek değer sağlayıp sağlamadığına bakmak isteyebileceğiniz klasik durumlar şunları içerir:

  • parametreler
  • sayfalandırma
  • Forumlar
  • Dizinle ilgili sayfalar veya giriş sayfaları
  • Hizmetler veya içerik arasında ayrım yapmayan kapsamlı yerel (şehir) sayfaları
  • Yönlü gezinmeler

İndeksleme bir siteyi bir bütün olarak nasıl etkiler?

Google'ın sitenizi bir bütün olarak nasıl gördüğünü ve derecelendirdiğini etkilediğinden, bugün alt standart sayfaların dizine eklenmesini istemezsiniz.

Bunun çoğu tarama bütçesine geri dönüyor. Gary Illyes ve John Mueller çoğu sitenin tarama bütçesi konusunda endişelenmesine gerek olmadığını sık sık söylese de, bugün yaptığımız tartışma türünün izleyicileri büyük fark yaratan daha büyük sitelerdir.

Google'ın yalnızca yüksek kaliteli içerik bulduğundan emin olmak istiyorsunuz.

Kevin'in tarama hızı, dizine ekleme ve sıralama arasında gözlemlediği ilişki gibi, dizine eklenen sayfaların kalitesine dikkat etmenin tüm site için işe yaradığını da gözlemliyor. Evrensel açıklamalar yapmak zor olsa da, Google'ın o site için dizine eklenen sayfalara bağlı bir tür site kalitesi metriği olduğu görülüyor. Başka bir deyişle, dizine eklenmiş çok sayıda düşük kaliteli içeriğiniz varsa, sitenize zarar veriyor gibi görünüyor.

Dizin şişkinliğinin zararlı olduğu yer burasıdır: bu, genel site kalite "puanınızı" sulandırmanın veya düşürmenin bir yoludur ve tarama bütçenizi boşa harcar.

Hızlı indeksleme için XML site haritaları

Kevin'in görüşü, Google daha akıllı hale geldikçe, "hack" sayısının zamanla azaldığı yönünde.

Ancak, indeksleme konusunda, bir şeyi hızlıca indekslemenin bir yolunun bir XML site haritası kullanmak olduğunu buldu.

Yakın zamanda G2 yeni bir alana taşındı. Yeniden taranması uzun zaman alan bir sayfa türüne sahipler, bu nedenle Google'ın dizininde bu tür sayfaların snippet'lerinde hala eski alanı gördünüz. Kevin, 301 yönlendirmelerinin henüz taranmadığı için dikkate alınmadığını görünce, bu türdeki tüm sayfaları bir XML site haritasına yerleştirdi ve site haritasını Search Console'da Google'a verdi.

Bu strateji, sitede Kevin'in Google'ın mümkün olduğunca çabuk anlamasını istediği büyük bir teknik değişiklik olduğunda da kullanılabilir.

Teknik SEO'nun artan önemi

Teknik SEO, son üç yılda önem kazanmıştır. Çoğu zaman, teknik SEO soruları gerçekten küçümsenmiş alanları vurgular.

Çoğu zaman, ilgilenmeniz gereken tek şeyin içeriğin ve geri bağlantıların olduğunu duyarsınız. Kevin, bunların SEO'nun süper etkili alanları olduğuna inansa da, teknik SEO'nuzu doğru yaptıysanız daha da fazla etkiye sahip olabileceklerini düşünüyor.

[E-kitap] Taranabilirlik

SEO performansını artırmak için web sitelerinizin taranabilirlik için arama motoru gereksinimlerini karşıladığından emin olun.
e-kitabı okuyun

Soru-Cevap

– Bing ve 10.000 URL/gün dizine ekleme

Bing, web yöneticilerine daha hızlı dizine ekleme için web yöneticisi araçları aracılığıyla günde 10.000'e kadar URL'yi doğrudan gönderme olanağı sunar.

Kevin, bunun Google'ın da yönelebileceği bir yön olduğuna inanıyor. Dünyanın en değerli şirketlerinden biri olan Google bile kaynaklarını korumak zorundadır. Bu, tarama kaynaklarını boşa harcarsanız buna göre ayarlama yapmalarının nedenlerinden biridir.

Bu tür bir özelliğin web yöneticileri için faydalı olup olmadığı, sitenizin boyutuna da bağlı olacaktır. Günde bu kadar çok URL gönderebilmekten fayda sağlayacak sitelerin sayısı sınırlıdır - muhtemelen binlerce veya on binlerle. Kevin, Google'ın bu siteler için zaten önemli kaynaklar ayırdığını varsayıyor. Görünen o ki, web'deki en büyük siteler için Google, elbette olağan istisnalar dışında, onları dizine ekleme konusunda iyi bir iş çıkarıyor.

Bing'in bu ölçekte bir şey uygulaması muhtemelen çok daha kolaydır: Birincisi, pazar payları çok daha küçüktür, bu nedenle bu özelliğe olan talep daha azdır. Dizin boyutları da muhtemelen çok daha küçüktür, bu nedenle muhtemelen daha fazla fayda sağlarlar.

– Google robots.txt dosyasını yok saydığında

Google, robots.txt dosyasını yalnızca çok nadiren yok sayar.

Bazen, Google'ın robots.txt dosyasını görmezden geldiğini varsaymamıza neden olan şey, daha önce bahsettiğimiz gibi, Google'ın bazen robots.txt tarafından engellenen sayfaları dizine ekleyebilmesidir ve bu sayfalar yine de başka birçok yolla bulunabilir.

Robots.txt dosyasındaki sözdiziminiz yanlışsa, Google'ın robots.txt dosyanızdaki yönergeleri yok saymasını da sağlayabilirsiniz:

  • hatalı karakterler
  • Noindex yönergeleri gibi çalışmayan veya çalışmaması gereken etiketlerin kullanımı

[Not: Kevin, Google'ın robots.txt dosyasında sunulan noindex yönergelerine uyduğunu tespit eden bir örnek olay incelemesinden alıntı yapıyor. Ancak, bu web seminerinin yayınlanmasından kısa bir süre sonra Google, 1 Eylül 2019'dan itibaren robots.txt dosyalarında bu yönerge için zımni desteğin sona erdiğini duyurdu.]

Ancak Google, botlarını yüksek standartta tutan ve robots.txt dosyasını göz ardı etmeyen şirketlerden biridir.

Üst uç

"PageRank, indeksleme hızının ve hacminin arkasındaki ana itici güçtür."

Orbit'te SEO uzaya gitti

27 Haziran'daki uzay yolculuğumuzu kaçırdıysanız, buradan yakalayın ve uzaya gönderdiğimiz tüm ipuçlarını keşfedin.