Jak pozbyć się dodatkowych stron w indeksie Google?

Opublikowany: 2023-12-06

Strony internetowe unoszące się w krajobrazie cyberprzestrzeni.

Załóżmy, że masz witrynę e-commerce zawierającą tysiące produktów, każdy o różnych rozmiarach i kolorach. Raport stanu indeksu Google Search Console służy do wyświetlania listy zaindeksowanych stron w wynikach wyszukiwania Google dotyczących Twojej witryny.

Ku Twojemu zdziwieniu widzisz o wiele więcej stron, niż powinna mieć witryna. Dlaczego tak się dzieje i jak się ich pozbyć?

Odpowiadam na to pytanie w naszej serii „Zapytaj nas o wszystko” na YouTube. Oto film, a poniżej możesz przeczytać więcej o tym częstym problemie i jego rozwiązaniu.

  • Dlaczego te „dodatkowe” strony internetowe pojawiają się w indeksie Google?
  • Jak pozbyć się „dodatkowych” stron internetowych z indeksu Google?
  • Streszczenie
  • Często zadawane pytania: Jak usunąć dodatkowe strony z indeksu Google mojej witryny?

Dlaczego te „dodatkowe” strony internetowe pojawiają się w indeksie Google?

Ten problem jest powszechny w przypadku witryn e-commerce. „Dodatkowe” strony internetowe mogą pojawiać się w indeksie Google, ponieważ w Twojej witrynie e-commerce generowane są dodatkowe adresy URL.

Oto jak to zrobić: Kiedy ludzie korzystają z parametrów wyszukiwania w witrynie internetowej, aby określić określone rozmiary lub kolory produktu, zazwyczaj automatycznie generowany jest nowy adres URL dla wybranego rozmiaru lub koloru.

Powoduje to osobną stronę internetową. Mimo, że nie jest to „oddzielny” produkt, to strona ta może być indeksowana tak samo jak główna strona produktu, jeżeli zostanie wykryta przez Google poprzez link

Kiedy tak się stanie, a masz wiele kombinacji rozmiarów i kolorów, może pojawić się wiele różnych stron internetowych dla jednego produktu. Jeśli teraz Google odkryje adresy URL tych stron internetowych, może się okazać, że w indeksie Google dla jednego produktu będzie znajdować się wiele stron internetowych.

Jak pozbyć się „dodatkowych” stron internetowych z indeksu Google?

Używając tagu kanonicznego, możesz sprawić, że wszystkie adresy URL odmian produktów będą wskazywały tę samą oryginalną stronę produktu. To właściwy sposób radzenia sobie z treściami niemal zduplikowanymi, takimi jak zmiany kolorów.

Oto, co Google ma do powiedzenia na temat używania tagu kanonicznego do rozwiązania tego problemu:

Kanoniczny adres URL to adres URL strony, która według Google jest najbardziej reprezentatywna ze zbioru zduplikowanych stron w Twojej witrynie. Na przykład, jeśli masz adresy URL tej samej strony (example.com?dress=1234 i example.com/dresses/1234), Google wybiera jeden z nich jako kanoniczny. Strony nie muszą być całkowicie identyczne; drobne zmiany w sortowaniu lub filtrowaniu stron list nie powodują, że strona jest wyjątkowa (na przykład sortowanie według ceny lub filtrowanie według koloru przedmiotu) .

Google dalej twierdzi, że:

Jeśli masz pojedynczą stronę dostępną pod wieloma adresami URL lub różne strony o podobnej treści… Google postrzega je jako zduplikowane wersje tej samej strony. Google wybierze jeden adres URL jako wersję kanoniczną i zaindeksuje go, a wszystkie pozostałe adresy URL zostaną uznane za zduplikowane i będą indeksowane rzadziej.

Jeśli nie wskażesz Google wyraźnie, który adres URL jest kanoniczny, Google dokona wyboru za Ciebie lub może uznać oba za jednakowe, co może prowadzić do niepożądanego zachowania…

Ale co, jeśli nie chcesz, aby te „dodatkowe” strony w ogóle były indeksowane? Moim zdaniem rozwiązanie kanoniczne jest właściwym rozwiązaniem w tej sytuacji.

Istnieją jednak dwa inne rozwiązania, z których ludzie korzystali w przeszłości w celu usunięcia stron z indeksu:

  1. Blokuj strony z plikiem robots.txt (niezalecane, za chwilę wyjaśnię dlaczego)
  2. Użyj metatagu robots, aby zablokować poszczególne strony

Opcja pliku robots.txt

Problem z używaniem pliku robots.txt do blokowania stron internetowych polega na tym, że jego użycie nie oznacza, że ​​Google usunie strony internetowe z indeksu.

Według Centrum wyszukiwarki Google:

Plik robots.txt informuje roboty wyszukiwarek, do jakich adresów URL w Twojej witrynie robot może uzyskać dostęp. Służy to głównie do uniknięcia przeciążenia witryny żądaniami; nie jest to mechanizm utrzymujący stronę internetową poza Google.

Ponadto dyrektywa disallow w pliku robots.txt nie gwarantuje, że bot nie będzie indeksował strony. Dzieje się tak, ponieważ plik robots.txt jest systemem dobrowolnym. Jednak rzadko zdarza się, aby główne boty wyszukiwarek nie stosowały się do Twoich dyrektyw.

Tak czy inaczej, nie jest to optymalny pierwszy wybór. A Google odradza to.

Opcja metatagu Robots

Oto, co Google mówi o metatagu robots:

Metatag robots umożliwia szczegółowe, specyficzne dla strony podejście do kontrolowania sposobu, w jaki dana strona powinna być indeksowana i wyświetlana użytkownikom w wynikach wyszukiwania Google.

Umieść metatag robots w sekcji <head> dowolnej strony internetowej. Następnie zachęć boty do zaindeksowania tej strony za pomocą przesłanej mapy witryny w formacie XML lub w sposób naturalny (co może zająć do 90 dni).

Kiedy boty wrócą, aby przeszukać stronę, napotkają metatag robots i zrozumieją zalecenie, aby nie wyświetlać strony w wynikach wyszukiwania.

Streszczenie

Podsumowując:

  • Użycie tagu kanonicznego jest najlepszym i najczęstszym rozwiązaniem problemu indeksowania „dodatkowych” stron w Google – częstego problemu w przypadku witryn e-commerce.
  • Jeśli nie chcesz, aby strony w ogóle były indeksowane, rozważ użycie metatagu robots, aby wskazać botom wyszukiwarek, w jaki sposób mają one być obsługiwane.

Nadal jesteś zdezorientowany lub chcesz, żeby ktoś zajął się tym problemem za Ciebie? Pomożemy Ci z dodatkowymi stronami i usuniemy je z indeksu Google. Umów się na bezpłatną konsultację tutaj.

Często zadawane pytania: Jak usunąć dodatkowe strony z indeksu Google mojej witryny?

Problem dodatkowych stron w indeksie Google Twojej witryny może stanowić poważną przeszkodę. Te nadwyżki stron często wynikają z dynamicznego generowania treści, np. odmian produktów w witrynach e-commerce, co powoduje zaśmiecony indeks, który wpływa na wydajność witryny.

Zrozumienie pierwotnej przyczyny jest kluczowe. W szczególności witryny e-commerce stają przed wyzwaniami, gdy różne atrybuty produktu powodują generowanie wielu adresów URL dla jednego produktu. Może to prowadzić do indeksowania wielu stron, co będzie miało wpływ na SEO Twojej witryny i wygodę użytkownika.

Najbardziej niezawodnym rozwiązaniem tego problemu jest użycie tagu kanonicznego. Tag kanoniczny sygnalizuje Google preferowaną wersję strony, konsolidując siłę indeksowania w jednym, reprezentatywnym adresie URL. Sam Google zaleca tę metodę, podkreślając jej skuteczność w obsłudze niemal zduplikowanych treści.

Chociaż niektórzy mogą rozważyć użycie pliku robots.txt do blokowania stron internetowych, nie jest to optymalne rozwiązanie. Google interpretuje plik robots.txt jako dyrektywę kontrolującą dostęp robotów, a nie narzędzie umożliwiające usunięcie z indeksu. Natomiast metatag robots oferuje bardziej ukierunkowane podejście, umożliwiając precyzyjną kontrolę nad indeksowaniem poszczególnych stron.

Tag kanoniczny pozostaje najlepszym rozwiązaniem. Jeśli jednak zdecydowanie preferowane jest całkowite usunięcie z indeksu, metatag robota może okazać się strategicznym sojusznikiem. Zrównoważenie pragnienia usprawnionego indeksu z najlepszymi praktykami SEO jest kluczem do skutecznej optymalizacji Twojej obecności w Internecie.

Opanowanie eliminacji dodatkowych stron z indeksu Google Twojej witryny wymaga strategicznego połączenia zrozumienia problemu, wdrożenia najlepszych praktyk, takich jak tag kanoniczny, i rozważenia alternatyw w określonych scenariuszach. Przyjmując te strategie, webmasterzy mogą ulepszyć SEO swojej witryny, poprawić komfort użytkowania oraz utrzymać przejrzystą i efektywną obecność w Internecie.

Procedura krok po kroku:

  1. Zidentyfikuj dodatkowe strony : przeprowadź dokładny audyt, aby wskazać wszystkie nadmiarowe strony w indeksie Google swojej witryny.
  2. Określ pierwotną przyczynę : Zrozum, dlaczego te strony są generowane, koncentrując się na dynamicznych elementach treści.
  3. Nadaj priorytet tagowi kanonicznemu : podkreśl użycie tagu kanonicznego jako podstawowego rozwiązania w przypadku niemal powielonych treści.
  4. Zaimplementuj tagi kanoniczne : zastosuj tagi kanoniczne do wszystkich odpowiednich stron, określając preferowaną wersję do konsolidacji.
  5. Sprawdź rekomendacje Google : dostosuj strategie do wytycznych Google, zapewniając zgodność i przestrzeganie.
  6. Opcja oceny pliku robots.txt : zapoznaj się z ograniczeniami i potencjalnymi wadami przed rozważeniem pliku robots.txt.
  7. Wdróż metatag Robots : użyj strategicznie metatagów robota, aby w razie potrzeby kontrolować indeksowanie określonych stron.
  8. Zrównoważony wpływ SEO : Weź pod uwagę wpływ każdego rozwiązania na SEO i doświadczenie użytkownika, aby móc podejmować świadome decyzje.
  9. Regularne monitorowanie : Ustal procedurę monitorowania zmian indeksów i oceny skuteczności wdrożonych strategii.
  10. Optymalizacja iteracyjna : ciągłe udoskonalanie i optymalizacja strategii w oparciu o zmieniającą się dynamikę witryny i algorytmy Google.

Kontynuuj udoskonalanie i dostosowywanie tych kroków w oparciu o unikalne cechy Twojej witryny i zmieniające się krajobrazy SEO.