Dlaczego strony internetowe wypadają z indeksu wyszukiwarek?

Pojedyncze wypadanie stron z indeksu wyszukiwarek

Webmaster może zauważyć, że ruch na niegdyś popularnej stronie usługi zniknął, telefony przestały dzwonić, a sprzedaż spadła do zera. W takim przypadku warto sprawdzić, czy dana strona nie wypadła z indeksu wyszukiwarek, zwłaszcza jeśli jedynym kanałem promocji tej usługi w Internecie było organiczne wyszukiwanie.

Jak sprawdzić, czy strona nie wypadła z indeksu Yandex:

W Yandex Webmaster. Zakładka „Indeksowanie – Sprawdź status URL”. Wpisujemy adres URL żądanej strony, klikamy przycisk „Sprawdź” i czekamy. Jeśli w wyniku napisano, że strona jest przeglądana przez robota i znajduje się w wyszukiwarce, to wszystko jest w porządku.

Yandex Webmaster

Za pomocą operatora url. W pasku wyszukiwania Yandex wprowadzamy zapytanie według formuły [url:URL].

Przykład:

Yandex search

Jeśli strona znajduje się w indeksie, Yandex ją wyświetli.

Przykład z adresem URL nieobecnym w wyszukiwarce:

Yandex no result

Jak sprawdzić, czy strona nie wypadła z indeksu Google:

Indeksowanie strony w Google można sprawdzić za pomocą usługi Google Search Console. Wklejamy adres URL (https://hotmnt.pl/free-tools/sprawdz-domene-internetowa-whois) w pasek sprawdzania, naciskamy Enter:

Indeksowanie strony w Google

Wyświetlane są informacje o stronie. W tym przypadku interesuje nas informacja, że adres URL znajduje się w indeksie Google.

Masowe wypadanie stron z indeksu wyszukiwarek

Należy regularnie sprawdzać swoją witrynę pod kątem liczby stron wykluczonych z wyszukiwania, ponieważ strony docelowe mogą wypaść z indeksu w dowolnym momencie.

Jak sprawdzić informacje o wykluczonych stronach w Yandex

Za pomocą Yandex Webmaster można uzyskać wszystkie niezbędne informacje o indeksowaniu stron. Zakładka „Indeksowanie -> Strony w wyszukiwarce„.

Zawsze sprawdzaj wykluczone adresy URL, zwłaszcza jeśli widzisz, że wcześniej stron w wyszukiwarce było znacznie więcej. Tutaj możesz zobaczyć informacje o dacie i przyczynie wykluczenia adresu URL z indeksu.

Jak sprawdzić informacje o wykluczonych stronach w Google

W Google Search Console również można sprawdzić informacje o wykluczonych adresach URL. W tym celu przechodzimy do zakładki „Strony„:

Indeksowanie stron

Tutaj pokazują nam:

Strony, które nie są indeksowane, nie mogą wyświetlać się w Google
  • Strony z błędami – Google nie mógł ich zaindeksować;
  • Bez błędów, są problemy – zaindeksowane strony, ale być może mające błąd po naszej stronie (na przykład potrzebne nam adresy URL są zabronione w pliku robots.txt);
  • Bez błędów;
  • Wykluczone;

Z jakich powodów strony wypadają z indeksu

Istnieje wiele przyczyn, dla których strony mogą zostać usunięte z indeksu. Podzielimy je na dwie grupy: przyczyny techniczne i przyczyny zależne od treści.

Przyczyny techniczne

Przekierowania

Wyszukiwarki usuwają z indeksu strony, które przekierowują użytkownika na inne strony. Sama strona docelowa (na którą następuje przekierowanie) często nie jest wykluczana (jeśli nie ma innej przyczyny).

Typowy przykład wykluczenia strony przekierowującej użytkownika na inną stronę (przekierowanie 301).

Strona docelowa pozostała w wyszukiwarce:

/page?50 -> www.sitename.pl

Ponieważ strona docelowa pozostaje w wyszukiwarce, nie ma nic strasznego w tej sytuacji, ale dobrze jest zminimalizować liczbę niepotrzebnych przekierowań 301 na stronie, jeśli jest taka możliwość.

Nie znaleziono (404)

Strony z błędami 404 również wypadają z indeksu.

Jeśli strona została usunięta przez pomyłkę, oczywiście konieczne jest jej przywrócenie. Jeśli strona nie jest już potrzebna, należy usunąć wszystkie prowadzące do niej linki na stronie.

Plik Robots.txt i meta tag Robots

Webmaster może zalecić wyszukiwarkom, aby nie umieszczały w indeksie żądanych adresów URL za pomocą pliku robots.txt lub za pomocą meta tagu Robots:

robots.txt
...
Disallow: /first_url/*
Disallow: /second_url/*

Sprawdź plik robots.txt, czy nie ma tam potrzebnych stron. Sprawdź również meta tag Robots. Jeśli widzisz, że atrybut „name” ma ustawioną wartość „robots”, a atrybut „content” ma wartość „noindex”, oznacza to, że skanowanie strony jest zabronione dla wszystkich robotów wyszukiwarek:

<meta name="robots" content="noindex">

lub

<meta name="googlebot" content="noindex">

Więcej informacji na temat tego meta tagu można znaleźć w pomocy Google.

Strona wykryta, ale nie zindeksowana

W Google Search Console są wykluczone z indeksu adresy URL ze statusem „Strona przeskanowana, ale jeszcze nie zaindeksowana”.

Oznacza to, że robot wyszukiwarki znalazł Twoją stronę, ale nie dodał jej do indeksu. W tym przypadku wystarczy poczekać, a strona zostanie dodana do wyszukiwarki.

Przyczyny zależne od treści

Duplikaty

Strony całkowicie lub częściowo powielające inne mogą zostać usunięte z wyszukiwania.

Jeśli zduplikowane strony nie są potrzebne, najlepszym rozwiązaniem będzie ich usunięcie. Jeśli są potrzebne, można ustawić tag „rel=canonical” w sekcji tych stron.

Na przykład:

<link rel="canonical" href="https://example.com/dresses/green-dresses" />

Można również skonfigurować przekierowanie 301 ze strony duplikatu na stronę kanoniczną.

Jeśli obie podobne do siebie strony muszą być obecne nie tylko na stronie, ale także w wyszukiwarce (na przykład dwie strony kart produktów), należy je unikatować (zmienić meta tagi, tekst na stronie, zdjęcia itp.).

Strony o niewystarczającej jakości

Obejmuje to strony, które nie odpowiadają zapytaniu i nie są w stanie zaspokoić potrzeb użytkownika.

Konieczne jest poprawienie jakości strony. Jeśli jest to strona bloga, należy stworzyć unikalną i przydatną dla czytelnika treść. Jeśli jest to strona karty produktu w sklepie internetowym, produkt powinien być dostępny (lub powinna istnieć możliwość zamówienia z magazynu), zawierać opis, krótką charakterystykę produktu itp.

Przeoptymalizowana treść

Teksty tworzone dla wyszukiwarek, a nie dla ludzi. Charakteryzują się dużą liczbą wystąpień słów kluczowych. Jeśli na Twojej stronie jest dużo przeoptymalizowanej treści, wyszukiwarki mogą nałożyć filtr na stronę i wiele stron wypadnie z indeksu.

Jak wspomniano powyżej – twórz treści przede wszystkim dla użytkowników. I nie zapominaj o czynniku przeoptymalizowania.

Manipulowanie czynnikami behawioralnymi

Wyszukiwarki nakładają sankcje za stosowanie różnych metod tak zwanego „czarnego” SEO. Jedną z takich metod jest próba sztucznego manipulowania czynnikami behawioralnymi.

Nie używaj w swojej pracy wątpliwych usług i programów do manipulowania czynnikami behawioralnymi.

Nienaturalny profil linków

Jeśli na stronie znajduje się wiele kupionych linków, a naturalnych linków jest bardzo mało, może zostać na nią nałożony filtr wyszukiwarek (Minusińsk w Yandex i Pingwin w Google).

Powiązanie

Jeśli dwie strony jednej firmy konkurują o miejsce w wynikach wyszukiwania, wyszukiwarki pokazują stronę tylko jednej witryny (zwykle wyświetlana jest najbardziej odpowiednia dla zapytania).

Jak sprawdzić, czy strona jest objęta filtrem

W Yandex

Przejdź do sekcji „Diagnostyka -> Bezpieczeństwo i naruszenia” w Yandex Webmaster.

Jeśli Twoja strona otrzymała filtr, informacja o tym pojawi się w tej sekcji.

W Google

W Google Search Console można to sprawdzić w sekcjach „Ręczne działania” i „Problemy dotyczące bezpieczeństwa„:

Problemy dotyczące bezpieczeństwa

Wnioski

Jeśli znalazłeś się w sytuacji z wieloma adresami URL wykluczonymi z indeksu, przeanalizuj:

  • Czy zamawiałeś linki, jakie i ile;
  • Czy wszystkie teksty na Twojej stronie są wysokiej jakości i unikalne;
  • Czy Twoja strona jest wygodna dla użytkownika, czy nie ma na niej zbyt dużo reklam;
  • Które strony są zabronione przez plik Robots.txt i meta tag robots;
  • Czy na stronie znajdują się zduplikowane strony;
  • i na podstawie wyników analizy usuń przyczynę.

Jeśli nie udało Ci się ustalić przyczyny wykluczenia adresu URL z indeksu lub usunąłeś wszystkie możliwe błędy, a strony nadal nie trafiły do wyszukiwarki, spróbuj skontaktować się z pomocą techniczną wyszukiwarki.