Ile trwa indeksowanie w Google?

W General Informatics często słyszymy pytanie klientów o  to, ile trwa pozycjonowanie. Kwestią prymarną jest tymczasem indeksowanie w Google nowych witryn i treści. Ile trwa? Czy mamy na nie jakiś wpływ?

Co to jest indeksowanie?

Odpowiedź na pytanie czym jest indeksowanie w Google mogłoby zawrzeć się w kilku słowach. Jest to po prostu proces dodania strony do indeksu wyszukiwarki. To niezbędne, by strona WWW pojawiła się w wynikach wyszukiwania. Niby banalne, jednak problem indeksowania spędza sen z powiek wielu web developerom. Szczególnie tym, od których oczekuje się szybkich efektów. Biorąc pod uwagę fakt, że każda zmiana ma określony cel, właścicielom strony zależy na tym, żeby przebudowa była widoczna w możliwie krótkim okresie.

Indeksowanie nie dotyczy tylko nowych witryn, ale także tych aktualizowanych. Chodzi o wszystkie modyfikacje, niezależnie czy mowa o nowym produkcie w sklepie, czy poprawce biogramu. Odbywa się ono automatycznie z pomocą robotów Google (tzw. Googlebotów, crawlerów, botów) przemierzających Internet i pobierających strony do indeksu. Swoją pracę wykonują w oparciu o algorytmy, czyli wytyczne dla botów. Niestety, algorytmy są wciąż modyfikowane, a przy tym ich kształt jest trzymany w tajemnicy. Wędrujące po sieci Googleboty mają wielką władzę, gdyż to one decydują, które strony znajdą się w katalogu i jak szybko oraz które zostaną pominięte. Pominięcie strony skutkuje jej niewidocznością w wynikach wyszukiwania nawet wtedy, gdy staraliśmy się o jej pozycjonowanie. Choćby z tego powodu warto znać sposoby na zadbanie o dokładną indeksację oraz czynniki, które dyskwalifikują stronę w oczach przeglądarki.

Ile trwa indeksowanie strony w Google?

Na pytanie o to, ile trwa indeksowanie w Google nie ma jednoznacznej odpowiedzi. Rozpiętość czasowa jest naprawdę szeroka: od kilku godzin po kilka miesięcy. Można wdrażać działania, które przyspieszają czas indeksowania, jednak niestety nie ma gwarancji, że będą one skuteczne. Warto zobaczyć samemu, jak szybko potrafią pracować boty. Wystarczy wpisać w wyszukiwarkę termin lub nazwisko związane z najbardziej „gorącym” newsem dnia. Google zwróci najważniejsze oraz najbardziej trafne wyniki z portali informacyjnych. Niektóre nawet sprzed pół godziny. Taki „czas reakcji” dotyczy jednak przede wszystkim dużych portalów newsowych, gdzie kontent zmienia się wiele razy dziennie. Roboty po prostu uczą się, że na taki portal warto zaglądać częściej, niż na inne witryny.

  1. Właściciele mniejszych stron nie powinni liczyć na tak krótki czas reakcji. W związku z tym, mogą zachować się w różny sposób. Pierwszym, najłatwiejszym, ale także najwolniejszym sposobem jest spokojne czekanie, aż bot odwiedzi ich strony internetowe i algorytm zadecyduje o ich widoczności. Ta strategia często kończy się jednak wielodniowym, tygodniowym, a nawet kilkumiesięcznym opóźnieniem. Nie trzeba się jednak obawiać – do poprawnie skonstruowanej strony roboty trafią tak czy inaczej, a także na nią powrócą, by dokonać indeksowania kolejnych zmian.
  2. Można także dokonać prób zainteresowania crawlerów, co może przyspieszyć cały proces. Podstawą jest jednak, tak jak w przypadku portalów newsowych, poprawne wykonanie strony i regularne jej aktualizowanie. Daje to sygnał algorytmom, że warto wracać pod dany adres.

Co można zrobić, by przyspieszyć indeksowanie?

Istnieje kilka sposobów na intencjonalne zaproszenie botów na swoją stronę i szybszą indeksację nowych podstron witryny. Wśród nich znajdują się:

  • Zgłoszenie strony do Google Search Console, czyli bardzo przydatnego narzędzia dla administratorów stron.
  • Ponowienie prośby o zaindeksowanie podstron.
  • Linkowanie zewnętrzne. Ilość linków prowadzących na daną witrynę ma przełożenie na szybkość indeksowania, gdyż daje szansę na szybsze trafienie na stronę robotów. Dobrze jest jednak, by linki były dobrej jakości. Ma to wtedy wpływ także na pozycjonowanie strony internetowej.
  • Sporządzenie dokładnej mapy strony. Mapa zwiększa szanse na szybsze zaindeksowanie wszystkich podstron. Z tym punktem łączy się także stworzenie strony z prawidłową strukturą linków i zgłoszenie mapy w formacie XML w Google Search Console,
  • Dodanie strony za pomocą Submit URL to prosty sposób na zasygnalizowanie wyszukiwarce nowych adresów URL.

Blokowanie strony przed wyszukiwarka

Istnieje sytuacja, w której uniemożliwiamy robotom dostęp do swojej witryny. Chodzi o plik z komendami, które po prostu nie pozwolą crawlerom na zaindeksowanie  witryny.

By sprawdzić, czy tak nie jest akurat w przypadku interesującej nas strony, warto przyjrzeć się plikowi robots.txt. Jeśli znajdują się tam komenda:

User-agent: *

Disallow: /

Oznacza to, że cała witryna jest zablokowana przed indeksowaniem. Jeśli natomiast po komendzie disallow znajduje się nazwa katalogu, roboty nie zaindeksują zawartości konkretnych katalogów. Ponadto, warto przyjrzeć się plikowi .htaccess. Używa się go do blokowania konkretnych adresów IP, np. IP robotów Googla.

Innym problemem, choć niedoświadczonym administratorom wydaje się to dość abstrakcyjne, może być sytuacja, w której strona jest zbyt często odwiedzana przez roboty. Oczywiście przyspiesza to samo indeksowanie, ale w niektórych przypadkach może znacznie spowolnić działanie serwera. Ograniczenie częstotliwości indeksowania można przeprowadzić z pomocą Google Search Controle w sekcji Szybkość indeksowania.

Kiedy przesłać stronę do ponownej indeksacji?

Stworzenie poprawek i zmian na stronie łączy się ze zmianą struktury linków lub nowymi treściami do indeksowania. Zmiany te można zgłosić wyszukiwarce, co powinno przyspieszyć proces indeksowania. Są na to dwa sposoby:

  • Użycie narzędzia do sprawdzania adresów URL (w przypadku niewielkiej ilości stron do zaindeksowania),
  • Przesłanie nowej mapy witryny (gdy zmian jest wiele).

Niemniej, warto wiedzieć, że roboty powrócą na stronę tak niezależnie od naszej prośby. Pamiętajmy też, że wysyłanie kolejnych map nie przyspieszy procesu.

Indeksowanie a pozycjonowanie

Niestety w wielu przypadkach indeksowanie przebiega powoli. Główną przyczyną tego stanu rzeczy jest po prostu rozległość Internetu. Roboty codziennie indeksują miliardy stron, podstron, nowych i starych domen. Możemy się tylko domyślać, wg jakiego klucza. Wiemy natomiast, że różne strony odwiedzane są przez roboty w różnych odstępach czasu, a algorytmy są zmienne.

Indeksowanie, jak już wspominaliśmy, nie jest równoznaczne z pozycjonowaniem. Można je jednak uznać za wstęp do zadań pozycjonujących, choćby z tego powodu, że tylko widoczne witryny zajmują swoje miejsce w rankingu. Z tego powodu warto zadbać o odpowiednie przygotowanie strony i jej optymalizację, nawet przed pojawieniem się jej w wyszukiwarce. Ułatwi osiąganie dalszych sukcesów witryny w rankingach Google.

Artykuł okazał się pomocny? Share on Facebook0Share on Google+0Tweet about this on TwitterShare on LinkedIn0Pin on Pinterest0

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *