preloader
Przejdź do głównej treści

Pozycjonowanie, optymalizacja, marketing internetowy – krok po kroku

szczytowe pozycje w google

 

Komunikacja między Klientami a agencjami branży marketingu internetowego często jest pełna niedomówień i niejasności. Zdarza się, iż podczas spotkania organizacyjnego albo rozmów konsultacyjnych musi minąć trochę czasu, zanim przymierzające się do współpracy strony dojdą do wniosku, że mówią o zupełnie różnych rzeczach! Oczywiście, nie jest to niczyją winą, a wynika z faktu że dla specjalisty w danej dziedzinie niektóre kwestie są zbyt oczywiste, by o nich powiedzieć. Z kolei Klient nie zawsze wie o co zapytać, a nawet jeśli potrafi określić, co budzi jego zainteresowanie albo wątpliwości to niekoniecznie będzie znać odpowiednią terminologię… Marketing internetowy, a w szczególności pozycjonowanie stron to dziedzina specyficzna i podlegająca nieustannej ewolucji, dlatego niektóre kwestie trzeba regularnie i konsekwentnie przywoływać, dopasowując obraz sytuacji do potrzeb i wymagań Klienta, inaczej określenie „indywidualne podejście do każdego zlecenia” straciłoby sens. Poniżej opisujemy więc kwestie związane z pozycjonowaniem i optymalizacją stron internetowych, nie tyle jako proces, ile zbiór parametrów, które należy wziąć pod uwagę planując wdrożenie dowolnej strategii SEO.

Po pierwsze – co to jest SEO

SEO – (z ang. Search Engine Optimization) to optymalizacja rozumiana jako poprawa organizacji strony www, pod kątem reguł działania wyszukiwarek internetowych, wdrażana dla zwiększenia widoczności w organicznych wynikach wyszukiwania, uruchamianego określonymi słowami i frazami kluczowymi. Konsekwencją dobrej realizacji SEO jest zwiększenie ruchu na stroni i zwiększenie konwersji, czyli oczekiwanych przez właściciela strony działań użytkowników.

Czy pozycjonowanie to to samo co SEO?

Polscy specjaliści w dziedzinie ruchu sieciowego reprezentują dwa stanowiska. Według pierwszego pojęcia „SEO” i „pozycjonowanie” są równoważne i można je stosować zamiennie. Drugi pogląd głosi zaś, że SEO to „tylko” optymalizacja stron internetowych, czyli zaledwie jeden z elementów pozycjonowania stosowany równolegle do analityki, czy linkbuildingu. A jak to wygląda na świecie? No cóż, z perspektywy reszty internetu termin SEO oznacza WSZYSTKIE działania ukierunkowane na zwiększenie widoczności w organicznych wynikach wyszukiwania. Przyjmijmy więc na potrzeby poniższych rozważań, że terminy „pozycjonowanie stron internetowych” i „SEO” są tożsame w znaczeniu marketingu internetowego umożliwiającego (gwarantującego?) uzyskanie nie tylko wysokich ale i stabilnych pozycji w SERP. A jeśli chcielibyśmy wziąć pod uwagę różnice pojęciowe w dziedzinie podnoszenia efektywności stron internetowych, to będą one dotyczyć terminów SEO i SEM. Drugie ze wspomnianych pojęć będzie szersze, ponieważ skrót Search Engine Marketing oznacza marketing w wyszukiwarkach internetowych i obejmuje działania zmierzające do pozyskania ruchu z wyników wyszukiwania zarówno darmowych jak i płatnych (reklama Google Ads).

Strona internetowa Pizza Team

Strona internetowa Pizza Team

 

Źródło zamieszania, czyli wyszukiwarka

Wyszukiwarki internetowe pracują przez całą dobę. Czym się zajmują konkretnie? Otóż zbierają informacje ze stron www na całym świeci i je porządkują. Takie porządkowanie jest trój-etapowym procesem, polegającym na przeszukiwaniu witryn internetowych, indeksowaniu ich, a potem ustalaniu za pomocą algorytmów wyszukiwania (wyjaśnienia pojęć w encyklopedii pozycjonowania) klasyfikacji określonych fraz i słów kluczowych, czyli rankingu.

Bot, crawler, algorytm

Wyszukiwarki przeszukują sieć w pod kątem potrzebnych informacji przy pomocy zautomatyzowanych skryptów, tzw. crawlerów. Crawler, nazywany też robotem indeksującym, systematycznie odwiedza każdą stronę www na liście, po czym przechodzi do linków zewnętrznych i wewnętrznych. Szczególną uwagę zwraca na nowe witryny i na zmiany w treściach – jest mu to potrzebne jako element stale rozszerzającej się mapy powiązanych ze sobą stron i skutecznego indeksowania stron internetowych  w Google.

Co to znaczy, że strona się indeksuje

Co się dzieje, kiedy bot indeksujący znajdzie nową stronę? Pobiera ją i/lub renderuje. Termin renderowanie oznacza, że crawler buduje ze znalezionego kodu obraz strony zorganizowany w kategorie (obrazy, treści, słowa kluczowe itp.) i na jego podstawie „ocenia” jej zawartość. Jego „rozumienie” strony zostaje zachowane jako informacja w indeksie. Oznacza to, że strona, której nie da się renderować nie zostanie zindeksowana, a więc formalnie… nie istnieje. W ten sposób renderowanie strony internetowej staje się fundamentalną technologią w SEO.

Istotność treści w perspektywie zapytania, czyli ranking

Kolejny etap procesu to przeszukanie indeksu przez wyszukiwarki i zwrot najtrafniejszych wyników wyszukiwania dla wszystkich zapytań. Do ustalenia pozycji w wynikach wyszukiwania Google wykorzystuje szeroki wachlarz algorytmów. Znajomość reguł, według których działają wyszukiwarki, pozwala określić co wpływa na skuteczność SEO i realizować strategie pozycjonowania w sposób efektywny i pewny.

Główne grupy działań SEO

Optymalizacja witryny www, czyli SEO to zbiór działań off-site i on-site, dzięki którym strona jest lepiej widoczna w wynikach wyszukiwania wyszukiwarki Google oraz użyteczna dla odbiorców (tj. konwersja jest nie tylko celem właściciela witryny, ale i wskaźnikiem poprawnej relacji witryny i użytkownika). Co oznaczają użyte właśnie określenia on-page i off-page? On page to coś, co da się w pełni kontrolować, gdy tymczasem w przypadku off-page kontrola nie zawsze jest możliwa. O co chodzi dokładnie?

jkstudio

Tworzenie stron dla profesjonalnych zakładów fryzjerskich

Po pierwsze – on-site SEO

„On-site SEO” (termin stosowany zamiennie z „on-page SEO”) to po prostu wszystkie działania związane z dostosowywaniem strony do „punktu widzenia” wyszukiwarek internetowych. Procesy on-page obejmują poprawę struktury strony, optymalizację treści, a także kwestie techniczne, takie jak optymalizacja kodu źródłowego strony (HTML, ale nie tylko w tym języku). On-page SEO jest kluczowym elementem strategii pozycjonowania, pomaga bowiem botom indeksującym zrozumieć zawartość i strukturę strony, a co za tym idzie indeksować ją w taki sposób, by wyświetlała się w wynikach wyrzucanych przez wyszukiwarkę w reakcji na zapytania użytkowników, czyli na słowa kluczowe i frazy powiązane. Ponieważ czynniki rankingowe on-site to ważna kwestia, warto poświęcić im nieco więcej uwagi, a więc po kolei:

Optymalizacja treści pozycjonowanego serwisu

Układ treści na stronie internetowej (czyli jeden ze wskaźników jakości zamieszczonych tekstów) jest dla ruchu sieciowego czynnikiem rankingowym i ma bezpośredni wpływ na pozycjonowanie. Mało tego, content marketing w ujęciu profesjonalnym, polegając na tworzeniu wartościowych treści będzie pozytywnie wpływać na zachowanie użytkownika na stronie, a także zmniejszać poziom wskaźnika odrzuceń i warunkować rozmiar czasu spędzanego na stronie przez pojedynczego użytkownika. Mówiąc inaczej, czas wizyty użytkownika na stronie należy do czynników branych przez Google „pod uwagę” w procesie uznawania treści umieszczonych na stronie za wartościowe. Co z tego wynika? Teksty zebrane na stronie powinny dostarczać wyczerpujących informacji na temat działalności opisywanej przez stronę, w tym również odpowiadać na pytania, jakie użytkownicy mieliby ochotę zadać zapoznając się z treściami i ofertą. Do tego treści powinny być przedstawione w łatwej w odbiorze i przejrzystej formie. Jeśli zawartość winduje witrynę w rankingu na popularne frazy kluczowe, to oznacza że wyszukiwarki uznały content za dobry.

 

Optymalizacja treści – szczegóły

Jak będzie wyglądać optymalizacja treści oprócz tego, że należy zadbać o to by zawierały interesujące informacje?

  1. Po pierwsze: unikalność – zawartość strony nie może być kopią, ani powtórką tego, co wyszukiwarka indeksowała z innych źródeł, takich jak strona producenta, czy witryna konkurencji. Unikalność tekstów można sprawdzić takimi narzędziami jak Plagiarism Checker lub Copyscape.
  2. Po drugie: architektura treści – czyli zastosowanie znaczników HTML w formie nagłówków H1, H2, H3. Nagłówki (nazywane często „śródtytułami”) są zabiegiem powodującym, że teksty na stronie nie są bijąca po oczach tzw. „blachą” a zamiast tego mają estetyczny wygląd i pomocną w odnajdowaniu najistotniejszych informacji strukturę, uwarunkowaną obecnością słów i fraz kluczowych.
  3. Po trzecie: zagęszczenie fraz kluczowych – czyli liczebność słów kluczowych w tak zwanych dopasowaniach – ścisłym i przybliżonym (exact match i partial match). Ilość wystąpień słowa/frazy to jeden z ważniejszych czynników rankingowych, z poważnym wpływem na pozycję, jaką strona zajmie w wynikach wyszukiwania.
  4. Po czwarte: common words – dla wygody można przetłumaczyć ten termin jako „słowa powiązane” co oznacza, że znaczenie rankingowe ma nie tylko ilość fraz kluczowych w treściach, lecz także słowa mocno związane z daną tematyką, lub branżą. Komponując content dla witryny swojej firmy, projektu, sklepu, czy stowarzyszenia warto pamiętać, że algorytmy wyszukiwarek są tak rozwijane, by jak najlepiej ocenić jakość treści, a nie ich rozmiar i naszpikowanie słowami kluczowymi. Lista słów pokrewnych dla danej frazy jest dostępna w audycie w narzędziu Surfer.

 

Serwis internetowy – planowanie strukturalne

O konstrukcji (kompozycji) serwisu internetowego trzeba pomyśleć jeszcze przed jego uruchomieniem (i indeksacjami). Dzisiejsi web-designerzy muszą częściej myśleć jak wizjonerzy, a nie jak technicy, ponieważ po uruchomieniu strony edycja struktury może być już bardzo trudna. O co dokładnie chodzi? Struktura serwisu powinna być łatwa do zrozumienia i prosta w nawigacji, a przy tym niezbyt głęboka, tzn. lepiej dodać kolejną zakładkę, niż kolejną podstronę podstrony podstrony. Prostota architektury ma dwa główne powody:

  • Ułatwia użytkownikom odnajdywanie interesujących ich informacji bez błądzenia po kolejnych sekcjach serwisu
  • Pomaga w indeksowaniu

SEO a kod

Chociaż w oczach użytkownika witryna www niewiele się różni od strony jakiegoś czasopisma, to dla wyszukiwarki jest bytem czysto informatycznym, a więc widzianym jako ciąg matematyczny uregulowany do postaci kodu. Językiem używanym do tworzenia struktury strony jest HTML, ale sposób w jaki zostanie zastosowany również ma wpływ na wartość strony widzianą z perspektywy wyszukiwarek, co oznacza że witryna www powinna być przyjazna pod kątem SEO również w warstwie kodu. Co trzeba o tym wiedzieć?

transfam

Projektowanie stron dla firm budowlanych

Na przykład „meta title”

Wśród ważnych czynników rankingowych na uwagę w pierwszej kolejności zasługuje „title tag”, czyli zagnieżdżony w sekcji head element HTML, określający tytuł danej podstrony. Tym co się liczy jest unikalność title dla każdej strony w obrębie serwisu. Ponieważ wyświetla się on wynikach wyszukiwania warto zadbać, by zarówno zachęcał użytkowników do kliknięcia, jak i zawierał słowa kluczowe. Title tag wyświetla się dodatkowo na pasku wyszukiwarki internetowej oraz podczas udostępniania linku do serwisu. Przykładem meta title może być „profesjonalne pozycjonowanie stron internetowych opinie i cennik”. Co wpływa na skuteczność takiego czynnika SEO jak title?

  • obecność frazy kluczowej, słowa, bądź słów – użycie w tytule frazy pozycjonowanej jest dla użytkowników i wyszukiwarek wskazówką odnośnie treści strony i jej przeznaczenia, czy czym zaleca się, by dane słowo kluczowe umieszczać na początku np. „pozycjonowanie pozom ekspercki”
  • długość title – limit wyświetlenia title tagów w standardzie wyszukiwarki Google to 600 px, czyli około 60-70 znaków
  • brand – jeśli na końcu tagu tytułowego znajdzie się wzmianka o marce, to w przypadku znanych brandów zapewnia ona większą klikalność, zaś w przypadku mniej znanych stanowi element strategii budowy świadomości marki. Zdarza się, że nazwa firmy, albo marek producenckich, którymi obraca pozycjonowany sklep lepiej działają na początku title tag w sąsiedztwie słów kluczowych np. „hydroizolacja sprzedaż Weber” albo „panele montaż Mietex”.

Jak również „meta description”

Również meta description („meta-opis”) jest elementem HTML zagnieżdżonym w sekcji head – jego zadaniem jest opis zawartości strony, na której się znajduje. Co prawda meta description nie należy do czynników rankingowych w pozycjonowaniu, ale jego treść pojawia się w wynikach, a więc ma wpływ na klikalność. Na skuteczność meta description wpływają następujące kwestie:

  • zwięzłość przedstawionej oferty i wskazanie korzyści jakie da użytkownikowi jej wybór
  • limit długości – 150 znaków
  • CTA czyli Call To Action, a mówiąc jaśniej, zachęta do kliknięcia w link, najczęściej umieszczona na końcu tagu, np. „Skorzystaj z okazji!”, „Nie czekaj, zamów!”

A co z adresem?

Przyjazność danej strony internetowej to także jej adres. Wynika to z faktu, że aktualnie adres url wyświetla się w wynikach wyszukiwania nad meta title, czyli jest od razu widoczny dla użytkownika. W związku z tym warto zadbać, żeby adres był możliwie krótki i zawierał słowo kluczowe na które strona jest pozycjonowana. Jest to rozwiązanie nie tylko bardziej estetyczne niż ciąg liczb i znaków, ale też łatwiejsze do zapamiętania przez użytkownika, np. www.najlepszeSEO.com

Po co optymalizować grafikę?

Szybkość ładowania strony jest czynnikiem rankingowym (za moment wrócimy do tego tematu), a wpływ na nią ma obecność na stronie wszelkiego typu grafik. Uatrakcyjniając witrynę www zabiegami wizualnymi należy pamiętać o takich kwestiach jak:

  • Kompresja
  • Format obrazków – jeśli nie ma konieczności zastosowana wysokiej rozdzielczości, najlepiej użyć formatu jpg lub svg, natomiast dla miniatur, czy obrazów w tle – png.
  • Zadbanie o to, by odwiedzający stronę wiedzieli, że trwa ładowanie grafiki, można też zastosować lady load czyli ładowania do momentu aż użytkownik znajdzie się w miejscu strony, w którym dana grafika występuje.
  • Przyjazna nazwa grafiki
  • Testy alternatywne – roboty indeksujące są w stanie dzięki zastosowaniu sztucznej inteligencji określić co przedstawia zdjęcie, ale indeksują również alty, co daje dodatkową korzyść jaką jest lepszy kontekst obrazu dla wyszukiwarek. Alt, czyli opis alternatywny przeznaczony jest również dla osób niewidomych, które korzystają ze specjalnych czytników; w tym kontekście należy zadbać, by alty były naturalne dla ludzi, a więc unikać upychania tu słów kluczowych na siłę.

Co to jest rich snippets

Pod tą szeleszczącą nazwą rozumiemy elementy danych strukturalnych, pozwalające na wyróżnienie wyglądu strony w wynikach organicznych. Mówiąc inaczej, wynik wyszukiwania może być okraszony dodatkowymi, istotnymi dla użytkownika informacjami takimi jak średnia ocen, ilość opinii pozytywnych, schemat graficzny, zdjęcie, film, data i miejsce wydarzenia, data publikacji itd. W przypadku zastosowania schematu gwiazdkowego podaje się czas w jakim oddano głosy i ilość głosów. Do tego wszystkiego dochodzą frazy, a więc jeśli wynik wyszukiwania dotyczy np. oferty czyszczenia lodem, wynik wyszukiwania wyrzuci: czyszczenie zabytków, czyszczenie lakierni, czyszczenie silników, czyszczenie klejów i żywic itp.

Ponieważ we wskazywaniu użytkownikom zawartości strony wyświetlonej w wynikach wyszukiwania liczy się dokładność, z myślą o niej i – pośrednio – o współczynniku klikalności wdraża się rozszerzenia rich snippets, nie ma jednak gwarancji, że zawsze będą się wyświetlać w przeglądarce.

O co chodzi z tym linkowaniem wewnętrznym?

Dobrze zorganizowane linki wewnętrzne – prowadzące użytkownika między sekcjami serwisu po interesujących go treściach – ułatwiają algorytmom indeksowanie, a to jest istotne dla pozycjonowania. Odpowiednio przemyślana struktura linków wewnętrznych pozwala robotom odwiedzić wszystkie podstrony w obrębie witryny oraz wydłuża czas przebywania na stronie potencjalnych klientów. Mówiąc inaczej, likowanie wewnętrzne to wspólna nazwa szeregu czynników do których zaliczamy:

  • odpowiednio ułożone menu serwisu
  • mapę strony (w przypadku rozbudowanych witryn, lepiej będzie podzielić ją na kilka części) – znaczniki schema dla robotów, pomagające algorytmom wyszukiwarek zinterpretować charakter udostępnianych informacji, czyli korzystnie je zaindeksować
  • sekcję „produkty podobne”
  • blogosferę
  • sekcję „inni Klienci kupili również”
  • linki zagnieżdżone w treściach, komunikujące użytkownika z blogiem, kategoriami usług, produktami i stroną główną

Wersja desktop a wersja mobilna

Jeśli witryna www ładuje się szybko na komputerze, ale na smartfonach zużywa czas, wówczas Google potraktuje ją jako wolną. Użyteczność stron na urządzeniach mobilnych jest w regulacjach ruchu sieciowego priorytetem, dlatego warto sprawdzić w Search Console czy witryna na urządzeniach mobilnych nie ma problemów z ładowaniem, albo czytelnością (dopasowaniem do ekranu). Sprawdzić czy z poziomu smartfona, albo tabletu wczytają się wszystkie zasoby serwisu można korzystając z narzędzia „Google Test Optymalizacji Mobilnej”, z kolei Page Speed Insight pozwala sprawdzić szybkość strony w wersjach desktop i mobile. Dlaczego to takie ważne? W związku z pandemią Google przesunął ostateczny termin wdrożenia algorytmu Mobile First Index z września 2020 na marzec 2021, co miało dać więcej czasu właścicielom witryn na ich przygotowanie. Od tej pory strony w wersji mobilnej są indeksowane jako pierwsze.

Szybkość ładowania

Jak wspomniano przy okazji optymalizacji grafik, szybkość strony jest czynnikiem rankingowym, co zostało oficjalnie ogłoszone przez Google już w 2010 roku. Mało tego, według badań statystycznych duży odsetek internautów rezygnuje z pobytu na danej stronie, jeśli szybkość jej ładowania przekracza 3 sekundy. Do sprawdzenia szybkości strony można wykorzystać narzędzie PageSpeed Insights, które przy okazji dostarcza spersonalizowanych wskazówek odnośnie sposobów na przyspieszenie witryny. Dobrym rozwiązaniem okazuje się też często zmiana hostingu na szybszy oraz konsekwencja w stosowaniu takich metod zabezpieczających szybkość ładowania jak kompresja obrazów, usunięcie niewykorzystywanych skryptów, lub eliminacja zbędnego kodu.

Przejdźmy teraz do off-page SEO

Zasygnalizowane powyżej zagadnienia dotyczyły działań on-site, czyli zbioru zabiegów pozwalających na optymalizację stron przez zadbanie o ich jakość. Druga grupa działań podejmowanych przez specjalistów od pozycjonowania to off-site SEO, czyli wykorzystanie wpływu czynników zewnętrznych na pozycję strony w wynikach. Do off-site SEO zalicza się:

  • link building, czyli pozyskiwanie linków wiodących ze stron w sieci bezpośrednio do pozycjonowanej strony
  • wpływ na zachowania użytkowników na stronie (sugestia komunikatami CTA)
  • sygnały społecznościowe – działania związane z promocję witryny w social media,
  • zaufanie do domeny – planowe budowanie wizerunku marki oraz dbałość o opinie użytkowników

[W tym miejscu schemat: off page seo

 

zaufanie do domeny – linki zwrotne – sygnały społecznościowe]

Pośrednia kontrola sytuacji

Dochodzimy do momentu, w którym łatwiej wyjaśnić słowa z akapitu „Główne grupy działań SEO” mówiące, że on-site to działania, które można kontrolować, gdy tymczasem w przypadku off-site – niekoniecznie. Na niektóre czynniki odpowiadające za pozycję strony w wynikach wyszukiwania można wpływać np. pozyskując większą ilość wartościowych linków zwrotnych. Ale w kwestii zachowania użytkownika na stronie – reakcje na komunikaty CTA, czas przebywania na stronie, udostępnianie linków do strony – kontrola sytuacji przestaje być realna. Niemniej jednak najważniejsze czynniki rankingowe wciąż ewoluują – podobnie jak algorytmy Google – a ponieważ badania czynników rankingowych przeprowadzone w 2020 przez Backlinko udowadniają korelacje między rankingiem strony w Google a liczbą linków zwrotnych, w opinii większości ekspertów SEO nacisk w działaniach off-site najlepiej kłaść na link building. Nie oznacza to jednak, że nawiązując współpracę z agencją SEO zleca się linkbuilding i uznaje sprawę za zakończoną. Stopień skomplikowania algorytmów wyszukiwarek warunkuje bowiem sytuację branży SEO w taki sposób, że poszczególne czynniki wpływające na pozycję strony w wynikach wyszukiwania największą skuteczność mają w użyciu synergicznym. Co to znaczy? Że poszczególne zabiegi dają lepszy efekt wykorzystywane jednocześnie. Po prostu sama optymalizacja treści pod kątem SEO nie zrekompensuje braku tagów tytułowych. Szybkość indeksowania nic nie da, jeśli strona będzie się za wolno ładować. Podobnych przykładów można przytoczyć bardzo dużo, wszystkie jednak przemawiają za tym, by do pozycjonowania podchodzić w sposób kompleksowy.

Do czego służy analityka internetowa

Proces zbierania i analizy danych na temat źródeł ruchu, odwiedzanych podstron i zachowań użytkowników na stronie internetowej określa się mianem analityki internetowej. Dlaczego się ją stosuje? Otóż analiza danych opisujących ruch sieciowy pozwala poznać potencjalnych Klientów (osoby zainteresowane zawartością strony) i na tej podstawie zaplanować działania poprawiające zarówno widoczność strony jak i konwersję. To z tego powodu specjaliści SEO podejmując współpracę sprawdzają, czy dokonano weryfikacji Google Search Console i Analytics oraz podnoszą kwestię raportu Data Studio dla swojego Klienta.

Dobór narzędzi SEO

Profesjonalista SEO nie pracuje przysłowiowymi „gołymi rękami” wykorzystując samą tylko klawiaturę i mysz komputera oraz własną przemyślność do pozycjonowania stron. Praca w zakresie diagnostyki i optymalizacji strony pod kątem wyszukiwarek nie byłaby możliwa bez narzędzi SEO, które pozwalają określić możliwości, zidentyfikować problemy i ułatwić niektóre zadania. Ale co trzeba podkreślić – nie istnieje jedno idealne narzędzie do SEO. Z szerokiego zestawu możliwych do zastosowania narzędzi, każde z nich ma określoną funkcję, która może uzupełnić inną, ale nie zastąpić. Z tego powodu, rozpoczynając realizację jakiejś strategii pozycjonowania należy korzystać z wielu różnych narzędzi. Ich dobór, a także skuteczny plan pozycjonowania zależą od poprawnej analizy i interpretacji danych dostarczonych przez analitykę internetową. Do najważniejszych narzędzi SEO zalicza się

  • Data Driven – Surfer do optymalizacji witryny,
  • DevTools do analizy elementów kodu strony
  • Screaming Frog, Audisto, OnCrawl, DeepCrawl  czyli crawlery do analizy struktury, obrazów, CSS, skryptów i innych istotnych z punktu widzenia SEO elementów
  • Usługi Google, czyli Search Console, Google Analytics, Google Trends, Google PageSpeed Insights, Google Structured Data Testing Tool, Google Mobile Friendly i inne,
  • Semrush, Semstorm, Senuto – do analizy widoczności i konkurencji -,
  • SEO Quaqe, Lighthouse, Meta SEO Inspektor, MozBar, Tag Assistant, NoFollow, Link checker, czyli wtyczki do analizy czynników w obrębie strony
  • Majestic, Surfer, Ahrefs, Clusteric do analizy profilu linków
  • Inne narzędzia, takie jak Pingdom, Redirect Checker, GTmetrix, itp.

Co to jest audyt SEO

Przed rozpoczęciem optymalizacji i pozycjonowania korzysta się z procedury przygotowania audytu SEO – dla agencji podchodzących do kwestii pozycjonowania w sposób profesjonalny jest to standard. Z jakiego powodu? Przede wszystkim pozwala dzięki analizie technicznej określić słabe i mocne strony przeznaczonego do pozycjonowania serwisu oraz wskazuje co trzeba poprawić. Druga sprawa – szczegółowa analiza witryny dostarcza informacji na temat dotychczasowych działań związanych z pozycjonowaniem, a ściślej – czy były prawidłowe, skuteczne i etyczne oraz czy dzięki nim strona jest lepiej widoczna. Co obejmuje ta analiza, czyli na czym na ogół koncentruje się audyt SEO? Otóż przede wszystkim chodzi tu o czynniki techniczne, stopień optymalizacji treści, stan UX (czyli ujęcie zawartości witryny w projektowaniu zorientowanym na użytkownika) oraz analizę profili linków konkurencji. Po co się to wszystko robi?

Wykonana przez nas strona internetowa Smart Bramy

Wykonana przez nas strona internetowa Smart Bramy

Celem audytu jest identyfikacja jak największej liczby nieprawidłowości w architekturze pozycjonowanego serwisu, które mają wpływ na skalę bezpłatnych wyników wyszukiwania. Do tego dochodzi określenie problemów rzutujących na doświadczenia użytkowników na stronach tego serwisu. Regulacja wspomnianych kwestii jest najpewniejszym sposobem na zwiększenie ruchu na stronie, a co za tym idzie – konwersji. Audyt pozwala też zaplanować skuteczną strategię pozycjonowania, już po uporaniu się ze znalezionymi usterkami. Skuteczność tych strategii to kolejna sprawa, dlatego przed nami kolejna klasyfikacja, ale tylko dwóch zbiorów:

O co chodzi z tymi kapeluszami?

Patrząc z perspektywy konkretnych działań podejmowanych przez agencje SEO, ogół stosowanych metod można podzielić na dwie grupy – „white hat” i „black hat” Pierwsza to sposoby zgodne z regułami wyszukiwarek, w tym wyszukiwarki Google działającej zgodnie z założeniem dostarczania użytkownikom rzetelnych treści jako odpowiedzi na ich pytania. Jak można się domyślić – white hat SEO gwarantuje najlepsze efekty o długoterminowym wpływie na kondycję pozycjonowanego serwisu. Natomiast black hat SEO, nazywane na ogół „technikami spamerskimi” to nieetyczne techniki oraz strategie kolidujące z założeniami wyszukiwarek. Black hat to przede wszystkim korzystanie z platform pozwalających na szybkie zdobycie większej ilości linków do strony czyli SWL (system wymiany linków). Nieetyczne jest również kopiowanie cudzych treści oraz przesadne (czyli rzutujące na jakość tekstów) zapychanie treści na stronie słowami kluczowymi, czyli keyword stuffing. Dlaczego niektóre firmy uciekają się do takich metod? Techniki spamerskie na ogół działają i na początku dają wrażenie sporej efektywności, podczas gdy strategie z grupy white hat potrzebują czasu by „zaskoczyć” i dać się ująć na ładnie wyglądającym wykresie efektywności działań. Tyle tylko, że black hat to krótkotrwałe rezultaty. Natomiast ewolucja algorytmów wyszukiwarek uczy je rozpoznawać oszustwa, co niweczy efekty, a przy okazji grozi serwisom z nich korzystającym karami takimi jak filtry (obniżenie pozycji) albo wyindeksowanie. Dla niektórych firm, zwłaszcza z branży e-commerce, podobne sankcje mogą się równać zamknięciu działalności, dlatego przy wyborze agencji SEO zalecana jest ostrożność – warto się poważnie zastanowić nad współpracą z firmą oferującą długoterminowe umowy bez możliwości wypowiedzenia, albo z taką, która gwarantuje szybki awans w wynikach wyszukiwania, ale nie jest skora do opowiadania o stosowanych metodach. W rozgraniczeniu mogą pomóc poniższe zestawienia:

 

Skuteczne i bezpieczne metody pozycjonowania:

  • Organizacja strony zaplanowana z myślą o użytkownikach a nie o wyszukiwarkach
  • Dbałość o wydajność strony
  • Uczciwe pozyskiwanie wartościowych linków
  • Analiza działań konkurencji
  • Stosowanie wskazówek Search Console
  • Systematyczna analiza statystyk indeksowania
  • Dbałość o bezpieczeństwo danych użytkowników – certyfikat SSL.

Nieetyczne i ryzykowne praktyki, stosowane przez nieuczciwe agencje:

  • Treści generowane automatycznie
  • Obecność w systemach wymiany linków,
  • Duplicate content – strony z kopiami treści (treści nie-unikalne)
  • Pokazywanie algorytmom wyszukiwarek innych treści niż użytkownikom, czyli cloaking
  • Ukrywanie treści, np. tekst w kolorze tła
  • Upychanie fraz kluczowych na siłę gdzie się da, czyli keyword stuffing,
  • Doorway pages – budowa stron dla uzyskania dobrego rankingu dla określonych wyszukiwań, przekierowujących użytkowników do strony pozycjonowanej

Pozycjonowanie jako proces długofalowy

Jak można zauważyć nie będąc nawet specjalistą od SEO, główną różnicą między strategiami „white”, a „black hat” jest podejście do czasu. Nieetyczne agencje wykorzystują naturalną tendencję do pośpiechu i nadmiernej oszczędności, właściwą wielu Klientom. Tymczasem rzetelne podejście i do Klienta, i do SEO to przede wszystkim informacja, że pozycjonowanie jest złożonym i długofalowym procesem, zależnym od wielu czynników, w tym:

  • rodzaj branży
  • strategie i skala działań konkurencji
  • historia domeny i jej wiek
  • ewolucja algorytmów
  • cykle wzrostów i spadków popularności słów i fraz kluczowych
  • aktualny stan witryny
  • jakość linków

Owszem, w małych miejscowościach i w przypadku firm z branż niszowych często bywa tak, że po jednorazowej optymalizacji treści i poprawce kwestii technicznych, strona zajmuje wysoką pozycję w wynikach wyszukiwania. Są to jednak wyjątki potwierdzające regułę ponieważ w przeważającej większości wypadków pozycjonowanie to czasochłonny proces, wymagający systematycznej pracy, dostosowania do stopnia rozwoju algorytmów Google, uczciwego pozyskiwania wartościowych linków i rzetelnej optymalizacji. Ale z perspektywy efektów, SEO okazuje się zawsze najbardziej opłacalną formą marketingu. Przy okazji należy pamiętać, że pozycjonowanie opiera się na relacji dobrej współpracy, czyli zaangażowania zarówno agencji SEO jak i Klienta oraz dialogu, od którego rozpoczęliśmy niniejszy artykuł. Mamy nadzieję, że po zakończeniu lektury współpraca będzie łatwiejsza.