Natchniony endorfinami uraczę Was dzisiaj wiadomościami ze świata SEO. Te trzy literki dla początkujących webmasterów są jak wspomnienia o wojnie – lepiej nie psuć sobie nimi humoru. Ale nie o humorze tu będzie mowa, a tym bardziej nie o początkujących webmasterach. Zamieszczę małe kompendium, stanowiące o sednie tematu.

Generalnie twórca strony (niekoniecznie autor) nie poprzestaje na upublicznieniu portalu. Ba, on wymaga od nas dobrego wypozycjonowania stron. I tutaj sprawa się komplikuje. Z jednej strony pozycjonowanie to oddzielna branża i chcielibyśmy się pozbyć tego przykrego obowiązku. Z drugiej strony, aby wypozycjonować strony, wymagane jest poczynienie określonych działań w procesie projektowania i programowania stron. Z której strony by nie spojrzeć, z tej mamy korzyści. Klasyczny przykład symbiozy. Złoty środek to jednak znajomość procesów SEO w projektowaniu i programowaniu. Zatem do dzieła.

Tutaj nie będziemy zajmować się ani parametrem PageRank, ani linkami, odwołaniami, historią strony, wiekiem domeny. Te statystyki mają kluczowe znaczenie w hermetycznym świecie SEO. Skupimy się na szczegółach tworzenia serwisu, by ocena w oczach wyszukiwarek była jak najlepsza.

Jaki musi być kod, by był dobry? Hmm, na to pytanie, mam nadzieję, będziecie w stanie odpowiedzieć po głębokiej analizie poniższych punktów, sugestii, opisów.

Jak Google widzi moją stronę?

To jest bardzo dobre pytania na początek opisu. Zachęcam do chociaż jednokrotnego odwiedzenia przeglądarki tekstowej – np. Lynx. Być może niektórzy z Was myślą, że to wygląda tak samo, jak w źródle strony dowolnej innej graficznej przeglądarki internetowej. Niekiedy macie rację, ale często się mylicie. Zasada jest taka, że robota wyszukiwarek nie interesują style i skrypty (przynajmniej bezpośrednio). Jego interesuje, generalnie rzecz ujmując, treść. Nasze zadanie polega na tym, aby ta treść była jak najbardziej konkretna.

  • jak najmniej niepotrzebnych węzłów, atrybutów, klas i stylów
  • treści najważniejsze u górze
  • skrypty inline na końcu
  • konkretny kontent okraszony odpowiednio słowami kluczowymi

Od ogółu do szczegółu

Cel i zwięzły opis zaleceń już znacie. Przyszedł czas na szczegóły.

 

Unikalne tytuły

Mowa o znaczniku title, który otwiera nam drogę na świata. To jego treść użytkownicy dostaną „na twarz”, gdy strona zostanie dopasowana do ich kryteriów. Należy zawrzeć w nim słowa kluczowe najbardziej oddające zawartość strony. Gdy kryterium znajduje się w title wyszukiwarki często uwydatniają jego styl. Warto poświęcić trochę czasu, by dobrze dobrać tytuł i pozwolić zaplusować wyszukiwarce.

 

Unikalne opisy

Dotyczą meta tagu description. Opis powinien przykuwać uwagę, wyróżniać się spośród opisów konkurencji. Opis zawierany jest w wynikach wyszukiwarek, więc także stanowi priorytet.

 

Nagłówki H1, H2, H3

Nagłówki określają temat strony. Gwoli wyjaśnienia – nie ma być to temat, treść uwydatniona przez style (wiadomo dlaczego). Chodzi o samo istnienie konkretnego węzła H1 (H2 i H3 mają niższy priorytet). Ważne, by był to jeden węzeł na całą stronę (H2 i H3 mają niższą wagę i mogą występować wielokrotnie).

 

Atrybut alt/title w plikach graficznych

Robot widzi sam tekst. Zatem warto temu „upośledzonemu” bytowi przynajmniej opisać, co zawiera obrazek, by mógł go zindeksować.

 

Odnośniki wewnętrzne

Pozwalają na poprawny przepływ. Należy poprawnie opisać link (wykorzystać słowo/słowa kluczowe opisujące treść podlinkowanej strony). Gdy link jest w formie graficznej zalecane jest przeniesienie opisu do atrybutu title.

 

Przyjazne adresy podstron

Stosowanie tzw. adresów statycznych przyspiesza indeksowanie podstron i pozwala w sposób prosty umieścić kluczowe słowa w adresie. Należy pamiętać, że im więcej ukośników, tym mniej ważna dla robota staje się treść za każdym następnym. O przyjaznych linkach dowiecie się więcej z dedykowanych artykułów. Jednak na pewno się z tym już spotkaliście. Stanowią one kanon.

Większość frameworków webowych w pakiecie daje obsługę routingu, która wykorzystując wewnętrzny matching adresu interpretuje, jaki zasób jest potrzebny. Jest to lepsza alternatywa dla zamierzchłego mod_rewrite, które jednak nadal jest potrzebne.

 

Moduły linkowania wewnętrznego

Ściśle związane z kategoryzacją treści. W myśl tej zasady należy informować użytkowników o innych podobnych stronach w ramach serwisu, które warto odwiedzić przy okazji przeglądania obecnej strony. Z jednej strony pomagamy robotom przebić się przez sieć stron i indeksować je szybciej, a z drugiej pomagamy użytkownikom poprzez rozbudowany przepływ między stronami.

 

Menu tekstowe / graficzne

Cały czas mając na myśli tryb pracy robota, należy zapewnić mu dostęp do każdego elementu menu. Unikniemy w ten sposób sytuacji, że jakaś strona staje się niewidoczna dla robota, a przez to niezindeksowana. Dobrze przemyślane menu musi i wyglądać i być funkcjonalne pod każdym względem, by wykorzystać cały potencjał serwisu.

 

Okruszki

Nic innego jak ścieżka nawigacji podobna do ścieżki katalogowej określonego pliku – w kontekście strony WWW. Użytkownicy dzięki nim mają łatwiej się odnaleźć, zresztą podobnie jak roboty.

 

Tag canonical

Tag wykorzystywany do zapobiegania indeksowaniu przez roboty stron o tej samej treści, które występują pod różnymi adresami. Tagiem canonical informujemy, gdzie znajduje się oryginalna wersja strony (którą należy indeksować).

 

Weryfikacja przekierowań

Przekierowanie stałe (301) używamy do prawidłowej indeksacji stron www/bez www (lub ze starej domeny na nową). Przekierowania stosowane są także w celu zablokowania możliwości indeksowania tych samych  podstron pod innymi adresami.

Należy sprawdzić, czy wszystkie przekierowania są odpowiednie (301), gdyż zły rodzaj przekierowania może doprowadzić do błędów indeksowania (np. 302).

 

Strona błędu 404

Należy stworzyć przyjazną stronę błędu. W treści może być zawarta mapa serwisu, wyszukiwarka, odnośnik prowadzący do strony głównej, lista kategorii, strony proponowane. Nagłówek strony musi zawierać 404, a nie jak często się zdarza 200.

 

Mapa strony

Mapa powinna zawierać linki do większości podstron/działów serwisu. W wersji HTML stanowi łakome źródło danych (adresów) zarówno dla użytkowników, jak i robotów.

W przypadku mapy XML, stanowi ona pewne źródło komunikacji z robotami. Szczegółowe dane tam zawarte (data ostatnie aktualizacji, częstotliwość zmian, priorytet) pozwalają w pewien sposób sparametryzować działanie robotów. Zachęcam do odwiedzin Google Webmaster Tools.

 

Kanały RSS

Roboty nie tyle muszą, co mogą korzystać z kanałów RSS, by sprawdzać, czy pojawiły się nowe treści w serwisie. Należy znaleźć oczywiście złoty środek, jeśli chodzi o kategoryzację kanałów.

 

Social media

Od stały się takie topowe należy się zawsze z nimi liczyć. W grę wchodzą tutaj likeboxy, sharebuttony itp. Pozwalają zdobyć nowe linki przychodzące, co jest kluczowe w popularyzacji i wzroście oceny serwisu.

 

Treść generowana przez użytkowników

Nie jesteśmy w stanie zapewnić kompletnego opisu strony. Zawsze istnieje alternatywne słownictwo (często bardziej efektywne), które może dobrze wpłynąć na ocenę. W użytkowniku siła. Jednak należy przy okazji wprowadzić zabezpieczenia XSS, przeciwspamowe i pamiętać o atrybucie nofollow dla linków publikowanych przez odwiedzających stronę/serwis.

 

Plik robots.txt

Pozwala zablokować dostęp do określonych  plików na serwerze. Z drugiej jednak strony plik ten jest publiczny, więc należy zawierać w nim treści z głową, gdyż możemy w ten sposób ułatwić zadanie hakerowi.

 

Pozostałe

Należy również spojrzeć na wydajność ładowania strony, optymalizację kodu źródłowego (o czym było na początku artykułu) i gęstość słów kluczowych (3%-5%, można skorzystać z dedykowana narzędzia). Dodatkowo meta tag robots może okazać się przydatny na stronach – określamy w nim, czy dana strona ma być indeksowana, czy nie. Jednak, jak się domyślacie, stosowanie się robotów do jego wartości leży wyłącznie w ich gestii.

 

Myślę, że najlepszym podsumowanie teraz będzie milczenie.
Zatem miłego wieczoru. Pozdrawiam!