White SEO – pozycjonowanie w zgodzie z Google

W karierze każdego webdesignera nadchodzi taki moment, w którym zaczyna się on interesować tzw. SEO czyli optymalizowania stron przyjaznych dla wyszukiwarek. Zaczyna się zabawa z SWL, dodawanie stron do Precli aż w końcu tworzenie zaplecza, mniej lub bardziej profesjonalnego. Wszystko to jednak są metody, które nie dość, że wymagają dużego nakładu czasu a nawet i pieniędzy to jeszcze są oficjalnie potępiane przez najpopularniejszą wyszukiwarkę internetową – Google. W tym poście chciałbym jednak poruszyć sprawę White SEO czy też White Hat SEO, czyli pozycjonowaniu zgodnie z zaleceniami tego giganta. Będzie to zbiór zasad których powinniśmy się trzymać, jeśli chcemy aby nasza strona była SEO friendly.

1. Unikalność

Nie bez powodu umieściłem tę zasadę na pierwszym miejscu. Jest ona jedną z najważniejszych i na dodatek ma wpływ na inne, ale o tym później. „Duplicate content” to rzecz, za którą google zbytnio nie przepada.

2. Tagi meta

Niesłychanie ważna część naszej strony, opierając się głównie na nich, google wyświetla naszą stronę w SERP’ach. O jakich tagach trzeba pamiętać?

  • <title> – absolutna podstawa, wyszukiwarki korzystają z niego najczęściej, w tym miejscu znowu odniosę się do zasady nr. 1, czyli unikalności. Ważne, aby każda podstrona naszego serwisu posiadała inny tytuł, najczęściej jest to adres, bądź nazwa strony >> nazwa podstrony. Pamiętajmy aby ograniczyć się  do 60 znaków, inaczej tytuł zostanie ucięty.
  • <description> – jest niemal tak samo ważny jak tytuł, powinien zawierać od 100 do 200 znaków i opisywać zawartość naszej strony. Często jest on uwzględniany przez roboty.
  • <meta name=”robots” content=”index, follow” /> – ten tag, informuje robota, czy strona którą odwiedził ma zostać zindeksowana, w tym wypadku robot zapisze naszą stronę. Zamiast „index, follow” możemy użyć „all”, z kolei jeśli nie chcemy aby nasza strona była uwzględniana wpisujemy „noindex, nofollow” bądź „none”.

Niektórzy pewnie zauważą, że nie podałem tagu <keywords>, zrobiłem to celowo, ponieważ jest on przestarzały i aktualnie wyszukiwarki go ignorują.

3. Poprawny HTML

Wbrew pozorom nie chodzi tu tylko i wyłącznie o prawidłowe umieszczanie tagów, zamykanie ich itp. ważne jest, aby na naszej stronie istniała hierarchia. Aby wydzielić nagłówki, korzystajmy z tagów <hx> gdzie x to liczba od 1 do 6. Im mniejsza liczba tym tekst w tagu zawarty jest „ważniejszy”. Dobrym nawykiem jest równiej oparcie menu na stronie na liście. Świetny opis znajdziemy na stronie http://www.kurshtml.boo.pl/css/menu.html. Nie mniej jednak, poprawność naszej strony pod względem składni nie tylko pomoże nam w pozycjonowaniu, ale również sprawi, że strona będzie się ładnie wyświetlała na większości przeglądarek a czas jej ładowania spadnie.

4. Mapy strony

Mapy witryn, to zbiór linków do wszystkich podstron najczęściej zawarty w pliku xml. Jeśli liczba podstron jest duża, to dajemy linki tylko do głównych kategorii. Obecnie powszechny jest standard Sitemaps Xml stosowany przez Google i Yahoo! Istnieją nawet strony, pozwalające na wygenerowanie mapy zgodnie z tym standardem np. http://www.xml-sitemaps.com/. Plik sitemap.xml powinniśmy umieścić w katalogu głównym na serwerze. Przykładem może być mapa strony tego bloga.

5. Plik robots.txt

Jest to specjalny plik tekstowy, który nakazuje robotom co mają robić na naszej stronie i do jakich stron mają dostęp. Ale nie ma tak dobrze, jedyne co możemy przekazać do robota to lokalizację mapy strony oraz prawa dostępu i indeksacji podstron, przykładowy plik robots.txt:

Sitemap: http://nasza-strona.pl/sitemap.xml
User-agent: *
Disallow:

Taka struktura sprawi, że wszystkie roboty będą miały dostęp do całej naszej strony. Więcej o standardzie robots.txt można poczytać tutaj.

6. Wewnętrzne linkowanie

Świetny sposób na to, aby robot spędził więcej czasu indeksując naszą stronę, a co za tym idzie, podnosząc ją w wynikach. Najczęstszym przykładem takiego linkowania jest po prostu menu. Jeśli posiadamy jakieś wartościowe informacje bądź artykuły, dobrze jest umieścić link do nich na wielu podstronach. Świetnym sposobem jest również system tagów, który łączy ze sobą informacje o podobnej tematyce.

7. „Przyjazne url’e”

Nie od dziś wiadomo, że Google chętniej indeksuje strony statyczne, niż te, generowane dynamicznie. Jak robot je rozróżnia? Po adresie, oczywiście. Jeśli adres strony to np. http://www.moja-strona.pl/index.php?kategoria=ziemniaki&danie=zupa&inne=inne to nie dość, że jest on mało czytelny dla zwykłego użytkownika to automatycznie odstrasza nam robota. Tu z pomocą przychodzą tzw. „przyjazne url’e”. Na czym to polega? Wykorzystując plik .htaccess możemy „przepisać” nasze adresy, dzięki czemu zamiast w/w linka będziemy mogli otrzymać http://www.moja-strona.pl/ziemniaki/zupa/inne, ładniejsze prawda? Jak działa to „przepisywanie”? Otóż my, wpisując w pasku adresowym http://www.strona.pl/ziemniaki, przekazujemy plikowi .htaccess dany adres, następnie jest on interpretowany jako http://www.strona.pl/index.php?kategoria=ziemniaki i wysyłany do skryptu. Temat jak rzeka, więcej informacji znaleźć można w Google pod frazami „przyjazne url’e” czy „mod_rewrite”.

Zbliżamy się do końca mojego wpisu, dodam jeszcze, że nieocenionymi pod względem sugestii dot. naszej strony pod względem optymalizacji są Narzędzia dla Webmasterów, pozwalają one m. in. na utworzenie mapy strony, pliku robots.txt analizę meta i wiele wiele innych.

Mam nadzieję, że komuś udało się doczytać ten wpis do końca i że komuś przyda się on w dalszej pracy nad „własnym kontem w sieci”.

Pozdrawiam, Blame

  1. No trackbacks yet.

Dodaj komentarz