Kurs pozycjonowania stron w wyszukiwarkach internetowych.docx

(39 KB) Pobierz

Kurs pozycjonowania stron w wyszukiwarkach internetowych

Czym jest pozycjonowanie stron

Najprościej mówiąc pozycjonowanie polega na takim dostosowaniu strony, by po wpisaniu w wyszukiwarce danej frazy, nasza witryna ukazała się na jak najwyższej pozycji w wynikach wyszukiwania. Jest to niezwykle skuteczny sposób promocji stron internetowych, przynoszący niewiarygodne korzyści i znaczny wzrost popularności pozycjonowanego serwisu. Z tego względu powstało mnóstwo firm świadczących usługi pozycjonerskie, niestety są one zbyty drogie dla przeciętnego posiadacza niekomercyjnej witryny. Dlatego postanowiliśmy opisać tutaj podstawowe zagadnienia dotyczące pozycjonowania i optymalizacji stron WWW. Dzięki zgromadzonym tu informacjom każdy właściciel witryny internetowej może podnieść jej pozycję w rankingu wyszukiwarek bez większych nakładów finansowych.

Optymalizacja kodu strony

Pozycjonowanie warto zacząć od dopracowania swojego serwisu i optymalizacji kodu pod kątem wyszukiwarek internetowych. Najlepiej wykonywać te czynności jeszcze w trakcie projektowania strony, kierując się określonymi zasadami, które zostały przedstawione poniżej.

Nagłówek (head)

Istotne informacje, na które zwracają uwagę roboty wyszukiwarek znajdują się w nagłówku strony, czyli pomiędzy <head> a </head>.

TITLE
Najważniejszym elementem nagłówka (pod względem pozycjonowania) jest znacznik TITLE, który zawiera tytuł strony wyświetlany w wynikach wyszukiwania jako link do znalezionej witryny. Powinien zatem być krótki i sugestywny. Należy pamiętać, że lepiej oceniane są przez pajączka te słowa, które znajdują się bliżej początku dokumentu HTML lub bliżej początku sekcji, a więc gdyby słowem wpisanym przez użytkownika w wyszukiwarce było "księgarnia internetowa", to strona o tytule:

<title>Księgarnia internetowa – największa i najtańsza</title>

mogłaby uzyskać wyższą pozycję, niż strona o tytule:

<title>Największa i najtańsza księgarnia internetowa</title>

META DESCRIPTION
Nieco mniejsze znaczenie niż Title ma znacznik Description. Powinien on zawierać krótki i zwięzły opis witryny zachęcający do jej odwiedzenia, ponieważ wyświetlany jest zwykle w wynikach wyszukiwania zaraz po tytule serwisu. W Description także największe znaczenie mają wyrazy znajdujące się najbliżej początku znacznika. Przykładowy opis wygląda następująco:

<META name="description" content="Opis strony"/>

META KEYWORDS
Znacznik META Keywords był niegdyś jednym z najważniejszych elementów branych pod uwagę przy tworzeniu rankingu stron. Obecnie jego znaczenie jest bardzo małe, ale mimo to warto go umieścić w kodzie swojej strony. W Keywords zawarte są tak zwane słowa kluczowe. Jest to zbiór kilku oddzielonych od siebie przecinkami, najważniejszych, najczęściej występujących w treści witryny wyrazów. Dobrze jest tutaj umieścić wyrazy zawarte w tytule strony, ale trzeba pamiętać, by słowa kluczowe się nie powtarzały. Przykładowy znacznik META Keywords wygląda następująco:

<META name="keywords" content="słowo1, słowo2, słowo3, słowo4"/>

META ROBOTS
Znacznik Robots instruuje mechanizmy wyszukiwarek, jak mają indeksować serwis. Za pomocą odpowiednich parametrów określa się, gdzie można wpuścić robota i co ma indeksować. Najczęściej znacznik Robots używany jest z parametrami index, follow, ale istnieją też inne:

1.                   index – pozwala robotom indeksować dokument HTML;

2.                   noindex – zapobiega indeksowaniu strony przez roboty;

3.                   follow – pozwala robotom indeksować wszystkie strony, do których dotrze poprzez linki w danej witrynie;

4.                   nofollow – nie pozwala robotowi indeksować stron, do których linki znajdują się w dokumencie;

5.                   all – to samo, co index, follow;

6.                   none – to samo, co noindex, nofollow.


Przykładowy znacznik META Robots wygląda następująco:

<META name="robots" content="index, follow"/>

Istnieje też wiele innych znaczników META, takich jak Language, Author, Copyright itp., jednak nie mają one większego wpływu na miejsce witryny w wynikach wyszukiwania.

Właściwa część strony (body)

Znaczniki META mają już coraz mniejsze znaczenie, a roboty wyszukiwarek przywiązują coraz większą wagę do właściwej treści serwisu, dlatego należy zwrócić szczególną uwagę na odpowiednie przygotowanie tej części witryny.

NAGŁÓWKI H1 - H6
Pojawienie się szukanego słowa w nagłówku H1 – H6 jest korzystne dla pozycji strony. Warto więc tytuły artykułów, aktualności i innych rzeczy w serwisie umieszczać pomiędzy znacznikiem <h1> a </h1>, <h2> a </h2>, <h3> a </h3> itd. w zależności od ważności danego wyrażenia, np.:

<h1>Pozycjonowanie stron WWW</h1>

Wygląd nagłówków H1 - H6 można łatwo określić przy użyciu arkusza styli CSS.

WYRÓŻNIENIE WAŻNIEJSZYCH SŁÓW
Warto ważniejsze słowa w treści strony (a szczególnie niektóre słowa kluczowe) wyróżnić np. pogrubieniem (<b>Tekst pogrubiony</b> albo <strong>Tekst pogrubiony</strong>), podkreśleniem (<u>Tekst podkreślony</u>) lub kursywą (<i>Tekst pochyły</i> albo <em>Tekst pochyły</em>). Dzięki temu wyróżnione wyrazy mają większe znaczenie dla wyszukiwarek.

OPISY I KOMENTARZE PLIKÓW GRAFICZNYCH
Niemałe znaczenie mają komentarze i opisy plików graficznych umieszczane w znacznikach IMG, np.:

<img src="obrazek.gif" alt="słowo kluczowe" title="słowo kluczowe"/>

Należy jednak zachować umiar i nie przesadzać z ilością słów kluczowych w komentarzach, gdyż efekt może być odwrotny do zamierzanego.

Linki

Przedstawione powyżej elementy jedynie wspomagają pozycjonowanie strony. Prawdziwa moc kryje się w linkach, które wiodą do danej witryny. Sztuka polega na odpowiednim doborze treści odsyłaczy, serwisów do wymiany i umieszczania linków oraz wielu innych czynników. Link popularity (czyli ilość odsyłaczy ze stron zaindeksowanych przez wyszukiwarkę, prowadzących do określonej witryny) jest jedną z kluczowych wartości przy układaniu rankingu stron, dlatego też należy poświęcić więcej uwagi opisanym tu zagadnieniom.

Katalogi stron WWW

Dodawanie linków najlepiej jest zacząć od katalogów stron, dzięki czemu można na początek za darmo zyskać nieco stałych odsyłaczy. Swoją stronę powinno się umieszczać w katalogach stosujących linki bezpośrednie, bez różnego rodzaju przekierowań. W pierwszej kolejności warto dodać stronę do najpopularniejszych katalogów, takich jak:

DMOZ - największy na świecie katalog stron, posiadający tysiące klonów, dzięki  czemu dodając do niego swoją witrynę, automatycznie zyskuje się bardzo dużą ilość linków, niestety póki zgłoszony serwis zostanie zaakceptowany przez redaktorów i faktycznie opublikowany w katalogu mija zwykle kilka miesięcy;

Katalog Onet.pl - najbardziej popularny wśród polskich internautów katalog stron jednego z największych polskich portali internetowych - Onet.pl. Obecnie zawiera około kilkuset tysięcy adresów precyzyjnie posegregowanych w szczegółowych kategoriach tematycznych;

Katalog WP.pl - jeden z największych polskich katalogów stron WWW w portalu Wirtualna Polska. Obecność witryny w tym katalogu jest jednym z kluczowych elementów, branych pod uwagę przy tworzeniu rankingu stron w wyszukiwarce WP. Niestety, umieszczenie strony w tym katalogu jest płatne;

WebwWeb.pl - bezpłatny, otwarty katalog internetowy, tworzony przez użytkowników. Zawiera nowoczesny system zarządzania dowolną ilością własnych wpisów; przed dodaniem strony należy się zarejestrować.

Oprócz stron wymienionych powyżej, istnieje niezliczona ilość mniejszych katalogów, które także mogą się przyczynić do wzrostu popularności naszej witryny. Aby ułatwić sobie zadanie, można skorzystać z tak zwanych multirejestratorów, czyli specjalnych formularzy dostępnych na stronach WWW albo programów dających możliwość zgłoszenia serwisu do dużej liczby katalogów i wyszukiwarek jednocześnie, jednak większość osób zajmujących się pozycjonowaniem odradza stosowanie tego typu rozwiązań. Jako argument można podać opinię, że wyszukiwarki "lubią" naturalny przyrost ilości linków, a opublikowanie kilkuset identycznych odsyłaczy jednego dnia trudno uznać za naturalne.

Wymiana linków

Kolejny sposób na zwiększenie popularności witryny to wymiana linków z innymi stronami. Aby wymiana była uczciwa, oba serwisy muszą mieć podobną popularność, by nikt na tym nie stracił. Największe znaczenie mają odsyłacze ze stron podobnych pod względem tematycznym oraz takich, które posiadają wysoką wartość PageRank. Zwracając uwagę na PageRank, nie powinno się zapominać, że im więcej hiperłączy do stron zewnętrznych znajduje się w danym serwisie, tym każde z nich ma mniejszą "moc", możliwe więc, że łącze ze strony o PR równym 3, ale nie zawierającej innych linków od naszego, bardziej przyczyni się do wzrostu wartości pozycjonowanej witryny, niż łącze ze strony o PR równym 5, jednak posiadającej wiele różnych odnośników do stron zewnętrznych. Dość ważny jest także tak zwany anchor tekst, czyli treść linka, np.:

<a herf=http://www.twojastrona.pl>anchor text</a>

Anchor tekstem powinny być nasze słowa kluczowe. Warto pamiętać, by treść linków była zróżnicowana, np. podczas pozycjonowania serwisu pod słowem "książki" można różnicować anchor tekst dodając inne wyrazy ("tanie książki", "ciekawe książki" itp.), natomiast pozycjonując witrynę pod kilkoma słowami kluczowymi, dobrze jest, aby w każdym kolejnym linku używać innej frazy kluczowej. Z długością anchor tekstu nie powinno się przesadzać, gdyż pełna "siła" odsyłacza rozkłada się na każde słowo, a zatem największą wartość mają linki zawierające tylko jeden wyraz. Mówiąc o wymianie odsyłaczy, należy także wspomnieć o systemach wymiany linków, takich jak np. Linkor czy Linkuj. Zasada działania jest prosta: należy zgłosić swoją witrynę w systemie, a następnie na każdej podstronie umieścić specjalnie wygenerowany kod, który odpowiada za wyświetlanie łączy do innych stron biorących udział w wymianie, a w zamian na tych witrynach pokazywany jest odsyłacz do Twojego serwisu. Takie sposoby pozycjonowania mają wiele zalet, ale też i wad. Przede wszystkim można zyskać sporo dodatkowych odsyłaczy. Niestety, dużo do życzenia pozostawia jakość tych linków, gdyż w takich systemach uczestniczą zwykle mało wartościowe strony, a do tego łącza przydzielane są dynamicznie, bez wiedzy użytkownika. Między innymi dlatego wiele osób odradza korzystanie z tego typu rozwiązań. Lepsze od rotacyjnych są statyczne systemy wymiany linków (np. LinkORN czy LinkMe), głównie przez fakt, iż hiperłącza są stałe, a nie przydzielane dynamicznie przy każdym odświeżeniu strony, natomiast użytkownik ma pełną kontrolę nad swoimi odsyłaczami. Wymieniając się linkami warto sprawdzić, czy właściciel partnerskiego serwisu nie jest oszustem. Strona, na której umieszczono nasz odsyłacz musi być zaindeksowana przez Google'a, inaczej jest on bezwartościowy. Niektórzy używają sztuczek polegających na umieszczeniu znacznika META Robots z parametrem noindex, nofollow lub none (informują one robota wyszukiwarki, by nie indeksował strony, bądź nie brał pod uwagę łączy zewnętrznych), wstawiają atrybut rel="nofollow" w kodzie odsyłacza itp. Negatywny wpływ może mieć także umieszczanie hiperłączy do stron zbanowanych (usuniętych z indeksu za naruszenie zasad) przez Google'a, tzw. farm linków bądź miejsc zawierających treści pornograficzne, faszystowskie, rasistowskie, hazardowe itp.

Zakup linków

Dysponując odpowiednim zapleczem finansowym, można sobie pozwolić na kupowanie linków w popularnych serwisach internetowych. Cena zależy przede wszystkim od wartości PageRank, ilości zindeksowanych stron przez popularne wyszukiwarki, liczby łącz wychodzących oraz średniej ilości unikalnych odwiedzin witryny sprzedającej usługę.

Inne sposoby zdobywania linków

Przy promocji serwisu należy wykazać się pomysłowością i odrobiną sprytu. Oprócz rejestrowania strony w katalogach i wyszukiwarkach, wymiany i kupowania linków istnieją inne sposoby na zdobywanie odsyłaczy mających tak duży wpływ na popularność witryny oraz jej pozycję w rankingu wyszukiwarek. Można wykorzystać np. księgi gości dostępne w różnych serwisach internetowych i pozostawić po sobie pamiątkę w postaci linka do swojej strony. Warto uwzględnić również fora dyskusyjne. Niektóre z nich zawierają bowiem dział przeznaczony do prezentacji własnych witryn (np. forum.webhelp.pl czy forum.pozycjoner.org). Godne uwagi są jeszcze grupy dyskusyjne, a szczególnie takie jak pl.comp.www.nowe-strony oraz pl.comp.nowe-strony stworzone specjalnie po to, by użytkownicy mogli przedstawiać swoje serwisy. Innym sposobem jest umieszczenie "reklam" strony w popularnych portalach ogłoszeniowych, między innymi Pajęczyna, Dwukropek itp. Stosując te opcje należy dbać o netykietę i nie przesadzać z natarczywym zachwalaniem i reklamowaniem witryny.

Mapa witryny

Mapą witryny jest zestawienie na jednej podstronie wszystkich odsyłaczy do treści zawartych w całym serwisie WWW, w sposób odzwierciedlający ich faktyczny układ i zależność między nimi. Mapa serwisu przydaje się zarówno użytkownikom, jak i robotom wyszukiwarek indeksującym witrynę. Wyszukiwarki internetowe wykorzystują do indeksowania stron mechanizm zwany pajączkiem (crawlerem). Po przeczytaniu serwisu crawler poprzez linki przechodzi na inne (niesprawdzone dotąd) strony. Dzięki zastosowaniu mapy witryny, pajączek nie ominie żadnej podstrony i szybciej zaindeksuje każdą z nich. Przed tworzeniem mapy serwisu warto obejrzeć przykładowe rozwiązania, np. mapa serwisu Google.com, mapa serwisu Gazeta.pl, mapa serwisu Kataloog.info. Podane powyżej przykłady zostały wykonane głównie z myślą o ułatwieniu użytkownikom nawigacji po serwisie, jednak zaleca się także utworzenie mapy zgodnej z protokołem Sitemap, preferowanym przez najpopularniejsze wyszukiwarki. Więcej informacji znajduje się na stronie Google Sitemaps.

Spamowanie wyszukiwarek

Spamowanie (zaśmiecanie) polega na próbie oszukania wyszukiwarki poprzez użycie nieetycznych metod pozycjonowania mających na celu podniesienie pozycji strony w wynikach wyszukiwania. Powoduje to znaczny spadek efektywności wyszukiwarek, dlatego ich właściciele, chcąc utrzymać swój produkt na rynku, starają się przeciwdziałać manipulacji wynikami wyszukiwania. Są więc zmuszeni do opracowywania technik antyspamowych, które w przypadku wykrycia nadużycia mogą spowodować znaczny spadek witryny w rankingu wyszukiwarki lub nawet jej całkowite usunięcie z indeksu (zbanowanie). Wymyślono już wiele technik spamerskich. Dawniej były one skuteczne, jednak rozwój serwisów wyszukiwawczych sprawił, że są one uznawane za spam. Nieustannie wymyśla się nowe sposoby oszukiwania wyszukiwarek. Nawet jeśli obecnie przynoszą one efekty, w przyszłości mogą zostać potraktowane jako spam. Poniżej zostały przedstawione najczęściej spotykane techniki spamerskie, których nie należy nigdy stosować.

Przeładowanie strony słowami kluczowymi

Jednym z najczęściej spotykanych rodzajów spamu w wyszukiwarkach jest zbyt duże nagromadzenie słów kluczowych na stronie. Kilkakrotne występowanie poszukiwanej frazy w treści witryny (w tym także znacznikach Title, META Keywords, META Description, opisach plików graficznych itd.) ma korzystny wpływ na pozycję strony w wynikach wyszukiwania. Jednak niektórzy nie dość, że powielają ten sam wyraz w META Keywords i Description, to jeszcze wstawiają go w znacznikach takich jak Copyright, Author, Generator, Subject. Jeszcze kilka lat temu, gdy wyszukiwarki tworzyły ranking stron głównie na podstawie słów kluczowych zawartych w Keywords takie techniki przynosiły efekty. Obecnie mechanizmy wyszukiwarek są wyczulone na tego rodzaju nadużycia, a np. dla Google META tagi nie mają większego znaczenia. Należy także uważać przy opisywaniu plików graficznych:

<img src="obrazek.gif" alt="opis obrazka" />

Zbyt częste używanie pozycjonowanej frazy w parametrze ALT znaczników IMG może zostać uznane za spam. Trudno określić, jaki poziom występowania słów kluczowych jest bezpieczny. Zwykle przyjmuje się, że wszystkie słowa kluczowe występujące na stronie nie powinny przekraczać 8-9% treści całej witryny.

Słowa kluczowe sprzeczne z treścią strony

Dla niektórych właścicieli stron liczy się tylko ilość odwiedzin generowanych przez wyszukiwarki, nie zwracając uwagi na ich jakość. Wstawiają więc w znacznikach META, warstwach stylów CSS, opisach alternatywnych słowa kluczowe nieadekwatne do zawartości serwisu. Są to zazwyczaj bardzo popularne frazy (np. SMS, mp3), których użycie powinno spowodować pojawienie się witryny na wysokiej pozycji pod tymi właśnie wyrazami i w efekcie zwiększyć ruch na stronie. W konsekwencji jednak witryna zazwyczaj spada rankingach i traci w oczach odwiedzających.

Niewidoczny tekst

W celu zwiększenia ilości wystąpień pozycjonowanej frazy w treści strony lub ukrycia słów niezwiązanych z tematyką serwisu stosuje się czasem niewidoczny tekst (invisible text), najczęściej w kolorze tła. Dzięki temu jest on praktycznie niezauważalny dla użytkownika, jednak czytają go roboty wyszukiwarek przy indeksowaniu witryny. Technika ta często łączona jest z małym tekstem (tiny text) napisanym zwykle czcionką o wielkości jednego piksela, której osoby odwiedzające stronę nie są w stanie dostrzec. Mechanizmy wyszukiwarek potrafią wykryć takie nadużycia, niestety pojawiły się bardziej zaawansowane sposoby ukrywania tekstów jak np. przykrycie słów obrazkiem lub wykorzystanie arkusza styli CSS.

Farmy linków

Jako farmę linków (link farm) określa się stronę, na której znajduje się bardzo duża ilość odsyłaczy do witryn zewnętrznych mających na celu podwyższenie ich pozycji w wyszukiwarkach. Rzeczywistość jest jednak inna. Google nie bierze zwykle pod uwagę łącz pochodzących z farmy linków. Umieszczanie hiperłączy do takich stron może poważnie zaszkodzić naszej witrynie, dlatego lepiej omijać je jak najdalej.

Brak wartościowej treści

Najlepiej oceniane przez wyszukiwarkę są strony posiadające konkretną, unikalną i niepowtarzalną zawartość. Czasem spotyka się jednak witryny, na których została powielona treść z innych, wcześniej już istniejących stron. Do takich działań uciekają się często webmasterzy chcący za wszelką cenę zwiększyć popularność swojego serwisu i kopiują artykuły z cudzych witryn. Również właściciele sklepów internetowych, w nadziei na zwiększenie sprzedaży, tworzą kopię posiadanego serwisu, zmieniając jedynie nazwę domeny i modyfikując szatę graficzną. Takie strony narażone są na całkowite usunięcie z indeksu wyszukiwarki za tak zwane duplicate content (powielenie zawartości). Nawet, jeśli przewinienie nie zostanie wykryte przez mechanizmy antyspamowe, istnieje duże prawdopodobieństwo, że autor powielonego tekstu lub osoba z konkurencyjnej branży zgłosi występek administratorom danej wyszukiwarki.

Cloaking

Technika zwana cloakingiem polega na podstawieniu określonym przeglądarkom internetowym specjalnie przygotowanej wersji strony. Robota wyszukiwarki również można potraktować jako swego rodzaju przeglądarkę i stworzyć skrypt, który w przypadku wykrycia crawlera pokazuje mu wersję witryny maksymalnie dostosowaną do wymagań wyszukiwarki, inną niż widzi reszta użytkowników serwisu. Cloaking umożliwia także wyświetlenie witryny o zupełnie innej tematyce, niezwiązanej z wyrażeniem poszukiwanym przez internautę, np. po wpisaniu w wyszukiwarce słowa "pozycjonowanie" zostaje pokazana strona pornograficzna. Opracowano już jednak techniki pozwalające na wykrycie cloakingu przez crawlera. Serwisy takie jak Google posiadają pajączki podszywające się pod daną przeglądarkę internetową (Internet Explorer, Netscape itd.), może także ulec zmianie ich nazwa i numer IP. Cloaking jest bardzo kontrowersyjnym tematem w pozycjonowaniu. Używa się go czasem w dobrych intencjach, np. wyświetlenie konkretnym przeglądarkom specjalnie dostosowanej dla nich strony lub zmiana jej wersji językowej w zależności od lokacji geograficznej użytkownika (określanej na podstawie jego numeru IP). Niestety, roboty nie potrafią odróżnić, w jakim celu zastosowano tę...

Zgłoś jeśli naruszono regulamin