Pozycjonowanie stron - Domowy Zwierzyniec
Home  |  Królik  |  Papuga  |  Kanarek  |  Owczarek  |  Redakcja  |  Klub  |  Kontakt       królik - lapin Królik - kaninchen Królik - Rabbit

  • Home
  • Królik
  • Papuga
  • Kanarek
  • Gryzonie
  • Działka
  • Co nowego
  • Galeria  I
  • Galeria  II
  • Galeria  III
  • Mapa strony
  • Forum Trunia
  • Serwis Trunia
  • Zrób stronę
  • Przyjaciele
  • Literatura
  • Webcam
  • Zapytania
  • Redakcja
  • Lekarze
  • Ustawy
  • Banery
  • Humor
  • Ebook
  • Quiz
  • Linki
  • E-mail
  •  

       



    Masz już własną stronę szukasz nowych scryptów - klikaj

    Wirusy w internecie - co warto przeczytać.


    Co to jest Dialer? Wiele stron w Internecie dostępnych jest przez bardzo drogie numery 0-700. Niestety, twórcy tych stron, głównie erotycznych, stosują często nieuczciwe metody. Umieszczają na stronach podstępnie nazwane programy, które bez wiedzy użytkownika przełączają go na drogi numer 0-700. Programy te nazywane są dialerami.

    Najczęściej użytkownicy instalują dialery niechcący, nie rozumiejąc mylących i nieuczciwych komunikatów. Wiele z tych programów wykorzystuje też luki w bezpieczeństwie przeglądarek i instaluje się bez pytania.

    Fatalne konsekwencje. Połączenia z numerami 0-700 kosztują nawet kilkadziesiąt razy więcej, niż połączenie z normalnym numerem dostępowym takim, jak numer OnetKonekt Modem albo numer TPSA. Wielu użytkowników orientuje się o zainstalowaniu dialera dopiero gdy otrzymają rachunek telefoniczny w wysokości kilku tysięcy złotych. Niestety, wtedy jest już za póĽno.






    Masz już własną stronę i co dalej, co należy zrobić aby strona była w wyszukiwarce.


    Aby strona po wpisaniu do okienka wyszukiwarki znalazła się w pierwszej dziesiątce należy nad tym popracować i jest to zajęcie na kilka miesięcy, określane jest to jako pozycjonowanie strony.

    Pozycjonowanie, optymalizacja stron internetowych.

    Być może wielu nie wie jeszcze co to jest pozycjonowanie stron i jakie korzyści może przynieść. Pozycjonowanie polega na ustawianiu stron w wyszukiwarkach na wysokich pozycjach aby po wpisaniu słów kluczowych związanych z tematem jaki ma strona internetowa znalazła się ona na wyświetlonej liście stron. Ma to na celu ułatwienie internautom w dotarciu do Twojej strony poprzez wyszukiwarkę lub katalog. Skuteczna optymalizacja stron i ich rejestracja w wyszukiwarkach jest najlepszą metodą zaistnienia strony w sieci. W porównaniu z płatnymi linkami, pozycjonowanie strony www to metoda bardzo tania.

    Roboty wyszukiwarek - zwane popularnie crawlerami, pająkami, spiderami mają za zadanie przeszukiwanie internetu, przemierzając go za linkami szukając na stronach a href= zbierają informacje do baz danych. W bazie informacja o każdej stronie jest obrabiana specjalnymi algorytmami a następnie w wynik tych działań jest przedstawiany w wyszukiwarkach internetowych. Jak widać rola ich jest bardzo ważna. Wszelkie utrudnienia dla robota wyszukiwarek powodują, że nie dostarcza on pełnych informacji na temat danej strony, to natomiast ma wpływ na obróbkę algorytmem - a to z kolei ma wpływ na nasze wyniki w wyszukiwarkach. Dlatego im lepiej współżyjemy z robotami wyszukiwarek tym lepsze rezultaty osiągamy w rankingach wyszukiwarek. Nie jest to oczywiście jedyny czynnik który ma wpływ na pozycje w wyszukiwarce. Odpowiednie przygotowanie strony, aby była ona przyjazna dla robotów wyszukiwarek, określa się fachowo jako optymalizację stron internetowych, natomiast branżą która prócz optymalizacji stron zajmuje się wpływem na ranking w wyszukiwarkach nazywa się pozycjonowaniem. Kompleksowa usługa nazywana pozycjonowanie stron i optymalizacja (ang. Search engine Optimization).

    Określenia występujące przy pozycjonowaniu.

    Content - Zawartość stron / witryn: tekst, obrazki. Kiedyś obowiązywała zasada "Content is King" - czyli najważniejsza dla pozycjonowania na stronie jest jej zawartość / treść - content

    Duplicate Content Penalties - Tworzenie kilku kopii jednego dokumentu lub strony, w przypadku kopii strony mówi się o mirrors strony

    IBL - Inbound Links - Ilość linków wskazujących na dany adres pliku / strony www, najlepiej z odpowiednim anchor text-em

    Index/indeks stron - Zbiór stron dostępnych w danej wyszukiwarce - stron zindeksowanych przez robota wyszukiwarki

    Link exchange - Wymiana linków jest stosowana do podniesienia IBL pomiędzy stronami o wysokim PR

    Link popularity - Wartość otrzymana dla zapytania (link:adres strony)

    Naturalne linkowanie - Polega na rozpowszechnianiu w sieci linków do strony bez budowania specjalnych do tego celu stworzonych stron

    OBL - Outbound Links - Ilość linków wskazujących na zewnętrzne adresy plików / stron www

    TBPR Update - Toolbar PageRank Update - inaczej update PageRank

    Update PageRank - Zmiana wartości publicznie dostępnej PR wskazywanej przez Toolbar Google

    TB Program Update - Zmiana w oprogramowaniu odpowiadającym za sposób obliczania PR




    Największe wyszukiwarki i katalogi z polskimi zasobami to:
    Google
    Onet
    WP
    Netspring


    Generują one około 95 % zasobów polskich stron.

    Dlatego właśnie pozycjonowanie kompleksowe, czyli wysokie pozycje we wszystkich najważniejszych polskich wyszukiwarkach i katalogach może przynieść zwiększony ruch na Twojej stronie.

    Strona którą oglądasz jest w wyszukiwarkach Google, Onet, WP na hasła - królik - papuga - kanarek, w pierwszej dziesiątce. Pozycjonowanie od lipca 2005 roku zajęło mi trzy miesiące, wcześniej nową domenę uruchomiłem w lipcu 2004 roku. Nie była poza Onetem nigdzie w wykazie w wyszukiwarkach. Najważniejsze to wykonać prawidłowo kod HTML strony, właściwie opisany wstęp w znacznikach HEAD, również ważne to dobór słów kluczowych oraz prawidłowy tytuł strony w TITLE, oczywiście posiadanie dużej ilości linków tekstowych na innych stronach ma też niebagatelne znaczenia.


    Galopujący rozwój internetu już od dawna, wyznacza trendy i wskazuje nowe kierunki. To ogromna szansa dla rozwoju firm. Dla wielu jednak, Internet wciąż kojarzy się z zapewnieniem rozrywki w czasie wolnym. Obecnie, spora ilość firm posiada już strony internetowe, ale traktuje je jako wizytówkę, nie upatrując w niej ogromnego potencjału jaki może mieć dla promocji czy rozwoju działalności gospodarczej.

    Obecność w internecie to możliwość dotarcia ze swoją ofertą do nowych odbiorców, do których z różnych powodów nie można dotrzeć poza internetem. A co najważniejsze, to klienci sami mogą nas znaleĽć! ale szczęściu trzeba trochę pomóc... O konieczności promocji stron internetowych w internecie przekonana jest chyba większość osób posiadających witryny.





    Narzędzia SEO

    www.linkvendor.com/seo-tools/keyword-density.html - Keyword Selector Tool - pomaga w doborze słów kluczowych, ale nie dotyczy słów zawierającycych polskie znaki

    www.linkvendor.com/seo-tools/keyword-density.html - Keyword density analyzer - analizuje słowa kluczowe

    www.widexl.com/remote/search-engines/metatag-analyzer.html - Metatag analyzer - analizuje metatagi

    http://webconfs.com/anchor-text-analysis.php - Anchor text analysis - analizuje anchor text linków które prowadzą do naszej strony

    www.iwebtool.com/backlink_checker - Backlink checker - sprawdza ilość linków(BL) bezpośrednich do naszej strony.



    Charakterystyka wyszukiwarek zagranicznych

    http://www.google.com

    Google: jest unikalnym rozwiązaniem lączącym zaawansowana technologie z wyjątkowym softwarem. Aby osiągnąc wysoką wydajność systemu stworzony został superkomputer, który składa się z setek tanich komputerów połączonych w sieć. Sercem programu jest unikalne rozwiązanie PageRank (TM) określające ranking znalezionych stron. Najwyżej cenione są te dokumenty, do których jest najwięcej odnośników ze stron cenionych przez Googla. Google wspiera swoją technologią takie portale jak Yahoo czy Netscape.

    http://www.hotbot.com

    HotBot: wyróżnia się swoimi możliwościami spośród innych wyszukiwarek. W większości przypadków na pierwszej stronie wyświetlane są rezultaty z serwisu Direct Hit, następne pochodzą z wyszukiwarki Inktomi. Katalogi stron pochodzą z projektu Open Directory. HotBot wystartował w maju 1996 roku jako wejscie firmy Wired Digital na rynek wyszukiwarek internetowych. W paĽdzierniku 1998 roku HotBot został kupiony przez fimrę Lycos, lecz dalej funkcjonuje jako samodzielna wyszukiwarka.

    http://www.yahoo.com

    Yahoo: jest najpopularniejszym i najstarszym serwisem wyszukiwawczym. Został uruchomiony w 1994 roku. Sekretem popularności są ludzie. Yahoo jest największym, opracowywanym przez 150 redaktorów przewodnikiem po Internecie. W bazie danych serwisu istnieje ponad milion zaindeksowanych stron. Od czerwca 2000 rezultaty wyszukiwania uzupełniane są przez serwis wyszukiwawczy Google.

    http://www.opendirectory.org

    Projekt Otwartego Katalogu: (Open Directory Project - ODP) jest dzisiaj najczęściej odwiedzanym katalogiem w Internecie. Obecnie chlubi się 2,202,125 stronami, 31,943 redaktorami, 323,217 kategoriami (na dzień 28.11.2000). Baza danych ODP jest używana przez ponad 20 wyszukiwarek i katalogów, z których największe to : Google, Yahoo, Netscape, Lycos, Hotbot, Dogpile.

    http://www.excite.com

    Excite: jest jednym z serwisów z wielkiej szóstki wyszukiwarek internetowych. Oferuje dużą bazę indeksów oraz bogaty serwis informacyjny. Excite powstał w 1995 roku. W następnych latach rozpoczał przejmowanie serwisów konkurencyjnych - "Magellana" w czerwcu 1996 oraz WebCrawler w listopadzie 1996.

    http://www.altavista.com

    Alta Vista: jest jedną z największych wyszukiwarek intenretowych pod względem ilości zaindeksowanych stron. Jej uniwersalność i łatwość używania zapewnia popularność wsród osób poszukujących informacji w Internecie. AltaVista oferuje liczne rozwiązania dla początkujących internautów, takie jak: "Ask AltaVista", które pochodzi od Ask Jeeves. Wyszukiwanie wspierane jest przez katalogi internetowe Open directory oraz "LookSmart". Altavista została uruchomiona w grudniu 1995. Jej właścielem była firma Digital, przejęta w 1998 roku przez Compaqa. Następnie została wyodrębniona jako samodzielna firma, dzisiaj kontrolowana przez CMGI.

    Źródło: www.searchengines.pl


    Co to jest pozycjonowanie ?

    W Internecie istnieją już miliony stron www, ale zaledwie niewielki procent z nich przynosi adekwatne zyski swoim właścicielom... Dlaczego tak się dzieje? Dzieje się tak, ponieważ zaledwie niewielki procent spośród wielu milionów stron www znajduje się na szczytach popularnych wyszukiwarek internetowych. Na tym właśnie polega pozycjonowanie.

    Pozycjonowanie to zapewnienie Twojemu serwisowi www obecności w pierwszej 5, 10 wyników wyszukiwania takich wyszukiwarek jak Google, Onet, WP, Yahoo po słowach / frazach kluczowych związanych z Twoim produktem, usługą, ofertą.

    To pozycjonowanie sprawia, że Twoja strona (oferta) dociera, do grona najbardziej zainteresowanych osób,właśnie poszukujących Twoich produktów w Internecie. Bez pozycjonowania, lub innych skutecznych form promocji, nawet najciekawsza i najatrakcyjniejsza strona www, może cieszyć oko: ale tylko swojego właściciela.

    Aby zrozumieć na czym polega pozycjonowanie strony należy poświęcić trochę czasu na przeszukanie internetu, na temat pozycjonowania jest forum, są różne strony na których można znaleĽć cenne uwagi i wskazówki jak należy przygotować swoją stronę i jakie należy wykonać czynności aby uzyskać wynik taki jaki podaje powyżej. Nie korzystałem z żadnej książki wszystko to dowiedziałem się z internetu a reszta to własne próby które raz przynosiły korzyści a nie raz porażki, był okres w jesieni 2004 gdzie robot google spakował mnie do "piaskownicy" czyli założył na mój adres filtr i strona znikła z listy wyszukiwarki Google.

    Pozycjonowanie właściwe rozpoczyna się gdy zasoby darmowych lub płatnych linków nie wystarczają na osiągnięcie najwyższych pozycji lub gdy przyrost linków w czasie jest zbyt wolny w stosunku do przyrostu linków u konkurencji. O ile na mniej popularne frazy można wypozycjonować stronę na wysokie pozycje tylko za pomocą dobrej optymalizacji i katalogowania linkami, to już w przypadku trudnych fraz wymaga dużo dalej idących zabiegów.

    Promocja strony przez wymianę linków z innymi stronami w internecie to dość pracochłonny proces, ale z pewnością jeden z najbardziej skutecznych. Właściciele stron szukając możliwości wymiany łączy mogą kontaktować się między sobą i oferować wzajemne zamieszczanie linków do swoich stron. Często nazywa się tę działalność cross-linking. Z reguły taka wymiana jest korzystna dla obu stron, należy jednak pamiętać zawsze o wartości łącza i starać się wybierać miejsca odpowiednie do jego umieszczenia.

    Co powinieneś robić :


    - Wykonaj własną stronę która będzie zawierać dużo wartościowej treści, czytelny i łatwy sposób nawigacji oraz przejrzystą strukturę dokumentów.

    - Umieść w kodzie strony znaczniki Meta (title, description and keywords) dokładnie odzwierciedlające treść Twojej strony.

    - Umieść na swojej stronie linki do innych serwisów tematycznie związanych z treścią Twojej strony i postaraj się, aby Twoja strona pojawiła się w jak największej liczbie katalogów WWW i innych serwisach.

    - Zachowuj jak największy stosunek ilości tekstu do kodu HTML.

    - Najlepiej indeksowane są strony w formacie HTML. Jeżeli budujesz swoją stronę np. we flashu, umieść również jej odpowiednik w HTMLu.

    - Unikaj wykorzystywania JavaScriptu w hiperłączach.

    - Staraj się nie używać ramek.

    - Często aktualizuj zawartość swojej strony.

    - Wykonaj mapę strony, niektóre roboty bardzo to lubią.

    Co jest niedozwolone :

    - Tworzenie grup stron o różnych adresach url zawierających tą samą lub bardzo zbliżoną treść.

    - Strony ze słowami kluczowymi niezwiązanymi z treścią strony.

    - Strony podsuwające robotowi wyszukiwarki treść zupełnie odmienną od tego, co widzi użytkownik.

    - Automatycznie generowane strony stworzone w celu zaśmiecenia wyników wyszukiwania.

    - Umieszczenie strony w farmach linków – sieciach stron wzajemnie linkujących się do siebie w celu podnoszenia popularności linku.

    - Umieszczanie niewidocznego tekstu

    - Nadmierne powtarzanie słów kluczowych w znacznikach META.

    - Budowanie stron automatycznie przekierowujących użytkownika na inną stronę.


    ABC POZYCJONOWANIA.   (post z forum dyskusyjnego)

    Witam, w tym temacie postaram się Wam przekazać podstawowe informacje na temat pozycjonowania. Ogólnie większość ludzi uważa, iż pozycjonowanie wymaga dużej wiedzy, oraz czasu, a tak naprawdę to nie jest to takie trudne(zależy od frazy pod którą chcemy pozycjonować daną stronę.) To będzie skromny artykuł na temat pozycjonowania(czyt. Dla początkujących). Ok, więc do rzeczy:

    Spis treści:
    1.) Tytuł strony
    2.) Opis strony
    3.) Słowa kluczowe
    4.) Nagłówki
    5.) Dodanie wartości danym słowom
    6.) Opis obrazków
    7.) Anhor text w linkach do twojej strony
    8.) Mapa witryny
    9.)PageRank - Co to jest?
    10.) Tak ogólnie

    1.) Tytuł strony:
    TYTUŁ TWOJEJ STRONY

    Tytuł Twojej strony powinien być jak najbardziej dopracowany, ponieważ nie tylko służy on w rankingu wyszukiwarek, ale również większość osób przed wejściem na stronę go przeczyta. Powinien on zawierać nasze słowa kluczowe, pod którymi chcemy pozycjonować swoją stronę, najlepiej jakby one były na samym początku.

    < title > Witam wszystkich na najlepszej stronie w sieci [www.AdresMojejStrony] < /title >

    Na przykład taki tytuł nie jest wartościowy, słowa zawarte w nim mają małe szanse na jakiś sukces.

    < title > Domowy Zwierzyniec - królik papuga kanarek < /title >

    Taki tytuł rokuje dobrze, posiada w treści słowa kluczowe.

    2.) Opis strony:

    < meta name="description" content="Opis Twojej strony" >

    Jest to meta tag, który ma jeszcze duże znaczenie dla wyszukiwarek. Powinien on zawierać opis Twojej strony. Pamiętaj, aby był on jak najbardziej sprecyzowany (tak samo jak z title)

    3.) Słowa kluczowe:

    < meta name="keywords" content="Słowa kluczowe Twojej strony" >

    Ogólnie większość wyszukiwarek nie patrzy na słowa kluczowe, ale nie należy o tym tagu zapomnieć. Wyszkukiwarki traktują słowa kluczowe jako tekst na stronie. Na tą czynność również należy poświęcić trochę czasu.

    4.) Nagłówki:

    <h1> <h2c <h3> <h4> <h5> <h6>

    Są to "heading tags", czyli nagłówki. Określają one wielkość tekstu na Twojej stronie, od 1 do 6 (1 to największy). Powinien znajdować się jeden duży nagłówek (czyli <h1>NAGŁÓWEK</h1>), który będzie widoczny w "centrum" strony, a pod nim "mniejszy" tekst (Pamiętaj, iż wyszukiwarki, również patrzą na zawartość Twojej strony, więc postaraj wszystko dopracować)

    5.) Dodanie wartości danym słowom:

    TEST - podkreślony druk TEST - tłusty druk TEST - kursywa Pamiętaj o zamykaniu Tagów np. < / b>

    6.) Opis obrazków:

    <img src="obrazek.jpg" alt="OPIS OBRAZKA">

    Jeżeli wstawiasz na swoją stronę jakiś obraz, pamiętaj o tym, aby zawierał on tekst alternatywny, który powinien zawierać słowa kluczowe (wyszukiwarki również na to patrzą)

    7.) Anhor text w linkach do twojej strony:

    < a href="[http://www.TwojaStrona.pl" > ; Słowa kluczowe strony </a >

    Wymiana linkami, jest najskuteczniejszym czynnikiem pozycjonowania (jak katalogowanie, o tym póĽniej napisze). Możesz wymieniać się kodami z innymi stronami (im wyższy PageRank strony, tym jest ona bardziej wartościowa.) W polu "słowa kluczowe" strony wpisz słowa pod którymi chcesz, pozycjonować swoją stronę. (Max 20 linków wychodzących na stronie). Możesz również dodawać wpisy do katalogów stron WWW (to również podniesie wartość Twojej strony) Pamiętaj, aby dobrać odpowiednie kategorie, które będą pasować do Twojej strony. Możesz również dodać stronę do wyszukiwarek:

    8.) Mapa witryny:

    Twoja witryna powinna również zawierać "Mapę strony" . Mapa strony jest to strona, która zawiera Twoje wszystkie podstrony (podpisz każdą podstronę odpowiednio), roboty uwielbiają mapy witryn, więc warto nad tym również popracować.

    9.) PageRank - Co to jest?

    PageRank - metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej,oznaczającej jej jakość. Algorytm PageRank jest wykorzystywany przez popularną wyszukiwarkę internetową Google. Został opracowany przez założycieli firmy Google Larry''ego Page''a i Sergeya Brina podczas ich studiów na Uniwersytecie Stanforda w 1998 roku. Godnym uwagi faktem jest, iż nazwa algorytmu pochodzi nie od angielskiego wyrazu określającego stronę (ang. page), lecz od nazwiska twórcy, czyli Larry''ego Page''a.

    Źródło: [pl.wikipedia.org/wiki/PageRank]

    10.) Tak ogólnie:

    Jeżeli jeszcze nie masz swojej strony (czyt. Domeny i serwera) to najlepiej jak słowo kluczowe będzie zawarte w domenie: [www.słowokluczowe.pl] Im strona jest starsza tym lepiej, więc jeżeli już masz domenę i serwer, a pracujesz jeszcze nad skryptem, to warto wkleić tekst tematyczny na 'stronę' (Na okres pracy nad skryptem). Na stronie powinno być minimum 200 słów... to takie minimum, im więcej tym lepiej. Staraj się również w kodzie nie było błędów, nawet jeżeli ich nie widać gołym okiem to mogą one utrudniać pozycjonowanie. Jeżeli dostosujesz się do moich rad to w ciągu miesiąca powinny być efekty, musisz być cierpliwy i badać pozycje swojej strony.



    Posiadamy na naszym komputerze wykonaną stronę teraz należy się zastanowić jaką wybrać nazwę domeny aby była ona pomocna w pozycjonowaniu naszej strony:

    Często zastanawia się osoba zakładająca stronę czy nazwa domeny ma znaczenie dla jej póĽniejszego wypozycjonowania. Nazwa domeny miała duże znaczenie lata temu, kiedy pozycjonowanie stron było mało znanym pojęciem i niewiele osób się na tym znało. Teraz to znaczenie zmniejszyło się, ja jednak często radzę stworzyć domeny pod słowa kluczowe na jakie będzie pozycjonowana.

    Ze względu słowo kluczowe dla mojej strony na adres www ze słowem krolik w domenie, powinienem założyć domenę dla niej www.krolik.pl oczywiście nie miałem szczęścia takiej wolnej już nie było.

    Można ominąć ten problem umieszczając dwie frazy kluczowe, powinniście oddzielić je myślnikiem. Nie jest to zbyt wygodne dla osób wpisujących adres www w przeglądarkę, jednak w ten sposób po wpisaniu w wyszukiwarkę „królik domowy” zostanie odnaleziona strona www.krolik-domowy.pl, co nie będzie możliwe, gdy nazwa domeny będzie : www.krolikdomowy.pl

    Jak zablokować roboty wyszukiwarek. Poniżej polecenia w meta tagach


    meta name="robots" content="noindex, nofollow"

    powyżej informacja dla robotów aby nie indeksowały i nie odwiedzały linków lub poniżej zostawić indeksowanie normalnie, ale kazać mu odwiedzać Twoją stronę np co 10 dni czyli:

    meta name="robots" content="index, follow"
    meta name="revisit-after" content="10 days"

    można też zakazać robienia kopii google:

    META name="googlebot" content="noarchive"

    tym wpisem można robotom polecić: indeksujcie moją stronę i linki, ale nie grafiki. Odwiedzajcie mnie co 14 dni. A ty google, nie rób kopii mojej strony.

    meta name="robots" content="all, noimageindex"
    meta name="revisit-after" content="14 days"
    meta name="googlebot" content="noarchive"

    Teraz dajesz informację robotom: zaindeksuj stronę, nie odwiedzaj linków na mojej stronie (czyli nie indeksuj stron linkowanych), nie indeksuj grafiki. Reszta bez zmian. Pamiętaj, że na podstronach powinno wyglądać podobnie.

    meta name="robots" content="index, nofollow, noimageindex"
    meta name="revisit-after" content="14 days"
    meta name="googlebot" content="noarchive"


    Można posłużyć się również plikiem robots.txt

    Robot czyli (zbieracz) wędruje po sieci www od witryny do witryny, korzystając z linków, na jakie trafia, i indeksuje zawartość stron, na które trafia. To jest wersja nieco uproszczona.

    W rzeczywistosci zbieracz zapisuje ściągnięte strony (dokumenty) w swojej bazie danych. Z dokumentów tych wyjmuje linki i włącza je do bazy linków. Następnie losuje linki z tej bazy i ściąga dokumenty, do których one prowadzą. Archiwizuje je i wyjmuje linki - cykl się zamyka.

    Z dokumentów zebranych w bazie danych buduje wyszukiwarka kolekcję, którą można przeszukiwać za jej pomocą . Tę kolekcję buduje się co pewien czas, zwykle raz na dwa, trzy tygodnie. Codziennie do kolekcji dodajemy natomiast dokumenty zgłoszone przez użytkowników poprzez formularz Dodawanie witryn do kolekcji.

    Zdarza się, że robot podczas swojej wędrówki trafia na strony, których nie powinien ściągać (bo np. nie zawierają treści wartych indeksowania).

    Zdarza się też, że zbieracz zapętla się -- wielokrotnie ściąga tę samą stronę, uważając, że za każdym razem ściąga coś nowego. W ten sposób może obciążać witrynę, generując niepotrzebny ruch.

    Można robota w prosty sposób poinformować, żeby do danej witryny w ogóle nie wchodził lub żeby nie wchodził do niektórych katalogów, jakie się w niej znajdują. Można też zakazać mu czytania wybranych dokumentów w tych katalogach.

    Można to zrobić dwojako: globalnie, tworząc plik robots.txt, dotyczący całej witryny, lub lokalnie, zabraniając mu indeksowania poszczególnych dokumentów, za pomocą metatagu robots umieszczonego w tych dokumentach.

    Plik robots.txt
    Plik robots.txt powinien znajdować się w głównym katalogu witryny, tzn. w przypadku witryny o nazwie www.witryna.pl powinien mieć adres www.witryna.pl/robots.txt.

    W pliku robots.txt można zabronić wchodzenia do witryny wszystkim robotom lub tylko niektórym (w szczególności np. tylko GOOGLE). Można zabronić im wchodzenia w ogóle lub tylko do niektórych katalogów, jakie się w niej znajdują.

    Poniżej kilka najprostszych przykładów.

    Plik o poniższej treści POZWALA wszystkim robotom wchodzić do witryny i czytać wszystkie pliki, jakie w niej są:

    User-agent: *
    Disallow:

    Plik o poniższej treści ZABRANIA wszystkim robotom wchodzić do witryny i czytać cokolwiek:

    User-agent: *
    Disallow: /

    Plik o poniższej treści ZABRANIA robotowi o nazwie google wchodzić i czytać cokolwiek:

    User-agent: google
    Disallow: /

    Plik o poniższej treści ZABRANIA robotowi o nazwie google wchodzić do katalogu /tmp, /logs, /koszyk oraz czytać plik /foo.html, a wszystkim pozostałym robotom ZABRANIA tylko wchodzić do katalogów /tmp oraz /logs:

    User-agent: google
    Disallow: /tmp/
    Disallow: /logs/
    Disallow: /koszyk/
    Disallow: /foo.html

    User-agent: *
    Disallow: /tmp/
    Disallow: /logs/

    UWAGA! Kolejność, w jakiej wymienione są nazwy robotów, nie ma znaczenia. Równie dobrze można zdefiniować ten plik w poniższy sposób:

    User-agent: *
    Disallow: /tmp/
    Disallow: /logs/

    User-agent: google
    Disallow: /tmp/
    Disallow: /logs/
    Disallow: /koszyk/
    Disallow: /foo.html

    Plik o poniższej treści pozwala google wchodzić wszędzie, a ZABRANIA wszystkim pozostałym robotom wchodzić do katalogów /tmp oraz /logs:

    User-agent: google
    Disallow:

    User-agent: *
    Disallow: /tmp/
    Disallow: /logs/

    W ten sposób można dość dokładnie określić, co robotom wolno czytać, a czego nie.

    Jeśli w witrynie nie ma w ogóle pliku robots.txt, roboty stwierdzają, że wolno im wchodzić do witryny i czytać wszystkie pliki.

    Uwaga: Jeśli serwer www na pytanie naszego robota o plik robots.txt odpowiada, że nie ma on prawa dostępu do tego pliku (kod 403 oznaczający "Access forbiden"), nasz robot NIE WCHODZI do tej witryny i niczego z niej nie indeksuje.








    Słowniczek internetowych wyrażeń.

    Baner - najpopularniejsza forma reklamy internetowej, którą po raz pierwszy zaprezentowała firma LinkExchange w 1994 roku. Bannery są plikami (w postaci gif, jpg, flash, HTML lub Java Script) posiadającymi najczęściej odnośniki do strony reklamodawcy.

    CTR (Click Through Rate) - stosunek ilości kliknięć do wszystkich odsłon danej reklamy.

    CPA (Cost Per Action) - opłata za pożądane działanie użytkownika (np. rejestracja, złożenie zamówienia) wykonane w ramach prowadzonej kampanii reklamowej.

    CPC (Cost Per Click) - koszt jednego kliknięcia w reklamę.

    CPM (Cost Per Mille) - jeden z najpopularniejszych modeli cenowych stosowanych przez witryny. CPM określa wartość (cenę) wyświetlenia 1000 odsłon danej reklamy.

    CPP (Cost Per Point) - skrót oznacza koszty jednego GRP (całkowitego punktu oglądalności). To koszt jednorazowego dotarcia reklamy do 1 % grupy docelowej, który jest wyrażany w jednostkach pieniężnych. Wylicza się go dzieląc koszt cennikowy kampanii lub spotu reklamowego przez rating w danym bloku reklamowym.

    Frazy (słowa kluczowe, wyrażenia kluczowe) - słowa/wyrażenia wpisywane w wyszukiwarce internetowej.

    Interstitials - są reklamami, które pojawiają się na stronie WWW w momencie całkowitego załadowania się strony i porównywane są do spotu telewizyjnego. Obecnie możemy spotkać dwa główne rodzaje tego typu reklam: interstitials obowiązkowy (pojawia się przy każdym załadowaniu strony) oraz interstitials opt-in (pojawia się w momencie kliknięcia przez użytkownika w banner reklamowy).

    Katalogi stron www - serwisy internetowe zajmujące się zbieraniem i udostępnianiem usystematyzowanej informacji o stronach internetowych. Strony www zanim znajdą się w katalogu są oceniane przez redaktorów. Dodanie strony do katalogu jest zazwyczaj odpłatne.

    Optymalizacja - dopasowanie konstrukcji i treści serwisu internetowego do właściwego wyświetlania go na liście wyników wyszukiwania. W przypadku optymalizacji bardzo istotne jest aby tworzenie serwisu internetowego powierzyć firmie, w której ofercie znajduje się również usługa pozycjonowania. Tylko wtedy możemy mieć pewność, że budowana witryna będzie miała budowę zgodną z wymaganiami wyszukiwarek.

    Przeglądarka - jest to program zainstalowany na Twoim komputerze, dzięki któremu przeglądasz strony internetowe. Najpopularniejsze przeglądarki to Internet Explorer, Firefox, Opera, Mozilla, Netscape.

    Pop-up - reklama pokazuje się w automatycznie otwieranym, samodzielnym oknie przeglądarki, zwykle bez pasków nawigacyjnych i możliwości skalowania. Istnieje wiele kombinacji wyświetlania reklamy pop-up.

    Pop-under - jest to odmiana reklamy typu pop-up. Różnica polega na tym, iż nowe okno zawierające przekaz reklamowy otwierane jest pod aktywnym oknem przeglądarki.

    Wyszukiwarki internetowe - to mechanizmy, które zbierają informacje o stronach internetowych.

    PageRank to metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej, oznaczającej jej jakość. Algorytm PageRank jest wykorzystywany przez najpopularniejszą i dającą najtrafniejsze wyniki wyszukiwarkę internetową Google. Został wynaleziony przez założycieli firmy Google Larry'ego Page'a i Sergeya Brina podczas ich studiów na Uniwersytecie Stanforda w 1998 roku.

    W jaki sposób można podnieść pozycję swojej strony w wynikach wyszukiwania?

    To pytanie zadaje sobie wielu właścicieli stron internetowych, a odpowiedĽ nie jest trudna - trzeba zdobyć jak najwięcej linków (odnośników) prowadzących do naszej strony. Należy zwrócić uwagę że link linkowi nie jest równy. Wartość jednego linku z dobrej strony może być większa od kilkuset zwykłych linków.

    Im wyższy otrzymamy wynik Page Rank tym strona ma większą wartość. Pagerank nie jest wartością stałą, może on rosnąć, lub spadać. Aktualizacja tego rankingu jest przeprowadzana średnio raz na kwartał. Wartość pagerank uzyskiwana jest na podstawie wzoru:

    PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn))

    gdzie
    PR= PageRank badanej strony
    d= stały współczynnik (~0.85)
    c = liczba linków na stronie 1
    PR(T1)/C(T1) = PageRank strony 1 dzielony przez liczbę linków na tej stronie czyli tzw. przekazywany PageRank.


    Jak widać z powyższego wzoru, obok wartości PR na wartość przekazywanego PR ma też ilość linków wychodzących, np. przekazywany pagerank strony o PR=3 i jednym linku wychodzącym wynosi:
    3/1=3
    Jeśli zaś na tej stronie jest 30 linków wychodzących to wynik wynosi:
    3/30=0.1
    Jak widać ilość linków wychodzących ma bardzo duże znaczenie i dlatego linki z toplist i katalogów internetowych mają niedużą wartość.

    Jak Google liczy PR?

    W obecnym czasie Google Page Rank - jest jedynym wskaĽnikiem, który może dostarczyć informacji o popularności danej strony w wyszukiwarce Google i w innych wyszukiwarkach internetowych. Faktyczny PR jest obliczony przez Google w określonym czasie i używa skali od 0 do 10 punktów. Ale Google zwykle odświeża informację o Page Rank raz trzy miesiące i zaokrągla PR do pełnej liczby ( ~ 4,6 PR= 5).



    Jak powiększyć PR Google dla naszej strony?

    Tabela poniżej ilustruje przybliżoną zależność PR twojej strony od ilości stron zdanym PR, które mają link do ciebie. Przyjmujemy nie więcej niż 10 zewnętrznych związków na każdej stronie.


    Ile linków od stron potrzebujesz oraz z jakim PR ==>

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    Aby dostać dane PR musisz mieć tyle linków do siebie: ==>
    2
    101
    18
    3
    1
    1
    1

    1

    1
    1
    1

    3

    555
    101
    18
    3
    1
    1
    1
    1
    1
    1
    4
    3055
    555
    101
    18
    3
    1
    1
    1
    1
    1
    5
    16803
    3055
    555
    101
    18
    3
    1
    1
    1
    1
    6
    92414
    16803
    3055
    555
    101
    18
    3
    1
    1
    1
    7
    0.5 mil.
    92414
    16803
    3055
    555
    101
    18
    3
    1
    1
    8
    2.8 mil.
    0.5 mil.
    92414
    16803
    3055
    555
    101
    18
    3
    1
    9
    15 mil.
    2.8 mil.
    0.5 mil.
    92414
    16803
    3055
    555
    101
    18
    3
    10
    84 mil.
    15 mil.
    2.8 mil.
    0.5 mil.
    92414
    16803
    3055
    555
    100
    18


    Na przykład, aby dostać PR 7 to będziesz potrzebować co najmniej 3 linki od PR 8 albo pół tysiąca linków od PR 5 lub 92 414 linków z PR 2.

    Duplikat treści strony (ang. Duplicate content penalty)

    Często zdarza się, iż dana strona jest widoczna pod kilkoma adresami – np. firma kupuje domeny typu nazwa-firmy.pl, nazwa-firmy.com.pl i nazwa-firmy.com – wszystkie te domeny prowadzą jednak do jednej strony. Jeśli jest to zwykłe podpięcie domen do jednych i tych samych plików na serwerze, wyszukiwarki albo zaindeksują tylko jedną domenę, albo zaindeksują wszystkie, ale zostaną one ‘ukarane’, gdyż kilka identycznych stron pod różnymi domenami nie wpływa pozytywnie na jakość wyników wyszukiwania.

    Podstawowym założeniem tego systemu jest klasyfikacja stron internetowych według ich wartości, obliczanej na podstawie informacji takich jak:

    • wiek strony
    • czas na jaki domena została zarejestrowana
    • wiek treści
    • częstość dodawania nowej treści
    • unikalność treści
    • wiek linków do strony i ‘reputacja’ stron linkujących
    • częstość pojawiania się nowych linków do strony
    • częstość usuwania linków do strony
    • standardowe elementy ‘on – site’
    • treść linków zewnętrznych
    • negatywne punkty za ‘złe linki do strony’
    • negatywne punkty za nadmierną ilość słów kluczowych
    • dane zebrane z Google Toolbar i innych Ľródeł
    • IP serwera – porównianie z innymi stronami na tym serwerze (jakość stron)
    • Jakość serwera (uptime, szybkość ładowania stron)
    • linki z innych stron – czy z tego samego IP (klasy IP)
    • poprawność kodu HTML
    • ilość kliknięć w dany link pośród wyników wyszukiwania

    Nie można jednoznacznie stwierdzić, w jakim stopniu wymienione czynniki wpływają na pozycję strony w wynikach wyszukiwania – Google nie podają tego wprost, jednakże daje to już duże rozeznanie w sytuacji. Jak widać Google ‘lubią’ to co dobre dla zwykłego internauty – starsze strony najczęściej mają wartościową zawartość, jeśli ciągle istnieją, aczkolwiek liczy się też to, czy są one w jakiś sposób odświeżane. Ponadto, jeśli domena zarejestrowana jest na dłuży okres, świadczy to o poważnym podejściu właściciela domeny do strony. Stała częstotliwość pojawiania się linków do strony z kolei mówi, iż te linki pojawiają się w sposób naturalny (nikt ich nie kupuje), a jeśli strony na których te linki się pojawiają mają już dużą wartość oraz znajdują się na różnych serwerach, to dana strona musi być również ważna. Kwestie techniczne, takie jak poprawność kodu, czy też szybkość ładowania się strony wpływają na wygodę przeglądania strony przez użytkownika, więc Google zwracają również na to uwagę. W końcu dane zebrane z Google Toolbar czy z częstości kliknięć w dany link pośród wyników wyszukiwania pozwalają na lepsze wartościowanie strony, na podstawie tego co robią sami internauci. Jeśli, na przykład, z 10 wyników wyszukiwania, w jeden link użytkownicy klikają wyjątkowo często, znaczy to, że ta strona musi być lepsza od pozostałych, przynajmniej jeśli chodzi o jej opis w wynikach.



    Odnośnie page Rank coraz częściej pojawiają się głosy iż jest on nie ważny nawet ten temat jest opisywany na forum pozycjnowanie;

    Zastanówcie się skąd się bierze PR i jaki ma wpływ (taka mała ścieżka):
    - PR jest wynikiem linkowania do witryny
    - Czym więcej linków z mocnych stron tym PR wyższy
    - Każdy link przekazuje jakąś część PR ze strony linkującej do linkowanej czyli przekazuje też moc
    - Czym witryna bardziej podlinkowana tym mocniejsza czyli łatwiejsza do wypozycjonowania (mniejsze szanse na filtr, ban)

    Wnioski:
    - PR nie ma bezpośredniego wpływu na pozycję - PR jest wynikiem pozycjonowania / linkowania
    - Strony z wyższym PR są częściej odwiedzane przez roboty (bo lepiej podlinkowane) czyli linki ze stron o wysokim PR dobrze robią też witrynom linkowanym
    - Linki ze tron z wyższym PR zostaną szybciej zaliczone bo robot odwiedza je częściej




    Pozycjonowanie stron rozpoczęło się wraz z rozwojem pierwszych wyszukiwarek internetowych. Webmasterzy dążyli do tego, aby ich strona pojawiła się jako pierwsza w wynikach wyszukiwania dla danego zapytania. Początkowo nie było to trudne, gdyż wyniki w wyszukiwarkach opierały się na analizie słów kluczowych podanych przez autora w nagłówku strony. PóĽniej, między innymi ze względu na łatwą manipulację słowami kluczowymi, wyszukiwarki zaczęły je ignorować, odwołując się bezpośrednio do treści strony.

    Ewolucja wyszukiwarek wywołała ewolucję pozycjonowania, przechodzącego przez wszelkie algorytmy binarne i wektorową analizę treści strony. Dopiero wyszukiwarki oparte na analizie topologii sieci, zliczające linki (takie jak Google), podniosły poziom trudności pozycjonowania stron. Zaawansowane algorytmy analizy topologii sieci wielu osobom wydawały się odporne na wszelkiego rodzaju próby manipulacji/modyfikacji SERP, jednak zjawisko Google Bomb, polegające na masowym dodawaniu na stronach linku ze wskazanym przez pomysłodawcę anchor-textem, pokazało drogę do łatwego modyfikowania indeksu.

    Termin “pozycjonowanie” pojawił się ok. 2002 r, wcześniej funkcjonował anglojęzyczny “web positioning“. Pierwsze powszechnie znane “polskie” Google Bomb pojawiło się na przełomie 2003 i 2004 roku i polegało na linkowaniu ze słowem kluczowym kretyn adresu do sejmowej strony internetowej polskiego posła Samoobrony Rzeczypospolitej Polskiej - Andrzeja Leppera, co w efekcie dało pojawianie się wspomnianej strony na czołowych miejscach w wynikach wyszukiwania w Google dla hasła “kretyn” (zwykle jako pierwszy wynik).akcja ta zyskała wielu naśladowców i podobne zjawiska można zaobserwować dla innych słów i wyrażeń, np. “ptasia grypa”, “złodzieje”, “pedał”, “siedziba szatana”, czy też “oszuści”.

    Kontrowersje

    Kontrowersje w pozycjonowaniu stron wynikają ze sposobów zdobywania linków prowadzących do stron - IBL oraz z nieetycznych technik stosowanych w pozycjonowaniu. Działania niezgodne z zaleceniami dla webmasterów przyjęło się nazywać spamem w wyszukiwarkach. Spam w wyszukiwarkach jest traktowany podobnie jak spam pocztowy, czyli elektroniczne wiadomości masowo rozsyłane do osób, które ich nie oczekują.

    W wyszukiwarkach stworzono specjalne strony na których można zgłaszać strony, które stosują nieetyczne metody pozycjonowania np. Google - report a spam result, w Polsce skuteczna okazała się akcja AntySPAMowa, mająca szeroki oddĽwięk w polskich wyszukiwarkach. Jednak w 2005 roku projekt został zakończony.

    Etyczne i nieetyczne techniki pozycjonowania W związku z ogromnym zainteresowaniem pozycją danej strony w wyszukiwarce zaczęto stosować różnorodne metody pozycjonowania m.in. takie, których nie akceptują twórcy wyszukiwarek lub nie są zgodne z zaleceniami dla tworzących strony gdyż “zaśmiecają” wyniki wyszukiwania. Te metody zaczęto nazywać nieetycznymi.

    Są to na przykład:

    * Duże nagromadzenie słów kluczowych
    * Słowa kluczowe niezgodne z treścią
    * Ukrywanie słów kluczowych, np. użycie tekstu w kolorze tła, umieszczenie na niewidocznym elemencie lub w miejscu zwykle nie oglądanym przez użytkownika.
    * Cloaking (ang. cloak - płaszcz) - serwowanie robotom wyszukiwarek (rozpoznawanych np. po adresach lub tzw. User agent) specjalnie spreparowanej wersji strony.

    Wykrycie stosowania takich technik może jednak przynieść odwrotny skutek - całkowitą eliminację strony z wyników wyszukiwania. Należy wspomnieć, że wiele metod ułatwiających użytkownikom poruszanie się po stronie i odnajdowanie informacji może przyczynić się do poprawy wyników w wyszukiwarkach.

    Niektóre przykłady to:

    * Wymiana linków i banerów ze stronami o podobnej tematyce, umieszczanie stron w katalogach tematycznych

    A więc szalenie ważną sprawą przy pozycjonowaniu strony jest zdobywanie linków, linki i jeszcze raz linki. Czasami aby zdobyć fajny link, (w dobrym miejscu) trzeba się nieĽle napracować.

    Linki ze stron z ważnych w internecie - brzmi to co najmniej podejrzanie, ale chodzi o bardzo prostą sprawę. Są to linki generujące ruch zamieszczone na bardzo dobrze znanych i odwiedzanych stronach potentatów internetu. Przykładowy link jako zwycięzca podium na Onecie w ciągu miesiąca powiększył ruch na mojej stronie o 1000 %

    Linki branżowe - linki na stronach o podobnej tematyce, odwiedzanych przez pewną grupę ludzi interesujących się danym zagadnieniem. W obecnym czasie można wywnioskować iż tego typu linku są dla strony najważniejsze. Mówi się w kręgach osób zajmujących się pozycjonowaniem, że względu na to iż google tępi katalogi precle i inne katalogi a zaczyna zwracać większą uwagę na tematykę strony na które są prowadzące do nas linki. Jednak aby dostać link tematyczny nasza strona musi zawierać wartościowe materiały.

    Linki z .edu - linki z domen typu .edu .gov. O tym, że należą one do bardzo wartościowych znalazłem informacje w książce - Pozycjonowanie w wyszukiwarkach internetowych - autorka Rebecca Lieb. Linki te podobno mają duże znaczenie ze względu na to iż domeny te są zastrzeżone dla pewnych instytucji, a zdobycie linka na stronie np rządowej (.gov) graniczy praktycznie z cudem. Linki na takich domenach mają podobno największą wartość.

    * Rezygnacja z nawigacji uzależnionej od dodatkowych technologii, np. Javascriptu lub Flasha lub ramek, poprawa możliwości poruszania się po stronie, użycie mapy strony
    * Usunięcie błędów (np. składniowych) z kodu strony
    * Optymalizacja kodu strony, usunięcie nadmiarowych znaczników HTML
    * Dobre opisanie elementów strony, np. tytułu strony lub treści alternatywnej dla grafiki
    * czytelne opisywanie odnośników (unikanie opisów typu “tutaj” albo “kliknij” na korzyść lepiej opisujących zawartość strony do której prowadzą)
    * Stosowanie “przyjaznych” adresów (np. http://domena.com/sklep/drukarki/laserowe/ zamiast http://domena.com/index.php?page=236&id=32)
    * Wyróżnianie ważniejszych słów (np. pogrubienie, podkreślenie), stosowanie nagłówków
    * Artykuł z linkiem do twojej strony


    W odróżnieniu od nieuczciwych metod pozycjonowania, tutaj można być pewnym, że te metody będą zawsze akceptowane przez wyszukiwarki, a ich stosowanie nie spowoduje eliminacji strony z wyników wyszukiwania.

    Terminologia

    * SERP - (ang. Search engine results position) - wyniki wyszukiwania w wyszukiwarce
    * PR - PageRank - matematyczny algorytm stworzony przez Google, na podstawie którego obliczana jest ważność znalezionych stron dla każdego zapytania a także liczbowy efekt działania tego algorytmu
    * Content - Zawartość stron/witryn: tekst, obrazki. Kiedyś obowiązywała zasada “Content is King” - czyli najważniejsza dla pozycjonowania na stronie jest jej zawartość/treść - content
    * Duplicate Content Penalties - Tworzenie kilku kopii jednego dokumentu lub strony, w przypadku kopii strony mówi się o mirrors strony
    * IBL - Inbound Links - Ilość linków wskazujących na dany adres pliku/strony www, najlepiej z odpowiednim anchor text-em
    * Index/indeks stron - Zbiór stron dostępnych w danej wyszukiwarce - stron zindeksowanych przez robota wyszukiwarki
    * Link exchange - Wymiana linków jest stosowana do podniesienia IBL pomiędzy stronami o wysokim PR
    * Link popularity - Wartość otrzymana dla zapytania (link:adres strony)
    * Naturalne linkowanie - Polega na rozpowszechnianiu w sieci linków do strony bez budowania specjalnych do tego celu stworzonych stron
    * OBL - Outbound Links - Ilość linków wskazujących na zewnętrzne adresy plików/stron www
    * Pozycjoner - Prawidłowa nazwa konsultant ds. pozycjonowania stron www/seo * TBPR Update - Toolbar PageRank Update - inaczej update PageRank
    * Update PageRank - Zmiana wartości publicznie dostępnej PR wskazywanej przez Toolbar Google
    * TB Program Update - Zmiana w oprogramowaniu odpowiadającym za sposób obliczania PR
    * GDPR Update - Google Directory Update - Zmiana wartości PR publicznie dostępnej w katalogu Google PR
    * Update IBL - Zmiana wartości dla zapytania (link:adres strony)
    * BL Update - Backlink Update - Zmiana wartości dla zapytania (link:adres strony)
    * Algo Update - Algorithm Update - Zmiana algorytmu odpowiadającego za rezultaty SERP



    Źródło: wikipedia.org




    Czynniki wpływające na domenę

    http://secureglass.net/200-czynnikow-rankingowych-google


    1. Wiek domeny: W tym filmie, Matt Cutts, deklaruje że: „Różnica między domeną mającą sześć miesięcy oraz jednorocznej nie jest wcale tak bardzo duża”. Innymi słowy, Google bierze wiek domeny pod uwagę ale nie przywiązuje do niego tak wielkiej wagi.

    2. Słowo kluczowe w nazwie domeny: Słowo kluczowe w domenie nadal działa jako sygnał trafności. Google nawet bolduje słowo kluczowe na stronie wyników wyszukiwania. Nie sądzę, żeby wyszukiwarki kiedykolwiek zrezygnowały z tego wskaźnika ponieważ ciężko znaleźć bardziej zadeklarowaną stronę o ciastkach niż posiadającą oznaczenie w domenie „ciastka.cos”.

    3. Słowo kluczowe jako pierwsze słowo w domenie: Specjaliści MOZ w 2011 zgodzili się, że domeny, które zaczyna się od hasła docelowego mają przewagę nad miejscami stron, które albo nie mają słowa kluczowego w ich dziedzinie lub mają słowo kluczowe w środku lub końcu ich domeny. Warto zatem rozpocząć nazwę domeny od słowa kluczowego.

    4. Długość rejestracji domeny – wskaźnik jakościowy Google: „Cenne (uzasadnione) domeny są często opłacane na kilka lat z góry w odróżnieniu od przejściowych (niepewnych), które rzadko są wykorzystywane przez ponad rok. Dlatego odległą datę wygaśnięcia domeny, można stosować jako czynnik w prognozowaniu ważności domeny”.

    5. Słowo w nazwie subdomeny: Panel MOZ zaznacza również, że słowo kluczowe pojawiające się w subdomenie zwiększa rangę.

    6. Historia domeny: Strona, która zmienia właścicieli (we whois) może poinformować Google, aby „zresetowało” historię witryny, negując linki kierujące do domeny. To bardzo zła wiadomość dla osób chcących zakupić używaną domenę jednak trudno się nie zgodzić z trafnością powyższego stwierdzenia, prawda?

    7. Dokładne dopasowanie domeny (Exact Match Domain): Wciąż może dać ci przewagę … jeśli jest to strona jakościowa. Więcej o EMD. emd_twitter

    8. Publiczna deklaracja własności WHOIS lub ukryta: Ukrywanie tożsamości WHOIS może być oznaką „ma coś do ukrycia”. Matt Cutts stwierdził na Pubcon 2006: „… Kiedy sprawdzam WHOIS, wszyscy mieli „whois privacy protection service”. To dość niezwykłe. Posiadanie włączonej ochrony prywatności nie jest automatycznie złe, ale gdy pojawi się kilka z tych czynników razem …”

    9. Ukarany właściciel WHOIS: Jeśli Google identyfikuje konkretną osobę jako spamera to będą badać inne strony należące do tej osoby. Ma to sens.

    10. Krajowe rozszerzenie TLD: Posiadanie kodu kraju w nazwie domeny najwyższego poziomu (.pl, .de, .ru) poprawia pozycję witryny dla danego kraju … ale ogranicza możliwości witryny oceniającym globalnie. Rozszerzenie nTLD ze słowem kluczowym będzie wyżej pozycjonowane na to słowo np. swissmade.gift czy prodir.gift. Elementy na poziomie strony

    11. Słowo kluczowe w tytule: Tytuł jest drugim najważniejszym elementem strony internetowej, w treści (oprócz zawartości strony) i dlatego wysyła silny sygnał SEO.

    12. Tytuł rozpoczynający się od słowa kluczowego: Według danych MOZ tytuły, które zaczyna się od słów kluczowych są skuteczniejsze od tytułów zakończonych słowem kluczem.

    13. Słowo kluczowe w opisie (description): Kolejny sygnał trafności. Nie szczególnie ważne teraz, ale nadal robi różnicę.

    14. Słowo pojawia się w nagłówku H1: znacznik H1 jest to „drugi tytuł”, który wysyła kolejny sygnał trafności do Google, zgodnie z wynikami tego badania zależności. Poprawność ułożenia nagłówków możesz sprawdzić Analizatorem SEO.

    15. Słowo kluczowe jest najczęściej używaną frazą w dokumencie: Posiadanie większej ilości słów kluczowych niż jakichkolwiek innych, działa jako sygnał trafności.

    16. Długość treści: Zawartość większej ilości słów w treści sugeruje, że omawiają jakiś problem znacznie dokładniej niż krótsze artykuły, które omawiają wątek powierzchownie. SERPIQ odkrył, że długość treści związana jest z pozycją w SERPach.

    17. Gęstość słów kluczowych: Chociaż nie jest tak ważne, jak to było kiedyś, gęstość słów kluczowych jeszcze coś znaczy. Google wykorzystuje ją do określenia tematu strony internetowej. Przesycenie słowami kluczowymi może spowodować nałożenie filtrów.

    18. Ukryte indeksowanie semantyczne słowa kluczowe w treści (LSI): LSI pomaga wyszukiwarkom określania znaczenia słów o więcej niż jednym znaczeniu (Apple, firma komputerowa lub owoc). Obecność / brak LSI prawdopodobnie działa jako sygnał jakości zawartości. Więcej o LSI możesz dowiedzieć się na stronach Wikipedii.

    19. LSI Słowa kluczowe w tagach nazwy i opisu: Jak z zawartością serwisu, LSI słowa kluczowe w meta tagach strony prawdopodobnie pomaga Google rozróżnić synonimy. Może również działać jako sygnał trafności.

    20. Prędkość wczytywania treści strony HTML: Google i Bing wykorzystuje prędkość ładowania strony jako czynnik oceny. Roboty wyszukiwarek mogą oszacować prędkość strony dość dokładnie na podstawie kodu strony i rozmiaru pliku. Należy zapoznać się ze sposobami na poprawienie prędkości stron www natomiast prędkość wczytywania na różnych urządzeniach możesz sprawdzić Analizatorem SEO.

    21. Powielanie treści: Identyczna treść na stronie (nawet lekko zmodyfikowana) może negatywnie wpłynąć na widoczność w wyszukiwarce.

    22. Rel=Canonical: Stosowane właściwie, użycie tego znacznika może zapobiec uznaniu stron jako duplikat.

    23. Prędkość wczytywania strony przez Chrome: Google może również korzystać z danych użytkowników Chrome, aby uzyskać lepszy wskaźnik czasu ładowania strony. Ten bierze pod uwagę szybkość serwera, wykorzystanie CDN i innych sygnałów nie związanych z prędkością strony HTML. Mowimy tu o optymalizacji elementów jak np.: grafiki. Kilka wskazówek dotyczących zmniejszeniu rozmiaru plików graficznych.

    24.Optymalizacja obrazu: Obrazy wykonane na stronie wysyłają wyszukiwarce ważne sygnały trafności poprzez ich nazwę, alt tekst, tytuł, opis i podpis.

    25. Aktualizowanie treści: Google Caffeine update faworyzuje aktualizowaną treść. Podkreślając znaczenie tego czynnika w Google pokazuje datę ostatniej aktualizacji strony w odniesieniu do niektórych stron.

    26. Wielkość aktualizacji treści: Wielkość edycji i zmian jest również czynnikiem określającym świeżość. Dodawanie lub usuwanie całych sekcji jest bardziej znaczącą aktualizacją niż zmiana kilku słów w linii.

    27. Częstotliwość aktualizacji: Jak często strona jest aktualizowana? Codziennie, co tydzień, co 5 lat? Częstotliwość aktualizacji strony również odgrywa rolę w określaniu znacznika świeżości.

    28. Eksponowanie słów: Słowa kluczowe pojawiające się w pierwszych 100-słowach zawartości strony, wydają się być znaczącym sygnałem trafności. Eksponowanie słów możesz sprawdzić Analizatorem SEO.

    29. Słowa w nagłówkach H2, H3: Słowa kluczowe pojawiające się w podpozycjach H2 lub ​​H3 mogą być kolejnym sygnałem trafności. Więcej o stosowaniu struktury nagłówków (http://secureglass.net/naglowki-strony-h1-h2). Poprawność ułożenia nagłówków możesz sprawdzić Analizatorem SEO.

    30. Kolejność słów kluczowych: dokładne dopasowanie słów kluczowych w zawartości strony, będzie na ogół lepsze niż ranga tego samego wyrażenia kluczowego w innej kolejności. Na przykład: rozważmy wyszukiwania dla „technika strzyżenia psa”. Strona zoptymalizowana dla frazy „technika strzyżenia psa” będzie posiadała wyższą rangę niż strona zoptymalizowana dla „strzyżenia psa technika”. To jest dobry przykład, dlaczego badania słów kluczowych jest bardzo, bardzo ważne.



    31. Jakość linków wychodzących: Linkowanie ze stronami o wysokim autorytecie wysyła Google sygnały o jakości strony.

    32. Frazy na jakie linkujemy: Według MOZ, wyszukiwarki mogą korzystać z zawartości stron, które łączą się jako sygnał trafności. Na przykład, jeśli masz stronę o samochodach, a linki do stron związanych z filmami, to może poinformować Google, że strona jest o filmach o samochodach samochodów, a nie samochodach. Ma to sens, prawda?

    33. Gramatyka i ortografia: Właściwa gramatyka i ortografia jest wyznacznikiem jakości, choć Cutts w 2011 roku nie dał jednoznacznych opinii na ten temat.

    34. Dystrybuowanie treści: Czy zawartość strony jest oryginalna? Jeśli jest skopiowana z indeksowanej stronie nie będzie miała takiej rangi jak oryginał, skończy w indeksie uzupełniającym lub po krótce … zostanie zfiltrowana. Więcej na stronach Wikipedii.

    35. Pomocna treść uzupełniająca: Zgodnie z Google Rater Guidelines Document, zawartość dodatkowa jest wskaźnikiem jakości strony. Przykłady obejmują np: przeliczniki walut, kalkulatory kredytowe w przypadku stron finansowych.

    36. Ilość linków wychodzących: Zbyt wiele odnośników dofollow może spowodować obniżenie PageRank a tym samym pozycji w wynikach wyszukiwania. Ilość linków możesz sprawdzić Analizatorem SEO.

    37. Multimedia: zdjęcia, filmy i inne elementy multimedialne mogą działać jako sygnał jakości treści.

    38. Ilość linków wewnętrznych: ilość wewnętrznych linków do strony, wskazuje na jej znaczenie w stosunku do innych stron w witrynie.

    39. Jakość linków wewnętrznych: Linki wewnętrzne z autorytatywnych stron w domenie mają większy wpływ niż stron bez lub z niskim PR.

    40. Nieaktualne linki: Zbyt wiele niedziałających linków na stronie, może być oznaką zaniedbania lub porzucenia miejsca. Google Rater Guidelines Document wykorzystuje niedziałające linki jako jeden z elementów mających wpływ na jakości witryny.

    41. Poziom czytelności: Nie ma wątpliwości, że Google szacuje poziom czytelności stron internetowych. Ale co Google robi z tymi informacjami jest powodem do dyskusji. Niektórzy mówią, że podstawowy poziom trudności pomoże Page Rank, ponieważ będzie odwoływać się do mas. Jednak Linchpin SEO odkryli, że poziom trudności jest jednym z czynników oddzielającym witryny jakościowe od młynów treści.

    42. Linki partnerskie: Prawdopodobnie nie zaszkodzą rankingowi strony. Ale jeśli masz ich zbyt wiele, algorytm Google może zwrócić większą uwagę na inne sygnały jakościowe.

    43. Błędy walidacji W3C: Wiele błędów i niechlujstwa kodowania HTML, może być oznaką słabej jakości witryny. Temat kontrowersyjny. Wielu uważa, że ​walidacja WC3 daje słaby sygnał jakościowy. Ja również skłaniam się ku temu, że nie ma on większego znaczenia. Jako przykład: Nie znam naukowca publikującego dobre jakościowo treści znającego się na wytycznych W3C. Ja zajmuję się stronami od 14 lat i sadzę takie byki, że głowa mała. Poprawność kodu możesz sprawdzić Analizatorem SEO.

    44. Autorytet domeny: Wszystkie rzeczy opublikowane na domenie o wysokim autorytecie będą lepsze a tym samym wyżej pozycjonowane niż wyniki domeny o niskim autorytecie.

    45. PageRank strony: Nie doskonale skorelowane. Ale ogólnie rzecz ujmując strony o wyższym PageRank są lepiej pozycjonowane w niż strony o niskim PR.

    46. ​​Długość adresów: Zbyt długie adresy URL mogą osłabić pozycję w wyszukiwarce. Wnioski na podstawie Search Engine Journal. Długość adresów możesz sprawdzić Analizatorem SEO.

    47. Ścieżka url: Strona bliżej strony głównej ma większy autorytet.

    48. Redaktorzy: Chociaż nigdy nie potwierdzono, Google złożył patent na system, który pozwala redaktorom ręcznie wpływać na wyniki wyszukiwania. Doskonałym dowodem na to mogą być ręcznie nakładane filtry ;)

    49. Kategoria strony: kategoria strony generuje sygnał trafności. Strona, która jest elementem ściśle związanym z kategorią witryny ma większą trafność w stosunku do strony, której treść jest niezwiązana z kategorią witryny.

    50. Słowa kluczowe w adresie: Kolejny ważny sygnał trafności.

    51. Kategoria w adresie: Kategorie w adresie URL są odczytywane przez Google i mogą dostarczyć sygnał, że strona jest tematycznie związana z kategorią.

    52. Literatura i źródła: Cytując i nawiązując do źródeł, podobnie jak w przypadku prac naukowych może być znakiem jakości. Google w wytycznych jakościowych wspomina, że przeglądający powinni móc znaleźć odnośniki do źródeł: „To jest strona, na której wiedza i/lub źródła miarodajne są ważne …”.

    53. Punktory i numerowane listy: Punktory i listy numerowane pomagają przełamać treść, co czyni je bardziej przyjaznymi dla użytkownika. Często punktory zawierają streszczoną treść więc Google je lubi.

    54. Priorytety w mapach stron: Priorytety dostarczone w mapach witryn dostarczają wielu cennych wskazówek jakościowych.

    55. Nadmiar linków wychodzących: Prosto ze wskazówek jakościowych: „Niektóre strony mają zbyt wiele odnośników sprawiających, że strona jest nieczytelna i odwracająca uwagę od treści głównej.”

    56. Jakość strony na inne pozycjonowane frazy: Jeśli strona plasuje się wysoko dla innych słów kluczowych może dać firmie Google wewnętrzny znak jakości.

    57. Wiek strony: Chociaż Google preferuje nowe treści, starsze strony, które są regularnie aktualizowane mogą wyprzedzić nowsze strony.

    58. Przyjazny dla użytkownika układ: Powołując się na wytyczne jakościowe Google: „Układ strony na najwyższej jakości stronach sprawia, że treść główna jest od razu widoczna”

    59. Nowe zaparkowane domeny: Aktualizacja Google z grudnia 2011 roku spowodowała obniżenie rankingu nowych, zawierających nieznaczną treść witryn jako niosące treść reklamową o małej wartości merytorycznej.

    60. Użyteczna treść: Google może odróżnić „jakość” i „użytecznych” treści. Więcej na temat. Czynniki na poziomie witryny

    61. Treść stanowi wartość i unikalne spojrzenie: Google stwierdziło, że przywiązuje wagę do unikalności treści i obniżają ranking tych, które nie wnoszą nic nowego, zwłaszcza stron programów partnerskich.

    62. Kontakt na stronie: Google preferuje strony z „odpowiednią ilością informacji kontaktowych”. Dodaje do nich bonus jeśli informacje te pokrywają się z danymi z WHOIS.

    63. Zaufanie domeny/TrustRank: Pokazuje ile mocy spada na nas z łączy zewnętrznych wysoce zaufanych – jest ważnym czynnikiem w rankingu.

    64. Architektura strony: Dobrze opracowana struktura strony (zwłaszcza struktura silosu) pomaga Google tematycznie poukładać zawartość.

    65. Aktualizacje stron: Jak często strona jest aktualizowana – a zwłaszcza, gdy dodaje się nowe treści na stronie – jest czynnikiem wpływającym na świeżość całej witryny.

    66. Liczba stron: Liczba stron witryny jest słabym wyznacznikiem jakości, choć duża witryna odróżnia się od cienkich witryn stowarzyszonych.

    67. Mapa strony: Mapa strony pomaga indeksacji strony, sprawia, że jest łatwiejsza i bardziej dokładna. Ogólnie … odrobinę poprawiając pozycję.

    68. Przestoje serwisu: Dużo przestojów, konserwacji witryny lub zagadnień serwerowych może obniżyć ranking (i może nawet spowodować wyindeksowanie jeśli problem nie zostanie rozwiązany). 69. Lokalizacja serwera: Lokalizacja geograficzna serwera może mieć wpływ na miejsce w rankingu jego okolicy. Podejrzewam, że ma to wpływ na prędkość witryny, a zatem na pozycję witryny.

    70. Certyfikat SSL: Google potwierdziło, że certyfikaty SSL generują wskaźnik do podniesienia rankingu strony.

    71. Regulamin i polityka prywatności: Obie strony pomagają poinformować Google, że witryna jest godna zaufania.

    72. Duplikowane opisy meta: Powielane meta opisy mogą obniżyć widoczność strony.

    73. Ścieżka nawigacji: Ten styl jest przyjazny dla użytkownika elementem architektury strony pozwalającym na określenie gdzie się teraz znajduje. Breadcrumb Zarówno SearchEngineJournal.com and Ethical SEO Consulting zgodnie twierdzą, że mogą mieć one wpływ na pozycję w rankingu.

    74. Wersja na urządzenia mobilne: Oficjalne stanowisko Google jest takie by projektować strony dostosowane również do urządzeń mobilnych, które to zajmą wyższą pozycję na wynikach wyszukiwania z urządzeń mobilnych. Zwłaszcza to widać na stronach, które posiadają specjalną treść komórkową (nie responsywną). Taka wersja zwykle wymagała przekierowanie na m.domena.pl lub domena.pl/m. Jeśli nasza strona posiada wersję responsywną warto zadbać o jej optymalizację pod względem prędkości wczytywania. Analiza prędkości wersji komórkowych jest również pokazywana w Analizatorze SEO. Jeśli nie dysponujesz wersją responsywną swojej strony, zapewne zainteresuje ciebie oferta tanich stron internetowych Apjoo.

    75. YouTube: Nie ma wątpliwości, że filmy z YouTube są traktowane preferencyjnie w wyszukiwarkach (prawdopodobnie dlatego, że Google posiada go): SERPS YouTube W rzeczywistości ruch YouTube.com znacznie wzrósł po Google Panda. Informacja na podstawie Search Engine Land.

    76. Funkcjonalność strony: Trudności w poruszaniu się oraz obsługiwaniu strony internetowej wpływają na obniżenie rankingu w Google. Utrata mocy spowodowana jest dużym wskaźnikiem odrzuceń, małym czasem spędzonym na witrynie itp.

    77. Korzystanie z Google Analytics i Google Webmaster Tools: Niektórzy uważają, że te dwa programy mogą poprawić indeksowanie strony. Mogą one również bezpośrednio wpływać na pozycję, dając więcej danych do pracy z (tj. bardziej dokładny współczynnik odrzuceń, ruch referencyjny z backlinków itp).

    78. Opinie/reputacja strony: Witryny na stronach przeglądarki jak Yelp.com i RipOffReport.com może odgrywać ważną rolę w algorytmie. Google przedstawiło swoją opinię na swoim blogu. Czynniki zewnętrznych odwołań

    79. Wiek domen linkujących: Linki zwrotne od domen starszych mogą być bardziej skuteczne niż z nowych domen.

    80. Liczba linków z domen: Liczba domen odnoszących się jest jednym z najważniejszych czynników w rankingu Google.

    81. Liczba linków z odrębnych adresów IP klasy C: Linki z oddzielnych adresów IP klasy C sugerują większy przedział witryn z linkami do Ciebie.

    82. Liczba linkujących stron: Całkowita liczba linkujących stron – nawet jeśli niektóre z nich są w tej samej domenie – jest czynnikiem wpływającym na pozycję w rankingu.

    83. Alt Tag (dla linków z obrazów): Atrybut Alt jest jak anchor tekst dla obrazu.

    84. Linki z domen .edu lub .gov: Wprawdzie Matt Cutts stwierdził, że Google nie zwiększa znaczenia linków ze stron edukacyjnych i rządowych to i tak wszyscy wiedzą, że mają one szczególną moc choćby z powodu ograniczonej dostępności.

    85. Page Rank stron linkujących: Wskaźnik PageRank stron linkujących ma kluczowe znaczeni dla określenia pozycji naszej strony w rankingu.

    86. Autorytet linkujących domen: Autorytet domen referujących może odgrywać niezależną, ważną rolę w określeniu wartości linku. (Czyli link do strony PR2 z witryny głównej PR3 mogą być warte mniej niż link strony PR2 witryny PR8 yale.edu).

    87. Linki od konkurentów: Linki z innych stron w tym samym rankingu SERP może być bardzo wartościowy dla rangi strony linkowanej.

    88. Zaplecze społecznościowe strony referującej: ilość odnośników portali społecznościowych do strony linkującej może wpływać na wartość linku.

    89. Linki ze złych okolic: Linki ze „złych okolic” mogą obniżyć pozycję w rankingu. Na podstawie Can You Identify Link Networks Bad Neighborhoods. 90. Gościnne wpisy: Chociaż wpis gościnny może być częścią kampanii White Hat SEO może nie mieć takiej wartości jak link kontekstowy na tej samej stronie.

    91. Linki do strony głównej domeny, która strona jest częścią: Linki do strony głównej mogą odgrywać szczególną wagę w ocenie strony – a co za tym idzie – link ma wartość.

    92. Linki nofollow: jeden z najbardziej kontrowersyjnych tematów w SEO. Oficjalna postawa Google w tej sprawie: „Ogólnie rzecz biorąc nie podążamy nimi” “In general, we don’t follow them.” Co sugeruje, że podążają … przynajmniej w niektórych przypadkach. Mając pewien % linków nofollow mogą również wskazywać na naturalne w stosunku do profilu łączy nienaturalnych.

    93. Różnorodność typów łączy: Nienaturalnie duży procent linków pochodzących z jednego źródła może być oznaką spamowania (czyli profile forum, komentarze na blogu). Z drugiej strony, linki z różnych źródeł są znakiem naturalnego profilu linków.

    94. Linki sponsorowane: Słowa takie jak „sponsor”, „partner” i „link sponsorowany” mogą zmniejszać wartość linka.

    95. Linki kontekstowe: Linki wbudowane w zawartości strony, są uważane za bardziej skuteczne niż linki na pustej stronie lub gdzie indziej na tej stronie. Dobrym przykładem linków kontekstowych są linki z wiadomości Google. Linki kontekstowe

    96. Nadmierne przekierowania 301: Według Matta Cuttsa, linki pochodzące z przekierowań 301 mogą zmniejszyć część lub całość PR.

    97. Anchor tekst Backlinków: Jak zaznaczono w tej analizie oryginalnego algorytmu Google: „Po pierwsze, zakotwiczenia często zapewniają dokładniejsze opisy stron, niż sama strona.” Oczywiście, anchor text jest mniej ważna niż wcześniej (prawdopodobnie przez łatwość spamowania). Ale nadal wysyła silny sygnał trafności w małych dawkach.

    98. Anchor teksty linków wewnętrznych: Zakotwiczenia wewnętrznych linków to kolejny sygnał trafności, choć pewnie dużo mniej ważny niż w przypadku linków zewnętrznych.

    99. Znacznik Title w linku: Tytułowy związek (tekst, który pojawia się po najechaniu na link) jest również stosowany ale generuje niewielki sygnał trafności.

    100. Oznaczenie kraju domeny referującej: Pozyskanie linku z domeny o rozszerzeniu kraju (.pl, .de, .co.uk) może pomóc w poprawie pozycji w tym kraju.

    101. Odnośniki w treści: Linki na początku treści mają większą wagę niż te na końcu.

    102. Odnośnika na stronie: Ogólnie, linki osadzone w zawartości strony, są bardziej wydajne niż linki w stopce lub na pasku bocznym.

    103. Trafność linkującej domeny: Informacje ze strony o podobnej tematyce są znacznie silniejsze niż powiązania z zupełnie niepowiązanych miejsc. Dlatego też każda skuteczna strategia SEO dziś skupia się na uzyskaniu odpowiednich linków.

    104. Poziom trafności strony: Hilltop algorytm ustala, że odwołania ze strony, która jest ściśle przywiązana z zawartością strony jest bardziej wydajna niż link z niezależnej strony.

    105. Nastrój około linkowy: Google prawdopodobnie zorientowało się, czy link do witryny jest rekomendacja lub część negatywnej recenzji. Powiązania z pozytywnych lub negatywnych nastrojów wokół nich mogą mieć większą wagę. Na podstawie MOZ.

    106. Słowo kluczowe w tytule: Google uwielbia linki na stronach, które zawierają słowa kluczowe Twojej strony w tytule („Eksperci łączącej ekspertów”).

    107. Linki ze stron o szybkich łączach: strona z pozytywnym prędkości łącza zwykle dostaje impuls SERP.

    108. Linki ze stron o wolnych łączach: Niedostateczna prędkość łącza może znacznie zmniejszyć wartość linku.

    109. Linki z „centrum” witryny: Aaron Wall twierdzi, że linki ze stron, które są uważane za najlepsze zasoby (lub węzły) na określony temat są traktowane w sposób specjalny.

    110. Linki ze stron o wysokim autorytecie: Link z witryny uznanych za „autorytet” może przekazać więcej soku niż link z małej, mikro-stronki.

    111. Linkowanie z Wikipedii: Mimo, że linki są nofollow, wielu uważa, że ​​link z Wikipedii daje wzrost zaufania i autorytet w oczach wyszukiwarek.

    112. Otoczenie backlinka: Słowa, które zazwyczaj pojawiają się wokół linków pozwalają poinformować Google, co to jest o stronie. Na podstawie MOZ.

    113. Wiek backlinka: Według patentu Google, starsze linki mają więcej mocy rankingowej niż nowo zdobyte backlinki.

    114. Odnośniki z prawdziwych witryn oraz „lewych blogów”: Ze względu na rozprzestrzenianie sieci blog, Google prawdopodobnie daje większą moc linkom pochodzących z „prawdziwych”, niż z fałszywych blogów. Google z łatwością rozpoznaje różnice pomiędzy stronami.

    115. Profil naturalnych linków: Strona z „naturalnym” profilem linków będzie wysoko w rankingu i będzie bardziej odporna na jego aktualizację.

    116. System wymiany linków: Przystąpienie do programu wymiany linków może zaskutkować i raczej na pewno zaskutkuje obniżeniem pozycji w rankingu. Oficjalne stanowisko Google.

    117. Treść generowana przez użytkownika: Google jest w stanie zidentyfikować linki wygenerowane jako UGC (User Generated Content Links) w porównaniu rzeczywistego właściciela witryny. Na przykład, oni wiedzą, że link z oficjalnego bloga WordPress.com en.blog.wordpress.com jest zupełnie inny niż link ze stronki z jednym artykułem założonym po to by być. O! taką stroną było secureglass.net zanim zostało zbanowane. Świetny przykład :)

    118. Linki z 301: Link z przekierowania może stracić trochę soku w porównaniu z bezpośrednim połączeniem. Jednak Matt Cutts mówi, że 301 jest podobny do bezpośredniego linku.

    119. Mikroformaty Schema.org: Strony, które obsługują mikroformaty mają wyższą wartość niż strony nieobsługujące. Może to być bezpośredni impuls lub fakt, bo strony z microformatting mają wyższy CTR w SERPach ponieważ są chętniej klikane. mikroformaty

    120. Strony w DMOZ: Wiele osób uważa, że Google daje stronom umieszczonym w katalogu DMOZ trochę więcej zaufania.

    121. Yahoo! Katalog: Algorytm może mieć także specjalne miejsce dla katalogu Yahoo!, biorąc pod uwagę, jak długo ten kataloguje strony.

    122. Ilość linków wychodzących: PageRank jest określony. Link na stronie z setkami OBLi przenosi mniej PR niż strona z kilkoma OBLami.

    123. Linki z profili for: Ze względu na przemysłowy poziomu spamu, Google może znacząco dewaluować moc linków z profili for dyskusyjnych.

    124. Liczba słów linkującej treści: Link z wpisu o 1000 słowach jest silniejszy niż ze zbitki 25 słówek.

    125. Jakość linkującej treści: Linki z źle napisanej lub słabej treści nie przenoszą tak wiele wartości, jak linki z dobrze napisanej treści, uzupełnionej o zawartość multimedialną.

    126. Linki z całej witryny: Matt Cutts potwierdził, że w całym serwisie linki są „skompresowane” i należy je liczyć jako jeden link. Interakcja użytkownika

    127. Organiczny współczynnik CTR dla słowa kluczowego: Strony o wyższym CTR mogą otrzymać impuls SERP dla danego hasła. Na podstawie Search Engine Watch.

    128. Organiczny CTR dla wszystkich słów kluczowych: Strona (lub witryna) o organicznym CTR dla wszystkich słów kluczowych poprawia jej wiarygodność a tym samym pozycję w rankingu.

    129. Współczynnik odrzuceń: Nie każdy zgadza się z twierdzeniem, że współczynnik odrzuceń ma wpływ na pozycję w rankingu. Ja twierdzę, że Google w ten sposób identyfikuje kiepskie strony, z których użytkownicy odchodzą ponieważ strona nie ma wartościowej treści.

    130. Odwiedziny bezpośrednie: Google potwierdziło, że wykorzystuje dane z Chrome lub Analytics aby określić, czy osoby odwiedzają stronę (i jak często). Strony z dużą ilością odwiedzin bezpośrednich mogą zająć wyższą pozycję w SERPach, od tych które generuja mały ruch.

    131. Powtarzalność wejść: W Analytics to „lojalność użytkownika” i pozwala określić czy użytkownik wrócił kiedyś na stronę a więc ma ona coś co go zainteresowało. Strony, na które chętnie użytkownicy wracają mogą uzyskać impuls do podniesienia rankingu.

    132. Strony zablokowane: Google zaniechał tej funkcji w Chrome. Jednak Panda stosuje tę funkcję jako sygnał jakości. Więcej na searchengineland.com.

    133. Zakładki Chrome: Wiemy, że Google zbiera dane z użyciem przeglądarki Chrome. Strony, które się zapamiętane w zakładkach mogą otrzymać wzrost pozycji.

    134. Dane Google Toolbar: Danny Goodwin na stronach Search Engine Watch donosi, że Google korzysta z danych na pasku narzędzi w określaniu rankingu. Jednakże, oprócz danych prędkości ładowania i złośliwego oprogramowania, to nie wiem co oni mogą zbierać paska narzędzi.

    135. Ilość komentarzy: Strony z dużą ilością komentarzy może być sygnałem łatwości interakcji i jakości treści.

    136. Czas zatrzymania: Google przywiązuje bardzo szczególną uwagę na „czas oczekiwania”, a więc jak dużo czasu ludzie spędzają na stronie po wejściu z wyszukiwarki Google. Jest to niekiedy nazywane „długie kliknięcia kontra krótkie”. Jeśli ludzie spędzają dużo czasu na stronie, że może być oznaką jakości treści. A więc jest to skorelowane ze współczynnikiem odrzuceń. Specjalne zasady algorytmu

    137. Zapytanie zasługuje na świeżość: Google podbija ranking nowych witryn dla niektórych wyszukiwań. Na podstawie moz.com.

    138. Zapytanie zasługuje na różnorodność: Google może dodać różnorodności w SERPach dla dwuznacznych słów kluczowych, takich jak „zamek” lub „klucz”. Na podstawie moz.com.

    139. Historia wyszukiwania: Google podnosi pozycję często odwiedzanej strony w SERPach.

    140. Historia wyszukiwania użytkownika: Wyniki wyszukiwania mają wpływ na późniejsze wyszukania. Na przykład, jeśli szukasz „opinii”, a następnie szukasz „tostery”, Google najprawdopodobniej umieści wyżej recenzję tostera w wynikach wyszukiwania. Na podstawie Google customized search results.

    141. Geo kierowanie: Google preferuje strony z lokalnym IP serwera i rozszerzeniem domeny typowym dla danego kraju.

    142. Bezpieczne wyszukiwanie: Wyniki wyszukiwania zawierające przekleństwa lub treści dla dorosłych nie pojawią się osobom mającym włączony filtr Safe Search.

    143. Kręgi Google+: Google pokazuje wyżej wyniki dla autorów i witryn dodanych do kręgów Google Plus.

    144. DMCA Reklamacje: Google obniża ranking stron ze skargą DMCA. Na podstawie Google search algorithm copyright removal notices.

    145. Różnorodność domen: Tak zwane „Bigfoot Update” dodaje kilka wyników z jednej domeny do każdej strony SERP.

    146. Transakcyjne wyszukiwanie: Google czasami wyświetla różne wyniki dla handlowych słów kluczowych, jak wyszukiwanie lotów.

    147. Lokalne wyszukiwania: Google często umieszcza wyniki Google+ Local powyżej „normalnych” wyników organicznych. local-search-result

    148. Google News Box: Niektóre słowa kluczowe mogą otworzyć okno Google News. Google-news

    149. Preferowanie marka: Po aktualizacji Vince, Google zaczął dodawać krótki ogon do wyników wyszukiwań dużych marek.

    150. Google zakupy: Google czasami wyświetla wyniki Zakupy Google w organicznych wyszukiwaniach. google-zakupy

    151. Wyniki dla obrazów: Google wplata w wyniki organiczne wyszukiwania obrazów.

    152. Wielkanocne jajko: Google ma kilkanaście wyników Easter Egg. Na przykład, podczas wyszukiwania w wyszukiwarce obrazów frazy „Atari Breakout”, wyniki wyszukiwania zmienią się w grywalną grę (!) Easer egg

    153. Pojedyncze strony dla marek: Domena lub słowa kluczowe nawiązujące do marki przywołują kilka wyników z tej samej strony. Na podstawie Google now showing 3 or more results from same domain. Czynniki społecznościowe

    154. Liczba tweetów: Jak linki, tweety mogą wpływać na pozycję strony w Google. Na podstawie tweets vs rankings. Liczbę tweetów możesz przeanalizować Analizatorem SEO.

    155. Autorytet użytkowników Twittera: Jest prawdopodobne, że Tweety pochodzące z wiekowych profili posiadających wielu obserwatorów (jak James Hetfield) mają większy wpływ niż tweety z nowych kont.

    156. Liczba lajków na Facebooku: Chociaż Google nie widzi większości kont na Facebooku, prawdopodobnie uznaje liczbę polubień jako sygnał jakościowy. Na podstawie brafton.com. Liczbę polubień możesz przeanalizować Analizatorem SEO.

    157. Wzmianki na Facebooku (shares): Są bardziej podobne do linka zwrotnego więc mogą mieć silniejszy wpływ, niż Facebook lubi. Na podstawie moz.com.

    158. Autorytet użytkowników Facebooka: Podobnie jak w przypadku Twittera, wzmianki na Facebooku pochadzące popularnych stron Facebookowych mają większą moc.

    159. Pinterest Pins: Pinterest jest szalenie popularny kontem społecznościowym z dużą ilością danych publicznych. To jest prawdopodobne, że Google uważa Pinterest Pins sygnał społecznościowy. Liczbę pins możesz przeanalizować Analizatorem SEO.

    160. Głosy na serwisach społecznościowych: Jest możliwe, że Google korzysta z akcji na stronach takich jak Reddit, Pligg i Digg jak innego rodzaju sygnałów społecznościowych.

    161. Liczba Google +1: Mimo, że Matt Cutts jak mantrę powtarza, że „+1’ki nie mają bezpośredniego wpływu” na pozycję strony, to trudno uwierzyć, że Google ignoruje własną sieć społecznościową. Liczbę +1 możesz przeanalizować Analizatorem SEO.

    162. Autorytet użytkowników Google+: To logiczne, że Google będzie przywiązywać wagę do +1’ek pochodzące z kont autorytatywnych bardziej niż z nowych.

    163. Zweryfikowane autorstwo Google+: W lutym 2013, Google CEO Eric Schmidt stwierdził: “Within search results, information tied to verified online profiles will be ranked higher than content without such verification, which will result in most users naturally clicking on the top (verified) results.” „W wynikach wyszukiwania, informacje związane ze zweryfikowanymi profilami będą oceniane wyżej niż treści bez takiej weryfikacji, co spowoduje w przypadku większości użytkowników naturalnymi kliknięciami szczytowych wyników” Potwierdzone autorstwo może zatem być sygnałem jakościowym a tym samym stało się potwierdzeniem mocy +1’ek jako takich:)

    164. Trafność sygnałów społecznościowych: Google prawdopodobnie wykorzystuje informacje dotyczące trafności konta udostępniającego treść jak i tekst otaczający link.

    165. Poziom strony linkowanej z serwisów społecznościowych: Szerokość pasma sygnałów społecznościowych może zwiększyć całkowity wpływ na witrynę, która zwiększy swoją pozycję w wyszukiwarce. Sygnalizowanie marki

    166. Nazwa marki jako Anchor tekst: Zakotwiczenie linku w formie nazwy marki jest prostym ale silnym sygnałem jakościowym marki.

    167. Wyszukiwanie marki: To proste: ludzie szukają marki. Jeśli ludzie szukają witryny w Google (tj. „SecureGlass SEO”, SecureGlass + „pozycjonowanie stron„), Google może brać to pod uwagę przy określaniu marki.

    168. Strona ma stron na Facebooku oraz lajki: Dobre marki mają swoje strony na facebooku oraz bardzo dużo lajków. Warto o to zadbać.

    169. Strona ma profil na Twitterze: Profil na Twitterze oraz wielu oglądających to ważny sygnał o jakości marki.

    170. Oficjalna strona Linkedin: Wiele istniejących firm posiada swój profil na stronach Linkedin.

    171. Pracownicy firmy na Linkedin: Rand Fishkin uważa, pracownicy deklarujący pracę w firmie X i posiadający swoje profile na Linkedin dostarczają sygnału jakościowego o firmie.

    172. Zasadność kont społecznościowych: Konto social media z 10.000 obserwującymi i 2 postami jest zapewne inaczej interpretowane jak takie z 10.000 obserwatorami i dużą ilością postów.

    173. Wzmianka o marce w aktualnościach: Naprawdę wielkie marki uzyskują wzmianki na stronach Google News cały czas. W rzeczywistości, niektóre marki mają nawet swój własny kanał Google News na pierwszej stronie. brands-google-news

    174. Cytowanie marki: Marki wymieniane ale nie linkowane są wskaźnikiem dla Google dotyczącym jakości marki.

    175. Liczba subskrybentów RSS: Biorąc pod uwagę, że Google jest właścicielem popularnego serwisu FeedBurner RSS, to sensowne, że będą patrzeć na RSS danych Abonenta jako sygnał popularności.

    176. Google+ Lokalne firmy: Firmy mają biura. Jest możliwe, że pracownicy Google będą się kontaktować w celu potwierdzenia lokalizacji. Sam kiedyś odebrałem telefon z Irlandii. Pan doskonale mówił po polsku i po krótkiej rozmowie zweryfikował miejsce prowadzenia działalności.

    177. Strona do płacenia podatków: MOZ reportuje, że Google może patrzeć na to, czy strona jest związana z płacenia podatku. Spamowanie wewnątrz strony

    178. Kara Pandy: Strony o niskiej jakości treści (szczególnie farm treści) są mniej widoczne w wynikach wyszukiwania po ukaraniu.

    179. Linkowanie do „złego sąsiedztwa”: Linkowanie s=do stron z tak zwanego „złego sąsiedztwa” jak nielegalnych aptek i lichwiarskich stron pożyczkowych może obniżyć pozycję strony.

    180. Maskowanie przekierowań: Podstępne przekierowania (maskowanie – ang. cloacking) są wielkim „przestępstwem” i jeśli zostaną ujawnione zapewne zakończą się filtrem lub wyindeksowaniem.

    181. Pop-upy lub intensywne ogłoszenia: Oficjalne wytyczne Google mówią, że wyskakujące okienka i rozpraszające reklamy są znakiem niskiej jakości witryny.

    182. Witryna nadmiernie zoptymalizowana: Zawiera czynniki takie jak upychane słowa kluczowe, przesycenie nagłówków, nadmiernej dekoracji słowami kluczowymi.

    183. Strona nadmierne zoptymalizowana: Wielu ludzi twierdzi, że – w odróżnieniu od Pandy – Penguin celuje w indywidualne strony (i nawet wtedy tylko dla określonych słów kluczowych).

    184. Reklamy powyżej dolnej krawędzi strony: “Page Layout Algorithm” karze strony zawierające dużą ilość reklam (i małą ilość treść) powyżej linii ekranu.

    185. Ukrywanie linków partnerskich: Idąc za daleko, próbując ukryć linki partnerskie (zwłaszcza poprzez cloacking) można się narazić na nałożenie kary.

    186. Strony partnerskie: Nie jest tajemnicą, że Google nie jest największym fanem stron partnerskich. Uważa, że ​​strony, które powstają jedynie w celu zarabianie na linkach partnerskich muszą być dodatkowo nadzorowane.

    187. Automatycznie generowana treść: Google nie jest wielkim fanem automatycznie wygenerowanych treści. Jeśli podejrzewa, że witryna jest napompowywana zawartością generowaną przez komputer, może doprowadzić do kary (filtr) lub usunięcia z indeksu (ban).

    188. Nadmierne rzeźbienie PageRank: Zbyt wielkie dążenie do podwyższenia PageRank przez oznaczanie wszystkich linków jako nofollow może być oznaką próby wpłynięcia na pozycję a w rezultacie złapaniem filtra.

    189. Adres IP oznaczony jako spam: Jeśli adres IP twojego serwera znajduje się na liście spamerskiej, może to wpłynąć na wszystkie witryny na tym serwerze.

    190. Spamowanie meta tagów: Przesycenie słów kluczowych umieszczonych w meta tagach. Google myśli, że dodawanie słów kluczowych do meta tagów jest realizowane w celu pogrywania z systemem i może sprawić, że obniży się jej pozycja w wyszukiwarce.


    Powrót      Home