Nowa oferta SEO w Business Sense

Już od pewnego czasu pracowaliśmy nad nową ofertą na pozycjonowanie serwisów internetowych – stron i sklepów www. Bazowaliśmy przede wszystkim na własnym know-how i doświadczeniach, ale zależało nam na tym, żeby nasza oferta SEO była jak najbardziej konkurencyjna i optymalna, dlatego zebraliśmy opinie klientów z rynku oraz  przeanalizowaliśmy słabe i mocne strony różnych ofert.

Oto, czego się dowiedzieliśmy:

  • wiele firm oferuje abonament SEO na czas określony bez możliwości wcześniejszej rezygnacji z usługi,
  • często oferty i umowy są tak skonstruowane, że klienci nie do końca mają świadomość, za co właściwie firma pobiera opłaty,
  • wielu klientów skarży się, że po optymalizacji, która miała usprawnić i ułatwić pozycjonowanie ich serwis www nie działa prawidłowo lub w praktyce nie zostały wykonane żadne działania,
  • firmy na ogół oferują ujednolicone stawki abonamentowe niezależnie od branży, lokalizacji czy historii i jakości domeny.
  • raporty otrzymywane przez klientów są niepełne lub bardzo pobieżne,
  • niewiele firm faktycznie skupia się na prowadzeniu rzetelnych działań off-page,
  • audyty wykonywane przed podpisaniem umowy abonamentowej są skoncentrowane na elementach o żadnym lub nikłym znaczeniu dla pozycjonowania danego serwisu,
  • niemal każda oferta SEO uwzględnia szeroki zakres elementów niezwiązanych z SEO, takich jak dostęp klienta do bazy wiedzy czy opieka specjalistów oraz wsparcie techniczne lub merytoryczne w różnych zakresach niezwiązanych z pozycjonowaniem.

Następnie przystąpiliśmy do konstruowania naszej nowej oferty SEO. Zaczęliśmy od określenia najbardziej optymalnej formy rozliczania biorąc pod uwagę aspekt konkurencyjności cenowej, bezpieczeństwa Klienta oraz Agencji i niezmienności warunków współpracy.

Dlaczego abonament jest lepszy od efektywnościowego modelu rozliczania?

Powodów jest kilka:

  • abonament SEO daje większą swobodę wybierania fraz kluczowych, jednocześnie umożliwiając zmianę strategii pozycjonowania w perspektywie kilku miesięcy. Dzięki temu pozycjonowanie jest bardziej skuteczne.
  • stała opłata abonamentowa to nie tylko komfort planowania budżetu w firmie, ale również spore oszczędności wynikające z niższych niż w modelach za efekt stawek.
  • abonament umożliwia stosowanie wyważonych technik SEO, które poprzez skoncentrowanie na szerokiej liczbie fraz kluczowych oraz budowaniu widoczności w dłuższej perspektywie czasu przynoszą dobre efekty.

W końcu – po przeprowadzeniu skrupulatnej analizy rynku, zbadaniu różnych dostępnych systemów rozliczeń oraz weryfikacji potrzeb i oczekiwań klientów  w ramach usług SEO – mieliśmy wszystkie niezbędne dane do stworzenia prawdopodobnie najkorzystniejszej oferty SEO na rynku.

Oferta SEO Business Sense – co nas wyróżnia?

Nasza oferta SEO to przede wszystkim:

  • abonament z umową na czas nieokreślony, dzięki czemu w każdej chwili możesz bez problemów rozwiązać umowę lub zmienić jej zakres,
  • stała i niezmienna opłata miesięczna, dzięki której z łatwością zapanujesz nad wydatkami swojej firmy,
  • kompleksowe działania on-page i off-page, które pozwolą na jeszcze bardziej efektywne pozycjonowanie Twojego serwisu.

To jeszcze nie koniec…

Pozycjonowanie to działania, których podstawowym zadaniem jest uwidocznienie danego serwisu internetowego w wynikach wyszukiwania dla wybranych słów i fraz kluczowych. Dlatego w Business Sense bardzo dużą wagę przywiązujemy właśnie do wyboru słów i fraz kluczowych.

Nasi specjaliści tak dobierają słowa i frazy kluczowe, żeby jak najlepiej korespondowały z tematyką oraz zawartością serwisu oraz odpowiadały zapytaniom wpisywanym w okno wyszukiwarki internetowej przez internautów, którzy są Twoimi potencjalnymi klientami. W celu jak najbardziej efektywnego pozycjonowania serwisu co 6 miesięcy wdrażamy nowe słowa i frazy kluczowe. Dzięki temu masz pewność, że działania SEO obejmują całą ofertę Twojej firmy, a nie tylko jej wybrane fragmenty.

Klientów zainteresowanych skorzystaniem z naszej oferty zapraszamy do kontaktu z przedstawicielem Agencji Business Sense. Nasi specjaliści z przyjemnością odpowiedzą na wszystkie pytania i wyjaśnią wszelkie wątpliwości dotyczące systemu rozliczania oraz zakresu oferowanych usług.

Jak wybrać dobrą ofertę SEO?

Dobra oferta SEO to taka, która odpowiada naszym potrzebom i oczekiwaniom względem pozycjonowania wybranego serwisu internetowego – strony www lub sklepu online. Zanim jednak uznamy, że dana oferta spełnia nasze wymagania sprawdźmy, na co warto zwrócić uwagę porównując oferty różnych firm.

Po pierwsze – czas trwania umowy

Wiele firm zabezpiecza się oferując umowy na czas określony bez możliwości wcześniejszej rezygnacji ze współpracy. Wybierając partnera SEO warto poszukać firmy oferującej umowę na czas nieokreślony z możliwością jej wypowiedzenia w dowolnym momencie i bez konieczności podawania przyczyny. Oczywiście musimy się liczyć z tym, że wypowiedzenie takiej umowy będzie się wiązało z koniecznością zachowania przewidzianego w umowie okresu wypowiedzenia.

Po drugie – system rozliczania

Do niedawna pozycjonowanie było usługą rozliczaną głównie za efekt, a więc zależnie od miejsca, jakie dana witryna osiągała w wynikach wyszukiwania dla poszczególnych fraz kluczowych. Abonament SEO daje usługodawcy gwarancję zarobku, jednocześnie skłaniając do implementacji wyważonych technik SEO, które przynoszą długofalowe rezultaty, jednocześnie przekładając się na możliwość nawiązania długotrwałej współpracy z klientem. W tym modelu dodatkową wartością są zazwyczaj niższe niż przy efekcie opłaty miesięczne.

Po trzecie – gwarancja stałych i niezmiennych opłat

Nie dla wszystkich firm abonament jest jednoznaczny z gwarancją stałych i niezmiennych opłat miesięcznych. Analizując ofertę warto zwrócić uwagę na to, czy nie zawiera ona żadnych ukrytych kosztów oraz opłat dodatkowych za wykonanie prac związanych z optymalizacją serwisu lub prowadzeniem działań off-page. Stała kwota to także możliwość zaplanowania budżetu marketingowego.

Po czwarte  – systematyczne pozycjonowanie całej oferty

Oferta SEO to przede wszystkim pozycjonowanie wybranych słów i fraz kluczowych. Analizując oferty różnych firm zwracajmy uwagę na te, które uwzględniają możliwość systematycznej zmiany lub dokładania nowych słów i fraz kluczowych. W ten sposób będziemy mieli pewność, że prowadzone działania SEO obejmą całą ofertę naszej firmy, a nie tylko jej fragmenty. Jest to szczególnie istotne w przypadku firm o szerokim zakresie działalności, którego nie sposób „wypozycjonować” od razu. Bardzo istotna jest również analiza wybranych fraz i słów kluczowych w kontekście ich popularności, a więc tego czy rzeczywiście są wpisywane przez internautów w okna wyszukiwarek internetowych. Informacja o okresowej ocenie lub analizie fraz kluczowych powinna być zawarta w ofercie SEO.

Po piąte – działania on-page i off-page

Choć nie wszyscy jesteśmy tego w pełni świadomi na pozycjonowanie serwisów internetowych składają się zarówno działania on-page (zmiany wprowadzane bezpośrednio w serwisie internetowym, które wpływają na jego wygląd, zawartość, funkcjonalność, itp.), jak i działania off-page (m.in. działania związane z link building). Dobra oferta SEO powinna zawierać informacje o prowadzonych działaniach on-page i off-page.

Po szóste – adekwatność oferty w zakresie oferowanej usługi

Najprostszym sposobem na to, żeby oferta SEO wydawała się bogata i atrakcyjna jest zawarcie w niej jak największej liczby dodatkowych usług. Czytając oferty zwracajmy uwagę na to, czy zawarte w nich usługi faktycznie dotyczą pozycjonowania, czy też mają na celu tylko optyczne wzbogacenie oferty. Pozycje, takie jak: stała obsługa specjalistów SEO, doradztwo w zakresie internetowej obsługi klienta, czy dostęp do banku wiedzy to tylko puste slogany, których zadaniem jest uargumentowanie wygórowanej ceny za pozycjonowanie. Nie bójmy się „ubogich” ofert, które zawierają wyłącznie adekwatne usługi – audyt strony, analizę słów kluczowych, link-building, itp. – bo to właśnie one mogą nam przynieść największe korzyści.

Aktualizacje algorytmów Google – sprawdź, co się zmieniło!

Każdego roku Google wprowadza od 500 do 600 modyfikacji algorytmu wyszukiwania. Podczas gdy większość tych zmian to drobne aktualizacje, które nie prowadzą do diametralnych przetasowań na listach wyników wyszukiwania, od czasu do czasu trafiają się poważne updaty, które znacząco wpływają na pozycje stron w wynikach wyszukiwania.

Jak zmieniały się algorytmy wyszukiwania w 2015 roku?

App Indexing – początek personalizacji wyników wyszukiwania na bazie informacji pochodzących z zaindeksowanych aplikacji, które stały się czynnikiem rankingowym dla zapytań zalogowanych użytkowników z zaindeksowaną aplikacją.

Dorway Pages – zaostrzenie walki ze stronami przejściowymi, które są powszechnie wykorzystywane w przypadku programów afiliacyjnych.

Mobilegeddon – zaostrzenie kryterium mobile friendly dla stron internetowych, które doprowadziło do obniżenia pozycji stron niedostosowanych do urządzeń przenośnych w mobilnych wynikach wyszukiwania.

Quality Update – modyfikacja głównego algorytmu wyszukiwania pod kątem sposobu oceny jakości serwisów internetowych.

Panda 4.2. – modyfikacja promująca serwisy o wartościowej zawartości.

Hacked Page – oficjalne rozpoczęcie walki ze spamem zamieszczanym na serwisach internetowych zaatakowanych przez hakerów.

App Interstitial – Google wprowadza sankcje wobec stron mobilnych, które wyświetlają okienka instalacji aplikacji w taki sposób, że zasłaniają one zawartość strony po wejściu na nią z mobilnych wyników wyszukiwania.

HTTPS Update – wersje stron będą domyśle indeksowane w protokole szyfrowanym HTTPS, nawet jeśli nie są one podlinkowane z żadnej strony.

 

Zmiany algorytmów w roku 2016

Mobile-friendly 2 – aktualizacja algorytmu Mobilegeddon, strony mobilne i responsywne mają być jeszcze lepiej widoczne w mobilnych wynikach wyszukiwania.

Pingwin 4.0 – aktualizacja, która na długo przed wdrożeniem wywołała sporo kontrowersji i obaw. Algorytm walczący z niedozwolonymi sposobami linkowania serwisów internetowych dla szybszych efektów pozycjonowania okazał się działać inaczej niż pierwotnie zakładano.  Algorytm ignoruje spamowe linki, co prawdopodobnie skutkuje spadkiem pozycji domeny do której te linki prowadzą.

 

Nowości z 2017

Grounghog Update – specjaliści SEO przypuszczają, że 1 lutego została wprowadzona kolejna aktualizacja algorytmu Google, której zadaniem jest ocena jakości odnośników prowadzących do strony oraz zmniejszenie przekazywanych przez nie mocy PageRank lub też całkowite zignorowanie danych linków podczas określania rankingu podlinkowanej strony. Update nie został oficjalnie potwierdzony przez Google.

Phantom – w ostatnim czasie dużo słyszało się o tym, że roboty Google będą jeszcze dokładniej analizować jakość stron podczas rankingowania serwisów. To przypuszczenie potwierdziło się wraz z wprowadzeniem kolejnej aktualizacji algorytmu Phanton, nazwanej także Quality Update. Daty wprowadzania kolejnych aktualizacji Phantoma – maj/czerwiec 2015, listopad 2015, czerwiec/lipiec 2016, luty 2017 – wskazują na to, że aktualizacja jest ciągle modyfikowana i w przeciągu kolejnych sześciu lub siedmiu miesięcy możemy się spodziewać jej następnej wersji.

Fred Update – nieoficjalna aktualizacja algorytmu, która uderzyła przede wszystkim w serwisy contentowe, którego były nastawione na czerpanie zysków z wyświetlania reklam. Po wprowadzeniu Freda w rankingach spadły głównie serwisy przeładowane reklamami AdSense, w których brakowało wartościowej i przydatnej dla użytkowników treści. W środowisku SEO mówiło się także od spadkach stron z konkursami, które stosują techniki clickbait.

Co dalej? – czyli kilka słów podsumowania

Wszystkie zaobserwowane w ostatnich miesiącach aktualizacje algorytmu wyszukiwania stanowią ciąg dalszy wdrażania polityki Google, której główną misją jest poprawa jakości rezultatów wyszukiwania. Można zatem wnioskować, że dalsze zmiany i updaty algorytmu będą podążać w tym samym kierunku – do zwiększenia zadowolenia użytkowników Google z dostarczanych przez wyszukiwarkę wyników, co jest niemal jednoznaczne z dalszym obniżaniem widoczności serwisów przedstawiających niewielką wartość dla odbiorców.

Wszystko, co powinieneś wiedzieć o Data Center

Centrum Danych (z jęz. ang. Data Center) to miejsce, w którym zostały zlokalizowane komputery odpowiedzialne za zbieranie i przetwarzanie danych. Bez nich miliony użytkowników na całym świecie nie miałyby dostępu do stron i sklepów internetowych, poczty elektronicznej oraz serwisów społecznościowych.

Data Center vs. Serwerownia

Wiele osób używa określeń centrum danych i serwerownia zamiennie, nie zdając sobie sprawy z faktu, iż nie są one tożsame. Serwerownia to część centrum danych, jego najważniejsze miejsce, w którym znajduje się odpowiednio skonfigurowany sprzęt komputerowy odpowiedzialny za prawidłowe działanie całego centrum. Obok serwerowni w profesjonalnym data center znajdują się także miejsca pracy administratorów, pomieszczenia sieciowe oraz pomieszczenia wyposażone w systemy bezpieczeństwa, które gwarantują nieprzerwaną pracę urządzeń kluczowych dla prawidłowego działania centrum także w przypadku awarii zasilania.

Google Data Center – ile i gdzie?

Aby zapewnić swoim użytkownikom najwyższą jakość usług Google korzysta z 15 centrów danych, które są zlokalizowane na terenie obu Ameryk, Azji i Europy. DC Google w Ameryce Północnej można znaleźć następujących stanach: Karolina Południowa i Północna, Iowa, Georgia, Alabama, Oklahoma, Tennessee i Oregon. W Ameryce Południowej znajduje się tylko jedno Data Centre i mieści się w Chile. Azjatyckie DC są zlokalizowane w Singapurze i na Tajwanie. Natomiast trzy europejskie Centra Danych Google zostały zlokalizowane na terenie Irlandii, Finlandii oraz Holandii.

Data Center – jak to działa?

. To oznacza, że użytkownicy z różnych części świata korzystają z danych zgromadzonych w różnych centrach. Oczywiście dane te są na bieżąco aktualizowane i przesyłane między serwerami, ale to wiąże się z opóźnieniami czasowymi, w wyniku których użytkownicy Google w różnych częściach świata mogą uzyskać inne wyniki wyszukiwania dla tej samej frazy.

Zabezpieczenia

Dane gromadzone i przetwarzane przez Google to nie tylko ogólnodostępne serwisy internetowe, ale również prywatne i służbowe dane milionów użytkowników usług Google takich jak Gmail czy Kalendarz Google. Przechowywanie niewyobrażalnej ilości często niezwykle ważnych i poufnych danych to ogromna odpowiedzialność. Dlatego w swoich Data Center Google korzysta z autorskich systemów zabezpieczeń. Zabezpieczenia Google zostały zaprojektowane i stworzone w taki sposób, aby do minimum ograniczyć ewentualne słabe punkty – zarówno w sprzęcie, jak i oprogramowaniu. Dodatkowym zabezpieczeniem przed utratą danych jest ich wielorazowa replikacja oraz przechowywanie na wielu urządzeniach usytułowanych w różnych miejscach na świecie.

Jak sprawdzać postępy w pozycjonowaniu?

Mogłoby się wydawać, że nie ma nic prostszego od wpisania w okno wyszukiwarki określonego zapytania i sprawdzenia pozycji, na której odnośnik do naszego serwisu jest widoczny w wynikach wyszukiwania. Tymczasem w praktyce weryfikacja postępów pozycjonowania wcale nie jest taka prosta, a pozycja zajmowana przez dany odnośnik na liście wyników taka oczywista.

Od czego zależą wyniki pozycjonowania?

Pozycja odnośnika do tej samej strony internetowej w wynikach wyszukiwania Google, w tym samym czasie na trzech różnych urządzeniach należących do trzech różnych użytkowników, znajdujących się aktualnie w trzech różnych miastach może być zupełnie inna.

Jak to się dzieje?

Oczywiście powody mogą być trzy:

  1. Data Center
  2. Geolokalizacja
  3. Personalizacja wyników wyszukiwania Google

Data Center to miejsce, w którym zgromadzone są komputery, których zadaniem jest zbieranie i przetwarzanie danych. Google posiada swoje Data Center w wielu miejscach na świecie. Po uruchomieniu wyszukiwarki użytkownik zostaje automatycznie połączony z dostępnym Data Center i to z jego baz danych pochodzą wyniki wyszukiwania dla zapytań tego użytkownika. Ze względów technicznych, np. czasu niezbędnego na dokonanie aktualizacji danych we wszystkich Data Center wyniki wyszukiwania z różnych DC mogą się od siebie różnić.

Geolokalizacja to algorytm Google identyfikujący lokalizację, z której pochodzi zapytanie i dopasowujący do niej odpowiedzi prezentowane na liście wyników wyszukiwania. Geolokalizacja działa w oparciu o adres IP urządzenia, z którego zostało skierowane zapytanie. W praktyce oznacza to, iż w tym samym czasie użytkownicy z Warszawy, Krakowa i Katowic po wpisaniu w okno wyszukiwania frazy „stomatolog” mogą otrzymać różne odpowiedzi dla swoich zapytań.

Personalizacja wyników wyszukiwania to usługa, dzięki której użytkownik ma otrzymywać wyniki wyszukiwani dostosowane do jego osobistych preferencji. Personalizacja wyników działa na bazie danych gromadzonych przez Google na temat poszczególnych użytkowników – historii odwiedzanych stron, historii wcześniejszych zapytań, kontaktów zapisanych w skrzynce poczty elektronicznej i innych danych z usług Google. Za sprawą personalizacji ten sam użytkownik korzystając z tego samego urządzenia może otrzymać różne wyniki wyszukiwania dla tego samego zapytania – wszystko zależy od tego, czy w momencie wprowadzania zapytania w oknie wyszukiwarki jego urządzenie

Jak sprawdzić, czy moja strona osiąga coraz wyższy wynik?

Algorytmy odpowiedzialne za personalizację wyników wyszukiwania mogą utrudniać obiektywną ocenę rezultatów pozycjonowania dla poszczególnych fraz kluczowych. Nie oznacza to jednak, że ich weryfikacja jest niemożliwa. Warto jednak pamiętać o kilku rzeczach:

  • Urządzenie

W miarę możliwości podczas regularnej weryfikacji wyników pozycjonowania staraj się korzystać z tego samego urządzenia, a najlepiej dwóch – stacjonarnego i mobilnego. Wyniki wyszukiwania mogą się nieco różnić zależnie od urządzenia z jakiego pochodzi zapytanie. W przypadku urządzeń mobilnych Google będzie dążyć do dostarczenia użytkownikowi jak najtrafniejszych wyników, co obejmuje również responsywność i mobilność stron www.

  • Lokalizacja

Staraj się sprawdzać postępy w pozycjonowaniu swojego serwisu przebywając w tym samym miejscu (mieście). Pamiętaj o wpływie geolokalizacji na prezentowane wyniki wyszukiwania. Ocena rezultatów pracy agencji SEO podczas podróży służbowej może nie być najlepszym pomysłem.

  • Częstotliwość

Aktualizacja danych między poszczególnymi Data Center wymaga czasu, dlatego nie wszystkie rezultaty działań SEO są widoczne od razu. Staraj się śledzić zmianę pozycji swojego serwisu na bieżąco, ale nie szalej z częstotliwością. Nie spodziewaj się również rewolucyjnych zmian po każdym zgłoszonym przez agencję działaniu.

  • Ustawienia

Pamiętaj o funkcji personalizacji wyników Google. Sprawdzając postępy w pozycjonowaniu swojej witryny za każdym razem upewnij się, że jesteś wylogowany z innych usług Google, a historia wcześniej odwiedzanych stron została wyczyszczona. Strony, które odwiedziłeś od ostatniej weryfikacji pozycji swojego serwisu w Google mogą wpłynąć na wyniki, które uzyskasz.

Pozycjonowanie – co zrobić, żeby znaleźć się wysoko w Google?

Pozycjonowanie to szereg przemyślanych i zaplanowanych działań, których celem jest kształtowanie oferty i wizerunku produktu, marki lub firmy. Poprzez działania związane z pozycjonowaniem wśród nabywców kreowany jest wizerunek – produktu, marki lub firmy – wyróżniający się na tle konkurencji.

Termin pozycjonowanie w e-marketingu odnosi się przede wszystkim do pozycjonowania stron internetowych, a więc wszelkich działań zmierzających do takiego wypromowania danego serwisu internetowego, żeby zajmował jak najwyższe pozycje w wynikach wyszukiwania dla określonych słów i fraz kluczowych. Działania realizowane w ramach pozycjonowania serwisów www powinny być przemyślane i spójne.

Jak znaleźć się wysoko w Google?

Przede wszystkim należy pamiętać o tym, że serwis internetowy – strona www czy sklep online – są tworzone dla użytkowników, a nie dla wyszukiwarek. Nawet najwyższa pozycja w Google nie będzie przekładała się na wzrost wyników sprzedaży, jeśli strona będzie nieprzyjazna dla użytkowników i wypełniona treściami o niskiej jakości. Dlatego przed rozpoczęciem przygody z pozycjonowaniem warto zlecić profesjonalny audyt serwisu, który pozwoli na jego rzetelną ocenę zarówno pod kątem optymalizacji, jak i użyteczności dla internautów.

Sprawdzone sposoby na jeszcze wyższe pozycje

Choć „triki” na wysokie pozycje w wynikach wyszukiwania Google to wciąż zagadnienie, którego lepiej nie poruszać w pomieszczeniu pełnym ekspertów SEO, bo po krótkiej wymianie zdań może się okazać, że opinii jest więcej niż ekspertów, to co do kilku wszyscy wydają się zgodni.

Po pierwsze domena. Domeny wykazują tę samą cudowną właściwość co wina – z czasem stają się coraz lepsze. Nic więc dziwnego, że na rynku wtórnym domen popyt nie maleje. – Pamiętajmy jednak, że każda domena ma swoją historię. Dlatego przez zakupem domeny, która już nie jest używana warto ją poddać gruntownej analizie i to nie tylko pod kątem przydatności do naszych celów. – tłumaczy  Mateusz Kozłowski, kierownik działu pozycjonowania stron internetowych w firmie Business Sense Agencja SEM.

Po drugie atrakcyjność treści. W tym miejscu warto dodać, że treści powinny być atrakcyjne zarówno dla użytkowników, jak i robotów Google. – przypomina ekspert z Business Sense. Popadanie w skrajności – jak wszędzie – również w tej materii nie popłaca. Skupianie się tylko i wyłącznie na robotach Google na dłuższą metę do niczego nie prowadzi. Natomiast ich całkowite ignorowanie przekłada się na zmniejszoną widoczność w sieci.

Po trzecie tylko dozwolone praktyki. Wszystkie działania, które mają wspomóc twoją witrynę w drodze na coraz wyższe miejsca w wynikach wyszukiwania niosą za sobą pewne ryzyko. strony są wychwytywane przez algorytmy Google i często karane obniżaniem pozycji w wynikach wyszukiwania, co wiąże się z mniejszą widocznością w sieci. Dlatego przed rozpoczęciem pozycjonowania warto sprawdzić, które techniki są dopuszczalne przez Google, a które nie.

Po czwarte fachowa pomoc. Osiągnięcie i utrzymanie wysokiej pozycji w wynikach wyszukiwania Google nie jest łatwe, zwłaszcza dla osób, które nie zajmują się pozycjonowaniem na co dzień i nie śledzą wszystkich zmian algorytmów wyszukiwarki. Na szczęście nikt z nas nie musi być ekspertem od wszystkiego i w każdej chwili możemy skorzystać z fachowej pomocy agencji SEO. Pamiętajmy jednak o tym, żeby wybrać ją z głową.

Jak tworzyć strony przyjazne SEO?

Kluczem do tworzenia stron określanych mianem SEO friendly jest zrozumienie dwóch rzeczy. Po pierwsze Google to tylko algorytm, który nie zna naszej firmy oraz specyfiki jej funkcjonowania. Po drugie SEO to zestaw technik optymalizacyjnych, których zadaniem jest pomóc Google w jak najlepszym zrozumieniu naszej strony i jej głównej tematyki.

Na co zwracać szczególną uwagę tworząc stronę przyjazną SEO?

Strony przyjazne SEO wyróżnia odpowiednia zawartość i jej właściwa organizacja, a także przestrzeganie technicznych aspektów optymalizacji. W związku z powyższym projektując stronę www warto zwrócić szczególną uwagę na:

  • JAKOŚĆ TREŚCI

Treści na stronie są skierowane przede wszystkim do użytkownika, a nie robotów Google. Dlatego powinny być oryginalne i interesujące oraz przyjemne w odbiorze. Unikaj nadużywania słów kluczowych i wynikających z tego koszmarków stylistyczno-językowych.

  • ORGANIZACJA TREŚCI

Treść na stronie powinna być przejrzysta i dobrze zorganizowana. Nikt nie lubi przedzierania się przez niekończące się elaboraty.

  • ODNOŚNIKI

Odwołując się do treści zamieszczonych w innych miejscach na stronie stosuj linkowanie wewnętrzne.

  • TREŚCI ZAMIAST GRAFIK

Nagłówki, linki, ważne hasła – wszystko, co określa tematyczność strony i pokazuje Google istotne treści zamieszczaj na stronie w postaci tekstu, a nie grafik.

  • AKTUALIZACJE

Bądź aktywny. Publikuj artykuły na swojej stronie www, posty w mediach społecznościowych i blogach eksperckich i linkuj. Google lubi, kiedy regularnie dostarczasz  mu nowe treści.

Istotne techniczne aspekty optymalizacji – czyli co?

Strony przyjazne SEO wyróżnia prawidłowa optymalizacja, podczas której zwrócono szczególną uwagę na:

  • META TAGI czyli OPIS STRONY WIDOCZNY DLA WYSZUKIWARKI

Powinien być napisany prosto i zawierać jasny przekaz.

  • NAGŁÓWKI OD H1 DO H6

Nagłówki H1 – H6 służą do uzyskania tematyczności danej witryny. Odpowiadają również za personalizację danej podstrony, dlatego ich właściwe uzupełnienie jest tak istotnym elementem optymalizacji. Głównym nagłówkiem jest H1 – to tutaj zamieszczamy tytuł podstrony, który jednocześnie powinien być skrótowym opisem jej zawartości. W kolejnych nagłówkach powinniśmy zawrzeć dodatkowe treści hierarchizując je od najważniejszych (w nagłówku H2) po najmniej istotne, ale  wciąż ważne (w nagłówku H6).

  • CZYTELNE ADRESY URL

Korzystając z sytemu zarządzania treścią CMS upewnijmy się, ze generuje on ładne, a zarazem przyjazne dla użytkownika i robotów Google adresy. Długie ciągi znaków i liczb nie ułatwiają pozycjonowania.

  • ŚCIĘŻKĘ POWROTU

Ścieżka powrotu (z angielskiego breadcrumbs) ułatwia i usprawnia poruszanie się nawet po bardzo rozbudowanym serwisie.

  • TEKSTU

Wytłuszczenia, kursywa i podkreślenia to narzędzia do formatowania treści, których nie powinieneś unikać. Warto jednak zastąpić popularny znacznik bold <b> xyz </b> znacznikiem strong <strong> xyz </strong>, który pozwala nie tylko zwrócić uwagę użytkowników na istotne treści, ale także robotów Google.

  • SITE MAP czyli MAPA STRONY

Bardziej rozbudowane serwisy mogą mieć problemy z indeksacją podstron. Żeby ich uniknąć wyposaż swoją stronę w mapę odnośników.

  • NIE TYLKO RESPONSYWNOŚĆ I MOBILNOŚĆ

W dobie stron responsywnych oraz lżejszych wersji mobilnych rozbudowanych serwisów nie zapominaj również o dostosowaniu strony do wymogów najpopularniejszych przeglądarek internetowych. Choć niektórym trudno w to uwierzyć, są na świecie internauci korzystający z innych przeglądarek niż Google e.

  • CZAS ŁADOWANIA

Dzisiaj przede wszystkim liczy się czas, również w przypadku ładowania stron www. Internauci często rezygnują z przeglądania danej strony, jeśli ich zdaniem „zamula” albo za długo się ładuje. Zadbaj o to, żeby Twoja strona ładowała się szybko – unikaj zbyt rozbudowanej grafiki, zmiennego tła oraz starych ciężkich czcionek.

  • REKLAMY

Jeśli zamieszczasz na swojej stronie reklamy rób to w sposób subtelny i niedrażniący użytkownika. Wyskakujące zewsząd pop-upy, które uniemożliwiają zapoznanie się z oryginalną treścią strony przynoszą skutek odwroty od zamierzonego.

  • CZARNE TECHNIKI SEO

Nie zamieszczaj w serwisie ukrytych treści. Ukrywanie na stronie treści dla robotów Google to niedozwolona praktyka pozycjonowania, która w dłuższej perspektywie czasu może wpłynąć na zmniejszenie widoczności Twojego serwisu online. Dbaj o to, żeby użytkownik po wejściu na stronę otrzymał dokładnie taką samą treść jak Google.

Geolokalizacja – dlaczego jest tak ważna?

Geolokalizacja to narzędzie, które umożliwia prezentowanie danemu użytkownikowi lokalnych wyników dla jego zapytania. W praktyce oznacza że pozycje widoczne na liście wyników wyszukiwania zależą od bieżącej lokalizacji użytkownika identyfikowanej w oparciu o jego adres IP.

Wyszukiwanie lokalne

Google dąży do tego, aby po wpisaniu mniej lub bardziej precyzyjnego zapytania w oknie wyszukiwarki użytkownik uzyskiwał wynik jak najbardziej dopasowany do jego potrzeb. Jednym z dosyć dużych kroków w tym kierunku jest automatyczna geolokalizacja wyników wyszukiwania. – Wcześniej poszukując gabinetu stomatologicznego w Poznaniu użytkownik przebywający aktualnie w mieście musiał wpisać w okno wyszukiwania zapytanie „dentysta Poznań”. . – tłumaczy Kamil Usiądek, porduct manager odpowiedzialny za Google Analytics w firmie Business Sense Agencja SEM. Zmiana w algorytmie sprawia, że niezależnie od poziomu doprecyzowania zapytania na pierwszych pozycjach w wynikach, często wyniki ściśle związane z miastem, w którym aktualnie przebywamy lub jego najbliższą okolicą.

Geolokalizacja a urządzenia mobilne

Internet mobilny powszechnie dostępny z poziomu urządzeń takich jak smartfony i tablety odgrywa istotną rolę w procesie geolokalizacji wyników wyszukiwania. Badania zachowań internautów dowiodły, że zdecydowana większość osób korzystających z Google za pośrednictwem urządzeń mobilnych potrzebuje odpowiedzi na swoją potrzebę tu i teraz. To „tu i teraz” jest niezwykle istotne z perspektywy zapytań o szeroko rozumianą branżę handlowo-usługową.

Geolokalizacja a local SEO

Coraz większa świadomość działania algorytmu geolokalizacji wśród właścicieli witryn internetowych doprowadziła do popularyzacji usługi, którą w branży określa się mianem lokalnego SEO. W odróżnieniu od tradycyjnych form pozycjonowania, lokalne SEO kładzie większy nacisk na działania związane z optymalizacją serwisów pod wyniki wyszukiwania dla klientów z miasta, regionu lub województwa, w którym mieści się siedziba firmy, jej oddział, lokal usługowy czy punkt odbioru towarów. Istotne jest tutaj faktycznie posiadanie fizycznej lokalizacji, w której regularnie są przyjmowani klienci.

Jak zwiększyć widoczność strony w local SEO?

Należy pamiętać o tym, że w aspekcie mechanicznym – optymalizacji strony oraz działań off site – local SEO działa dokładnie tak, jak tradycyjne SEO. Jedyną różnicą jest tutaj kładzenie większego nacisku na lokalny wymiar promocji witryny, co wiąże się z koniecznością ciągłego informowania robotów Google o konkretnym umiejscowieniu firmy oraz obszarze jej działania. Atutem tego rozwiązania jest mniejsza konkurencyjność popularnych fraz kluczowych i możliwość osiągnięcia wyższych pozycji w wynikach wyszukiwania przy niższych nakładach finansowych, co jest szczególnie opłacalne w przypadku usług, które ze względu na swoją specyfikę muszą być świadczone w konkretnym miejscu. Bardzo dobrym przykładem takich usług są usługi stomatologiczne oraz mechanika samochodowa – nikt z zepsutym samochodem w Krakowie nie będzie szukał mechanika w Gdańsku i odwrotnie.

Ważne zmiany w Google. Pingwin – co to?

Pingwin to algorytm Google odpowiedzialny za zwalczanie niedozwolonych sposobów linkowania stron www. Przed ostatnią aktualizacją algorytm karał strony korzystające z backlinków oraz innych zabronionych metod pozyskiwania zewnętrznych odnośników spadkiem pozycji witryny w wynikach wyszukiwania. Witryny ukarane przez Pingwina 3.0 musiały czekać na zdjęcie filtra i możliwość odzyskania pierwotnej widoczności w sieci aż do wdrożenia kolejnej wersji algorytmu, co zajęło Google prawie dwa lata.

Pingwin 4.0 – Jakie zmiany przyniesie aktualizacja?

W odróżnieniu od swojego poprzednika Pingwin 4.0 działa w czasie rzeczywistym. Oznacza to, że ukarana strona nie musi czekać do kolejnej aktualizacji algorytmu, żeby filtr mógł zostać zdjęty. Ale to nie jedyna korzyść z nowego Pingwina.

Okazało się bowiem, że Pingwin 4.0 działa zupełnie inaczej niż poprzednie wersje algorytmu i zdaje się uwzględniać fakt, iż niektóre witryny padają ofiarami działań hakerów oraz nieuczciwych SEOwców.

Nie taki Pingwin straszny…

Aktualizacja Pingwina, której obawiało się wielu właścicieli witryn oraz webdeveloperów i specjalistów SEO okazała się bardzo korzystna. Zmiany na lepsze odczuły szczególnie ofiary nieuczciwych praktyk – właściciele serwisów, które były infekowane w celu pozyskania dodatkowych odnośników oraz niczego nieświadomi  klienci nieetycznych SEOwców, którzy korzystali z niedozwolonych sposobów linkowania stron dla szybszych efektów pozycjonowania.

Podsumujmy

  • Pingwin 4.0 to najnowsza aktualizacja algorytmu odpowiedzialnego za wykrywanie i zwalczanie niedozwolonych sposobów linkowania stron www.
  • Aktualizacja algorytmu działa w czasie rzeczywistym, co oznacza, iż właściciele „ukaranych” witryn nie będą musieli czekać do kolejnej aktualizacji Pingiwna, żeby odzyskać widoczność w sieci.
  • Nowy Pingwin nie obniża pozycji strony internetowej po wykryciu spamowych backlinków, ale je ignoruje. W konsekwencji w rankingach spadają strony, które korzystały z niedozwolonych linków do zwiększenia swojej widoczności w sieci.

Infekcja strony a utrata klientów

Praktycznie każdy serwis internetowy – jeśli nie zostanie odpowiednio zabezpieczony i nie jest regularnie aktualizowany – może stać się obiektem ataków hackerskich oraz „czarnych” praktyk SEO. Najczęściej celem infekcji jest wykorzystanie atakowanej strony jako zaplecza do reklamy określonych produktów i usług. Królują tutaj treści z branży pornograficznej oraz reklamy wyrobów paramedycznych, których promocja jest zabroniona.

Jakie są najczęściej spotykane formy wirusów i infekcji?

Wśród najczęściej wykorzystywanych form infekcji serwisów internetowych spotyka się wstrzykiwanie fragmentów kodu w mało widoczne miejsca oryginalnego kodu strony (z angielskiego php lub mysql inject) lub wręcz zdalne wgrywane na serwer plików (file inject). Zadaniem obu form infekcji jest generowanie konkretnych akcji, takich jak:

  • wysyłanie spamu,
  • zbieranie adresów mailowych ze strony,
  • zbieranie adresów mailowych użytkowników odwiedzających stronę,
  • otwieranie okien z treściami reklamowymi,
  • przekierowywanie użytkownika na inną stronę www.

Dlaczego infekcja strony prowadzi do utraty klientów?

Infekcja strony w sposób pośredni wywiera negatywny wpływ na wizerunek firmy w Internecie. Dysfunkcyjna strona internetowa, która zalewa użytkowników morzem reklam typu pop-up o podejrzanej treści nie najlepiej wpisuje się w konwencję budowania wizerunku eksperta i jest mało atrakcyjna dla internauty, którego zwyczajnie denerwują nieustannie otwierające się okna z reklamami i filmikami. Ale uciążliwe pop-up`y to nie wszystko. Często, ze względów bezpieczeństwa wyświetlanie zainfekowanej strony na danym urządzeniu jest blokowane przez oprogramowanie antywirusowe, a nierzadko nawet przez samego dostawcę usług hostingowych. Zainfekowana strona jest szybko rozpoznawana przez Google, przez co obniżane są pozycje takiej domeny w wynikach wyszukiwania. To sprawia, że potencjalni klienci nie mają najmniejszych szans na zapoznanie się z zawartością , a co za tym idzie, zmniejsza się ruch na danej stronie oraz spada sprzedaż towarów i usług.

Co może świadczyć o tym, że moja strona jest zainfekowana?

Najczęściej ofiarami ataków hackerskich padają serwisy zaniedbywane, a więc takie, które są rzadko aktualizowane czy też modernizowane. To w takich miejscach wirus może przetrwać najdłużej niezauważony. I choć wielu infekcji na stronie nie jesteśmy w stanie dostrzec gołym okiem, to jest kilka przesłanek, które mogą świadczyć o tym, że nasza strona została zainfekowana:

  1. Pierwszym symptomem infekcji może być blokada wyświetlania strony ze względu na niebezpieczną zawartość nałożona przez firmę hostingową.
  2. O potencjalnej infekcji może świadczyć również blokada możliwości wysyłania wiadomości z konkretnych skrzynek pocztowych ze względu na wysyłkę spamu – powinno nas to szczególnie zaniepokoić, jeśli nie wykorzystywaliśmy tych adresów mailowych do rozsyłania żadnego mailingu masowego.
  3. Trzecim symptomem zawirusowania witryny internetowej są komunikaty programów antywirusowych, które ostrzegają potencjalnych klientów przed niebezpieczeństwem związanym z wejściem na naszą .
  4. Kolejnym sygnałem jest odpowiednio oznaczona strona przez Google, z informacją o infekcji.
  5. Również, przeglądarki takie jak Firefox czy Chrome informują przed wejściem na zainfekowaną stronę, o tym że istnieje ryzyko wyrządzenia szkody na Twoim komputerze etc.

Podejrzewam, że moja strona jest zawirusowana – co robić?

Jeśli podejrzewasz, że Twoja strona została zainfekowana złośliwym oprogramowaniem reaguj od razu! Każda chwila zwłoki działa na Twoją niekorzyść – wpływa negatywnie na wizerunek Twojej firmy i zniechęca potencjalnych klientów do skorzystania z jej oferty! Pomocy możesz szukać w firmie tworzącej serwisy internetowe, w agencji SEO oraz agencji SEM. Specjaliści zajmujący się optymalizacją kodu na co dzień szybko znajdą złośliwe „zastrzyki” i je usuną. – Warto również pamiętać o odpowiednim zabezpieczeniu strony oraz jej regularnej aktualizacji. – przypomina Mateusz Kozłowski, kierownik działu pozycjonowania stron internetowych w firmie Business Sense Agencja SEM, do której codziennie zgłaszają się zrozpaczeni właściciele zainfekowanych stron www.