Niedawno Google ogłosił, że pracuje nad „sztuczną inteligencją” z własnym algorytmem. Ten algorytm jest drugim najważniejszym pod względem czynników rankingowych. Podczas gdy wielu pozycjonerów zajmowało się pytaniami o istotę mechanizmu, zadałem sobie pytanie: „Okej, ale jaki jest pierwszy czynnik rankingu?”
Moim zdaniem, w oparciu o sześć lat doświadczenia w SEO , pierwszym czynnikiem rankingu jest TrustRank. Składa się z zestawu cech witryny, które Google wykorzystuje do określenia poziomu zaufania do takiej witryny (rozumianej jako TrustRank - stawka znana tylko Google, w przeciwieństwie do jej zwolenników, takich jak na przykład TrustRank stosowany w Majestic Search) Silnik).
Powiedzmy, że TrustRank jest jak wymiar punktowy i istnieje w wielowymiarowej przestrzeni danych, gdzie liczba wymiarów jest liczbą czynników używanych przez algorytm do określenia wielkości TrustRank. Zakładając, że takie czynniki istnieją, a wpływ każdego z nich na TrustRank nie jest taki sam, rozmiar TrustRank byłby wyrażony jako:
T / R {a1 x1, a2 x2, a3 x3, a4 x4, a5 x5,…, az xz}
Gdzie:
- T / R - to wartość Trust / Relevant
- xn - jest współczynnikiem liczby „n”
- a x n - to udział czynnika „ x n ” w całkowitej wielkości wyniku końcowego TR
- ax n - jest liczbą skończoną i naturalną
Czynnikami „x” mogą być: TR domen łączących; TR strony internetowej, na której umieszczone jest łącze zwrotne; jakość serwera, która objawia się na przykład w jego unikalnym adresie IP lub sąsiedztwie itp.
Zawsze miałem wrażenie, że zmiany pozycji w rankingu wyszukiwania mierzone w odniesieniu do dużej liczby fraz pojawiają się skokowo. Moje uczucia potwierdziły mi znane pozycjonerom, którzy w swoich rozmowach na temat omawianej kwestii, choć raczej ogólnie, używali terminów takich jak „wzrosty”, „spadki” i „stagnacja”.
I nie chodzi o zmianę jednego lub dwóch miejsc danej frazy w tej „hierarchii”, ale o coś bardziej znaczącego, zmianę pozycji naszej strony internetowej w niej (zmiana globalna).
Chociaż ten artykuł jest czymś w rodzaju zgadywania, a nawet fantazji, chciałbym podzielić się moją hipotezą z szerszą publicznością. Następujące dygresje traktuję jako rozwinięcie zdania: Gdybym był Google, zrobiłbym to.
Używając frazy „zmiana pozycji”, mówię o zmianach o charakterze globalnym na stronie w dalszej części artykułu.
Źródło: http://memy.pl
Jakie są relacje między tymi czynnikami w przestrzeni wielowymiarowej? Nie trzeba być ekspertem, aby powiedzieć, że z pewnością nie są liniowe. W rzeczywistości mogą być one postrzegane jako tzw. (A) ”próg (-y) perkolacji” (zapożyczyłem ten fizyczny termin z teorii wykresów iw tym przypadku oznacza granicę między dwoma różnymi typami struktury), ponieważ jest bardziej odróżniającym obszarem granicznym, innymi słowy: punktem, po którym następuje zmiana pozycji w wyszukiwarce. Ponieważ przedstawienie wielowymiarowego algorytmu w układzie geometrycznym byłoby trudne, skupmy się na dwóch wymiarach.
Załóżmy, że bierzemy pod uwagę tylko dwa czynniki.
- X1 - wartość jakości linków wstecznych podanych na stronie
- X2 - ilość linków podanych na stronie
- PP - zbiór punktów perkolacji jako funkcja x1 i x2, przy której następuje zmiana
- W - pole wartości, w którym strona uzyskuje wyższą pozycję
- N - pole wartości, w którym strona internetowa ma niższą pozycję
- L 1, L 2, L 3, L 4 - strony internetowe o określonych wartościach x1 i x2 oraz o niezmienionych wartościach określających
- gdzie wartość x1 zawarta w rozmiarze L ma właściwość x 1 (L3) <x 1 (L2) <x 1 (L4) <x 1 (L1)
- gdzie wartość x1 zawarta w rozmiarze L ma właściwość x 2 (L2) <x 2 (L1) <x 2 (L4) <x 2 (L3)
Ten układ współrzędnych pokazuje, że aby uzyskać wyższą pozycję w Google, musi przejść z pola N (gdzie znajduje się L2) do pola W, czyli uzyskać takie linki jakości (x1) i ich liczbę (x2) do osiągnąć punkt wartości w zakresie W (punkt L4). Rodzi to interesujące wnioski. Nie jest możliwe, pomimo pozycji zwiększania, posiadanie odpowiedniej liczby łączy, ale niewystarczającej jakości (jak L3). Jednak mając pewną liczbę linków zwrotnych z niewystarczającą ich dystrybucją, dostęp do wyższego poziomu nie jest możliwy (jako L1).
Gdybym był Google, a powyższy wykres byłby prawdziwy, to dzięki temu można by wyjaśnić następujące zjawiska:
- dodanie kolejnej zmiennej (np. x 3) zmienia położenie punktów L 1, L 2, L 3, L 4 w systemie i kształt punktu przesączania
- zmiana nachylenia punktu przesączania odzwierciedla zmianę wpływu poszczególnych czynników w rankingu pozycji w wynikach wyszukiwania
- zmiana stosunku x1 i x2 w odniesieniu do zmiany pozycji nie rozwija się liniowo
- spadek utrzymywanej domeny jakości może powodować spadki naszej pozycji, nawet przy wzroście liczby linków zwrotnych (chociaż nie jest to wykonywane proporcjonalnie)
- ten spadek liczby linków zwrotnych może spowodować spadek naszej pozycji nawet przy wzroście jakości drugiego (choć nie jest to wykonywane proporcjonalnie)
- istnieje jakość pomiaru wartości wstecznych bez przekroczenia tego, że nie jest możliwe osiągnięcie wyższych pozycji
- istnieje pewna liczba linków zwrotnych, bez których nie spełnia wyższej pozycji
Poziom zaufania Google do strony internetowej odzwierciedla się w pozycjach rankingowych, które mogą się nagle zmienić.
Kształt punktu przesączania nie ma charakteru umownego (chociaż fizyka zna jego model), a o wiele bardziej interesujący jest sposób, w jaki Google może manewrować, aby zmienić kryteria dopasowywania strony do swojego algorytmu w celu uzyskania dyskretnych pozycji.
Nie jest tajemnicą, że Google w ostatnich latach znacznie zwiększyło kryteria jakościowe skierowań na naszą stronę internetową, aby uwzględnić wzrost pozycji. Dla wielu pozycjonerów była to nowość. Myśląc o „starych wzorcach”, wielu z nich po utracie obecnej pozycji kontynuowało wysiłki na rzecz dalszego nawiązywania dalszych kontaktów bez obawy o ich jakość.
Gdybym był Google i używał krzywej perkolacji, nie pozwoliłbym na łatwe zwiększenie pozycji dla nowych linków bez odpowiedniej jakości.
Wystarczy przesunąć tylko po właściwym kącie i odpowiednim nachyleniu perkolacji krzywej, aby usunąć strony, które nie zapewnią wyniku jakości następnym razem.
Załóżmy, że rozważymy przypadek, w którym uwzględnimy tylko poprzednią zmienną x1 (jakość linków zwrotnych) x2 (liczbę linków zwrotnych), która we właściwych proporcjach określa status witryny. Z czasem Google postanowił położyć nacisk na algorytm, który uwzględnia nieco inny stosunek tych zmiennych w celu uzyskania zmiany pozycji, czego efektem jest przesunięcie PP 1 i PP 2. Sytuacja ta jest zilustrowana na poniższym wykresie:
Na wykresie za pomocą funkcji S1 i S2 oznaczają zmianę relacji ilościowych i jakościowych wstecznych do strony internetowej w czasie . Jak widać, strona S1 poradziła sobie ze zmianami w algorytmie, ponieważ konsekwentnie realizuje swoją politykę „budowania linków”. Strona S2 pomimo dobrego punktu początkowego i podobnej pozycji w S1 nie jest poradzona z nową orientacją perkolacji krzywej i nie osiąga zmian pozycji; pomimo dalszego realizowania strategii „budowania linków”, która miała jednak złe założenie.
Konsekwencją powyższego jest jeszcze więcej wyników i możliwości przekształceń geometrycznych. Gdybym był Google, zarządzałbym własnym algorytmem, poruszając się w przestrzeni wielowymiarowej. Zastanawiam się, jaka byłaby odpowiedź Goggle i czy pracownicy odpowiedzialni za zmiany w algorytmie mają tę samą opinię.
Źródło: http://memy.pl
Jestem naprawdę ciekawa, co o tym myślisz?
Podczas gdy wielu pozycjonerów zajmowało się pytaniami o istotę mechanizmu, zadałem sobie pytanie: „Okej, ale jaki jest pierwszy czynnik rankingu?