Matematyka Rankingu Google Trust

Niedawno Google ogłosił, że pracuje nad „sztuczną inteligencją” z własnym algorytmem

Niedawno Google ogłosił, że pracuje nad „sztuczną inteligencją” z własnym algorytmem. Ten algorytm jest drugim najważniejszym pod względem czynników rankingowych. Podczas gdy wielu pozycjonerów zajmowało się pytaniami o istotę mechanizmu, zadałem sobie pytanie: „Okej, ale jaki jest pierwszy czynnik rankingu?”


Moim zdaniem, w oparciu o sześć lat doświadczenia w SEO , pierwszym czynnikiem rankingu jest TrustRank. Składa się z zestawu cech witryny, które Google wykorzystuje do określenia poziomu zaufania do takiej witryny (rozumianej jako TrustRank - stawka znana tylko Google, w przeciwieństwie do jej zwolenników, takich jak na przykład TrustRank stosowany w Majestic Search) Silnik).
Powiedzmy, że TrustRank jest jak wymiar punktowy i istnieje w wielowymiarowej przestrzeni danych, gdzie liczba wymiarów jest liczbą czynników używanych przez algorytm do określenia wielkości TrustRank. Zakładając, że takie czynniki istnieją, a wpływ każdego z nich na TrustRank nie jest taki sam, rozmiar TrustRank byłby wyrażony jako:

T / R {a1 x1, a2 x2, a3 x3, a4 x4, a5 x5,…, az xz}

Gdzie:

  • T / R - to wartość Trust / Relevant
  • xn - jest współczynnikiem liczby „n”
  • a x n - to udział czynnika „ x n ” w całkowitej wielkości wyniku końcowego TR
  • ax n - jest liczbą skończoną i naturalną

Czynnikami „x” mogą być: TR domen łączących; TR strony internetowej, na której umieszczone jest łącze zwrotne; jakość serwera, która objawia się na przykład w jego unikalnym adresie IP lub sąsiedztwie itp.

Zawsze miałem wrażenie, że zmiany pozycji w rankingu wyszukiwania mierzone w odniesieniu do dużej liczby fraz pojawiają się skokowo. Moje uczucia potwierdziły mi znane pozycjonerom, którzy w swoich rozmowach na temat omawianej kwestii, choć raczej ogólnie, używali terminów takich jak „wzrosty”, „spadki” i „stagnacja”.

I nie chodzi o zmianę jednego lub dwóch miejsc danej frazy w tej „hierarchii”, ale o coś bardziej znaczącego, zmianę pozycji naszej strony internetowej w niej (zmiana globalna).
Chociaż ten artykuł jest czymś w rodzaju zgadywania, a nawet fantazji, chciałbym podzielić się moją hipotezą z szerszą publicznością. Następujące dygresje traktuję jako rozwinięcie zdania: Gdybym był Google, zrobiłbym to.
Używając frazy „zmiana pozycji”, mówię o zmianach o charakterze globalnym na stronie w dalszej części artykułu.

Używając frazy „zmiana pozycji”, mówię o zmianach o charakterze globalnym na stronie w dalszej części artykułu

Źródło: http://memy.pl

Jakie są relacje między tymi czynnikami w przestrzeni wielowymiarowej? Nie trzeba być ekspertem, aby powiedzieć, że z pewnością nie są liniowe. W rzeczywistości mogą być one postrzegane jako tzw. (A) ”próg (-y) perkolacji” (zapożyczyłem ten fizyczny termin z teorii wykresów iw tym przypadku oznacza granicę między dwoma różnymi typami struktury), ponieważ jest bardziej odróżniającym obszarem granicznym, innymi słowy: punktem, po którym następuje zmiana pozycji w wyszukiwarce. Ponieważ przedstawienie wielowymiarowego algorytmu w układzie geometrycznym byłoby trudne, skupmy się na dwóch wymiarach.

Załóżmy, że bierzemy pod uwagę tylko dwa czynniki.

  • X1 - wartość jakości linków wstecznych podanych na stronie
  • X2 - ilość linków podanych na stronie
  • PP - zbiór punktów perkolacji jako funkcja x1 i x2, przy której następuje zmiana
  • W - pole wartości, w którym strona uzyskuje wyższą pozycję
  • N - pole wartości, w którym strona internetowa ma niższą pozycję
  • L 1, L 2, L 3, L 4 - strony internetowe o określonych wartościach x1 i x2 oraz o niezmienionych wartościach określających
  • gdzie wartość x1 zawarta w rozmiarze L ma właściwość x 1 (L3) <x 1 (L2) <x 1 (L4) <x 1 (L1)
  • gdzie wartość x1 zawarta w rozmiarze L ma właściwość x 2 (L2) <x 2 (L1) <x 2 (L4) <x 2 (L3)

X1 - wartość jakości linków wstecznych podanych na stronie   X2 - ilość linków podanych na stronie   PP - zbiór punktów perkolacji jako funkcja x1 i x2, przy której następuje zmiana   W - pole wartości, w którym strona uzyskuje wyższą pozycję   N - pole wartości, w którym strona internetowa ma niższą pozycję   L 1, L 2, L 3, L 4 - strony internetowe o określonych wartościach x1 i x2 oraz o niezmienionych wartościach określających   gdzie wartość x1 zawarta w rozmiarze L ma właściwość x 1 (L3) <x 1 (L2) <x 1 (L4) <x 1 (L1)   gdzie wartość x1 zawarta w rozmiarze L ma właściwość x 2 (L2) <x 2 (L1) <x 2 (L4) <x 2 (L3)

Ten układ współrzędnych pokazuje, że aby uzyskać wyższą pozycję w Google, musi przejść z pola N (gdzie znajduje się L2) do pola W, czyli uzyskać takie linki jakości (x1) i ich liczbę (x2) do osiągnąć punkt wartości w zakresie W (punkt L4). Rodzi to interesujące wnioski. Nie jest możliwe, pomimo pozycji zwiększania, posiadanie odpowiedniej liczby łączy, ale niewystarczającej jakości (jak L3). Jednak mając pewną liczbę linków zwrotnych z niewystarczającą ich dystrybucją, dostęp do wyższego poziomu nie jest możliwy (jako L1).

Gdybym był Google, a powyższy wykres byłby prawdziwy, to dzięki temu można by wyjaśnić następujące zjawiska:

  • dodanie kolejnej zmiennej (np. x 3) zmienia położenie punktów L 1, L 2, L 3, L 4 w systemie i kształt punktu przesączania
  • zmiana nachylenia punktu przesączania odzwierciedla zmianę wpływu poszczególnych czynników w rankingu pozycji w wynikach wyszukiwania
  • zmiana stosunku x1 i x2 w odniesieniu do zmiany pozycji nie rozwija się liniowo
  • spadek utrzymywanej domeny jakości może powodować spadki naszej pozycji, nawet przy wzroście liczby linków zwrotnych (chociaż nie jest to wykonywane proporcjonalnie)
  • ten spadek liczby linków zwrotnych może spowodować spadek naszej pozycji nawet przy wzroście jakości drugiego (choć nie jest to wykonywane proporcjonalnie)
  • istnieje jakość pomiaru wartości wstecznych bez przekroczenia tego, że nie jest możliwe osiągnięcie wyższych pozycji
  • istnieje pewna liczba linków zwrotnych, bez których nie spełnia wyższej pozycji
    Poziom zaufania Google do strony internetowej odzwierciedla się w pozycjach rankingowych, które mogą się nagle zmienić.

Kształt punktu przesączania nie ma charakteru umownego (chociaż fizyka zna jego model), a o wiele bardziej interesujący jest sposób, w jaki Google może manewrować, aby zmienić kryteria dopasowywania strony do swojego algorytmu w celu uzyskania dyskretnych pozycji.

Nie jest tajemnicą, że Google w ostatnich latach znacznie zwiększyło kryteria jakościowe skierowań na naszą stronę internetową, aby uwzględnić wzrost pozycji. Dla wielu pozycjonerów była to nowość. Myśląc o „starych wzorcach”, wielu z nich po utracie obecnej pozycji kontynuowało wysiłki na rzecz dalszego nawiązywania dalszych kontaktów bez obawy o ich jakość.

Gdybym był Google i używał krzywej perkolacji, nie pozwoliłbym na łatwe zwiększenie pozycji dla nowych linków bez odpowiedniej jakości.

Wystarczy przesunąć tylko po właściwym kącie i odpowiednim nachyleniu perkolacji krzywej, aby usunąć strony, które nie zapewnią wyniku jakości następnym razem.

Załóżmy, że rozważymy przypadek, w którym uwzględnimy tylko poprzednią zmienną x1 (jakość linków zwrotnych) x2 (liczbę linków zwrotnych), która we właściwych proporcjach określa status witryny. Z czasem Google postanowił położyć nacisk na algorytm, który uwzględnia nieco inny stosunek tych zmiennych w celu uzyskania zmiany pozycji, czego efektem jest przesunięcie PP 1 i PP 2. Sytuacja ta jest zilustrowana na poniższym wykresie:

Na wykresie za pomocą funkcji S1 i S2 oznaczają zmianę relacji ilościowych i jakościowych wstecznych do strony internetowej w czasie
Na wykresie za pomocą funkcji S1 i S2 oznaczają zmianę relacji ilościowych i jakościowych wstecznych do strony internetowej w czasie . Jak widać, strona S1 poradziła sobie ze zmianami w algorytmie, ponieważ konsekwentnie realizuje swoją politykę „budowania linków”. Strona S2 pomimo dobrego punktu początkowego i podobnej pozycji w S1 nie jest poradzona z nową orientacją perkolacji krzywej i nie osiąga zmian pozycji; pomimo dalszego realizowania strategii „budowania linków”, która miała jednak złe założenie.

Konsekwencją powyższego jest jeszcze więcej wyników i możliwości przekształceń geometrycznych. Gdybym był Google, zarządzałbym własnym algorytmem, poruszając się w przestrzeni wielowymiarowej. Zastanawiam się, jaka byłaby odpowiedź Goggle i czy pracownicy odpowiedzialni za zmiany w algorytmie mają tę samą opinię.

Zastanawiam się, jaka byłaby odpowiedź Goggle i czy pracownicy odpowiedzialni za zmiany w algorytmie mają tę samą opinię

Źródło: http://memy.pl

Jestem naprawdę ciekawa, co o tym myślisz?

Podczas gdy wielu pozycjonerów zajmowało się pytaniami o istotę mechanizmu, zadałem sobie pytanie: „Okej, ale jaki jest pierwszy czynnik rankingu?