Analiza SEO: Audyt SEO stron internetowych, doświadczenie TSW

  1. Audyt SEO: domena [/ text_2]

Dzisiaj chcemy podzielić się z Wami całym naszym doświadczeniem w prowadzeniu tak zwanego „SEO AUDIT” dla stron internetowych , czyli sztuki przeprowadzania wszystkich kontroli niezbędnych do zrozumienia i rozwiązania różnych krytycznych problemów w zakresie SEO , aby umożliwić witrynę pozycjonować się i zyskać widoczność w wyszukiwarkach.

Pierwszym krokiem do analizy SEO strony internetowej jest uzbroić się w cierpliwość, termos kawy i odpowiednie narzędzia: jest wiele kroków do podjęcia, zwłaszcza jeśli chcesz zgłębić i pogłębić wszystkie aspekty techniczne i inne.

Audyt SEO: domena [/ text_2]

Pierwszą prawdziwą kontrolą, kiedy zaczynamy wykonywać naszą analizę, jest oczywiście domena. Domena składa się głównie z dwóch części:

  1. TLD (domena najwyższego poziomu) , nazywana również domeną lub rozszerzeniem najwyższego poziomu , to ostatnia część, która składa się na domenę. Na przykład dla domeny: example.com TLD to „.com”. Wybór TLD nie ma szczególnego znaczenia w rankingu stron SEO, ale zaleca się używanie międzynarodowych TLD dla witryn wielojęzycznych (takich jak .com, .net, .org) i krajowych TLD dla witryn z jednym językiem lub zlokalizowanych (na przykład : .it, .fr, .de), ponieważ silnik używa tych ostatnich do lepszego zrozumienia rynku referencyjnego witryny.
  2. Domena drugiego poziomu to część, która poprzedza domenę najwyższego poziomu. Na przykład dla domeny „example.com” domena drugiego poziomu to „przykład”.

com” domena drugiego poziomu to „przykład”

Wybór domeny, rozumianej jako skład TLD w połączeniu z domeną drugiego poziomu, jest bardzo ważny. Każda dziedzina może cieszyć się pewnym poziomem popularności i autorytetu, związanym z jej historycznością. Zobaczymy ten temat później.

Jako przykład zawsze bierzemy przykład.com. Jeśli witryna jest online, sprawdzamy, czy nie jest dostępna z innych domen, ale tylko z jednej.
Porada polega na sprawdzeniu, czy istnieją inne domeny związane z projektem, takie jak „domain.it”, „dominio.org” lub „dominio2.com”. Po uzyskaniu listy sprawdzamy, jak domeny odpowiadają bezpośrednio z naszej przeglądarki. Jeśli ładujesz różne domeny otrzymujesz „ HTTP / 1.1 200 OK ”, to mamy problemy z powielaniem, które należy natychmiast rozwiązać! W większości przypadków użycie przekierowań 301 i poprawna konfiguracja pliku htaccess (w przypadku systemów Apache) może rozwiązać problem w bardzo krótkim czasie.

Na koniec spróbujmy uzyskać dostęp do naszej strony za pomocą „www.” Z przodu (http://www.dominio.com) i bez „www” (http://dominio.com): jeśli w obu przypadkach zobaczymy to samo strona ma problem z powielaniem bardzo podobny do problemu powielania domen i rozwiązywany za pomocą kilku linii htaccess.

Doskonałe narzędzie do zrozumienia i zobaczenia nagłówków, a jeśli wszystkie żądania są spełnione, konieczne jest rozszerzenie Firefoksa do Firefoksa .

Audyt SEO: na miejscu

Jedną z najważniejszych części (która może przedstawiać bardziej krytyczne problemy) podczas analizy strony internetowej jest analiza na miejscu.
Przez Onsite rozumiemy wszystkie aspekty techniczne, które mogą uniemożliwić wyszukiwarce indeksowanie, skanowanie i zrozumienie zawartości konkretnej strony, sekcji lub całej witryny.

Zaczynamy od walidacji kodu HTML , chociaż bardzo trudno go respektować, biorąc pod uwagę wiele wersji przeglądarek i niestandardowych aplikacji, walidacja kodu HTML zgodnie ze standardami w3c jest nadal jedną z „najlepszych praktyk”.
Możemy sprawdzić, ile nasz kod jest nieważny, bezpośrednio na stronie w3c: https://validator.w3.org/ ,

Innym podstawowym aspektem optymalizacji na miejscu jest poprawne użycie nagłówków html lub sekcji, rozdziałów w rozdziałach, w których tekst jest podzielony.
Aby dowiedzieć się więcej na temat nagłówka HTML, możesz się z nim zapoznać to strona.
Aby przyspieszyć operacje sprawdzania nagłówka, korzystamy z wygodnego rozszerzenia Firefox: headsmaps.

Wyłączamy javascript i pliki cookie za pośrednictwem paska narzędzi Web Developer Toolbar, rozszerzenia, którego nigdy nie powinno zabraknąć na liście rozszerzeń Firefoksa dobrego konsultanta SEO. W ten sposób możemy szybko zrozumieć, czy dostęp do zawartości może uzyskać wyszukiwarka. Jeśli w ten sposób znaleźliśmy się przed pustą stroną, całkowicie białą (lub kolorową), najwyraźniej bez treści tekstowych, tutaj odkryliśmy dużą krytyczność do rozwiązania.
Technologia javascript jest bardzo przydatna, aby zwiększyć wrażenia użytkownika dzięki animacjom i przyjemnym efektom, ale nadużycie może uniemożliwić dostęp do treści przez wyszukiwarki.

Od kilku miesięcy, dzięki tak zwanemu „ mobilegeddon ”, Google coraz bardziej docenia wrażenia użytkownika, które nawiguje za pomocą urządzenia mobilnego, również jako czynnik pozycjonujący. Wyposażenie witryny w responsywny układ lub dostosowanie do wszystkich rozdzielczości jest dobrym rozwiązaniem SEO, ponieważ pozwala uniknąć powielania treści i pracy wymaganej do utrzymania 2 różnych platform, komputerów i urządzeń mobilnych.
Możemy poruszać się po witrynie w trybie mobilnym, bez korzystania z telefonu komórkowego, za pomocą przełącznika agentów użytkownika , rozszerzenia, które może być przydatne w tych przypadkach!

Teraz nadszedł czas, aby sprawdzić, czy istnieją restrykcyjne dyrektywy lub błędy, które mogą blokować roboty wyszukiwarek: możemy zacząć od sprawdzenia pliku robots.txt
które powinno się otworzyć, wchodząc do naszej domeny, na przykład http: //dominio.ext/robots.txt.

Ostrzeżenie: modyfikowanie tego pliku bez pełnej znajomości faktów może poważnie zaszkodzić pozycjonowaniu, postępuj ostrożnie.

Podczas otwierania pliku powinniśmy być w stanie zobaczyć serię instrukcji bardzo podobnych do następujących:

# robots.txt
Agent użytkownika: *
Disallow:
Mapa strony: http: //www.dominio.ext/sitemap_index.xml

Dyrektywy zawarte w tym pliku wskazują wyszukiwarkom, czy istnieją zasoby, które można wykluczyć z ich indeksowania i indeksowania.

Pamiętajmy również, aby zezwolić Google na dostęp do naszego css javascript i szablonu (lub może nam to przypominać!).

)

Link do pliku sitemap.xml powinien znajdować się w dyrektywach robots.txt.
Plik sitemap.xml to plik zawierający listę stron w witrynie. Jest czytany przez wyszukiwarki i jest bardzo przydatny w przypadku bardzo dużych lub często aktualizowanych witryn, takich jak blogi, e-commerce i czasopisma. Zapewnia drzewo witryny, co jest świetną pomocą dla pająków, ułatwiając w ten sposób indeksowanie stron i treści.
W mapie witryny możliwe jest nadanie priorytetów skanowania niektórym stronom lub sekcjom, w szczególności tym, które podlegają częstszym zmianom.

Audyt SEO: treść

Jeśli uważamy Google za „wielkiego bibliotekarza internetowego”, musimy pamiętać, że uwielbia oryginalne , uporządkowane i dobrze skategoryzowane treści .
Pająki Google, po zeskanowaniu i zindeksowaniu treści witryny, łączą ją z innymi witrynami z powiązaną treścią, a następnie wyświetlają je po wyszukiwaniu w kolejności istotności. Trafność obliczana przez wiele algorytmów rankingowych.
Z tego powodu, analizując nasze treści, musimy upewnić się, że informacje, które uważamy za najbardziej interesujące, są najłatwiejsze do znalezienia. Ta operacja jest niezbędna przy wyborze architektury informacyjnej naszej witryny.
Ponadto, przed zaprojektowaniem drzewa naszej zawartości, dobrze jest zrozumieć, w jaki sposób użytkownicy będą wchodzić w interakcję z samą zawartością. Google coraz bardziej zwraca uwagę na przepływ nawigacji i użyteczność stron internetowych .

Google coraz bardziej zwraca uwagę na przepływ nawigacji i użyteczność stron internetowych

W parze z drzewem witryny znajduje się konfiguracja struktury adresu URL . Lepiej kilka poziomów katalogów lub drzewo z głębokimi liśćmi?
Przepisywanie przez htaccess lub parametry?
Oto kilka pytań, które należy zawsze zadawać przy projektowaniu struktury adresu URL.
Oczywiście zależy to od złożoności i całkowitej liczby kategorii i podkategorii, które zostaną opublikowane.
Ogólnie rzecz biorąc, jeśli to możliwe, wybieramy krótkie i przepisane adresy URL .
Przypominamy również, że prawidłowe użycie „bułki tartej” jest bardzo przydatne do wskazania silnikowi struktury strony.

Dbamy o to, aby nasze najważniejsze strony były dobrze połączone zarówno wewnętrznie przez „powiązane” strony, jak i zewnętrznie. Każdy link to głos dla nas w oczach pająków!
Sprawdzamy, czy każda strona ma odpowiednią pozycję w strukturze witryny, wystarczającą zawartość, odpowiednie metatagi i dobrze wypełnione.
Jeśli obrazy i filmy są obecne, oznacz je odpowiednimi znacznikami i ewentualnie mikroformatami schema.org, aby wzbogacić ich wizualizację w SERP.

Teraz zwrócimy uwagę na strony kategorii lub podkategorie, w których często znajdujemy paginację treści. Sprawdzamy, czy poprawnie używamy tagów rel „prev” i „next”, więc niech wyszukiwarka zrozumie, jak są zorganizowane nasze „długie” strony. Oto a doskonały, dogłębny link tego tematu.
Sprawdzamy, czy istnieją duplikaty treści lub podobne strony.
Tam, gdzie nie możemy działać, łącząc lub modyfikując te treści, możemy użyć dyrektywy „kanonicznej”, aby wskazać silnikowi, który jest preferowaną stroną do indeksowania i obecności w SERP .
Dalsze informacje na temat zarządzania dyrektywami kanonicznymi są dostępne pod adresem ten adres.

Doskonałym narzędziem do analizy treści i większości czynników na miejscu jest Krzycząca Żaba , symulator pająka, który skanuje wszystkie strony witryny i pozwala wyróżnić problemy związane z metatagami, strukturą adresu URL i wieloma innymi.

Audyt SEO: profil linku

Stałe aktualizacje Google doprowadziły przez lata do wielu wariantów algorytmów i sposobu obliczania wartości i niezawodności łącza.
Dobrą zasadą jest zawsze obserwowanie przychodzących linków. W ten sposób możesz uniknąć kar i kontrolować sytuację swojego profilu linku.
Istotną zasadą jest połączenie dużej liczby zasobów dobrej jakości.
Bardzo przydatnym narzędziem do analizy jakości łączy i tekstu przychodzącego, oprócz autorytetu domeny, jest Majestic. Dzięki temu narzędziu możemy przeprowadzić analizę porównawczą między konkurentami i „inżynierię odwrotną” popularności między domenami.

Popularność linków oznacza nie tylko optymalizację linków przychodzących, ale także zarządzanie linkami wychodzącymi.
Linki wychodzące są wskaźnikiem używanym przez wyszukiwarkę w celu zrozumienia niezawodności i tematyki witryny. Linki łączą zawartość. Połączenie witryny z niezawodnym zasobem zewnętrznym, który może również oferować treści tematyczne podobne do witryny, jest z pewnością symptomem jakości.

Audyt SEO: strona serwera

Prawidłowe zarządzanie serwerem, na którym znajduje się nasza witryna, jest podstawowym aspektem z dwóch powodów:

  1. szybkość reakcji zwiększa wrażenia użytkowników podczas przeglądania, które prawdopodobnie nie pozostaną w witrynie, która powoli się porusza lub nie reaguje na zmiany strony lub kliknięcia myszą
  2. jest jednym z czynników rankingowych branych pod uwagę przez algorytmy Google.

Jeśli naszym hostem jest Linux , upewnijmy się, że mamy najlepiej skonfigurowany serwer WWW Apache, umożliwiający kompresję gzip, wygasanie nagłówków dla najbardziej statycznych plików w naszej witrynie. Wyłączamy także ETag, unikamy przekierowań 301, w których nie potrzebujemy i minimalizujemy zewnętrznych żądań DNS.
Nie ograniczamy się do funkcji technicznych , takich jak procesor, pamięć RAM i przepustowość, aby móc szybko i szybko reagować nawet na jednoczesne żądania wielu użytkowników.

Nie ograniczamy się do funkcji technicznych , takich jak procesor, pamięć RAM i przepustowość, aby móc szybko i szybko reagować nawet na jednoczesne żądania wielu użytkowników

Należy pamiętać o bezpieczeństwie i niezawodności serwera , Google nie lubi witryn, które przechodzą w tryb offline lub generują błędy (500 wewnętrznych błędów serwera) i może je ukarać. Podobnie Google nie oferuje wśród swoich witryn witryny zawierającej złośliwe oprogramowanie.
Upewnijmy się u naszego dostawcy, że możemy uzyskać dostęp do dzienników serwera internetowego, gdzie możemy wykryć błędy, zażądać, że strony nie są już dostępne, żądania nie są spełnione, i naprawić je zarówno dla użytkowników, jak i dla pająków wyszukiwarek.

Google, chcąc uczynić sieć bardziej bezpieczną, rozważy witrynę, nawet jeśli jest dostępna za pośrednictwem szyfrowanego połączenia HTTPS . Instalacja i konfiguracja witryny za pomocą protokołu z certyfikatem SSL jest prośbą do IT!

Audyt SEO: analiza i dane

Źródła danych są kluczowym punktem do zakończenia analizy SEO . Im lepsze dane, tym dokładniejsze mogą być końcowe wnioski.
Google Analytics to doskonałe narzędzie do zbierania danych do celów SEO.
Dzięki Google Analytics możemy analizować trend organicznego ruchu w czasie, przechwytywać najciekawsze treści dla użytkowników, główne strony docelowe, dowolne 404 strony błędów i działać odpowiednio.

Analytics poprawia się, jeśli jest połączony z Google Search Console.
Google Search Console (dawniej Google Webmaster Tools) to panel udostępniany przez Google w celu dostarczania interesujących danych gromadzonych przez wyszukiwarkę.
Po usunięciu możliwości wyświetlania słów kluczowych wejściowych bezpośrednio w raportach Analytics, zasłaniając je słowami „nie podano”, link za pośrednictwem GSC jest jedynym sposobem uzyskania danych na temat słów kluczowych używanych przez użytkowników w celu uzyskania dostępu do witryny.
Możemy zatem uzyskać przegląd wyświetleń i kliknięć generowanych przez naszą witrynę w SERP i uzyskać bardzo przydatne CTR i dane o średniej pozycji .
Ponadto dzięki wiadomościom wysyłanym bezpośrednio przez Google możliwe jest zidentyfikowanie możliwych kar lub działań ręcznych podjętych na stronie.

Inne podstawowe dane do podsumowania naszej analizy SEO mogą pochodzić z narzędzi online i offline. Cenne porady dotyczące aktualnego pozycjonowania i naszych głównych konkurentów można odkryć dzięki specjalnej usłudze SEMrush .

Audyt SEO: wnioski

Jeśli dojdziesz do tego punktu, zaczniesz wchodzić w perspektywę złożoności i zakresu umiejętności wymaganych od konsultanta SEO , ale uważaj, że dopiero zaczynasz.
Analiza SEO lub audyt SEO stanowi niezbędny i podstawowy punkt wyjścia do podjęcia wszelkich działań.
Mając wyraźne i precyzyjne zdjęcie początkowego statusu strony internetowej, możliwe jest kontynuowanie i interweniowanie przy optymalizacji, przy pełnej świadomości całego projektu i kierunku, w którym należy dążyć.
Jeśli potrzebujesz audytu SEO dla swojej firmy, nie wahaj się z nami skontaktować!
Jeśli znasz już tematy i nie przeczytałeś niczego nowego w tym artykule ... zawsze szukamy dobrych SEO, aby rozwinąć nasz zespół!

Składki i podziękowania za artykuł:
Dario Codato
Lorena Piai
Mino Bedin

Lepiej kilka poziomów katalogów lub drzewo z głębokimi liśćmi?
Przepisywanie przez htaccess lub parametry?