Co to jest Log File Analysis?

Log file analysis to analiza logów serwera (access logs, error logs), która pozwala zrozumieć, jak boty – szczególnie Googlebot – crawlują Twoją stronę, jakie podstrony odwiedzają, jak często i jakie błędy napotykają.

Dlaczego ma znaczenie:

  • Googlebot ma ograniczony crawl budget – może marnować go na strony, które nie powinny być crawlowane (stare URL-e, panele, filtry)
  • logi serwera pokazują realne zachowanie botów – dokładniej niż dane z GSC
  • pozwalają wykryć problemy (404, 500, wolne strony, pętle crawl)
  • umożliwiają optymalizację crawl efficiency

Jak czytać access logs:

  • każdy wpis zawiera IP, timestamp, URL, status HTTP (200, 404, 301, 500), user agent, response time
  • filtruj wpisy z user-agent „Googlebot”
  • analizuj statusy – szczególnie 404 i 500
  • sprawdzaj liczbę requestów do poszczególnych URL-i
  • porównuj response time – wolne strony mogą ograniczać crawl

Narzędzia:

  • wymagany dostęp do logów serwera (hosting, VPS, serwer dedykowany)
  • na shared hostingu dostęp bywa ograniczony
  • narzędzia: Screaming Frog (analiza logów), Semrush, Ahrefs, Moz
  • bardziej zaawansowane podejście – analiza w Pythonie (parsowanie logów i filtrowanie Googlebota)

Najlepsze praktyki:

  • analizuj logi regularnie (np. raz w miesiącu)
  • monitoruj crawl budget w Google Search Console
  • jeśli Googlebot crawluje nieistotne URL-e – blokuj je w robots.txt
  • jeśli często występują 404 – wdrażaj przekierowania 301
  • monitoruj czas odpowiedzi – jeśli przekracza ~2 sekundy, Googlebot może ograniczyć crawl rate

← Powrót do słownika SEO


Szukasz konsultanta SEO dla firm SaaS i B2B? Zobacz, jak mogę pomóc Twojej firmie rosnąć dzięki SEO.

Przewijanie do góry