TL;DR. Audyt SEO w 2026 roku to nie już „przeklikanie” Screaming Frog plus raport z Lighthouse. To systematyczna rewizja pięciu warstw — technicznej, strukturalnej, treściowej, link-buildingowej i AIO (LLM visibility) — zakończona priorytetowym backlogiem zmian z właścicielami, estymacją i KPI. Poniżej znajdziesz ponad sto konkretnych punktów kontrolnych, tabelę narzędzi pogrupowaną po sekcjach, dziesięcioetapowy playbook pracy, katalog najczęstszych błędów i FAQ. Całość po polsku, bez tłumaczeń maszynowych, z naciskiem na to, co realnie porusza wskaźniki w 2026 — indeksacja pod LLM, spójność encji (entity SEO), Core Web Vitals w wydaniu INP i E-E-A-T weryfikowalne na poziomie kodu źródłowego.
Dlaczego audyt SEO w 2026 roku różni się od audytu sprzed dwóch lat?
Różnica leży głównie w tym, kto czyta Twoją stronę. Dwa lata temu audyt koncentrował się niemal wyłącznie na crawlerze Google i ewentualnie Bing. Dziś stronę indeksuje dodatkowo GPTBot, ClaudeBot, PerplexityBot, Google-Extended (dla AI Overviews), Bytespider oraz kilkanaście pomniejszych botów LLM. Każdy z nich interpretuje strukturę inaczej, ale wszystkie preferują to samo: jednoznaczność semantyczną, odpowiedzi w formacie pytanie-odpowiedź, schema.org, czyste HTML bez nawarstwionych skryptów i realną autorytatywność mierzoną linkami z zaufanych źródeł.
Dodatkowo doszedł trzeci front: ocena generatywna. Google AI Overviews oraz cytowania w ChatGPT i Perplexity zależą nie tylko od klasycznego rankingu, ale też od tego, czy Twoja strona jest „citable” — ma autora, datę, jasne deklaracje faktów, tabele, listy i konkretne liczby. Audyt bez warstwy AIO to w 2026 audyt niepełny.
Druga zmiana to Core Web Vitals w wersji Interaction to Next Paint (INP), która od 2024 roku zastąpiła FID. INP mierzy reakcję strony na wszystkie interakcje, a nie tylko pierwszą. Skutek: stare motywy i wtyczki, które na FID wyglądały zielono, na INP potrafią zebrać 400–600 ms przy pierwszym otwarciu menu. Audyt musi to wyłapać i zaproponować rozwiązanie — najczęściej kompresję skryptów i usunięcie blokujących third-party.
Trzecia zmiana to schema.org. W 2026 niemal każda branża ma dedykowany typ (Article, HowTo, FAQPage, Recipe, Product, LocalBusiness, Course, JobPosting) i Google coraz rzadziej akceptuje brakujące pola. Audyt musi obejmować walidację każdej szablonowej strony typu single w Rich Results Test oraz Schema Markup Validator od Schema.org.
Co dokładnie powinien zawierać audyt SEO w 2026 roku?
Dobry audyt ma pięć równorzędnych sekcji, a każda z nich swoje metryki wyjścia. Nie chodzi o to, żeby „znaleźć wszystko”, bo wtedy klient dostaje dokument na 120 stron i nic z tego nie wdraża. Chodzi o to, żeby znaleźć maksymalnie dwadzieścia problemów wysokiego priorytetu, opisać je językiem decyzji (koszt vs. wpływ) i zestawić z backlogiem zadań dla zespołu.
Sekcje, które powinny się pojawić zawsze:
- Techniczna SEO — indeksacja, crawl budget, renderowanie, Core Web Vitals (LCP, INP, CLS), status 4xx/5xx, przekierowania, hreflang, kanoniczne, sitemap, robots, HTTPS, HTTP/2 lub HTTP/3.
- Struktura i architektura — hierarchia kategorii, głębokość kliknięć, wewnętrzne linkowanie, nawigacja, breadcrumbs, paginacja, facety, duplikaty, parametry URL.
- Treść i on-page — intent match, pokrycie tematyczne, nagłówki, meta, obrazy, schema.org, E-E-A-T, kanibalizacja, thin content, świeżość, autorstwo, FAQ.
- Link building i autorytet — profil linków zwrotnych, anchor text, toxic linki, utracone linki, lost redirects, linki z katalogów, partnerzy, konkurencja na kotwice brandowe i transakcyjne.
- AIO / LLM visibility — cytowalność, obecność w AI Overviews, llms.txt, struktura pytanie-odpowiedź, gęstość encji, deklaracje faktyczne, autor, data, źródło.
W praktyce szósta warstwa — analityka — jest niezbędna, żeby w ogóle mierzyć efekt rekomendacji. Jeśli GA4 nie zbiera eventów, a Search Console ma tylko jedną właściwość, raport audytu będzie oparty na domysłach.
Jak zacząć audyt SEO — od czego naprawdę wyjść?
Zacznij nie od crawlera. Zacznij od rozmowy z klientem lub właścicielem produktu. Potrzebujesz pięciu rzeczy, zanim uruchomisz jakiekolwiek narzędzie:
- Cel biznesowy. Czy strona ma generować leady, sprzedaż, rejestracje, ruch afiliacyjny, świadomość marki? Bez tego nie wiesz, co jest sukcesem.
- Historia domeny. Kiedy powstała, czy była migrowana, czy była karana (manual action), czy miała redesign w ostatnich 24 miesiącach.
- Dostępy. Search Console, Analytics, CMS, FTP lub panel hostingu, Ahrefs/Semrush/Majestic, Screaming Frog licencja, Looker Studio, BigQuery jeśli jest.
- Konkurencja realna. Nie ta, którą klient myśli, że ma, tylko ta, która bije go w SERP na kluczowe zapytania. Sprawdzisz to w 10 minut w Ahrefs lub Semrush.
- Obecne KPI i benchmarki. Ruch organiczny ostatnie 12 miesięcy, konwersje, średnia pozycja, CTR, liczba zaindeksowanych stron.
Dopiero po tej rozmowie odpalasz pierwszy crawl — najlepiej nocny, żeby rano mieć pełne dane i móc je zestawić z logami serwera. Więcej o tym, jak projektować sam proces planowania treści po audycie, znajdziesz w naszym przewodniku Hub and spoke w SEO 2026.
Jaka jest kompletna checklista audytu SEO 2026 (100+ punktów)?
Poniżej pełna lista kontrolna. Traktuj ją jak arkusz, przez który przechodzisz z zaznaczaniem OK / do poprawy / krytyczne. Nie każdy punkt dotyczy każdego serwisu, ale jeśli pomijasz więcej niż dwadzieścia procent, prawdopodobnie nie jest to już audyt, tylko przegląd.
Techniczne SEO (30 punktów)
- Strona dostępna wyłącznie pod jedną wersją (www vs bez www, http vs https).
- HTTPS z aktualnym certyfikatem, HSTS włączony.
- HTTP/2 lub HTTP/3 na serwerze, zweryfikowany w devtools.
- robots.txt poprawny — nie blokuje /wp-content/, /wp-json/, /uploads/.
- robots.txt zawiera Sitemap: skierowany na główny sitemap index.
- sitemap.xml istnieje, jest zaindeksowany w Search Console, bez błędów.
- Sitemap nie zawiera URL z noindex, 404, 301, canonical do innej strony.
- Wszystkie strony kanoniczne samoreferencyjne lub celowo wskazujące alternatywę.
- Brak łańcuchów przekierowań dłuższych niż jeden skok.
- Brak linków wewnętrznych prowadzących do 404 lub 301.
- Strony błędów (404, 500) zwracają poprawne kody HTTP.
- Paginacja spójna — rel=prev/next lub wyłącznie canonical na pierwszą stronę, konsekwentnie.
- Hreflang poprawny (jeśli jest), bez błędów zwrotności.
- Mobile-friendly — test Google, brak interstitiali, czytelna czcionka.
- LCP < 2,5 s na P75 w CrUX.
- INP < 200 ms na P75 w CrUX.
- CLS < 0,1 na P75 w CrUX.
- TTFB < 600 ms, najlepiej < 400 ms.
- Obrazy lazy-loaded, kompresowane (WebP lub AVIF), z szerokością i wysokością w HTML.
- CSS i JS zminifikowane, krytyczny CSS inlined.
- Fonty z font-display: swap, preload na kluczowych fontach.
- Brak render-blocking third-party skryptów w head.
- GZIP/Brotli włączony.
- Cache-Control ustawiony na statyczne zasoby.
- Brak mixed content (ostrzeżeń o HTTP w HTTPS).
- Strony zawierają poprawny viewport meta.
- JavaScript renderuje treść przed interakcją (SSR lub SSG, nie wyłącznie CSR).
- Logi serwera przejrzane pod kątem botów — Googlebot, GPTBot, ClaudeBot crawlują kluczowe strony.
- Brak soft 404 (strony z treścią, ale traktowane przez Google jako brak).
- X-Robots-Tag i meta robots spójne, bez konfliktów.
Struktura i architektura (20 punktów)
- Głębokość kliknięć ≤ 3 dla 90% kluczowych stron.
- Hierarchia kategorii spójna, bez płaskiej struktury „wszystko pod root”.
- Linki wewnętrzne używają opisowych anchor textów, nie „kliknij tutaj”.
- Breadcrumbs obecne na wszystkich szablonach (poza home).
- Breadcrumbs z BreadcrumbList schema.
- Menu główne ma ≤ 7 pozycji w pierwszym poziomie.
- Stopka zawiera odnośniki do kluczowych kategorii i stron prawnych.
- Paginacja działa (nie tylko „Load more” w JS).
- Facety (filtry) w e-commerce mają noindex lub canonical do strony nadrzędnej.
- Parametry URL kontrolowane (np. utm_* nie tworzą duplikatów).
- Brak kanibalizacji — dwie strony nie konkurują na tę samą frazę.
- Kluczowe strony mają co najmniej 3 linki wewnętrzne z innych stron.
- Orphan pages (strony bez linków wewnętrznych) zidentyfikowane i rozwiązane.
- Wyszukiwarka wewnętrzna działa, nie generuje indeksowanych stron wynikowych.
- Strona 404 linkuje do mapy strony lub popularnych kategorii.
- Mapa strony HTML (nie tylko XML) dostępna dla użytkowników.
- URL-e czytelne, bez ID, bez długich parametrów, małymi literami.
- Slug URL ≤ 60 znaków dla 90% stron.
- Brak duplikatów treści przez parametry, trailing slash, wielkość liter.
- Architektura wspiera hub-and-spoke — kategorie-pillary linkują do artykułów wspierających.
Treść i on-page (25 punktów)
- Każda strona ma unikalny title, ≤ 60 znaków.
- Każda strona ma unikalny meta description, 140–160 znaków.
- Jeden H1 na stronę, zgodny z intencją zapytania.
- Hierarchia H2/H3 logiczna, bez przeskoków (np. H2 → H4).
- Treść pokrywa intencję — informacyjną, nawigacyjną, transakcyjną lub komercyjną — zgodnie z SERP-em.
- Kluczowa fraza w title, H1, pierwszych 100 słowach i URL.
- Treść liczy ≥ 1200 słów dla pillara, ≥ 700 dla supportingu (orientacyjnie).
- Artykuły mają autora z bio i linkiem do strony autora.
- Data publikacji i aktualizacji widoczna i w schema.
- Obrazy mają opisowy alt, nie „image1.jpg”.
- Obrazy kompresowane WebP/AVIF, maksymalnie 200 kB na obraz.
- Tabele i listy używane tam, gdzie pomagają w AIO i cytowalności.
- FAQ na kluczowych stronach z FAQPage schema.
- Article schema na artykułach, z author, datePublished, dateModified.
- Product schema (e-commerce) z price, availability, aggregateRating.
- LocalBusiness schema (lokalne) z adresem, telefonem, godzinami.
- Breadcrumbs schema (BreadcrumbList) na wszystkich szablonach.
- HowTo schema tam, gdzie jest instrukcja krok po kroku.
- Linki wewnętrzne z artykułów do kategorii-pillarów i odwrotnie.
- Linki wychodzące do autorytatywnych źródeł (rel=nofollow dla reklamowych).
- Brak thin content (stron < 300 słów z intencją informacyjną).
- Brak kanibalizacji między artykułami a kategoriami.
- Brak stron „zombie” — pustych, nieaktualizowanych, bez ruchu i bez linków.
- Treść świeża — artykuły starsze niż 18 miesięcy sprawdzone i zaktualizowane lub connected via internal links do nowszych wersji.
- Polskie znaki poprawnie wyświetlane, brak mojibake (np. „Ś” zamiast „Ś”).
Link building i autorytet (15 punktów)
- Profil backlinków przejrzany w Ahrefs/Semrush — brak spike’ów niskiej jakości.
- Stosunek dofollow do nofollow naturalny, zbliżony do konkurencji.
- Anchor text zdywersyfikowany — brand, URL, generic, exact-match w proporcjach zbliżonych do niszy.
- Brak nienaturalnych anchor textów (np. „kup viagra online” w portfolio SEO).
- Toxic linki zidentyfikowane — disavow tylko przy sygnałach manual action.
- Utracone linki (lost backlinks) przejrzane, odzyskane tam, gdzie możliwe.
- Kluczowe strony mają linki z domen tematycznie powiązanych.
- Profil w katalogach branżowych (np. lokalne katalogi, branżowe) kompletny.
- Linki z Wikipedii, .gov, .edu jeśli są — doceniane w E-E-A-T.
- Konkurencja przeskanowana pod kątem content gap linkowego.
- Brand mentions bez linków zidentyfikowane — kandydaci do outreachu.
- HARO / Connectively / platformy ekspertów użyte aktywnie.
- PR digital — publikacje eksperckie w mediach branżowych zaindeksowane.
- Linki z social media (LinkedIn, X, Facebook) nie zastępują klasycznego linkbuildingu.
- Monitoring nowych linków raz w miesiącu z alertem na spike’i.
AIO i LLM visibility (15 punktów)
- llms.txt dostępny w root domeny (dla RankMath Pro lub ręcznie).
- GPTBot, ClaudeBot, PerplexityBot nie zablokowane w robots.txt (chyba że celowo).
- Google-Extended nie zablokowany (dla AI Overviews).
- Kluczowe strony zawierają strukturę pytanie-odpowiedź.
- Deklaracje faktyczne z liczbami i datami („w 2026 roku 68% stron…”).
- Autor z nazwiskiem, bio, linkami do profili zawodowych (LinkedIn, X).
- Data publikacji jawna i w schema.
- Źródła cytowane — linki do badań, raportów, danych.
- Strona pojawia się w cytowaniach AI Overviews / Perplexity / ChatGPT dla kluczowych zapytań — sprawdzone ręcznie.
- Brand entity zdefiniowany — strona O nas, schema Organization, Knowledge Panel jeśli jest.
- Encje (osoby, produkty, miejsca) oznaczone spójnie z Wikidata lub Wikipedia.
- Tabele i listy używane tam, gdzie LLM chętniej cytuje.
- Treść w pierwszych 200 słowach odpowiada na zapytanie wprost, bez „rozgrzewki”.
- Structured data walidowana w Schema Markup Validator.
- Alt image teksty opisowe — LLM-y czytają alt jak opisy.
Razem ponad sto punktów. Jeśli przechodzisz przez nie po raz pierwszy, zaplanuj 6–10 godzin na sam audyt bez pisania raportu. Raport to kolejne 4–8 godzin. To realny koszt jakościowego audytu w 2026 roku i warto go komunikować klientowi przed startem.
Jaka tabela narzędzi odpowiada której sekcji audytu?
Narzędzi jest dziś tyle, że początkujący specjalista łatwo gubi się między Screaming Frog, Sitebulb, Ahrefs, Semrush, Search Console, Looker Studio, PageSpeed Insights, WebPageTest, a do tego wszystkim dochodzą narzędzia AIO — Otterly, Profound, czy hand-rolled monitoring w Pythonie. Poniższa tabela grupuje je tak, żeby było jasne, co do czego.
| Sekcja audytu | Kluczowe punkty kontrolne | Narzędzia (główne + alternatywne) |
|---|---|---|
| Techniczna SEO | Crawl, indeksacja, Core Web Vitals, robots, sitemap, status kodów | Screaming Frog, Sitebulb, Google Search Console, PageSpeed Insights, WebPageTest, Chrome DevTools, Ahrefs Site Audit |
| Struktura i architektura | Głębokość, linki wewnętrzne, hierarchia, kanibalizacja, orphan pages | Screaming Frog (z visualizations), Sitebulb, Ahrefs (Internal Links), Semrush Site Audit, ręczna mapa w Miro/FigJam |
| Treść i on-page | Intent, pokrycie, meta, schema, E-E-A-T, świeżość, kanibalizacja | Surfer SEO, Clearscope, NeuronWriter, SEMrush Content Audit, Ahrefs Content Explorer, Search Console, Schema Validator (Schema.org) |
| Link building i autorytet | Backlinki, anchor text, utracone linki, toxic linki, konkurencja | Ahrefs, Majestic, Semrush, Google Search Console (raport Links), Moz Link Explorer |
| AIO / LLM visibility | Cytowalność, llms.txt, struktura Q&A, obecność w AI Overviews | Otterly.ai, Profound, Peec.ai, ręczne testy w ChatGPT/Perplexity/Gemini, Schema Markup Validator, Rich Results Test |
| Analityka i pomiar | KPI, konwersje, ruch, zachowanie użytkownika | Google Analytics 4, Google Search Console, Looker Studio, BigQuery, Matomo (RODO-friendly), Plausible, PostHog |
W 2026 roku nie ma jednego narzędzia „wszystko w jednym”. Najlepsze audyty powstają z połączenia crawlera (Screaming Frog lub Sitebulb), narzędzia do backlinków (Ahrefs albo Semrush), Search Console jako źródła prawdy o indeksacji i ruchu, oraz czegoś do AIO (Otterly, Profound lub własny skrypt). Reszta to dodatki. Więcej o doborze stacku znajdziesz w naszym artykule Semtools i konkurencja SEO.
Jak wygląda playbook audytu SEO 2026 w 10 etapach?
Playbook to sekwencja, którą powtarzasz dla każdego audytu, dopóki nie nauczysz się na pamięć. Nie ma w niej magii — jest dyscyplina. Oto dziesięć etapów:
- Brief i dostępy (30–60 min). Rozmowa z klientem, zebranie danych wejściowych, KPI, historii domeny. Otrzymanie dostępów do wszystkich narzędzi. Potwierdzenie zakresu i terminu.
- Pierwszy crawl (2–6 godz., zwykle nocą). Screaming Frog z JavaScript rendering włączonym, Sitebulb jako drugi zestaw oczu. Export surowych danych do CSV/Excel.
- Search Console deep-dive (1–2 godz.). Raport indeksacji, Core Web Vitals, wyniki wyszukiwania po frazach i stronach. Export ostatnich 16 miesięcy do BigQuery, jeśli są dostępne.
- Backlink audit (1–2 godz.). Ahrefs lub Semrush — profil linków, utracone, nowe, toxic, anchor text, porównanie do dwóch-trzech konkurentów.
- Konkurencja i luka treściowa (2–3 godz.). Jakie zapytania wygrywa konkurencja, których ty nie obsługujesz. Narzędzia: Ahrefs Content Gap, Semrush Keyword Gap, ręczna weryfikacja top 10 w SERP.
- Warstwa AIO (1–2 godz.). Testy zapytań w ChatGPT, Perplexity, Gemini, AI Overviews. Czy strona jest cytowana? Czy llms.txt istnieje? Czy schema działa?
- Analiza treści (2–4 godz.). Surfer lub Clearscope na top 20 stronach po ruchu. Identyfikacja thin content, kanibalizacji, artykułów zombie, stron do przepisania vs. do usunięcia.
- Synteza i priorytetyzacja (2–3 godz.). Wszystkie znaleziska do jednego dokumentu. Macierz wpływ × wysiłek. Top 20 problemów z właścicielem, terminem i KPI.
- Raport i prezentacja (3–5 godz.). Dokument w Notion/Google Docs lub PDF, z executive summary, sekcjami, backlogiem w formacie Jira-ready. Spotkanie z zespołem klienta, krok po kroku.
- Follow-up po 30 dniach (1–2 godz.). Sprawdzenie, co zostało wdrożone, jakie są pierwsze efekty, co wymaga korekty kursu. To buduje relację i daje materiał na case study.
W sumie dobry audyt to 20–30 godzin pracy. Mniej oznacza, że coś pominąłeś. Więcej oznacza, że prawdopodobnie zagłębiasz się w szczegóły, których klient nie wdroży.
Które narzędzia są absolutnie must-have, a które są luksusem?
Zależy od skali projektu i budżetu. Dla audytu małego blogu lub wizytówki wystarczą: Google Search Console, PageSpeed Insights, Screaming Frog (wersja darmowa do 500 URL) i ręczne testy w przeglądarce. Koszt: zero złotych, plus Twój czas.
Dla audytu średniego serwisu (1 000–10 000 URL) potrzebujesz: Screaming Frog licencja (≈ 1 000 zł/rok), Ahrefs lub Semrush (≈ 500–1 000 zł/miesiąc), Sitebulb (opcjonalnie, ≈ 600 zł/rok), plus czas na Looker Studio i BigQuery jeśli robisz głęboką analizę.
Dla audytu dużego e-commerce lub wydawcy (100 000+ URL) musisz dołożyć: narzędzie do logów (Screaming Frog Log File Analyser lub Splunk), narzędzie do AIO monitoring (Otterly lub Profound), BigQuery koniecznie, ewentualnie własny Python z crawlerem jak Scrapy, jeśli wchodzisz w setki tysięcy URL-i.
Czego nie musisz kupować: drogich all-in-one suite’ów typu „SEO platforma za 10 000 zł/miesiąc”. W 95% przypadków Ahrefs + Screaming Frog + GSC + GA4 w zupełności wystarczą. Reszta to marketingowy narzut.
Warto natomiast zainwestować w jedno dobre narzędzie do monitoringu utraconych linków — więcej o tym w artykule Monitoring utraty linków w 2026.
Jakie są najczęstsze błędy w audytach SEO w 2026 roku?
Po kilkudziesięciu audytach w ostatnim roku widać powtarzające się wzorce. Oto błędy, które kosztują najwięcej — zarówno audytującego (wiarygodność), jak i klienta (budżet).
Po pierwsze, raport bez priorytetyzacji. Dokument na 80 stron z 300 znaleziskami, bez wskazania, które trzy rzeczy zrobić w tym tygodniu, to nie audyt — to wymówka. Klient otwiera PDF, czyta pierwsze pięć stron, zamyka i nigdy nie wraca. Każde znalezisko musi mieć priorytet (P0/P1/P2), właściciela i estymację.
Po drugie, ignorowanie logów serwera. Bez logów nie wiesz, które strony Googlebot naprawdę crawluje, ile czasu spędza na każdym typie, gdzie traci crawl budget. W 2026 roku z 10+ botami LLM logi są jedynym sposobem, żeby to zrozumieć. Jeśli klient ma hosting bez dostępu do logów — to pierwsza rekomendacja do zmiany.
Po trzecie, audyt bez kontekstu biznesowego. „Macie 40% thin content do usunięcia” brzmi mocno, dopóki nie okazuje się, że 30% z nich to strony generujące leady — po prostu mają mało tekstu, bo to landingi produktowe. Audyt musi łączyć SEO z biznesem, inaczej jest przeciwskuteczny.
Po czwarte, brak warstwy AIO. W 2026 pominięcie tego, jak strona radzi sobie w AI Overviews, ChatGPT i Perplexity, to jak w 2015 roku pominięcie mobile-friendly. To już nie jest opcja, tylko podstawa.
Po piąte, zbytnia koncentracja na Core Web Vitals. CWV są ważne, ale są tylko czynnikiem tiebreakerem. Jeśli masz green LCP i red indeksację — to indeksacja jest problemem, nie LCP. Priorytet zawsze: indeksacja > treść > linki > technikalia.
Po szóste, kopiowanie rekomendacji z poprzedniego audytu. Każdy serwis jest inny. Kopiuj framework, nie rekomendacje.
Po siódme, brak follow-upu. Audyt bez sprawdzenia, co zostało wdrożone, traci połowę wartości. Zaplanuj 30-dniowy checkpoint w cenie.
Po ósme, zbyt długi raport. Najlepsze audyty mieszczą się w 20–30 stronach + appendix z surowymi danymi. Executive summary musi zmieścić się na jednej stronie. Jeśli CEO nie zrozumie Twojego audytu w 5 minut, raport jest źle napisany.
Po dziewiąte, ignorowanie E-E-A-T. W 2026 roku Experience, Expertise, Authoritativeness, Trustworthiness są kodowane przez autora, schema, linki zwrotne i bio. Audyt bez sekcji E-E-A-T jest audytem z 2019 roku.
Po dziesiąte, zapomnienie o migracji jako kontekście. Jeśli strona była migrowana w ostatnich 12 miesiącach, 50% znalezisk może wynikać z niedokończonej migracji (broken redirects, utracone linki, hreflang errors). Zapytaj o to zawsze w etapie brief.
Jak przygotować dane wejściowe do audytu, żeby oszczędzić sobie 10 godzin pracy?
Największym pożeraczem czasu w audycie nie jest sam audyt, tylko zbieranie surowych danych. Jeśli klient przysyła dostępy „na raty” przez trzy dni, Twój audyt wydłuża się o te trzy dni. Dlatego zawsze wysyłam przed startem prostą checklistę przygotowawczą, którą klient wypełnia w 30 minut.
Ta checklista obejmuje: właścicielstwo domeny (rejestrator, DNS), hosting (panel, logi, wersje PHP i MySQL/MariaDB), CMS (WordPress, Shopify, Webflow, custom), kluczowe wtyczki SEO (RankMath, Yoast, AIOSEO), system analityczny (GA4, Matomo, własny), CDN (Cloudflare, Fastly), cache (LiteSpeed, WP Rocket, Varnish), wersje językowe, rynki geograficzne, historia migracji i zmian nazwy domeny.
Dodatkowo proszę o eksport Search Console za ostatnie 16 miesięcy (wszystko, co GSC trzyma) oraz eksport ruchu organicznego z GA4 za ten sam okres. Te dwa pliki to podstawa do zrozumienia trendów — bez nich pracujesz na zrzutach ekranu z jednego tygodnia, a to zawsze kłamie.
Ostatni element: prośba o listę „co waszym zdaniem nie działa w SEO”. To często wskazuje problemy, których narzędzia nie wyłapią — na przykład że zespół marketingu od miesięcy spiera się z deweloperami o zmianę w szablonie produktów, która ostatecznie pogorszyła indeksację. Taki kontekst wyjdzie tylko z rozmowy.
Jak zweryfikować indeksację krok po kroku w 2026 roku?
Indeksacja to w moim doświadczeniu problem numer jeden w 80% audytów. Nie Core Web Vitals, nie linki — indeksacja. Jeśli Twoje strony nie są w indeksie Google, nic innego nie ma znaczenia. Dlatego weryfikacja indeksacji musi być jedną z pierwszych rzeczy, które robisz.
Proces w pięciu krokach:
- Search Console raport indeksacji. Ile stron zgłoszonych, ile zaindeksowanych, ile wykluczonych i z jakich powodów. Zwróć uwagę na powody „Crawled — currently not indexed” i „Discovered — currently not indexed” — to sygnał niskiej oceny jakości treści.
- Operator
site:w Google. Porównaj liczbę wyników z liczbą stron w sitemap. Jeśli site: pokazuje 800 wyników, a sitemap ma 1500 — masz problem indeksacji na 47% treści. - Crawl z Screaming Frog. Eksport wszystkich URL-i z meta robots = noindex, X-Robots-Tag = noindex, canonical = inna strona. Porównaj z listą zaindeksowanych w GSC — jeśli są rozbieżności, masz konflikt dyrektyw.
- Logi serwera. Filtruj po Googlebot, policz unikalne URL-e za ostatnie 30 dni. Porównaj z liczbą stron w sitemap. Jeśli Googlebot crawluje 300 URL-i, a masz ich 2000 — crawl budget jest źle alokowany.
- URL Inspection Tool w GSC. Ręczne sprawdzenie 10 kluczowych stron. Jeśli są „Indexed” — OK. Jeśli „URL is not on Google” z powodem „Crawled — currently not indexed” — to najczęściej problem jakości treści lub duplikatów.
W 2026 doszedł dodatkowy krok: sprawdzenie, czy kluczowe strony są cytowane przez LLM-y. Zrób ręczny test — wpisz w ChatGPT i Perplexity pytanie, na które Twoja strona odpowiada. Jeśli nie jesteś w cytowaniach, ale konkurencja tak, to sygnał, że indeksacja Google może być OK, ale warstwa AIO kuleje.
Audyt treści — jak szybko zidentyfikować content do usunięcia, przepisania i zostawienia?
Klasyczny audyt treści w 2026 oparty jest na trzech kubełkach: keep (zostawiamy bez zmian), update (przepisujemy, rozbudowujemy, dodajemy świeżość) i prune (usuwamy lub łączymy z innymi). Decyzja, do którego kubełka trafia artykuł, zależy od czterech metryk zebranych z Search Console i Ahrefs.
Metryki: liczba odsłon z organic za ostatnie 12 miesięcy, liczba kliknięć, liczba backlinków do URL, pozycja średnia na top 3 fraz. Artykuł, który ma < 50 odsłon rocznie, zero backlinków i średnią pozycję > 50, prawie zawsze idzie do prune. Artykuł z 500+ odsłon, 5+ backlinkami i pozycją 4–10 — update, żeby wepchnąć go do top 3. Reszta — keep lub update zależnie od aktualności treści.
W 2026 doszło jedno kryterium: czy artykuł jest cytowany przez LLM-y. Artykuł, który nie ma ruchu z Google, ale jest regularnie cytowany w ChatGPT dla zapytań niszowych, zostawiamy. To nowa kategoria „AIO asset” — wartościowa, mimo że w GSC wygląda jak thin content. Więcej o planowaniu takich aktywów w naszym artykule Linkable assets w 2026.
Praktyczny sposób na przejście przez 500+ artykułów w 3 godziny: eksport z GSC do Google Sheets, dołączenie kolumny z Ahrefs (backlinki na URL), formuła do scoringu (np. odsłony × 1 + kliknięcia × 2 + backlinki × 10), sortowanie i decyzja automatyczna dla dolnych 20% (prune) i górnych 20% (keep). Środek ręcznie, ale to już realistyczna robota na 2–3 godziny zamiast dwóch dni.
Czego nie audytować — czyli co zwykle jest stratą czasu w 2026?
Są rzeczy, które wyglądają jak „trzeba sprawdzić”, a w 2026 roku dają bardzo mały ROI. Warto je znać, żeby nie marnować godzin klienta.
Keyword density. W 2016 liczył się. W 2026 Google używa BERT, MUM i nowszych modeli — liczy się semantyczne pokrycie tematu, nie powtarzanie frazy. Keyword density 3% vs. 5% nie ma znaczenia.
Meta keywords. Google ignoruje od 2009. Bing ignoruje od dawna. Jedyne, co zostało, to ewentualne użycie dla wewnętrznych wyszukiwarek — ale w audycie SEO pomijaj.
Page authority i domain authority jako absolutne metryki. Moz DA/PA są pomocne jako proxy do porównań w czasie, ale nie są czynnikami rankingu Google. Raportowanie „wzrost DA z 35 do 42” bez wzrostu ruchu jest bezwartościowe.
Wskaźnik bounce rate w GA4. GA4 nie używa bounce rate w klasycznym znaczeniu — ma engagement rate, który jest odwrotnością. Przenoszenie metryk z GA3 do audytu GA4 to częsty błąd.
Walidacja W3C HTML. Miej czysty HTML, ale jeden unclosed div nie jest priorytetem audytu, jeśli masz 50 stron bez schema.
Testy SEO oparte na „zrób jedną zmianę i zobacz, co się stanie”. Zbyt wiele zmiennych, zbyt małe próbki, algorytm zbyt szumny. A/B testing w SEO działa tylko przy setkach tysięcy sesji i dobrze zaprojektowanej metodologii. Więcej w naszym artykule A/B testing SEO 2026.
Jak priorytetyzować znaleziska z audytu?
Macierz, której używamy, ma dwie osie: wpływ na SEO (niski / średni / wysoki / krytyczny) oraz wysiłek wdrożenia (godziny / dni / tygodnie / miesiące). Priorytet P0 to „krytyczny wpływ, godziny wysiłku” — tu zaczynamy. P1 to „wysoki wpływ, dni wysiłku” — tu robimy sprint. P2 to „średni wpływ, tygodnie” — backlog. P3 to „niski wpływ, miesiące” — odłóż lub odrzuć.
Typowe P0: strona zwraca 500, sitemap blokowany w robots, kluczowa kategoria noindex, Core Web Vitals czerwone na homepage. To są godziny pracy i natychmiastowy impact.
Typowe P1: 100 artykułów bez schema, meta description nieunikalne, brakuje breadcrumbs, thin content do rozbudowy. To sprint tygodnia-dwóch.
Typowe P2: rozbudowa architektury wewnętrznego linkowania, dodanie FAQ do kategorii, przepisanie 50 starych artykułów. To roadmapa kwartalna.
Typowe P3: eksperymentalne AIO tactics, testy nowych typów schema, migracja do HTTP/3. Warto, ale nie teraz.
Dobrze priorytetyzowany audyt ma zwykle 3–5 punktów P0, 10–15 P1, 20–30 P2, reszta P3 lub „pomijamy”. To daje backlog na kwartał, a nie na dekadę.
Jak zmierzyć sukces audytu SEO po 3 i 6 miesiącach?
Bez KPI audyt to tylko raport. Zestaw metryk, które warto śledzić:
- Ruch organiczny — miesiąc do miesiąca i rok do roku, z GSC i GA4.
- Liczba zaindeksowanych stron — GSC raport indeksacji.
- Średnia pozycja dla kluczowych 50–100 fraz.
- CTR w SERP dla kluczowych fraz i stron.
- Core Web Vitals — P75 CrUX, zielone/pomarańczowe/czerwone.
- Backlinki nowe i utracone — Ahrefs/Semrush miesięcznie.
- Konwersje — GA4, powiązane z ruchem organicznym.
- Cytowania AIO — ręczne testy co 30 dni dla top 20 zapytań.
Po trzech miesiącach powinny być widoczne pierwsze efekty w technicznych poprawkach (indeksacja, CWV). Po sześciu — w treści i linkach. Po dwunastu — w autorytecie domeny i cytowalności AI.
FAQ — najczęściej zadawane pytania o audyt SEO 2026
Ile kosztuje audyt SEO w 2026 roku?
Dla małego serwisu (do 1 000 URL) audyt wykonany przez solo-specjalistę mieści się w przedziale 4 000–8 000 zł netto. Dla średniego (do 10 000 URL) — 10 000–20 000 zł. Dla dużego e-commerce lub wydawcy — 30 000–80 000 zł. Agencje premium biorą nawet 100 000 zł za pełny audyt techniczny i strategiczny. Cena zależy głównie od liczby URL-i, dostępności danych i zakresu (sam techniczny vs. full stack z AIO i link buildingiem).
Jak długo trwa audyt SEO?
Dla solo-specjalisty: 20–30 godzin pracy nad małym-średnim serwisem, co przy jednoosobowej dostępności oznacza 1–2 tygodnie kalendarzowe. Dla zespołu 3 osób w agencji: 2–3 dni robocze na średni serwis. Duży projekt to zawsze 3–6 tygodni.
Czy audyt SEO ma sens dla małego bloga?
Tak, ale w skróconej formie. Zamiast pełnego audytu (20+ godzin) zrób mini-audyt 4-godzinny: GSC, PageSpeed, Screaming Frog do 500 URL, przegląd 10 najlepszych artykułów. To wystarczy, żeby wyłapać 80% problemów.
Jak często powtarzać audyt SEO?
Pełny audyt raz na 12 miesięcy. Mini-audyt techniczny co kwartał. Monitoring codzienny/tygodniowy (Search Console, alerty Ahrefs) — stale. Po każdej większej zmianie (migracja, redesign, nowa sekcja) — audyt powdrożeniowy.
Czy mogę zrobić audyt SEO sam, bez specjalisty?
Tak, jeśli masz 30+ godzin czasu, licencję na Screaming Frog lub dostęp do Sitebulb, umiejętność czytania danych i odrobinę doświadczenia z SEO. Jeśli nie — zatrudnij specjalistę. Audyt to najmniej ryzykowny punkt wejścia we współpracę z agencją: dostajesz konkretny dokument i możesz ocenić jakość myślenia partnera, zanim podpiszesz umowę na dłużej.
Jaka jest różnica między audytem SEO a audytem treści?
Audyt treści to podzbiór audytu SEO — skupia się wyłącznie na artykułach (pokrycie tematów, kanibalizacja, thin content, świeżość, intent match). Audyt SEO obejmuje to plus technikalia, strukturę, linki i AIO. Audyt treści to zwykle 30–40% wartości pełnego audytu SEO.
Czy audyt SEO obejmuje wdrożenie zmian?
Zwykle nie. Audyt to dokument z rekomendacjami. Wdrożenie to osobny projekt (lub retainer z agencją). Dobrym praktyką jest w umowie określić, że autor audytu jest dostępny na 2–4 godziny konsultacji wdrożeniowych w cenie, żeby zespół klienta mógł zapytać o szczegóły.
Które błędy w audycie dyskwalifikują agencję?
Brak wniosków i priorytetyzacji, kopiowanie tych samych rekomendacji do wszystkich klientów, ignorowanie warstwy AIO, brak sekcji o konkurencji, brak KPI i sposobu mierzenia sukcesu, nieczytelny dokument bez executive summary. Jeśli widzisz raport, w którym pierwsze dziesięć stron to „co to jest SEO”, to nie jest audyt, to ghostwriting z Wikipedii.
Co dalej — jak wdrożyć wnioski z audytu i nie utknąć?
Najtrudniejsza część audytu to nie samo wykonanie, tylko to, co dzieje się po jego oddaniu. Ponad połowa raportów w mojej praktyce kończy w folderze „do przejrzenia”, bo zespół klienta nie ma zasobów, priorytetów lub jasności, kto robi co. Żeby tego uniknąć, sugeruję trzy rzeczy.
Po pierwsze, dziel wdrożenie na sprinty. Nie zostawiaj klientowi backlogu 60 zadań — daj mu trzy sprinty po dwa tygodnie, z konkretnymi zadaniami do P0/P1. Każdy sprint ma owner, deadline i acceptance criteria.
Po drugie, proponuj pair-programming z zespołem klienta. Pierwsze pięć zadań zrób wspólnie — Ty jako konsultant, oni jako implementatorzy. To buduje kompetencje w zespole i zmniejsza ryzyko, że „przestaniemy rozumieć, co robimy, jak audytor pójdzie”.
Po trzecie, zaplanuj 30-, 90- i 180-dniowe checkpointy. Każdy checkpoint to 60 minut — przegląd wdrożonych zadań, aktualizacja backlogu, korekta kursu. Jeśli klient jest na retainerze — te checkpointy są wliczone. Jeśli nie — warto je sprzedać jako mikro-konsultacje.
Dobry audyt to nie prezentacja umiejętności audytora. To mapa drogowa, która realnie zmienia wskaźniki biznesowe. Jeśli po sześciu miesiącach od audytu ruch organiczny wzrósł o 30%, indeksacja o 20%, a strona pojawia się w cytowaniach ChatGPT dla pięciu kluczowych zapytań — audyt się opłacił. Wszystko poniżej to sygnał, żeby wrócić do etapu priorytetyzacji i zapytać, gdzie poszło źle.
Na końcu warto pamiętać, że audyt to punkt wyjścia, nie cel. Celem jest stały proces optymalizacji — SEO w 2026 to dziedzina, w której „statyczna strategia” nie istnieje. Algorytmy zmieniają się co miesiąc, crawlery LLM-ów ewoluują co tydzień, a Google aktualizuje Core Updates cztery razy w roku. Audyt robimy po to, żeby ustawić kompas — potem jedziemy, obserwujemy i korygujemy.
Jeśli prowadzisz serwis w bardziej konkurencyjnej niszy, warto po audycie uzupełnić proces o regularny monitoring pozycji i alerty na utracone linki. W naszym blogu znajdziesz też pogłębione artykuły o zewnętrznych źródłach wiedzy — na przykład Google Search Central publikuje aktualizacje wytycznych kilka razy w miesiącu, a blog Ahrefs o audytach SEO ma dobre studia przypadków z ostatnich kwartałów. Obydwa są niezastąpione, żeby być na bieżąco, zwłaszcza między jednym audytem a kolejnym.