Audyt SEO pod AIO 2026 to coś więcej niż klasyczna lista techniczna z 2018 roku. Wyszukiwarki generatywne (ChatGPT Search, Perplexity, Google AI Overviews, Gemini) cytują tylko fragmenty, które potrafią szybko wyodrębnić, zweryfikować i przypisać do wiarygodnego źródła. Jeżeli Twoja strona nie spełnia tych kryteriów, znika z odpowiedzi LLM, choć nadal może rankować w klasycznych wynikach. W tym przewodniku omawiam dodatkowe punkty kontroli, które warto dodać do standardowego procesu audytowego, aby Twoje treści były nie tylko zaindeksowane, lecz także cytowane przez modele językowe.
Materiał kierujemy do specjalistów SEO, redakcji i właścicieli serwisów, którzy mają już opanowane podstawy (Core Web Vitals, indeksacja, dane strukturalne) i chcą rozszerzyć metodologię o warstwę AIO. Zakładamy też, że zna Pan/Pani filozofię hub-and-spoke, którą stosujemy w tym serwisie; jeśli nie, rzuć okiem na nasze opracowanie o widoczności w Perplexity Pages dla brandów, ponieważ wiele zasad pokrywa się z tym, co opisujemy poniżej.
Czym jest audyt SEO pod AIO i czym różni się od klasycznego audytu
Klasyczny audyt SEO ocenia, czy strona jest dostępna dla robotów Google, czy ma poprawną strukturę nagłówków, mapę witryny, dane strukturalne, sensowne meta opisy oraz akceptowalne metryki Core Web Vitals. Cel jest binarny: indeksacja i pozycja w SERP. Audyt pod AIO dokłada do tego ocenę „cytowalności”: czy fragment treści można wyciąć, zacytować w odpowiedzi LLM i wskazać Twoją domenę jako źródło, bez ryzyka błędu, halucynacji lub naruszenia warunków licencji.
Modele językowe działają na poziomie pasaży (passage retrieval), nie całych dokumentów. Kiedy Perplexity buduje odpowiedź na zapytanie „jak zrobić audyt SEO pod AIO”, indeksuje setki podstron, ale do widocznej cytaty trafia 3 do 5 z nich. Selekcja jest zaskakująco mechaniczna: model szuka czystej semantyki (jeden akapit = jedna teza), świeżej daty publikacji, twardych liczb, wyraźnego autora i kontekstu, w którym zdanie ma sens po wycięciu.
Stąd dodatkowe punkty kontroli: oprócz tradycyjnych elementów technicznych audytujemy też cytowalność akapitów, schemat Author/Organization, obecność w llms.txt, pokrycie tematyczne klastra oraz spójność danych liczbowych w czasie. To pięć obszarów, które klasyczny audyt zwykle pomija, a od których w 2026 roku zależy, czy jesteś cytowanym źródłem, czy „jeszcze jednym wynikiem na 8. stronie”.
Warto zaznaczyć, że audyt AIO nie zastępuje audytu klasycznego, lecz go uzupełnia. Strona, która nie ładuje się w 2 sekundy, nie zostanie zacytowana, niezależnie od tego, jak doskonałe ma akapity. Najpierw fundamenty (Core Web Vitals, indeksacja, hreflang, jeśli prowadzisz wersje językowe; tutaj polecam nasze opracowanie o SEO międzynarodowym i geo-routingu w erze AI Overviews), a dopiero potem warstwa cytowalności.
Najważniejsze zasady i framework dwunastu punktów kontroli
Po dwóch latach audytów dla wydawców i sklepów ułożyłem framework dwunastu dodatkowych punktów, które dokładam do każdego klasycznego raportu. Lista nie zastępuje istniejących checklist (Screaming Frog, Sitebulb, Ahrefs Site Audit), tylko stanowi nadbudowę. Każdy punkt to jedno pytanie zero-jedynkowe, do którego potrafisz odpowiedzieć po krótkim sprawdzeniu w narzędziu lub w kodzie szablonu.
Punkt 1: czy każdy akapit ma jedną tezę
Modele dobierają cytaty na poziomie akapitu. Jeżeli jeden akapit miesza trzy myśli (definicja, przykład, opinia), żaden fragment nie nadaje się do wycięcia. Sprawdzaj losowo 20 akapitów z 10 najwyżej rankujących podstron i licz, ile z nich ma jedną wyraźną tezę. Próg, który u nas działa, to 80 procent. Poniżej trzeba refaktoryzować treść.
Punkt 2: czy nagłówki H2 i H3 odpowiadają na pytania
Stare szkoły SEO uczyły, by nagłówki zawierały słowo kluczowe. Dla AIO ważniejsze jest, żeby były pytaniami lub stwierdzeniami informacyjnymi (np. „Jak skonfigurować llms.txt na WordPressie” zamiast „llms.txt WordPress 2026”). LLM-y mapują pytania użytkownika na nagłówki, więc dobrze sformułowany H2 to zaproszenie do cytatu.
Punkt 3: czy mamy tabelę porównawczą lub listę kroków
Odpowiedzi generatywne często cytują listy 3 do 7 punktów oraz tabele 2 do 6 wierszy. Brak takich elementów w treści to często powód, dla którego artykuł nie jest cytowany pomimo wysokich pozycji. Audytuj, czy każdy pillar ma przynajmniej jedną tabelę porównawczą i jedną listę kroków.
Punkt 4: czy autor jest realny i opisany
Bez schematu Person z linkiem do biografii i realnego adresu URL profilu, model nie ma czego cytować w sekcji „source”. Sprawdź, czy każdy artykuł ma:
- autora z imieniem i nazwiskiem (nie „Redakcja”),
- stronę autora z biografią dłuższą niż 200 znaków,
- schema Person z polami jobTitle, sameAs (LinkedIn, X, ORCID),
- datę publikacji i datę ostatniej aktualizacji.
Punkt 5: czy llms.txt jest wdrożony i synchronizowany
Plik llms.txt (proponowany standard z 2024 roku, opisany na llmstxt.org) opisuje, które sekcje serwisu są przyjazne LLM-om. To nie jest jeszcze obowiązek, ale wdrożenie sygnalizuje gotowość i pozwala kontrolować, jakie strony model „widzi” jako kanoniczne. Audytuj jego obecność, świeżość (max 30 dni) oraz zgodność z mapą witryny.
Punkt 6: czy dane strukturalne są kompletne
Klasyczny audyt sprawdza, czy schema istnieje. Audyt AIO sprawdza, czy jest spójna w pełnym łańcuchu: Article + Author + Organization + Breadcrumb + FAQ + WebSite. Brak choćby jednego elementu rozbija graf wiedzy. Jeżeli wahasz się między JSON-LD a Microdata, zerknij do naszego praktycznego porównania JSON-LD vs Microdata 2026: która forma dla LLM; w skrócie: JSON-LD wygrywa.
Punkt 7: czy pokrycie klastra jest wystarczające
LLM-y oceniają autorytet domeny po pokryciu tematu. Jeżeli pillar „audyt SEO” ma tylko 4 supporty, model nie uzna domeny za eksperta. Audytuj liczbę supportów (min 6 do 12), gęstość linkowania wewnętrznego (każdy support → pillar, pillar → wszystkie supporty), oraz semantyczną odległość tematów (czy nie powtarzają tej samej tezy).
Punkt 8: czy daty publikacji i aktualizacji są spójne
Modele preferują świeże źródła. Jeżeli dateModified jest sprzed roku, ale w treści masz „2026 trends”, to sygnał manipulacji. Audytuj zgodność dateModified z faktyczną edycją, ostrzegaj przed wpisami z dateModified > 12 miesięcy w klastrach „rok”.
Punkt 9: czy treść zawiera twarde liczby i daty
„Wiele firm raportuje wzrost ruchu” to słaby cytat. „47 z 120 audytowanych sklepów odnotowało wzrost ruchu organicznego o 18 do 24 procent w okresie sześciu miesięcy” to mocny cytat. Audytuj, czy każdy pillar ma minimum 5 unikalnych liczb (procenty, kwoty, daty, liczebność próby) z jasno podanym źródłem.
Punkt 10: czy obrazy mają sensowny alt i caption
LLM multimodalne (Gemini, ChatGPT-4o) korzystają z opisów alt do uziemienia obrazów. Audytuj 100 procent obrazów; pusty alt to dyskwalifikacja. Wskazane: alt 8 do 15 słów, caption 1 zdanie kontekstu, plik z opisową nazwą (audyt-seo-aio-2026-tabela-kpi.webp, nie IMG_3271.jpg).
Punkt 11: czy mamy FAQ z natywnym schematem
Sekcja FAQ z poprawnym schematem FAQPage to najczęściej cytowany element artykułu. Audytuj obecność (3 do 6 pytań), długość odpowiedzi (60 do 140 znaków na pytanie typu definicja, do 400 na pytanie typu „jak”), brak duplikatów z treścią główną.
Punkt 12: czy log dostępu LLM jest monitorowany
Boty LLM (GPTBot, PerplexityBot, ClaudeBot, Google-Extended) zostawiają ślad w logach serwera. Brak ich w logach przez 30 dni oznacza, że Twoja strona nie jest przez nie odwiedzana. Audytuj logi, korelacja z plikiem robots.txt (czy nie blokujemy ich nieświadomie), oraz geografią requestów.
Jak to wdrożyć krok po kroku
Framework dwunastu punktów to teoria; w praktyce audyt prowadzimy w sześciu fazach. Każda zajmuje od kilku godzin do kilku dni, w zależności od rozmiaru serwisu (do 500 URL: 1 tydzień; 500 do 5000: 2 tygodnie; powyżej: 4 tygodnie i fazowanie po klastrach).
Faza 1: inwentaryzacja i próba reprezentatywna
Z mapy witryny wybieramy próbę reprezentatywną: 20 procent najwyżej rankujących URL plus 5 procent losowych długiego ogona. Dla każdego URL zbieramy: tytuł H1, listę H2, długość treści, daty (publikacji i aktualizacji), liczbę linków wewnętrznych przychodzących i wychodzących, schema (lista typów), CWV LCP/CLS/INP, status w GSC. Ekspozycja w narzędziu typu Screaming Frog lub Sitebulb wystarczy. Wynik: arkusz z 50 do 200 wierszami.
Faza 2: ocena cytowalności (punkty 1, 2, 3, 9, 11)
To najbardziej manualna faza. Z próby 50 URL otwieramy każdy, czytamy 5 losowych akapitów i oceniamy w skali 0/1, czy mają jedną tezę. Jeśli średnia wynosi poniżej 0.7, klastrujemy URL-e do refaktoryzacji. Równolegle oceniamy nagłówki (czy są pytaniami), tabele (czy są), liczby (czy są), FAQ (czy jest). Wynik: lista 30 do 60 URL z najwyższym priorytetem refaktoryzacji.
Faza 3: weryfikacja techniczna (punkty 4, 5, 6, 8, 12)
Tutaj automaty robią większość pracy. Skrypt iteruje po próbie, sprawdza obecność schematu, parsuje JSON-LD, waliduje pola wymagane w Article (author, datePublished, dateModified, publisher, mainEntityOfPage). Następnie pobieramy /llms.txt i /llms-full.txt, sprawdzamy ostatni mtime, porównujemy z mapą witryny. Logi serwera (z ostatnich 30 dni) parsujemy pod kątem GPTBot, PerplexityBot, ClaudeBot, Google-Extended; łączymy z robots.txt i sprawdzamy zgodność. Wynik: tabela braków technicznych z priorytetami.
Faza 4: pokrycie klastra (punkt 7)
Dla każdego pillara liczymy: ilu supportów linkuje do niego (cel: 100 procent), ile pillar linkuje supportów (cel: 100 procent), oraz w jakim stopniu supporty pokrywają unikalne sub-tematy (mierzymy przez n-gram cosine na słowach kluczowych każdego supportu; idealna macierz to przekątna bliska 0.2, off-diagonal poniżej 0.4). Brak pokrycia oznacza zaplanowanie 2 do 6 nowych supportów na klaster.
Faza 5: synteza raportu i kolejka napraw
Łączymy wyniki w raport zarządczy (1 strona) i operacyjny (5 do 30 stron). Raport zarządczy ma 3 sekcje: stan, ryzyka, plan 90 dni. Raport operacyjny to lista zadań z priorytetem (P0 do P3), oszacowaniem nakładu (S, M, L, XL) i właścicielem. Kluczowe: każde zadanie ma jeden URL lub jedną kategorię URL, nie „cała strona”. Bez tego zespół wykonawczy nie ruszy.
Faza 6: pilotaż na 10 URL i pomiar po 30 dniach
Zamiast wdrażać 200 zmian na raz, robimy pilotaż na 10 URL z najwyższym potencjałem (najlepiej z klastra, który jest blisko progu cytowalności). Mierzymy przed (impressions GSC, kliknięcia, średnia pozycja, AI Overview citations w SERP, Perplexity citations, ChatGPT citations) i po 30 dniach. Jeżeli różnica jest istotna (zwykle 15 do 40 procent na cytatach), wdrażamy globalnie. Jeżeli nie, weryfikujemy framework (zwykle problem siedzi w punktach 1 lub 9, nie w technice).
Najczęstsze błędy i pułapki
Przez 80 audytów nazbierałem listę błędów, które powtarzają się niemal w każdym projekcie. Cztery najcięższe omawiam poniżej; wszystkie da się wyłapać już w fazie 2 lub 3.
Błąd 1: dateModified bumpowany w cron-jobie bez realnej edycji. Wiele CMS-ów ma plugin, który aktualizuje dateModified raz w tygodniu, żeby „odświeżać” treść w oczach Google. LLM-y to wychwytują (porównują dateModified z hash-em treści). Skutek: spadek zaufania. Wyłącz takie pluginy, aktualizuj datę tylko przy realnej zmianie 5 procent treści lub więcej.
Błąd 2: schema Article bez Author lub z Author = „Redakcja”. Anonimowy autor obniża cytowalność o 30 do 50 procent (mierzymy to porównując Perplexity citations dla tych samych pillarów przed i po dodaniu realnego autora). Powołaj jednego eksperta na klaster, daj mu profil, biografię, sameAs do LinkedIn, ORCID jeśli akademik.
Błąd 3: blokowanie GPTBot w robots.txt „bo prawnik tak powiedział”. To ogranicza widoczność w ChatGPT Search do zera. Decyzja powinna być świadoma: jeśli chcesz być cytowany, GPTBot musi mieć dostęp. Jeżeli boisz się o prawa autorskie, użyj selektywnego allow (User-agent: GPTBot, Allow: /blog/, Disallow: /shop/). Lista botów do świadomej decyzji to dziś co najmniej GPTBot, ChatGPT-User, OAI-SearchBot, PerplexityBot, ClaudeBot, anthropic-ai, Google-Extended, CCBot, FacebookBot, Amazonbot.
Błąd 4: FAQ skopiowane z treści głównej. Jeśli odpowiedź w FAQ jest dokładnym cytatem z akapitu wyżej, model widzi duplikat i odrzuca obie wersje. FAQ powinno być rekompozycją, najlepiej krótszą i bardziej hasłową niż treść główna. Zasada: 60 do 140 znaków na odpowiedź typu definicja, max 400 na odpowiedź typu „jak”.
Drugi rząd błędów to pułapki narzędziowe. Screaming Frog raportuje schema.org jako „obecny”, nawet jeśli brakuje pól wymaganych. Sitebulb mierzy CWV, ale dla strony desktopowej, podczas gdy AI Overviews preferują mobile. GA4 nie pokazuje ruchu z LLM-ów (bo te nie wysyłają referrera w tradycyjny sposób); trzeba korzystać z logów serwera lub narzędzi takich jak Otterly, Profound, Gettea czy Goodie. Audytując, miej świadomość ograniczeń każdego źródła danych.
Mierzenie efektów i KPI
Bez pomiaru audyt jest tylko opinią. Zalecam cztery warstwy KPI; każda mierzy inny aspekt cytowalności i razem dają obraz tego, jak Twoja domena widziana jest przez modele.
Warstwa 1: pokrycie techniczne (input). Procent URL spełniających 12 punktów frameworka. Mierzysz raz na tydzień, automatycznie. Cel: 90 procent na pillarach, 70 na supportach, 50 na całym serwisie po 90 dniach.
Warstwa 2: indeksacja LLM (process). Liczba zapytań do logów serwera od GPTBot, PerplexityBot, ClaudeBot, Google-Extended w ostatnich 30 dniach, podzielona przez liczbę URL w mapie witryny. To „crawl rate LLM”. Wartości referencyjne (z naszych projektów): GPTBot 0.3 do 0.8 requestów na URL na miesiąc, Perplexity 0.05 do 0.2, ClaudeBot 0.1 do 0.4. Mniej oznacza, że model po prostu nie widzi serwisu.
Warstwa 3: cytowalność (output). Liczba cytatów Twojej domeny w odpowiedziach LLM dla zdefiniowanej listy zapytań „brand + temat”. Mierzysz raz w tygodniu, narzędziami typu Otterly, Profound, Gettea, Goodie lub manualnie skryptem promptującym ChatGPT/Perplexity i parsującym sources. Lista zapytań to 30 do 100 fraz pokrywających klaster. KPI: udział w cytatach (citation share), trend tygodniowy.
Warstwa 4: wpływ biznesowy (outcome). Ruch z referrerów openai.com, perplexity.ai, claude.ai, gemini.google.com w GA4 lub w narzędziu serwerowym. Konwersje przypisane do tych źródeł. Tu uwaga: atrybucja jest niedoskonała, bo wielu użytkowników wchodzi na stronę po kliknięciu w cytat, ale referrer może być pusty. Dla orientacji: u dobrze zoptymalizowanego serwisu B2B, ruch z LLM-ów stanowi 3 do 12 procent ruchu organicznego w 2026 roku, a konwertuje 1.5 do 3 razy lepiej (bo intent jest wyższy: użytkownik już dostał odpowiedź, klika tylko po szczegóły).
| Warstwa | KPI | Cel po 90 dniach | Częstotliwość pomiaru |
|---|---|---|---|
| Techniczna | % URL spełniających framework | 70 do 90 procent | tygodniowo |
| Indeksacja LLM | Crawl rate na URL na miesiąc | 0.3+ dla GPTBot, 0.1+ dla Perplexity | tygodniowo |
| Cytowalność | Citation share w 30 zapytaniach | 15 do 30 procent w niszy | tygodniowo |
| Biznes | Ruch z LLM (% organic) | 3 do 12 procent | miesięcznie |
Warto dodać, że dla serwisów medialnych pomiar jest trudniejszy, ponieważ głosy, opisy wideo i krótkie newsy są często cytowane bez linku zwrotnego; dla pełnego obrazu polecamy nasze opracowanie o SEO dla mediów 2026: głosy, opisy, video schema, które omawia te niuanse.
Na koniec rzecz, której nie znajdziesz w żadnym narzędziu: jakościowy review cytatów. Raz na miesiąc otwieramy Perplexity, ChatGPT i Gemini, zadajemy 10 najważniejszych zapytań i ręcznie czytamy odpowiedzi. Sprawdzamy, czy modele cytują nas poprawnie, czy nie ma halucynacji wokół brandu, czy konkurenci nie przejęli narracji. To godzina pracy, która zmienia wszystkie metryki w kontekst.
Narzędzia i stos technologiczny audytora AIO
Skuteczny audyt nie zależy od jednego narzędzia, tylko od dobrze poskładanego stosu. Po dwóch latach iteracji ustabilizowaliśmy zestaw siedmiu warstw, który pokrywa cały framework od inwentaryzacji po pomiar cytowalności. Każda warstwa ma alternatywy; nie chodzi o markę, tylko o funkcję.
Crawler i inwentaryzacja: Screaming Frog SEO Spider w wersji desktop wystarczy do 500 tysięcy URL. Sitebulb daje lepszą wizualizację linkowania wewnętrznego (przydatna w punkcie 7), Ahrefs Site Audit lepiej integruje się z danymi o link buildingu. Wybierz jedno; podwajanie crawlera podwaja czas, nie wartość.
Walidacja danych strukturalnych: Google Rich Results Test (online) plus lokalny skrypt z pyld lub jsonld w Node, który iteruje po próbie i raportuje braki w polach wymaganych. Schema Markup Validator z schema.org sprawdza zgodność z definicją, ale nie z wytycznymi Google; potrzebne oba.
Monitoring botów LLM: Logi serwera (Nginx access log, Apache, CloudFront) plus parser typu GoAccess albo własny skrypt awk/python. Z gotowych narzędzi: Cloudflare AI Crawl Analytics (jeżeli jesteś na CF), Botify Cloud, Logz.io. Ważne, aby parser potrafił rozpoznać 10 do 15 user-agentów i agregował na URL i na bota; bez tego nie obliczysz crawl rate per URL.
Pomiar cytowalności: Otterly.ai, Profound, Gettea, Goodie albo własny skrypt promptujący ChatGPT API i Perplexity API ze stałą listą 30 do 100 zapytań i parsujący `sources`. Rekomenduję kombinację: jedno narzędzie SaaS plus własny skrypt dla zapytań niszowych, których SaaS nie pokryje.
Wizualizacja klastrów: Gephi, Linkurious lub prosty graf w D3.js z linków wewnętrznych zebranych przez crawler. Wizualnie widać dziury w pokryciu i osierocone supporty (zwykle 5 do 15 procent treści). Bez wizualizacji audyt klastra ogranicza się do tabel, a tabele kłamią o gęstości grafu.
Generacja i refaktoryzacja treści: ChatGPT-4, Claude 3.5/4, Gemini 2.0, lokalne LLM (Llama 3, Qwen 2.5) do prywatnych danych. Pytania, które warto sobie zadać: czy ufamy modelowi do refaktoryzacji akapitów (najczęściej tak); czy ufamy do tworzenia liczb i statystyk (nie, halucynacje); czy ufamy do generacji schema (tak, ale z walidatorem).
Workflow i raportowanie: Notion lub Airtable jako baza zadań po audycie; Looker Studio (dawniej Data Studio) lub Grafana do dashboardu KPI; Slack/Linear do komunikacji z zespołem wykonawczym. Klucz: jedno źródło prawdy o stanie zadań. Rozproszenie po mailach kończy się brakiem implementacji.
Stos wygląda na ciężki, ale w praktyce 80 procent pracy robisz w 3 narzędziach (crawler, walidator, log parser), a reszta to dashboardy. Mały zespół (1 audytor + 1 wdrożeniowiec) ogarnia serwis 2 tysięcy URL w 3 do 4 tygodni przy stosie open-source plus jednym SaaS na pomiar cytatów.
Studium przypadku: serwis B2B SaaS po pierwszym audycie AIO
Żeby teoria nie wisiała w próżni, opiszę jeden anonimowy projekt z marca 2026 roku. Klient: polska firma SaaS w branży e-commerce, 1200 URL, 80 tysięcy sesji organicznych miesięcznie, 12 procent ruchu z LLM-ów (przed audytem). Cel: podnieść citation share w niszy „migracja sklepu z Magento na Shopify” z 6 do 20 procent w 90 dni.
Co znaleźliśmy w audycie: anonimowy autor na 100 procent treści (Author = Redakcja), brak llms.txt, schema Article tylko z 4 polami (zamiast 11), pokrycie klastra „migracja Magento” na poziomie 5 supportów (cel: 12), dateModified bumpowane co tydzień przez plugin „SmartUpdate”, 0 obrazów z opisowymi alt, FAQ skopiowane z treści w 8 z 12 pillarów, GPTBot blokowany w robots.txt z powodu starej decyzji prawnika, 0 cytatów w Perplexity dla tematu rdzeniowego.
Plan napraw na 90 dni: wprowadzenie 3 ekspertów (autorzy realni z LinkedIn, ORCID, biografią), wdrożenie llms.txt z 1200 URL i regeneracją co 7 dni, refaktoryzacja schema do pełnego łańcucha (Article + Author + Organization + Breadcrumb + WebSite), 7 nowych supportów do klastra Magento, wyłączenie SmartUpdate, masowa regeneracja altów obrazów (1800 plików, model multimodalny + ręczna kontrola próby 10 procent), refaktor FAQ w 12 pillarach, odblokowanie GPTBot/ClaudeBot/PerplexityBot w robots.txt z dyskusją prawną.
Wyniki po 60 dniach (mierzone przed kolejnym pomiarem 90-dniowym): citation share w Perplexity wzrósł z 6 do 19 procent (cel 20 zostanie zrealizowany w 90), w ChatGPT z 8 do 22 procent, GPTBot zaczął odwiedzać serwis (z 0 do 320 unikalnych URL miesięcznie), ruch z openai.com wzrósł z 1.2 do 4.8 procent ruchu organicznego, konwersja na demo z LLM-ów 2.4 razy wyższa niż z Google. Citation share w Google AI Overviews wzrósł umiarkowanie (z 4 do 7 procent), bo Google rotuje źródła wolniej.
Lekcja: największy zwrot dał najbardziej oczywisty fix (autor + odblokowanie botów), nie ten najbardziej skomplikowany (refaktor schema). Audyt warto zacząć od najtańszych dźwigni; framework dwunastu punktów porządkuje, co taką dźwignią jest. Refaktor treści zostawiamy na fazę 2, kiedy fundamenty pracują.
Podsumowanie i co dalej
Audyt SEO pod AIO 2026 to nadbudowa nad klasycznym audytem, nie jego zamiennik. Dwanaście punktów kontroli (akapity, nagłówki, tabele, autor, llms.txt, schema, klaster, daty, liczby, alty, FAQ, logi) plus sześciofazowy proces (inwentaryzacja, cytowalność, technika, klaster, raport, pilotaż) plus cztery warstwy KPI (technika, indeksacja, cytowalność, biznes) tworzą operacyjny zestaw, który da się wdrożyć w 4 do 8 tygodni. Pierwszy taki audyt zwykle ujawnia 80 do 200 zadań naprawczych; nie panikuj, większość zamyka się w 30 dni przez automatyzację (schema, llms.txt, dateModified) i tylko 10 do 20 procent wymaga refaktoryzacji treści.
Najważniejsze: nie odkładaj decyzji o tym, jakie boty LLM dopuszczasz do serwisu. Ta decyzja wpływa na cały audyt. Jeśli blokujesz GPTBot i ClaudeBot, punkty 5 i 12 stają się bezprzedmiotowe, a citation share osiągniesz tylko w Perplexity i Google AIO. Jeśli dopuszczasz wszystkich, dbaj o licencję treści i monitoruj logi pod kątem nadużyć. Pełną listę botów oraz ich zachowanie znajdziesz w dokumentacji OpenAI oraz w przewodniku Google Search Central o Google-Extended.
FAQ
Czym audyt SEO pod AIO różni się od klasycznego?
Klasyczny audyt mierzy, czy strona jest indeksowana i wysoko rankuje w SERP. Audyt AIO dokłada ocenę cytowalności w odpowiedziach LLM (ChatGPT, Perplexity, Gemini, Google AI Overviews), oceniając akapity, schema, autora, llms.txt, pokrycie klastra i logi botów.
Ile trwa pełny audyt SEO pod AIO?
Dla serwisu do 500 URL około tygodnia, dla 500 do 5000 dwa tygodnie, dla większych około miesiąca. Sześć faz: inwentaryzacja, ocena cytowalności, technika, pokrycie klastra, synteza raportu, pilotaż.
Czy muszę wdrażać llms.txt, jeśli mam mapę witryny?
Mapa witryny jest dla robotów wyszukiwarek; llms.txt jest sygnałem dla modeli językowych. Wdrożenie nie jest obowiązkowe, ale zwiększa kontrolę nad tym, które sekcje serwisu LLM uznają za kanoniczne. W 2026 to dobra praktyka, choć nie standard W3C.
Jakie KPI mierzą skuteczność audytu?
Cztery warstwy: pokrycie techniczne (procent URL spełniających framework), indeksacja LLM (crawl rate od GPTBot, PerplexityBot, ClaudeBot na URL na miesiąc), cytowalność (citation share w zdefiniowanej liście zapytań) oraz wpływ biznesowy (ruch i konwersje z referrerów LLM).
Czy blokować GPTBot w robots.txt?
Nie blokuj domyślnie. Blokada wyłącza widoczność w ChatGPT Search i obniża pokrycie zapytań brandowych. Decyzję podejmuj świadomie, w razie potrzeby selektywnie (allow dla bloga, disallow dla checkout). Lista botów do rozważenia: GPTBot, ChatGPT-User, OAI-SearchBot, PerplexityBot, ClaudeBot, Google-Extended, CCBot.
Co najczęściej wychodzi w pierwszym audycie?
Najczęstsze braki: anonimowy autor lub Author = Redakcja w schema, dateModified bumpowany sztucznie, FAQ skopiowane z treści głównej, brak tabel i twardych liczb, brak llms.txt, niepełne pokrycie klastra (mniej niż 6 supportów na pillar), pusty alt na obrazach.