Search Console 2026: 10 raportów, które realnie pomagają

Google Search Console (GSC) w 2026 roku to najbardziej niedoceniane narzędzie w stacku SEO – większość zespołów używa 2-3 funkcji (Performance, Coverage), nie znając 15 innych raportów, które często dostarczają decyzyjnie ważniejsze dane. Omawiamy 10 raportów, które realnie zmieniają strategię SEO i dają wnioski, których nie znajdziesz w żadnym płatnym narzędziu. Dane z GSC są bezpośrednio z Google – najbardziej wiarygodne, choć z limitem 16 miesięcy historii i 25k wierszy per zapytanie.

Pokazujemy, jak dokładnie używać każdego raportu – co dokładnie odczytać, jakie akcje podjąć na podstawie wyników, kiedy dane są wiarygodne, a kiedy trzeba weryfikować innym narzędziem. Przykłady z 8 projektów klienckich różnej wielkości (blog B2B 20k odwiedzin/mies., portal 800k/mies., sklep 5M/mies.) pokazują, jak te same raporty dają różne insighty w różnych kontekstach.

W skrócie

  • Performance raport pokazuje 1000 fraz per zapytanie – API pozwala wyciągnąć 100k+ fraz przez paginację.
  • Coverage pokazuje realny status indeksacji, ale dane są opóźnione o 2-7 dni – nie polegaj na najświeższych.
  • Enhancements (Schema, CWV, Mobile Usability) to miejsce, gdzie znajdziesz problemy widoczne dla Google, ale nie dla ciebie.
  • Raporty URL Inspection + Live Test weryfikują konkretne strony w czasie rzeczywistym – użyteczne po deploy’u.
  • Crawl Stats (settings) pokazuje, jak Googlebot wydaje budżet – krytyczne dla dużych sklepów.

Raport 1 – Performance (Search Results)

Najczęściej używany raport, ale rzadko używany w pełni. Pokazuje: kliknięcia, wyświetlenia, CTR, średnia pozycja – filtrowalne po dacie, zapytaniu, stronie, kraju, urządzeniu, typie wyszukiwania.

Standardowe użycie: „jakie frazy przynoszą ruch”. Zaawansowane użycie: (1) „Porównaj” date ranges dla identyfikacji trendów – 90 dni temu vs 90 dni teraz, wzrosty i spadki, (2) Filtr „Position” 11-20 – strony na krawędzi TOP 10, quick wins do pracy, (3) Filtr „CTR poniżej expected” dla danej pozycji – meta title/description wymagają rewrite, (4) Różnica mobile vs desktop – gdzie tracimy na mobilkach.

API GSC (Search Console API) pozwala wyciągnąć 25k wierszy per zapytanie – z paginacją i loops dowolnie dużo. Script w Pythonie wyciągnie 100-500k fraz dla dużego portalu w 15 minut. Interfejs pokazuje max 1000 wierszy – tracisz 90%+ long-tail visibility.

Raport 2 – Coverage (Pages)

Pokazuje status indeksacji każdego URL-a: Valid, Excluded, Error, Excluded with warnings. Krytyczny dla diagnozy problemów indeksacji.

Kluczowe kategorie Excluded:

  • Crawled – currently not indexed: Googlebot odwiedził, ale zdecydował nie indeksować. Sygnał: jakość contentu za niska, thin content, duplikaty.
  • Discovered – currently not indexed: Googlebot zna URL, ale jeszcze go nie odwiedził. Sygnał: crawl budget issue lub niska priorytetyzacja.
  • Duplicate without user-selected canonical: Google traktuje jako duplikat, wybrał inną stronę jako kanoniczną. Sprawdź canonical tags.
  • Alternate page with proper canonical tag: prawidłowa sytuacja – strona ma canonical do innej. Nie problem.
  • Page with redirect: 301/302. OK dla przekierowań, problem, gdy nie powinien.
  • Blocked by robots.txt: celowo zablokowane. Weryfikuj, że tak chciałeś.

W projekcie dla e-commerce 180k produktów w Coverage widać było: 340k URL Crawled not indexed (thin filter pages), 92k Duplicate without canonical (brak canonical tag), 28k Discovered not indexed (crawl budget). Wskazówki dla oczyszczenia pokrywamy w artykule o filtrach produktowych.

Raport 3 – Sitemaps

Pokazuje status przetwarzania sitemaps. Krytyczne dla dużych stron – bez prawidłowej sitemap Google crawluje „ślepo”. W Sitemaps widać: liczba URL-i w sitemap, liczba zaindeksowanych, success rate, ostatnia aktualizacja.

Typowe problemy, które tu znajdziesz: (1) sitemap zawiera URL-e z noindex (konflikt), (2) indexation rate poniżej 80% (sygnał, że sitemap zawiera URL-e, których Google nie chce), (3) sitemap nie aktualizowana (ostatnia zmiana 30+ dni temu – prawdopodobnie gdzieś broken), (4) 4xx/5xx URL-e w sitemap (błąd crawlera).

Praktyczna zasada: sitemap powinna zawierać TYLKO URL-e, które chcesz indeksować. URL-e z noindex, 404, zablokowane = nie wstawiaj. Każdy „zmarnowany” wpis w sitemap to niewłaściwy sygnał dla Google co do priorytetu indeksacji.

Raport 4 – Enhancements – Core Web Vitals

W 2026 CWV to twardy ranking signal. GSC pokazuje wszystkie URL-e z podziałem Good / Needs improvement / Poor dla LCP, INP, CLS – osobno mobile i desktop.

Co sprawdzać: (1) liczba URL-i w kategorii Poor – priorytet do naprawy, (2) trend w czasie – jeśli Poor rośnie, regresja po deploy, (3) split mobile vs desktop – mobile zwykle gorsze, priorytet dla mobile fix.

Threshold dla „Good” w 2026: LCP poniżej 2,5s, INP poniżej 200ms, CLS poniżej 0,1. Poniżej „Needs improvement”: LCP 2,5-4s, INP 200-500ms, CLS 0,1-0,25. Powyżej tych wartości „Poor”. Cel: minimum 75% URL-i w Good dla pozytywnego wpływu na ranking.

Raport 5 – URL Inspection

Najpotężniejsze narzędzie diagnostyczne. Dla dowolnego URL-a pokazuje: czy jest zaindeksowany, kiedy ostatni crawl, canonical URL w Google’s eyes, mobile usability, schema structured data detected, podgląd strony (jak widzi Googlebot).

Kiedy używać: (1) po publikacji nowego artykułu („Request Indexing” przyspiesza), (2) po fix’ie problemu (Live Test weryfikuje, czy zmiana zadziałała), (3) przy diagnozie „dlaczego nie indeksuje się” – URL Inspection pokazuje dokładną przyczynę, (4) przy sprawdzeniu, jak Googlebot renderuje stronę (JavaScript fires correctly).

Live Test vs Indexed URL: Live Test pokazuje aktualny stan strony, Indexed URL pokazuje ostatnią zaindeksowaną wersję. Rozjazd między nimi = potrzeba re-crawl. Mechanika diagnostyki rozszerza łączenie GA4 i Search Console w analizie SEO.

Raport 6 – Crawl Stats (Settings)

Ukryty w Settings, ale krytyczny dla dużych stron. Pokazuje: crawl requests per day (ostatnie 90 dni), przez bota (Smartphone vs Desktop vs Image), per typ pliku (HTML/CSS/JS/Image), per status kod, per cel (Discovery vs Refresh).

Co analizować: (1) trend crawl requests – spadek = Google odcina budżet (problem z jakością lub technical), wzrost = Google widzi więcej wartości, (2) per status kod – wzrost 4xx/5xx to problem techniczny, (3) Refresh vs Discovery – Refresh to indeksacja istniejących URL, Discovery to nowe. Optymalnie 60-70% Refresh, 30-40% Discovery dla ustabilizowanej strony.

Dla sklepu z 180k produktami analiza Crawl Stats pokazała: 68% crawl budgetu na Image files, 22% na HTML. Optymalizacja obrazów (WebP, lazy loading) przesunęła proporcje na 45% Image, 45% HTML – i indeksacja nowych produktów przyspieszyła z 14 do 4 dni.

Raport 7 – Enhancements – Schema.org / Rich Results

GSC pokazuje osobne raporty dla każdego typu schema wykrytego na stronie: Products, Articles, FAQ, HowTo, Video, Breadcrumbs, Events, LocalBusiness, Organizations. Dla każdego: liczba URL-i Valid / Valid with warnings / Errors.

Kluczowe: Errors w schema powodują, że Google ignoruje structured data dla danej strony. To strata rich snippet w SERP i cytowania w AI Overviews. Warnings są miękkie – Google nadal pokazuje rich result, ale zwraca uwagę na brakujące pola opcjonalne.

Typowe błędy w schema: (1) Product bez offers/price, (2) Article bez author lub datePublished, (3) FAQ z pytaniami, które nie są pytaniami, (4) Breadcrumbs z niepasującymi URL-ami. Walidacja w URL Inspection + Rich Results Test = weryfikacja przed deploy.

Raport 8 – Links (External + Internal)

Dwa osobne raporty: External Links pokazuje, kto linkuje do ciebie (top 1000 domen linkujących, top 1000 linkowanych stron, top 1000 anchor tekstów), Internal Links pokazuje architekturę linkowania wewnętrznego.

External Links – wiarygodność: Google widzi tylko część backlinks (nie wszystkie), ale pokazuje te najważniejsze. Dla pełnej analizy link profile używaj Ahrefs – GSC jako cross-check. Przydatne dla: identyfikacji toxic links (nagły wzrost linków z jednej domeny = spam), znalezienia partnerów do współpracy.

Internal Links – pokazuje „top linked pages” (które strony dostają najwięcej wewnętrznych linków). Sygnał dla Google, co jest ważne w witrynie. Jeśli strona, która powinna rankować, ma tylko 5-10 wewnętrznych linków, rozbuduj linkowanie. Mechanika wyjaśniona w linkowaniu wewnętrznym.

Raport 9 – Manual Actions i Security Issues

Dwa raporty, które rzadko pokażą coś – ale gdy pokażą, to krytyczne. Manual Actions: kary nałożone ręcznie przez zespół Google (unnatural links, thin content, cloaking). Security Issues: malware, hacked content, phishing.

Jak często sprawdzać: raz na tydzień. Oba raporty to sygnały „czerwony alarm” – trzeba działać natychmiast. Manual Action typowo daje 30-90 dni spadku ruchu organicznego 40-90%. Security Issue może spowodować deindeksację w 24-48h.

Jeśli pojawi się wpis: natychmiastowa akcja (audyt, fix, reconsideration request). Nie czekaj na kolejny cykl raportowania. Dla większości firm ten raport jest pusty rok po roku, ale monitoring obowiązkowy.

Raport 10 – International Targeting (Targeting w starej wersji)

Dla multi-language / multi-country sites. Pokazuje: hreflang errors, target countries, language consistency.

Hreflang errors są trudne do diagnozy manualnie – GSC wyłapuje je automatycznie. Typowe: missing return links (PL wskazuje na EN, ale EN nie wskazuje na PL), incorrect language codes (en-us zamiast en-US), hreflang pointing to 4xx URL. Każdy error to utrata sygnalizowania dla Google o wielojęzyczności witryny.

Dla sklepu wielojęzycznego typowo 200-2000 hreflang errors po pierwszym deploy. Systematyczny fix przez 2-4 tygodnie redukuje do poniżej 50. Pełny audyt tego aspektu SEO pokrywa szerzej SEO międzynarodowe – hreflang, CCTLD, strategie.

Zaawansowane użycie GSC API

Interface webowy GSC ma ograniczenia – 1000 wierszy per query, ręczne filtry. API pozwala:

  1. Pobierać 25k wierszy per query, z paginacją dowolną liczbą.
  2. Integrować dane z GSC z własną bazą (BigQuery, PostgreSQL) dla długoterminowej analizy.
  3. Automatyzować alerty (np. „powiadom mnie, gdy TOP 10 fraz spadło o 30%+”).
  4. Budować własne dashboardy w Looker Studio lub Power BI.
  5. Porównywać dane z GSC vs Ahrefs/Semrush dla cross-check.

Przykładowy Python skrypt do pobrania 100k fraz: OAuth2 + google-api-python-client, pętla z startRow co 25k, save do parquet. 100k fraz dla średniego portalu: 3-5 minut. Dla sklepu 1M+ URL: 30-45 minut.

Jak interpretować dane z GSC – pułapki

GSC dane są wiarygodne, ale mają swoje specyfiki:

  • Dane sampled: dla zapytań poniżej 5-10 wyświetleń GSC nie pokazuje frazy (privacy). Tracisz ~20-30% long-tail queries.
  • Opóźnienie 2-7 dni: dzisiejszy ruch zobaczysz za kilka dni. Weekly reviews są optymalne.
  • Position to medium, nie precise: „pozycja 4,2” to średnia dla wszystkich impression, nie konkretny ranking.
  • URL canonicals: dane agregowane dla canonical URL, nie wszystkich wariantów. Canonical vs target URL rozjazdy mogą mylić.
  • CTR anomalies: frazy brand mają wysokie CTR (15-25%), non-brand 2-6%. Łączenie zniekształca średnie.
  • Mobile/desktop split: zapomnisz filtrować, i „average” to iluzja – mobile i desktop to różne światy.

Workflow tygodniowy z GSC – 15 minut

  1. Performance, compare „last 7 days” vs „7 days before” – duże zmiany (>15%) = investigate.
  2. Coverage – nowe errors, nowy discovered not indexed.
  3. Enhancements – CWV nowe Poor URLs, schema errors.
  4. Crawl Stats – trend crawl requests, status codes distribution.
  5. Security Issues + Manual Actions – pusty? OK, dalej.
  6. URL Inspection dla 2-3 strategicznych URL-i – czy zaindeksowane, aktualna wersja.

Czas total: 15-25 minut tygodniowo. Daje 80% wiedzy o stanie SEO. Dla pełnego monthly review: dołóż analizę trendów 90-dniowych, eksport danych z API, porównanie z PageSpeed Insights data – 2-4 godziny.

Najczęstsze błędy w pracy z GSC

  • Nieweryfikowanie wszystkich wersji domeny – www vs non-www, http vs https muszą być osobno zweryfikowane.
  • Ignorowanie Discovered – currently not indexed – często zawiera długi tail strony, których Google nie indeksuje z powodu niskiej jakości.
  • Tylko patrzenie na kliknięcia – impressions też są ważne, pokazują potencjał.
  • Brak export do excela – interfejs pokazuje 1000 wierszy max, tracisz dane.
  • Brak API integration – ręczne kopiowanie danych zjada 10+ godzin tygodniowo w średniej firmie.
  • Patrzenie tylko na top 100 fraz – pozycje 11-50 to goldmine quick wins.
  • Ignorowanie Performance dla konkretnej strony – GSC pokazuje, na jakie frazy rankuje konkretna strona.
  • Request Indexing dla setek URL-i – spam, Google może zablokować funkcję.
  • Brak historii – export co miesiąc do własnej bazy, bo GSC trzyma tylko 16 miesięcy.
  • Ufanie wyłącznie GSC – cross-check z Ahrefs/Semrush ujawnia rozjazdy.

Integracja GSC z innymi narzędziami

GSC staje się wielokrotnie mocniejsze połączone z innymi źródłami danych:

GSC + GA4: frazy + kliknięcia (GSC) + konwersje i revenue (GA4). Widzisz, które frazy generują realny biznes, nie tylko ruch. Integracja przez GSC connector w GA4 (darmowa).

GSC + BigQuery: eksport raw data do BigQuery, SQL queries dla kompleksowych analiz. Darmowe w ramach limitów.

GSC + Looker Studio: wizualizacje i dashboardy. Native connector, setup w 15 minut.

GSC + Ahrefs: cross-check pozycji, wypełnianie luk w danych GSC. Poprzez Ahrefs API integration.

GSC + Python: custom analyses niedostępne przez interface. Wymaga programistycznej biegłości, ale daje unlimited power.

Typowy stack integrations dla klienta B2B SaaS: GSC + GA4 + Looker Studio + Ahrefs API + Python skrypt co tydzień. Setup 80-160 godzin raz, potem tylko utrzymanie. Konfiguracja GA4 dla SEO opisuje drugi element w tej integracji.

FAQ – Search Console raporty

Dlaczego GSC pokazuje mniej kliknięć niż GA4?

To normalne i oczekiwane. GSC mierzy kliknięcia w SERP (ktoś kliknął wynik), GA4 mierzy sesje (ktoś wszedł na stronę). Różnica wynika z: użytkownicy z wyłączonymi cookies (niewidoczni w GA4), bot traffic (częściowo filtrowany różnie), błąd javascript tracking, redirects before tracking loads. Typowa różnica: GA4 pokazuje 15-35% mniej niż GSC. Dla analizy trends obie linie muszą być spójne – absolute numbers różnią się, trend pokazuje to samo.

Jak długo czekać na indeksację nowego URL-a?

Bez Request Indexing: 3-21 dni dla nowej strony na domenie z autorytetem, 14-60 dni dla małych/nowych domen. Z Request Indexing (URL Inspection + Request): typowo 1-7 dni. Nie nadużywaj – Google ogranicza do 10-20 requests dziennie. Po deploy’u nowej sekcji (50+ URL) lepsze: dodaj do sitemap i poczekaj, Google przetrawił w 2-4 tygodnie.

Czy dane w GSC Performance są kompletne?

Nie – brakuje 15-30% danych z powodu privacy filtering (zapytania, które są rzadkie lub zawierają dane osobowe, są ukryte). Ta „data gap” jest szczególnie widoczna dla: zapytań niskoobjętościowych (poniżej 5-10 impressions/mies.), zapytań z nazwiskami, zapytań geographically-specific. Dla holistic view dodaj Ahrefs lub Semrush. GSC pokazuje „anonymized queries” jako placeholder – to kolumna „rest” w raporcie.

Jak używać GSC do identyfikacji kanibalizacji?

Filtr query + multiple pages: dla konkretnej frazy sprawdź, czy pojawia się więcej niż 1 URL w top 50. Jeśli tak, dwa URL rankują na to samo – kanibalizacja. Sygnały nasilenia: (1) oba URL mają 5+ impressions, (2) pozycje blisko siebie (różnica 3 lub mniej), (3) trend: które pozycje rosną/spadają. Action: konsolidacja przez 301 redirect lub canonical, lub dopracowanie intencji (każdy URL targetuje inny aspekt frazy).

Czy warto płacić za dedykowane narzędzia GSC?

Jeśli masz ponad 50k impressions miesięcznie, tak. GSC interface staje się niewygodny przy dużych wolumenach. Narzędzia: Keyword Insights (80-450 USD/mies.) dla clustering, Seotools for Excel (99 USD/rok) dla manipulacji danych, LandingCube (brak ceny publicznie) dla SGE monitoring. Alternatywa tańsza: własny Python skrypt + BigQuery + Looker Studio. Pro tip: Search Console API jest darmowe, ograniczenia tylko w rate limit.

Co zrobić, gdy Coverage pokazuje spadek Valid pages?

Diagnostyka: (1) sprawdź, które konkretne URL-e zostały usunięte z Valid – filter „Excluded”, „Indexed now excluded”, (2) sprawdź, do której kategorii Excluded trafiły – Crawled not indexed, Duplicate, 4xx? (3) check Live Test dla sample URL-i – czy nadal dostępne, czy technical issue, (4) sprawdź Crawl Stats – czy Googlebot nadal odwiedza stronę. Typowe przyczyny: quality drop (refresh content potrzebny), technical bug (fix), celowa zmiana (np. dodanie noindex).

Jak zinterpretować „Crawled – currently not indexed”?

Googlebot odwiedził URL, ale uznał, że nie warto indeksować – zazwyczaj sygnał jakości. Typowe przyczyny: thin content (poniżej 300 słów), duplikaty, niska wartość dla użytkownika, overlap z innymi stronami. Wyjście: (1) rozwinąć content, (2) dodać unique value (tabele, FAQ, liczby), (3) dodać więcej wewnętrznych linków (signal of importance), (4) zbudować backlinks (external signal). Jeśli strona ma fundamental problem (duplicate), consolidate przez 301.

Czy GSC pokazuje dane o AI Overviews?

Ograniczone, ale rosnące. Od 2024 Google dodał „AI Overviews” jako filtr w search appearance (Performance report). Pokazuje: impressions w AI Overview, kliknięcia z AI Overview, pozycja (jeśli cytowany jako źródło). Dane niekompletne – nie wszystkie AI Overviews są tam widoczne, i Google dopiero eksperymentuje z raportowaniem. Complement: manual testowanie 50-100 fraz w Google, sprawdzanie, czy pojawia się AI Overview i czy jesteś cytowany.

Case study – jak GSC pomógł znaleźć 240k zł strat

Klient: portal informacyjny o tematyce biznesowej, 450 tys. wizyt miesięcznie, 4200 aktywnych artykułów. Wcześniej agencja raportowała „wszystko dobrze, rośniemy 8% r/r”. Zaczęliśmy współpracę od pełnego audytu GSC.

Znaleziska w Coverage: 1240 artykułów w „Crawled – currently not indexed” – starych treściach, które Google wyłączył z indeksu z powodu thin content. Analiza: każdy z nich w 2023 generował 50-200 wizyt miesięcznie. W 2025 spadły do zera – razem 180k-600k wizyt rocznie straconych.

Performance report z filtrem „pozycja 11-20”: 3400 fraz z łączną wartością 280k impressions miesięcznie, które nie generują kliknięć. Rewrite meta description + on-page optimization dla 200 z tych fraz przyniosło +60k kliknięć miesięcznie w 4 miesiące.

Enhancements CWV: 64% mobile URL w kategorii Poor. LCP średnie 4,8s. Optymalizacja CWV (inline critical CSS, lazy loading, image WebP) obniżyła do 2,3s. Pozycje mobile wzrosły średnio o 2,8 miejsc w 8 tygodni.

Wartość wszystkich zmian per rok: ~240 tys. zł dodatkowego przychodu reklamowego (z tego samego ruchu organicznego, ale większego). Koszt audytu i wdrożenia: 78 tys. zł. ROI: 3x w pierwszym roku, stabilne do następnych 3-5 lat.

Automatyzacja raportowania z GSC

Manualne kopiowanie danych z GSC do raportów klienckich jest najgorszą tratą czasu, jaką widzimy w agencjach. 3-5 godzin tygodniowo per klient pomnożone przez 10 klientów = 40-60 godzin miesięcznie zamiennych na pracę analityczną.

Automatyzacja: Python skrypt raz dziennie pobiera z GSC API dane dla wszystkich klientów, zapisuje do BigQuery. Looker Studio dashboard łączy z BigQuery, aktualizuje się sam. Raporty miesięczne generowane jako PDF z szablonu Looker Studio – export przez plugin w 5 minut.

Setup całego systemu: 60-100 godzin pracy dev/analityka. Koszt utrzymania: 20-40 USD/mies. (BigQuery storage + queries). Zwrot w czasie: oszczędność 40-60 godzin miesięcznie × stawka 80 zł/h = 3200-4800 zł/mies. Break-even w 2-3 miesiące.

GSC dla międzynarodowych stron – specyficzne problemy

Strony obsługujące wiele rynków (PL, EN, DE, CZ) mają w GSC dodatkowe warstwy komplikacji. Kluczowe praktyki:

  • Verify all properties: weryfikuj każdą subdomenę/subfolder osobno – GSC traktuje je jako osobne properties.
  • Domain property (GSC v3): pokazuje łączny widok wszystkich subdomen i protokołów. Używaj jako default.
  • International Targeting: hreflang errors per property. Najczęstszy problem multilingual sites.
  • Performance by country: filtr Country pokazuje, gdzie dostajesz ruch. Często niespodzianki (PL strona rankuje w Czechach dla fraz generic).
  • Indexation per language: Coverage filtrem po URL pattern per język – widzisz, czy wszystkie wersje językowe są równo indeksowane.

Typowy problem: firma ma domain.com/pl/, domain.com/en/, domain.com/de/ – ale tylko /pl/ jest crawlowane głęboko. GSC Coverage per URL pattern pokazuje problem natychmiast. Rozwiązanie: audyt wewnętrznych linków (czy /en/ i /de/ dostają wystarczająco linków z /pl/), audyt sitemaps per język, audyt hreflang.

Co dalej

Zacznij od tygodniowego rytmu przeglądania GSC – 15-20 minut w poniedziałek ustawia tydzień. Po miesiącu regularnego przeglądania naturalnie wejdą ci wzorce, które pomagają diagnozować problemy szybko. Gdy opanowałeś interface, zainwestuj w GSC API – automatyzacja daje 3-5x więcej danych przy 1/5 czasu. Szersze ujęcie łączenia GSC z GA4 opisujemy w łączeniu GSC i GA4 w analizie SEO, a konfigurację GA4 dla SEO w oddzielnym przewodniku. Pełna automatyzacja raportowania, której fundamentem jest GSC, w automatyzacji raportów SEO.