GA4 + Search Console 2026 — jak połączyć, raporty i analiza kanałów AI

GA4 Search Console 2026 to dwa komplementarne, nie konkurencyjne źródła danych. Search Console pokazuje, jak Google Cię widzi w wynikach wyszukiwania – wyświetlenia, kliknięcia, pozycje, zapytania. GA4 pokazuje, co użytkownicy robią po kliknięciu i z jakich kanałów (w tym LLM-ów) faktycznie trafiają na stronę. W tym przewodniku pokazujemy, jak połączyć oba systemy w kilka minut, które raporty analizować codziennie oraz jak w 2026 roku wyodrębnić ruch z ChatGPT, Perplexity, Gemini i Google AI Overviews.

W skrócie

  • GA4 mówi „co po kliknięciu” – sesje, zdarzenia, konwersje, ścieżki, przychód. Search Console mówi „co przed kliknięciem” — zapytania, wyświetlenia, CTR, pozycje.
  • Połączenie GA4 ↔ GSC zajmuje 3 minuty i odblokowuje raport „Zapytania” oraz „Strony docelowe” bezpośrednio w GA4 – bez przełączania zakładek.
  • Ruch z AI (ChatGPT, Perplexity, Gemini, Copilot) trafia w 2026 do kanału „Referral” lub „Direct”. Bez własnych reguł grupowania kanałów (Custom Channel Group) traci się go z widoku.
  • AI Overviews nie są osobno raportowane w GSC. Pośrednio wykrywa się je po spadku CTR przy stabilnych pozycjach 1–3 i rosnącym udziale zapytań pytających.
  • Minimalny zestaw codzienny: 1 raport GSC (Skuteczność), 1 raport GA4 (Pozyskiwanie ruchu), 1 segment (ruch AI). Reszta to dekoracja.

Czym różni się GA4 od Search Console i po co łączyć oba

Google Analytics 4 to narzędzie do analityki behawioralnej – mierzy zdarzenia wywoływane na stronie po wejściu użytkownika. Google Search Console to narzędzie do diagnostyki obecności w wyszukiwarce – mierzy interakcje z SERP-em, zanim ktoś kliknie. Te dwa widoki rzadko się pokrywają, a razem dają pełny lejek od zapytania do konwersji.

Bez GSC nie wiadomo, na jakie frazy strona realnie się pokazuje ani ile z tych wyświetleń kończy się kliknięciem. Bez GA4 nie wiadomo, co dzieje się po kliknięciu — czy użytkownik czyta do końca, czy konwertuje, czy wraca. Analiza samego GA4 to analiza drugiej połowy lejka. Analiza samego GSC to analiza pierwszej.

Integracja natywna jest darmowa, działa przez konto usługi Search Console w GA4 i eksponuje dwa dedykowane raporty: „Zapytania Google Organic” oraz „Strony docelowe Google Organic”. Oba agregują dane z GSC po stronie docelowej i łączą je ze wskaźnikami GA4 (sesje, przychód, zdarzenia konwersji). Pełne specyfikacje opisuje dokumentacja Google Analytics. Zakłada ona jednak, że GA4 masz już poprawnie skonfigurowane – jeśli dopiero startujesz, przeczytaj najpierw nasz przewodnik o konfiguracji GA4 pod SEO, bo niewłaściwie zdefiniowane zdarzenia unieważnią część raportów z integracji.

Po co to łączyć? Trzy konkretne powody. Pierwszy – redukcja pracy ręcznej: nie trzeba eksportować CSV-ek, by skorelować zapytanie z przychodem. Drugi – wspólny słownik: ten sam URL widziany jest w obu systemach w tej samej konwencji. Trzeci – szybsza diagnostyka spadków: jednym spojrzeniem widać, czy spadła liczba wyświetleń (problem widoczności), CTR (problem meta i snippetu) czy konwersja (problem strony docelowej).

Warto rozróżnić też, czego te narzędzia nie robią. GA4 nie śledzi, czy Twoja strona w ogóle pojawia się w Google — do tego służy GSC. GSC nie wie, ile pieniędzy przyniosła dana fraza — do tego służy GA4 z ustawionym e-commerce. Próba odpowiedzi na pytania poza zakresem tych narzędzi (np. atrybucja cross-device, multi-touch) wymaga dołożenia CRM, server-side tagowania albo hurtowni danych.

Jak połączyć GA4 z Search Console krok po kroku

Połączenie zabiera 3–5 minut, pod warunkiem że masz dostęp administracyjny do obu usług. Jeśli tylko do jednej, musisz zaprosić siebie jako administratora do drugiej – inaczej przycisk „Połącz” nie będzie aktywny.

  1. Zweryfikuj uprawnienia. W GA4 potrzebujesz roli „Edytor” lub „Administrator” na poziomie usługi. W GSC – roli „Właściciel” (nie „Pełny użytkownik”) dla usługi domeny lub prefiksu URL. Jeśli jesteś tylko pełnym użytkownikiem GSC, poproś właściciela o dodanie Cię albo o wykonanie kroków 3–6.
  2. Przygotuj usługi GSC. Najlepiej używać usługi domenowej (zweryfikowanej przez DNS), bo obejmuje wszystkie subdomeny i protokoły. Usługa prefiksu URL (https://www.domena.pl/) też działa, ale nie zbiera danych z wariantu bez www lub http.
  3. W GA4 otwórz Administracja → Łączenie usług → Łączenia z Search Console. Kliknij „Połącz”, wybierz konto GSC, wskaż konkretną usługę (jeśli masz ich kilka) i przejdź dalej.
  4. Wybierz strumień danych GA4. Masz zwykle jeden strumień internetowy na usługę – zaznacz go. Jeśli strona ma osobne strumienie dla aplikacji mobilnej, pomiń je – GSC nie łączy się z ruchem aplikacyjnym.
  5. Zatwierdź i odczekaj do 48 godzin. Dane historyczne GSC (16 miesięcy wstecz) pokażą się po aktywacji raportów. Samo połączenie jest natychmiastowe, ale raporty w GA4 zapełniają się stopniowo.
  6. Opublikuj dwa raporty GSC w bibliotece. Domyślnie po połączeniu raporty „Zapytania Google Organic” i „Strony docelowe Google Organic” są ukryte. Wejdź w Raporty → Biblioteka → Kolekcja „Search Console” → Opublikuj. Pomijany krok – przez niego 40% integracji wygląda „jakby nie działała”.
  7. Sprawdź kontrolnie. Raport „Zapytania Google Organic” powinien po 48 godzinach pokazać wiersze z zapytaniami i kolumny: wyświetlenia, kliknięcia, średnia pozycja, sesje GA4, przychód (jeśli masz skonfigurowane zdarzenia e-commerce).

Pełna konfiguracja mierzenia po stronie GA4 – zdarzeń, konwersji i parametrów – wykracza poza zakres tego tekstu; szczegółową procedurę opisujemy w przewodniku o konfiguracji GA4 dla SEO. Bez poprawnie ustawionych zdarzeń raport „Zapytania” pokaże sesje, ale kolumna „Przychód” zostanie pusta.

Jeśli masz wiele usług Google Analytics (np. oddzielne środowiska produkcyjne i testowe, albo stare konta UA), pamiętaj, że jedna usługa GSC może być połączona tylko z jedną usługą GA4 jednocześnie. Próba podłączenia tej samej domeny do dwóch usług GA4 zakończy się błędem – przed ponownym łączeniem trzeba odłączyć poprzednią integrację.

Które raporty czytać codziennie, a które raz w miesiącu

Największy błąd po połączeniu to otwarcie dwudziestu raportów i zamknięcie po tygodniu ze znużenia. Realnie do codziennego przeglądu wystarczą trzy widoki – resztę używa się reaktywnie, gdy pojawi się anomalia.

Codziennie (5 minut): raport GSC „Skuteczność” z filtrem daty „Ostatnie 28 dni” i porównaniem do poprzednich 28 – tylko na to patrzy się w kawie. Tygodniowo (15 minut): GA4 „Pozyskiwanie ruchu” z wymiarem „Grupa kanałów domyślna” plus GA4 „Zapytania Google Organic”. Miesięcznie (60 minut): audyt zapytań, które tracą pozycje, oraz stron docelowych z rosnącym CTR, którym warto dodać CTA.

Ruchu z LLM-ów i AI Overviews nie zobaczysz w standardowych raportach – potrzebny jest segment lub własna grupa kanałów. O tym w sekcji niżej. Jeśli prowadzisz wiele klientów lub własnych projektów, warto zbudować jeden dashboard SEO dla agencji, który agreguje GSC i GA4 dla wszystkich usług w jednym widoku Looker Studio.

Tabela: GA4 vs Search Console – który raport do czego

Pytanie biznesowe Raport główny Narzędzie Metryki kluczowe Częstotliwość
Na jakie frazy się pokazuję? Skuteczność → Zapytania GSC wyświetlenia, CTR, pozycja codziennie
Które strony rosną/spadają w Google? Skuteczność → Strony GSC kliknięcia, pozycja, delta tyg. tygodniowo
Czy Google poprawnie indeksuje? Indeksowanie stron GSC zaindeksowane, niezaindeksowane miesięcznie
Skąd przychodzi ruch po kliknięciu? Pozyskiwanie ruchu GA4 sesje, przychód, konwersje tygodniowo
Ile ruchu zamienia się w leada? Eksploracja – ścieżka GA4 współczynnik konwersji tygodniowo
Jak zachowuje się ruch z Google Organic? Zapytania Google Organic GA4 + GSC sesje, zaangażowanie, przychód tygodniowo
Czy są ruchome problemy UX? Core Web Vitals GSC LCP, INP, CLS (p75) miesięcznie
Ile ruchu przychodzi z AI / LLM? Pozyskiwanie ruchu + segment GA4 sesje AI, zaangażowanie tygodniowo
Jakie dane strukturalne Google widzi? Ulepszenia GSC prawidłowe/błędne elementy po wdrożeniu
Czy lejek konwersji się nie urywa? Eksploracja – eksploracja ścieżki GA4 drop-off, kroki zdarzeń miesięcznie

Tabela dzieli raporty według intencji pytania. Gdy pyta się „co poprawić?”, startuje od GSC (strona pozyskiwania). Gdy pyta się „ile to warte?”, startuje od GA4 (strona wartości). Mieszanie tych dwóch trybów na jednym ekranie to typowa przyczyna paraliżu analitycznego.

Warto zapamiętać jedno proste kryterium: jeśli pytanie zaczyna się od „dlaczego ludzie nie klikają?”, idź do GSC. Jeśli zaczyna się od „dlaczego klikają, ale nie kupują?”, idź do GA4. To kryterium rozstrzyga 80% decyzji o tym, gdzie szukać odpowiedzi.

Jak czytać raport Skuteczność w GSC w 2026 – filtr, pozycja, CTR

Raport Skuteczność w GSC to pojedynczy, najważniejszy widok SEO w 2026 roku. Pokazuje cztery metryki – kliknięcia, wyświetlenia, CTR, średnią pozycję – w trzech wymiarach: zapytanie, strona, kraj/urządzenie/data. 90% codziennej diagnostyki robi się z tego jednego raportu.

Reguła interpretacji: sama pozycja nic nie znaczy. Ważna jest para pozycja × CTR oraz trend w czasie. Strona na pozycji 3 z CTR 2% cierpi bardziej niż strona na pozycji 7 z CTR 8%. Pierwsza potrzebuje lepszego title i meta, druga jest zdrowa.

Typowe filtry, których warto używać w 2026:

  • Zapytanie zawiera „jak”, „co to”, „czym różni”. Izoluje zapytania pytające – te najbardziej ucierpiały na AI Overviews i wymagają odświeżenia formatu odpowiedzi.
  • Strona zawiera /blog/ lub /wiedza/. Oddziela treści contentowe od komercyjnych i landingów produktowych. Inna logika sukcesu, inne KPI.
  • Kraj = Polska, urządzenie = mobile. 70% ruchu polskich stron to mobile; agregacja łącznie z desktopem kamufluje problemy UX na telefonach.
  • Porównanie 28 dni vs poprzednie 28. Kolumna „Różnica” sortowana od największego spadku = lista „co poprawić w pierwszej kolejności”.
  • Data od publikacji strony. Dla nowych treści pokazuje realną krzywą wzrostu, nie uśrednia przez okres sprzed publikacji.

Limit GSC to 1000 wierszy w UI oraz 16 miesięcy historii. W 2026 limit nie zmienił się – nadal obcina dolne warstwy długiego ogona. Aby pracować na pełnych danych, potrzebujesz eksportu przez API; pokazujemy to w osobnym przewodniku o API Search Console i budowie własnych raportów. Bez API analizujesz top 1000 zapytań; z API – pełny ogon.

Pełna specyfikacja raportu, limitów i metryk jest w oficjalnej dokumentacji Search Console. Warto ją przeczytać raz, bo tłumaczy m.in. różnicę między zapytaniami anonimizowanymi a „rzadkimi”, która wpływa na sumę kliknięć.

Dodatkowa praktyka: raz na kwartał eksportuj dane do arkusza i policz udział brandowych kliknięć (zapytanie zawiera nazwę marki) oraz udział zapytań informacyjnych (zawiera „jak/co to/ile”). Stosunek tych dwóch segmentów w czasie to lepszy wskaźnik zdrowia SEO niż sumaryczne kliknięcia — pokazuje, czy budujesz ruch organiczny z nieznajomych użytkowników, czy tylko obsługujesz ludzi, którzy i tak by Cię znaleźli.

Jak w GA4 wyodrębnić ruch z kanałów AI (ChatGPT, Perplexity, Gemini, Copilot)

W 2026 ruch generowany przez LLM-y to osobny, niezauważany przez większość ustawień kanał. ChatGPT (chat.openai.com, chatgpt.com), Perplexity (perplexity.ai), Gemini (gemini.google.com) i Copilot (copilot.microsoft.com) wysyłają użytkowników z nagłówkiem Referer — ale GA4 ich nie klasyfikuje osobno. Trafiają do kanału „Referral” lub, gdy referer jest pusty (aplikacje desktopowe, tryb incognito), do „Direct”.

Bez własnej grupy kanałów widzisz w GA4 „Referral: 420 sesji” i nie wiesz, czy to ChatGPT, czy stary link z Reddita. Rozwiązanie – stworzyć Custom Channel Group „AI / LLM” na poziomie usługi.

Definicja reguł, która działa w 2026 (kolejność = priorytet dopasowania):

  1. Kanał „AI – ChatGPT”: źródło zawiera chatgpt.com lub chat.openai.com lub openai.com.
  2. Kanał „AI – Perplexity”: źródło zawiera perplexity.ai.
  3. Kanał „AI – Gemini”: źródło zawiera gemini.google.com lub bard.google.com.
  4. Kanał „AI – Copilot”: źródło zawiera copilot.microsoft.com lub copilot.cloud.microsoft.
  5. Kanał „AI – Claude”: źródło zawiera claude.ai lub anthropic.com.
  6. Kanał „AI – Other”: źródło zawiera you.com, phind.com, duckduckgo.com/chat, kagi.com.

Grupę definiuje się w: Administracja → Ustawienia wyświetlania danych → Grupy kanałów → Utwórz niestandardową grupę kanałów. Reguły są oceniane od góry, pierwsze dopasowanie wygrywa. Daj grupie nazwę „AI / LLM” i ustaw ją jako domyślną w raporcie Pozyskiwanie ruchu, albo używaj jako wymiaru w eksploracjach.

Metryka, na którą patrzymy po wdrożeniu grupy, to zaangażowany czas sesji z AI versus z Google Organic. W naszych danych ruch z Perplexity ma o 40–60% dłuższy czas zaangażowania niż zwykły organic – użytkownicy przychodzą już w trybie „badawczym”. Ruch z ChatGPT jest bardziej zróżnicowany, bo obejmuje zarówno pytania faktograficzne, jak i decyzyjne. Jeśli chcesz iść głębiej w pomiar widoczności w samych LLM-ach (bez czekania, aż klikną), patrz nasz przewodnik o metrykach widoczności w LLM-ach – omawiamy tam pomiar cytowalności, nie tylko kliknięć.

Dodatkowa rada: utwórz też drugą grupę „AI Bots” – obejmuje ona agentów przychodzących na stronę w celu crawlowania: GPTBot, PerplexityBot, ClaudeBot, GoogleOther. Te wizyty nie są sesjami użytkowników (boty nie wykonują JavaScript), ale warto je filtrować po stronie logów serwerowych, żeby nie zawyżały statystyk „Direct”.

Jest jeszcze trzeci, niedoceniany kanał: ruch z Discover i Google News. W GA4 pojawia się jako google / organic – nie odróżnisz go od zwykłego SERP-a bez dodatkowego wymiaru. Rozwiązanie: w GSC filtr „Typ wyszukiwania = Discover” i porównanie z GA4 po stronie docelowej. Rozbieżność wskazuje, ile ruchu dostarcza Ci Discover samodzielnie.

Jak wyłapać w GSC wpływ AI Overviews i zmiany SERP w 2026

Google AI Overviews (wcześniej SGE) zmieniają CTR na pozycjach 1–3 w sposób, którego GSC nie pokazuje wprost. Brak osobnego typu wyniku, brak kolumny „wyświetlenia w AI Overview”. Analityk musi pracować z sygnałami pośrednimi.

Cztery sygnały, które sumarycznie potwierdzają obecność AI Overview dla zapytania:

  1. Stabilna lub rosnąca pozycja + spadający CTR. Strona stała na pozycji 2 przez 90 dni, CTR spadł z 18% do 9% – to klasyczny ślad AI Overview „kradnącego” pierwszy klik.
  2. Zapytania pytające uderzone bardziej niż nawigacyjne. Filtr „zapytanie zawiera jak/co/dlaczego/ile”. Jeśli ta kohorta spadła o 30%, a zapytania brandowe są stabilne – to AI Overview, nie algorytm.
  3. Wzrost liczby unikalnych zapytań na tę samą stronę. AI Overview często rozgałęzia intencję — jedna strona zaczyna wyświetlać się na więcej wariacji frazy, ale z niższym CTR na każdą.
  4. Dłuższe, konwersacyjne zapytania. Wyświetlenia zapytań 5+ słów rosną szybciej niż zapytań 1–2 słowa. To sygnał, że Google przekierowuje złożone intencje do AI Overview, a proste SERP-y klasyczne.

Praktyczny test: eksportuj z GSC 100 najważniejszych zapytań i dla każdego ręcznie sprawdź SERP w trybie incognito z polskiego IP. Zaznacz w arkuszu, które mają AI Overview. Skoreluj z delta CTR. Po 50 zapytaniach wzorzec staje się oczywisty.

Co robić z zapytaniami uderzonymi przez AI Overview? Trzy taktyki: (1) przepisać początek strony w formacie odpowiedzi na pytanie (2–3 zdania, cytowalne), (2) dodać sekcję „W skrócie” z punktami, które LLM może zacytować w całości, (3) dodać konkretne liczby i mechanizmy, bo AI Overview preferuje faktoidy nad prozę. Pełna mechanika cytowalności: patrz materiały o formatowaniu pod LLM i o AI Overviews w naszym klastrze AIO.

Kontrowersyjna, ale potwierdzona obserwacja z polskiego rynku 2026: zapytania z intencją lokalną (np. „kancelaria prawna warszawa”) są minimalnie dotknięte przez AI Overview, bo Google rzadko generuje overview dla zapytań geolokalnych. Ich CTR pozostaje stabilny, podczas gdy zapytania informacyjne tracą 30–50% kliknięć. To oznacza, że strategia „przesuwaj się w kierunku fraz transakcyjnych i lokalnych” ma w 2026 twardą podstawę w danych GSC, nie tylko w intuicji.

Jak zrobić korelację GSC ↔ GA4 w Looker Studio i Big Query

Natywna integracja GA4 + GSC w samym GA4 daje dwa raporty. To mało na dashboard operacyjny. Poważniejsze łączenie robi się w Looker Studio (darmowe) lub Big Query (dla dużych stron).

W Looker Studio podłącza się dwa źródła – złącze „Search Console (URL impression)” oraz „GA4” – i łączy je po wymiarze Landing page (GSC) = Ścieżka strony docelowej (GA4). Ważne: w GSC URL-e są absolutne (https://domena.pl/artykul/), a w GA4 względne (/artykul/). Trzeba sprowadzić do wspólnego formatu polem obliczanym REGEXP_REPLACE(Landing page, '^https?://[^/]+', '').

Minimalny raport łączony ma 6 kolumn: URL, kliknięcia GSC, średnia pozycja, CTR, sesje GA4, przychód GA4. Sortowany po delcie kliknięć tydzień/tydzień pokazuje, która strona wymaga interwencji. Sortowany po przychodzie/kliknięcie pokazuje, która strona jest niedowartościowana (dużo kliknięć, mały przychód – problem konwersji, nie SEO).

W Big Query eksport GSC bulk export dostarcza trzy tabele: searchdata_site_impression, searchdata_url_impression, ExportLog. Eksport GA4 dostarcza dzienną tabelę events_YYYYMMDD. Join jest po URL-u i dacie. To rozwiązanie dla stron z milionami wierszy, w których Looker Studio się dławi.

Uwaga na jeden pułapek: GSC bulk export nie zawiera zapytań anonimizowanych („Anonymous queries”), które w UI są tylko podsumowane. Sumy kliknięć i wyświetleń w UI i w eksporcie będą się różnić – w eksporcie są niższe o 5–15%. To nie bug, to polityka prywatności Google. Pisze o tym dokumentacja bulk exportu GSC.

Przykładowe zapytanie SQL, które łączy GSC i GA4 po dacie i URL-u oraz zwraca listę stron do optymalizacji: SELECT url, SUM(clicks) AS gsc_clicks, AVG(position) AS avg_pos, SUM(sessions) AS ga4_sessions, SUM(revenue) AS ga4_revenue FROM gsc_by_url JOIN ga4_by_url USING (url, date) WHERE date BETWEEN '2026-01-01' AND '2026-03-31' GROUP BY url HAVING gsc_clicks > 100 ORDER BY ga4_revenue/NULLIF(gsc_clicks,0) DESC. Wynik to ranking stron od najbardziej dochodowych na jedno kliknięcie – naturalna lista priorytetów dla CRO i treści.

Consent Mode v2 i poprawny pomiar w 2026

W 2026 Consent Mode v2 jest twardym wymogiem dla wszystkich reklamodawców działających w EOG, a dla SEO w Polsce ma znaczenie, bo wpływa na kompletność danych GA4 nawet bez Google Ads. Jeśli użytkownik odrzuca cookie analityczne, GA4 w trybie podstawowym nie dostaje żadnego sygnału – sesja znika. W trybie zaawansowanym GA4 dostaje cookie-less ping i modeluje utracone konwersje statystycznie.

Praktyczny skutek: konta bez Consent Mode v2 pokazują w 2026 nominalnie mniej ruchu organic niż GSC – rozbieżność potrafi przekroczyć 40%. Po poprawnym wdrożeniu wraca do normalnego zakresu 15–25%. To najszybsza „naprawa” raportów bez żadnej zmiany w treści.

Checklist audytu Consent Mode v2:

  • Baner zgody wysyła sygnały ad_storage, analytics_storage, ad_user_data, ad_personalization — wszystkie cztery są wymagane w v2, nie trzy jak w v1.
  • Tryb zaawansowany (advanced) wysyła pingi przed zgodą – dzięki temu można modelować konwersje utracone. Tryb podstawowy (basic) nic nie wysyła, co daje bardziej „puste” raporty.
  • Test w DevTools: odrzuć cookie, sprawdź w Network, czy do www.google-analytics.com/g/collect wychodzi żądanie z parametrem gcs=G100 (zgoda odmówiona) – jeśli nie wychodzi nic, masz tryb podstawowy lub zepsutą integrację.
  • Raport „Zachowanie Consent Mode” w GA4 (Eksploracja → Szablony) pokazuje udział sesji z zgodą, bez zgody i bez baneru. Udział „bez baneru” powyżej 5% to sygnał, że w części stron brakuje integracji.
  • Modelowanie zachowania (Behavioral modeling) włącza się automatycznie po 1000 sesjach dziennie w zaawansowanym Consent Mode. Poniżej progu modelowanie jest wyłączone – małe strony widzą tylko surowe, niekompletne dane.

Consent Mode nie rozwiązuje wszystkich problemów pomiaru, ale eliminuje największy w 2026 roku – rozbieżność między GSC a GA4 spowodowaną przez utracone cookies. Dla stron z ruchem z EOG bez niego analiza SEO jest oparta na niepełnym obrazie.

Jak diagnozować spadki: czy to GSC, GA4, czy strona?

Spadek ruchu zgłoszony przez klienta rozbija się na trzy możliwe warstwy: widoczność (GSC – mniej wyświetleń), zachęta do kliknięcia (GSC – niższy CTR przy stabilnej pozycji) lub jakość ruchu (GA4 – niższa konwersja). Każda z nich ma inny plan naprawy. Pełną ramę diagnostyczną rozpisujemy w przewodniku o diagnostyce spadku ruchu SEO i planie naprawy w 30 dni.

Szybki, pięciominutowy triage:

  1. GSC → Skuteczność, ostatnie 28 dni vs poprzednie 28. Czy spadły wyświetlenia? Jeśli tak – problem widoczności (algorytm, deindeksacja, utrata linków).
  2. Jeśli wyświetlenia stabilne, spadł CTR: problem snippetu – title, meta, AI Overview, zmiana SERP features.
  3. Jeśli kliknięcia w GSC stabilne, ale GA4 pokazuje mniej sesji Organic: problem pomiaru — blokada consent, tryb incognito Apple, utrata reklam, błąd tagowania.
  4. Jeśli sesje stabilne, spadł współczynnik konwersji: problem strony docelowej – CWV, CTA, trust, szybkość, treść.
  5. Jeśli wszystko spada proporcjonalnie: szukaj zdarzenia wyzwalającego (core update, migracja, regresja techniczna, wygaśnięcie certyfikatu, regres w robots.txt).

Ten triage działa, bo rozdziela warstwy lejka. Gdy pominiesz krok 1 i od razu ruszysz optymalizować meta tagi, a problemem jest deindeksacja – tracisz tydzień. Dyscyplina triage = tydzień mniej w naprawie.

Mikroprzykład z praktyki: klient e-commerce zgłosił spadek przychodu o 22% rok do roku. Wyświetlenia w GSC stabilne, kliknięcia w GSC stabilne, sesje w GA4 spadły o 30%. Od razu było wiadomo, że problemem nie jest SEO, tylko pomiar – okazało się, że zespół developerów w styczniu podmienił baner zgód na nowy, który nie wysyłał ad_storage=granted. Tydzień pracy na GA4 Consent Mode przywrócił dane do normy, a rzekomy „spadek SEO” okazał się fikcją raportową.

Najczęstsze błędy przy pracy z GA4 i Search Console

Lista zebrana z dziesiątek audytów integracji GA4-GSC w 2025–2026. Każdy z tych błędów widać w ciągu 10 minut patrzenia na konto.

  • Brak publikacji raportów GSC w bibliotece GA4. Raporty są połączone, ale ukryte. Klient mówi „nie działa”, bo klika w Raporty i nie widzi zakładki Search Console. Rozwiązanie: Biblioteka → Kolekcja Search Console → Opublikuj.
  • Używanie usługi prefiksu URL zamiast domenowej w GSC. Jedna wersja witryny (z www lub bez) nie jest raportowana. Migracja na usługę domenową zajmuje 10 minut i rozwiązuje problem na stałe.
  • Brak filtra ruchu wewnętrznego w GA4. Odwiedziny z biura i od testerów wpływają na konwersje. Filtr IP zespołu + wyłączenie adresów deweloperskich powinno być ustawione przy pierwszej konfiguracji.
  • Porównywanie GA4 „sesji organic” z GSC „kliknięciami”. To nie to samo. GSC liczy kliknięcia w SERP, GA4 liczy sesje po stronie klienta z cookie i zgody. Rozbieżność 10–30% to norma, nie bug.
  • Brak zdarzeń konwersji. Konto GA4 śledzi sesje, ale nie oznaczono żadnego zdarzenia jako konwersji. Raport „Zapytania Google Organic” ma wtedy pustą kolumnę „Łączny przychód” i „Konwersje”.
  • Segmentacja na poziomie użytkownika, gdy pytanie dotyczy sesji. W GA4 eksploracje domyślnie operują na użytkownikach. Dla analizy ruchu SEO chcesz sesji – inaczej odwiedziny rozłożone na 3 dni liczą się jako 1 użytkownik.
  • Ignorowanie limitu 16 miesięcy w GSC. Bez automatycznego eksportu do BigQuery tracisz historię. Włączenie bulk exportu jest darmowe i zajmuje 15 minut – odkłada to wszystkie dane bezterminowo.
  • Domyślna grupa kanałów bez AI. Ruch z ChatGPT i Perplexity ląduje w „Referral” razem z przypadkowymi linkami. Bez własnej grupy nie widzisz, że ten kanał istnieje i rośnie.
  • Brak zgodności filtra daty między raportami. W GSC domyślnie widać ostatnie 3 miesiące, w GA4 – ostatnie 28 dni. Porównania „CTR do sesji” robione na różnych oknach są bezwartościowe.
  • Zapomniany Consent Mode v2. W 2026 Consent Mode v2 jest wymagany dla odbiorców EOG. Bez niego dane GA4 są okrojone, a integracja z Google Ads blokuje remarketing. Audyt: DevTools → Network → wyszukaj gtag/js i sprawdź, czy wysyła consent.
  • Traktowanie AI Overview jako „błędu w danych”. Spadek CTR przy stabilnej pozycji to realna zmiana wartości pozycji, nie błąd pomiaru. Próba „naprawy” bez zmiany treści daje zero efektu.
  • Jeden właściciel, brak backupu uprawnień. Gdy osoba zakładająca GSC odchodzi z firmy, integracja pozostaje, ale dostęp do klucza DNS do weryfikacji domeny ginie. Zawsze dodawaj drugiego właściciela technicznego (e-mail dla zespołu, nie osobisty).

FAQ – najczęstsze pytania o GA4 i Search Console 2026

Czym różni się GA4 od Universal Analytics w kontekście integracji z GSC?

Universal Analytics (UA) pokazywał dane GSC w raportach „Pozyskiwanie → Search Console”, ale integracja była bardzo ograniczona (głównie zapytania i strony docelowe, bez pełnej kaskady zdarzeń). UA został wyłączony 1 lipca 2024, a dane przestały być dostępne 1 lipca 2024 dla standardu i 1 lipca 2025 dla UA 360. GA4 oferuje natywne łączenie z GSC od 2023 z dwoma raportami („Zapytania Google Organic”, „Strony docelowe Google Organic”) oraz pełną możliwością budowania segmentów i eksploracji w oparciu o wymiar „Session source/medium = google / organic”. W 2026 GA4 + GSC to jedyny natywny stack analityczny Google.

Ile historii danych widzi GSC, a ile GA4?

Search Console przechowuje 16 miesięcy danych dostępnych w UI i przez API. Po tym czasie dane starsze są usuwane z raportu Skuteczność. GA4 domyślnie przechowuje dane zdarzeń przez 2 miesiące, ale można wydłużyć do 14 miesięcy (Administracja → Ustawienia danych → Przechowywanie danych). Dla dłuższej historii należy włączyć bulk export GSC do BigQuery (od 2023 roku darmowy, do limitów BigQuery) oraz natywny eksport GA4 → BigQuery. Oba rozwiązania zachowują dane bezterminowo i są podstawą poważnej analizy retrospektywnej.

Dlaczego sesje Organic w GA4 nie równają się kliknięciom w GSC?

Różnica 10–30% to norma, nie błąd. GSC liczy kliknięcia po stronie SERP-a (serwer Google). GA4 liczy sesje po stronie klienta, zależne od: (1) wczytania skryptu analytics, (2) zgody użytkownika na cookie, (3) braku AdBlockera, (4) braku trybu incognito z wyłączoną telemetrią. Dodatkowo GSC liczy kliknięcia niezależnie — te same kliknięcia w ciągu 30 minut są w GA4 jedną sesją. W Polsce w 2026 typowa rozbieżność wynosi 15–25% na niekorzyść GA4. Duża rozbieżność (>40%) sygnalizuje problem z tagowaniem, Consent Mode lub pomijaniem skryptu.

Jak rozpoznać, czy moja strona jest cytowana w AI Overviews?

Bez eksperymentalnego widżetu (Google nie udostępnił publicznego raportu) wykrywa się to pośrednio. Po pierwsze: spadek CTR na pozycji 1–3 przy stabilnej pozycji. Po drugie: ręczny test SERP w trybie incognito dla top 20 zapytań — jeśli widzisz AI Overview i Twoja domena jest w sekcji „Źródła”, jesteś cytowany. Po trzecie: nagły wzrost ruchu z Google Discover lub nietypowych long-tailów może być sygnałem, że LLM-y Google korzystają z Twojej strony jako źródła. Narzędzia SEO (Semrush, Ahrefs) w 2026 dodały moduły wykrywające obecność w AI Overviews dla śledzonych fraz.

Czy muszę używać BigQuery, żeby poważnie analizować SEO?

Nie dla stron poniżej 500 URL-i organicznych. Dla nich wystarczy UI GSC + GA4 + Looker Studio. BigQuery staje się potrzebne, gdy: (1) masz więcej niż 1000 pozycjonowanych URL-i i ucinasz dane przez limit UI, (2) potrzebujesz historii dłuższej niż 16 miesięcy, (3) robisz własne modele atrybucji lub łączysz z danymi CRM/finansowymi, (4) prowadzisz zespół data/BI, który pracuje w SQL. Koszt BigQuery dla średniej strony SEO (eksport GA4 i GSC, zapytania agencyjne) to zwykle 5–50 zł miesięcznie – mieści się w darmowym poziomie GCP lub tuż ponad nim.

Czy Looker Studio zastępuje GA4?

Nie. Looker Studio to warstwa wizualizacji – nie zbiera danych, tylko je wyświetla. GA4 i GSC pozostają źródłem prawdy; Looker Studio pozwala zbudować dashboard, który agreguje oba (oraz CRM, Ads, Meta) w jednym widoku. W agencji Looker Studio jest krytyczny – oszczędza 20–30 godzin miesięcznie na raportowaniu klienckim. Przy pracy nad jednym projektem (własna strona) UI GA4 + UI GSC wystarcza na 80% potrzeb, a Looker Studio rezerwuje się na prezentacje decyzyjne.

Jak traktować ruch z AI bots (GPTBot, ClaudeBot, PerplexityBot)?

To nie są użytkownicy – to crawlery LLM pobierające treść do indeksów lub cytatów. GA4 domyślnie ich nie widzi (boty nie wykonują skryptu JavaScript w 99% przypadków). Jeśli widzisz je w GA4, masz prawdopodobnie integrację server-side. W logach serwera są widoczne normalnie. Polityka blokowania (przez robots.txt) jest strategiczną decyzją: blokada = brak cytowań w ChatGPT/Claude/Perplexity = zero ruchu z AI. Akceptacja = Twoja treść trafia do kontekstu LLM-ów i bywa cytowana, z ruchem na stronę w odpowiedziach zawierających linki. W 2026 większość stron content-heavy świadomie zezwala, blokuje tylko konkurencyjne boty scrapingowe.

Co zrobić, gdy GSC pokazuje „Zindeksowana, ale nie przesłana w mapie witryny”?

Ta etykieta oznacza, że Google zaindeksował URL, ale nie ma go w Twojej sitemap.xml. To nie jest problem indeksacji – URL jest widoczny w Google. To jest sygnał higieny: albo powinieneś dodać URL do sitemap (jeśli to ważna strona), albo powinieneś go usunąć/przekierować (jeśli to błędny parametr, filtr, stary slug). Audyt: porównaj listę zindeksowanych-ale-niesitemapowanych z mapą witryny. Typowe winowajce: URL-e z parametrami kampanii, pagination bez canonicala, testowe slugi sprzed migracji. Cel długoterminowy: 100% zindeksowanych URL-i powinno być też w sitemap.

Co dalej

Jeśli integracja jest gotowa, kolejny krok to konfiguracja zdarzeń i konwersji po stronie GA4, bo bez nich raport „Zapytania Google Organic” jest ślepy na wartość biznesową – praktyczną instrukcję znajdziesz w naszym tekście o konfiguracji GA4 dla SEO. Dalej warto zautomatyzować raportowanie przez API Search Console i zrzucać dane poza limit 1000 wierszy – to otwiera analizę długiego ogona oraz cykliczny audyt spadków. Dla zespołu agencyjnego naturalnym trzecim krokiem jest ujednolicenie widoków w dashboardach Looker Studio dla wszystkich klientów.