TL;DR. Share of Voice (SoV) w modelach generatywnych to procent odpowiedzi ChatGPT, Perplexity, Gemini i Copilota, w których Twoja marka pojawia się jako cytowane źródło lub wymieniona rekomendacja — w odniesieniu do całego zestawu pytań z Twojej niszy. W 2026 r. klasyczny SoV liczony z danych SERP przestał być wystarczający, bo 30-55% sesji informacyjnych kończy się w chatbocie bez kliknięcia. Żeby poprawnie mierzyć widoczność marki w AI, potrzebujesz trzech rzeczy: stabilnej listy promptów (prompt set), automatycznego zbierania odpowiedzi z kilku modeli i dashboardu, który liczy SoV per prompt, per model i per intencja. Ten poradnik pokazuje dokładnie jak to zbudować — ręcznie i z pomocą narzędzi (Profound, Brandwatch, Ahrefs Brand Radar, Athena, własne pipeline’y) — oraz jakie błędy najczęściej wypaczają wynik.
Czym jest Share of Voice w AI i czym różni się od klasycznego SoV?
Klasyczny Share of Voice mierzył udział marki w ekspozycji medialnej — w reklamie telewizyjnej, display, potem w wynikach wyszukiwania Google. W SEO liczyliśmy go zwykle jako udział ważony CTR kluczowych fraz, w których domena pojawia się w top 10. SoV w AI przenosi tę samą ideę na grunt modeli językowych: zamiast linków w SERP mierzymy, jak często marka pojawia się w odpowiedzi generatywnej — jako cytowane źródło, jako wymieniona z nazwy rekomendacja albo jako odpowiedź na pytanie transakcyjne typu „jakie narzędzie polecasz do X”.
Różnice są trzy i są fundamentalne. Po pierwsze, odpowiedź AI nie ma stałej pozycji — nie ma „pierwszego miejsca”, jest tylko „jest albo nie ma” (a jeśli jest, to na którym miejscu listy i z jakim tonem). Po drugie, ten sam prompt zwraca różne odpowiedzi w różnych momentach, bo modele są niedeterministyczne, mają RAG i aktualizują kontekst. Po trzecie, wynik zależy od modelu — widoczność w ChatGPT 5.2 nie przekłada się 1:1 na Perplexity Sonar Pro czy Gemini 3.
Dlatego AI SoV zawsze liczymy jako stosunek trafień marki do liczby pytań w prompt set, per model, uśredniony po co najmniej 3-5 próbach. Bez tych trzech wymiarów otrzymujesz pojedynczą liczbę, która nie mówi nic.
Dlaczego AI SoV stał się kluczowym KPI w 2026 roku?
Powód jest prosty: ruch z odpowiedzi generatywnych nie pojawia się w klasycznych raportach. Gdy użytkownik zapyta ChatGPT o „najlepsze narzędzie do audytu technicznego SEO”, a model odpowie akapitem tekstu, w którym wymieni trzy marki i da link do jednej z nich — nawet jeśli użytkownik kliknie, w Google Analytics zobaczysz referral z chatgpt.com, ale nie dowiesz się, ile razy Twoja marka została w ogóle wspomniana bez kliknięcia. Dla decyzji brand-affinity, dla NPS i dla długoterminowego popytu „bez kliknięcia” jest równie ważne jak „z kliknięciem”.
W praktyce zespoły SEO/AIO, które mierzą AI SoV od końca 2024 r., raportują trzy regularne wnioski: (1) w segmentach B2B udział pytań zakończonych w chatbocie dochodzi do 60%, (2) marki z silnym SoV w AI notują wyższy udział brandowych zapytań w Google, (3) wejścia z Perplexity i ChatGPT mają o 25-45% wyższy średni czas sesji niż ruch organiczny z Google. Innymi słowy — AI SoV jest miernikiem wczesnym: poprzedza wzrost organicznego ruchu brandowego, a nie za nim podąża.
Jeżeli nie masz jeszcze warstwy pomiaru, warto zacząć od uporządkowania zestawu KPI AIO na 2026 rok — AI SoV jest tam jednym z czterech kluczowych wskaźników obok citation rate, LLM referral traffic i answer coverage.
Jak zbudować prompt set, na którym mierzysz SoV?
Prompt set to serce pomiaru. Jeśli go źle zaprojektujesz, SoV będzie albo sztucznie wysoki (bo pytasz „o siebie”), albo bezużyteczny (bo pytasz o tematy, których nikt nie wpisuje do chatbota). Dobrze skonstruowany prompt set ma 60-250 pytań, dzielonych na trzy warstwy intencji.
Warstwa 1 — pytania transakcyjne/komparatywne. Tu mieszczą się zapytania typu „jakie narzędzie polecasz do monitorowania pozycji w AI Overviews”, „najlepsze CRM dla agencji SEO 2026″, „porównaj Semrush i Ahrefs dla małej agencji”. To pytania, w których marki mogą być wymienione z nazwy — i to one decydują o bezpośrednim wpływie AI na sprzedaż.
Warstwa 2 — pytania edukacyjne „top of funnel”. Tu są zapytania typu „czym jest AEO”, „jak działa RAG”, „jak zoptymalizować treść pod ChatGPT”. Marka rzadko zostaje tu wymieniona z nazwy, ale często cytowana jako źródło — i właśnie citation rate jest tu głównym miernikiem.
Warstwa 3 — pytania problemowe/how-to. „Jak naprawić spadek ruchu po AI Overviews”, „co zrobić gdy strona nie jest cytowana w Perplexity”. Tu mierzymy zarówno wspomnienia, jak i cytowania, ale dodatkowo sentyment rekomendacji.
W praktyce listę promptów budujemy z trzech źródeł: zapytań z Google Search Console (zwłaszcza tych z niskim CTR i wysoką pozycją — to są odpowiedzi, które AI „kradnie”), logów czatu własnych klientów (jeśli masz narzędzie typu intent mining) oraz ręcznego burzy mózgów z zespołem sprzedaży.
Ile modeli trzeba monitorować w 2026 roku?
Minimum to trzy: ChatGPT (GPT-5 z włączonym web search), Perplexity (Sonar Pro) i Google Gemini 3 (zarówno AI Mode w SERP, jak i Gemini Apps). Pokrywają łącznie około 85% rynku generatywnego w Polsce i około 90% globalnie. Maksimum uzasadnione ekonomicznie — sześć źródeł: dorzucasz Microsoft Copilot (bo dominuje w B2B przez integrację z Microsoft 365), Claude (bo ma najwyższy udział wśród deweloperów) i You.com lub Arc Search w niszach technicznych.
Żeby uniknąć nierównomiernego próbkowania, każdy prompt uruchamiaj na każdym modelu w identycznej wersji pytania, z identyczną konfiguracją (temperatura domyślna, brak system prompta zmieniającego ton). W przypadku ChatGPT warto mierzyć dwa warianty: z włączonym i wyłączonym web search — różnica potrafi być ogromna.
Jakie metryki składają się na AI SoV i jak je definiować?
AI SoV nie jest jedną liczbą. To zestaw czterech wskaźników, które razem dają obraz widoczności. Bez każdego z nich raport jest niekompletny.
Mention Rate (udział wzmianek). Procent odpowiedzi, w których marka pojawia się jako nazwa własna — niezależnie od tego, czy jest cytowana linkiem. Najprostszy miernik i najłatwiejszy do zautomatyzowania przez regex lub NER.
Citation Rate (udział cytowań). Procent odpowiedzi, w których jest link do domeny marki lub explicite wymienione źródło. W Perplexity łatwe do zmierzenia (źródła są zawsze listowane), w ChatGPT wymaga parsowania bloku „browsing”, w Gemini — ekstrakcji z widoku AI Mode.
Position Score. Jeśli w odpowiedzi pojawia się lista marek (np. „3 najlepsze narzędzia to…”), liczymy odwrotność pozycji. Marka na pierwszym miejscu = 1.0, na drugim = 0.5, na trzecim = 0.33. Suma tych wartości per 100 promptów daje ważony SoV, który odróżnia „byliśmy wymienieni” od „byliśmy rekomendacją numer jeden”.
Sentiment Score. W 15-25% odpowiedzi marka jest wymieniona w kontekście negatywnym — „nie polecam narzędzia X, bo…”, „wadą Y jest…”. Bez mierzenia sentymentu każde „wspomnienie” traktujesz tak samo, co zaciemnia obraz.
W raporcie finalnym pokazujemy zwykle cztery liczby plus trend 4-tygodniowy i porównanie z 3-5 konkurentami. To jest minimum, żeby ktokolwiek poza zespołem SEO rozumiał wynik.
Jakie narzędzia można wykorzystać do pomiaru i które wybrać?
Rynek narzędzi do AI SoV zdążył się rozwarstwić. Na jednym końcu masz płatne platformy typu Profound, Brandwatch AI Tracker, SparkToro 2.0, Ahrefs Brand Radar i Semrush AI Toolkit — szybkie do wdrożenia, ale z ograniczoną kontrolą nad prompt setem. Na drugim końcu jest pipeline własny, zbudowany na API modeli, z Airtable/Notion jako warstwą promptów i BigQuery/Supabase jako backendem. Wyboru dokonujesz według dwóch osi: budżet i potrzeba customizacji.
Jeśli zależy Ci na głębokim dopasowaniu do niszy (np. specjalistyczny B2B, produkt finansowy, farma), pipeline własny zwróci się w 3-4 miesiące, bo możesz iterować prompty i model scoringu bez czekania na roadmapę vendora. Jeśli priorytetem jest szybkość i raportowanie dla zarządu, Profound lub Profound AI Tracker da Ci wynik w tydzień — za cenę mniejszej elastyczności i wyższego kosztu miesięcznego.
Metody mierzenia SoV w AI — porównanie
| Metoda | Koszt miesięczny | Czas wdrożenia | Kontrola nad prompt setem | Liczba modeli | Najlepsze dla |
|---|---|---|---|---|---|
| Pomiar ręczny (Excel + prompty) | 0-200 PLN | 2-3 dni | Pełna | 1-3 | Marki w niszy, PoC, start |
| Pipeline własny (API + BigQuery) | 800-3000 PLN | 3-6 tygodni | Pełna | 4-8 | Średnie zespoły SEO/AIO |
| Profound | od 499 USD | 3-5 dni | Średnia | 5-6 | Agencje, mid-market SaaS |
| Brandwatch AI Tracker | od 1200 USD | 7-14 dni | Niska | 4-5 | Enterprise, PR-first |
| Ahrefs Brand Radar | w ramach planu Ahrefs | 1 dzień | Średnia | 3-4 | Zespoły już korzystające z Ahrefs |
| Semrush AI Toolkit | w ramach planu Semrush | 1-2 dni | Średnia | 3-4 | Performance, e-commerce |
| Athena (alternatywa open-ended) | od 149 USD | 2-4 dni | Wysoka | 4-5 | Startupy, niskobudżetowe agencje |
W praktyce większość zespołów na 2026 rok stosuje hybrydę: narzędzie komercyjne daje daily tracking dla 40-80 najważniejszych promptów, a pipeline własny — miesięczny głęboki audyt na 200-500 promptów z pełnym scoringiem sentymentu i position score. Więcej o konkretnych wyborach znajdziesz w porównaniu Athena vs. Profound.
Jak wygląda framework wdrożenia pomiaru SoV krok po kroku?
Wdrożenie nie musi trwać kwartału. Poniższy framework zajmuje 2-4 tygodnie, zakłada minimalny stack (Google Sheets + API modeli + prosty skrypt Node/Python + Looker Studio) i generuje raportowalne dane od drugiego tygodnia.
- Krok 1 — zdefiniuj obszar mierzenia (dzień 1-2). Ustal, czy mierzysz widoczność kategorii („narzędzia do AI SEO”), produktu konkretnego („Ahrefs”) czy marki-matki („Ahrefs jako firma”). Od tego zależy konstrukcja prompt setu. Zapisz też kluczowych konkurentów — minimum 3, maksimum 7.
- Krok 2 — zbuduj prompt set (dzień 2-5). Wygeneruj 60-150 promptów z trzech warstw intencji (transakcyjna, edukacyjna, problemowa). Źródła: GSC + rozmowy z sales + ręczna burza mózgów + listy pytań z dashboardu Looker Studio z logów wyszukiwarki wewnętrznej serwisu.
- Krok 3 — wybierz modele (dzień 5-6). Minimum: ChatGPT z web, Perplexity Sonar Pro, Gemini 3 (AI Mode). Dla B2B dodaj Copilot. Dla niszy tech — Claude i You.com.
- Krok 4 — skonstruuj pipeline runnera (dzień 6-12). Prosty skrypt Node.js, który: (a) pobiera prompty z Google Sheet, (b) odpala każdy prompt na każdym modelu 3 razy (rano, południe, wieczór, różne dni), (c) zapisuje pełną odpowiedź do BigQuery/Postgres z metadanymi (timestamp, model, wersja, prompt_id).
- Krok 5 — zbuduj scorer (dzień 10-16). Scorer czyta odpowiedzi i przypisuje: (a) mention (regex na nazwy marek z listy), (b) citation (regex na domeny), (c) position (wykrycie listy numerowanej / wypunktowania), (d) sentiment (prompt LLM do klasyfikacji otaczającego kontekstu zdania). Dobra praktyka: wszystkie wartości zapisujemy, nie tylko agregaty, żeby później móc zmienić wagi bez ponownego uruchamiania.
- Krok 6 — dashboard (dzień 14-18). Minimum: Looker Studio z 6 tabelami — mention rate per model, citation rate per model, position score per model, sentiment per model, top 20 promptów z największym spadkiem WoW, porównanie z konkurentami (cztery linie na wykresie).
- Krok 7 — cadence raportowania (dzień 18+). Daily alert w Slacku o promptach, które „wypadły z wyników”. Tygodniowy snapshot do managera (PDF lub e-mail). Miesięczny deep dive dla zarządu z interpretacją trendów i listą akcji content/PR.
- Krok 8 — iteracje (ongoing). Prompt set rośnie o 5-10 pytań miesięcznie (dodajesz pytania, które klienci zadają w tickety/sales calls). Listę konkurentów weryfikujesz kwartalnie. Raz na kwartał rotujesz 10-15% promptów, żeby nie „zamarzać” w historycznym koszyku pytań.
Ten framework jest intencjonalnie prosty — 95% wartości dostajesz z 20% narzędzi. Jeśli automatyzujesz go w stack no-code, warto popatrzeć na łączenie go z n8n jako warstwą runnera — skraca wdrożenie do 7-10 dni.
Jakie są najczęstsze błędy w pomiarze AI SoV?
Większość raportów SoV, które widuję u klientów i w audytach, zawiera co najmniej dwa z poniższych błędów. Każdy z nich wypacza wynik na tyle, że raport przestaje być decyzyjny.
- Jedna próba na prompt. Uruchomienie promptu raz daje pojedynczy punkt danych — a modele są niedeterministyczne. Ten sam prompt w ChatGPT o 9:00 i o 14:00 potrafi dać różne listy marek. Minimum to 3 próby w różnych momentach doby; profesjonalny standard to 5-10.
- Pytanie „o siebie”. Prompty typu „jak działa narzędzie X” (gdzie X to Twoja marka) dają sztucznie wysoki SoV. W prompt secie maksymalnie 10-15% pytań może wymieniać markę po nazwie — reszta musi być brand-agnostic.
- Brak kategoryzacji intencji. Mierząc jeden uśredniony SoV dla wszystkich pytań zlewasz razem widoczność w decyzjach zakupowych (transakcyjne) i w treści edukacyjnej (top of funnel). Decydenci potrzebują rozbicia.
- Mierzenie bez konkurencji. SoV wyrwany z kontekstu niewiele mówi. „30% wspomnień” brzmi dobrze — dopóki nie zobaczysz, że konkurent ma 55%. Zawsze mierz 3-7 konkurentów obok.
- Pomijanie sentymentu. Liczenie każdego wspomnienia tak samo oznacza, że negatywne wzmianki („nie polecam Y, bo…”) traktujesz jak pozytywne. W 15-25% przypadków to fałszuje wynik.
- Brak benchmarków historycznych. Jednorazowy pomiar nie pokazuje trendu. Minimum to 4 tygodnie rolling average; docelowo 12 tygodni.
- Mieszanie web-on i web-off. W ChatGPT SoV z włączonym web search jest fundamentalnie inny niż bez. Te dwa strumienie trzeba raportować oddzielnie.
- Reagowanie na jeden spadek WoW. Niedeterminizm powoduje, że tygodniowe wahania w zakresie ±20% są naturalne. Reakcja content/PR powinna następować dopiero po 2-3 tygodniach spadku z rzędu.
- Pomiar tylko jednego modelu. ChatGPT to nie cały rynek. W B2B często Copilot jest ważniejszy; w techu — Perplexity; w Polsce — Gemini z uwagi na integrację z SGE/AI Mode w Google.
- Pomijanie „no answer”. Prompt, na który żaden model nie daje odpowiedzi z wymienionymi markami (bo model zamiast listy wypisuje ogólne porady), też jest sygnałem — oznacza, że w tej intencji nikt nie ma jeszcze SoV i jest okazja do przejęcia pierwszego miejsca.
Jak AI SoV przekłada się na decyzje content i PR?
Pomiar bez działań jest bezużyteczny. Dobrze zaprojektowany program AI SoV kończy się comiesięczną listą 5-10 konkretnych akcji podzielonych między content, digital PR i produkt.
Dla content typowe decyzje to: (a) stworzenie długiego artykułu pillar na intencję, w której SoV jest niski, (b) rozbudowa FAQ na stronach, które są już cytowane ale tylko raz, (c) odświeżenie artykułów, w których marka jest wymieniana negatywnie, (d) stworzenie treści porównawczych tam, gdzie modele serwują ogólniki. Jeden artykuł pillar dobrze ustrukturyzowany pod AI (z tabelą, FAQ, jasnym H2 question, linkami zewnętrznymi do autorytatywnych źródeł) potrafi podnieść citation rate dla danej intencji o 12-25 punktów procentowych w ciągu 6-10 tygodni.
Dla digital PR kluczowe jest umieszczenie marki w listach branżowych, rankingach, raportach third-party i w artykułach „top tools for X”. Modele cytują te listy jako źródła kompilacyjne i marka, której tam nie ma, po prostu nie zostanie wymieniona — niezależnie od tego, jak dobry ma własny blog.
Dla produktu i marketingu wnioski są miękkie, ale istotne: pytania, które AI odpowiada zdecydowanie i jednoznacznie, są dojrzałe i nie ma tam miejsca na nową markę. Pytania z wahaniem („zależy od…”, „nie ma jednoznacznej odpowiedzi”) to okazje pozycjonowania.
Jak często raportować AI SoV i komu?
Rytm raportowania dostosowujesz do kadencji decyzji biznesowych. Trzy warstwy:
Daily — Slack alerts. Tylko dla promptów „krytycznych” (top 20-40). Alert odpala się, gdy marka wypada z wyników w ponad 50% prób lub gdy konkurent przeskakuje w position score. Odbiorca: content lead, SEO lead.
Tygodniowy — snapshot PDF. 4 wykresy (mention, citation, position, sentiment) plus 5 bullet pointów z akcjami na kolejny tydzień. Odbiorca: head of marketing, CMO.
Miesięczny — deep dive. Pełne rozbicie per intencja, per model, per konkurent, lista wygranych i przegranych promptów, wnioski content/PR/produkt. Odbiorca: zarząd, board. Format: 8-12 slajdów lub 6-8 stron PDF.
W zespołach agencyjnych dodatkowo warto generować raport kwartalny „AI SoV + Google SoV + brand search trend” — w trzech wykresach na jednym slajdzie widać, czy widoczność w AI faktycznie podnosi popyt brandowy, czy jest tylko wskaźnikiem próżności.
Jak integrować dane z AI SoV z GA4 i GSC?
Dopełnieniem AI SoV jest ruch, który modele kierują na stronę. Trzeba go mierzyć osobno od ruchu organicznego Google, bo ma zupełnie inne zachowanie. W GA4 budujesz segment „AI Referral” z regułą referrer regex: (chatgpt.com|perplexity.ai|gemini.google.com|copilot.microsoft.com|claude.ai|you.com). Dla każdej sesji z tego segmentu raportujesz: sesje, zaangażowanie, konwersje, średnią wartość sesji.
W GSC od października 2025 raportowane są też wyświetlenia z Google AI Mode (osobna linia w zakładce Performance). Zestaw tych dwóch źródeł daje Ci pełny obraz: AI SoV mówi „ile razy Cię wymieniono”, GA4/GSC mówi „ile z tego zamieniło się w kliknięcie i sesję”. Dopiero razem tworzą pełen lejek AIO.
Najczęściej zadawane pytania (FAQ)
Czy AI SoV zastąpi klasyczny Share of Voice z SERP?
W 2026 r. jeszcze nie. Google SERP wciąż generuje 55-75% ruchu na strony komercyjne, a klasyczny SoV pozostaje głównym miernikiem dla performance SEO. AI SoV jest dodatkowym wskaźnikiem, który pokazuje widoczność w segmencie „zero-click/in-chat”. Do końca 2026 oba KPI raportujemy równolegle, z rosnącą wagą AI SoV w branżach, gdzie udział odpowiedzi generatywnych przekracza 40%.
Jaki jest minimalny budżet, żeby sensownie mierzyć AI SoV?
Około 150-400 USD miesięcznie za API modeli plus 2-3 godziny tygodniowo czasu analityka. Dla 80-150 promptów i 3 modeli to wystarczy. Dla większych wdrożeń (500+ promptów, 6 modeli, daily tracking) realny budżet zaczyna się od 1200-2500 USD miesięcznie — ale zwykle w takim zakresie wybiera się już narzędzie komercyjne z gotowym dashboardem.
Jak długo trzeba mierzyć SoV, żeby mieć wiarygodne dane?
Minimum 4 tygodnie z powodu niedeterminizmu modeli — krótszy okres daje za wąski rozrzut wyników. Rekomendacja: 8 tygodni przed pierwszym raportem dla zarządu. Od 12 tygodnia dane są na tyle stabilne, że można raportować trendy WoW i MoM bez dodatkowego smoothing.
Czy trzeba mierzyć SoV osobno dla języka polskiego i angielskiego?
Tak, jeśli marka działa na więcej niż jednym rynku. Modele odpowiadają inaczej w różnych językach — zmienia się zestaw cytowanych źródeł, zmieniają się listy konkurentów, zmienia się ton. Prowadzenie jednego uśrednionego SoV dla „wszystkich rynków” jest błędem metodologicznym. Minimum: osobne prompt sety per język, osobne raporty per rynek.
Co zrobić, gdy marka w ogóle nie pojawia się w AI?
Po pierwsze, sprawdź czy masz poprawne llms.txt i dane strukturalne Organization/Brand. Po drugie, przeanalizuj kto jest cytowany — prawdopodobnie to listy third-party (Capterra, G2, branżowe rankingi); zadbaj o obecność tam. Po trzecie, stwórz 3-5 artykułów pillar na najważniejsze intencje transakcyjne — z pełnym FAQ, tabelą porównawczą i linkami do autorytatywnych źródeł. Efekt zobaczysz w 6-12 tygodni.
Czy AI SoV można mierzyć ręcznie, bez żadnego narzędzia?
Tak — dla 40-80 promptów i 2-3 modeli pomiar ręczny w Google Sheets jest realistyczny. Koszt: 4-8 godzin tygodniowo pracy juniora. Jest to dobre podejście na PoC (pierwsze 4-6 tygodni), ale na dłużej staje się nieopłacalne — godzina analityka jest droższa niż godzina API + skrypt.
Jak radzić sobie z „halucynowanymi” wspomnieniami marki?
To zjawisko występuje w 3-8% przypadków — model wymienia markę w kontekście, który nie istnieje (np. funkcja produktu, której marka nie ma). Z punktu widzenia SoV liczymy to jako wspomnienie, ale z punktu widzenia brand safety trzeba to monitorować osobno. Dobra praktyka: w scorerze dodaj flagę „halucynacja” i co miesiąc przeglądaj ręcznie 20-30 takich przypadków.
Czy SoV w AI ma sens dla lokalnych biznesów?
W ograniczonym zakresie. Dla biznesów usługowych działających w jednym mieście (fryzjer, restauracja, lokalny warsztat) istotniejsze są sygnały local SEO (Google Business Profile, opinie, mapy). Jednak dla lokalnych biznesów z silną konkurencją i ceną powyżej 200-500 PLN za usługę (prawnicy, księgowi, agencje) AI SoV zaczyna mieć sens — ludzie pytają „jaką kancelarię polecasz w Krakowie” i modele odpowiadają.
Jak dobierać metody scoringu dla różnych typów odpowiedzi AI?
Jednym z najczęściej pomijanych szczegółów w pomiarze AI SoV jest dobór metody scoringu do typu odpowiedzi, którą zwraca model. Różne modele różnie formatują output i ten sam regex nie poradzi sobie z każdym przypadkiem. W praktyce wyróżniamy cztery główne typy odpowiedzi, które wymagają osobnej logiki parsera.
Typ 1 — lista numerowana z opisem. Perplexity i Gemini często odpowiadają strukturą typu „1. Marka X — opis… 2. Marka Y — opis…”. Scorer łapie pozycję na liście i przypisuje position score jako odwrotność (1.0, 0.5, 0.33, 0.25, 0.2). To najprostszy przypadek i daje najczystsze dane.
Typ 2 — akapit prozą z wymienieniem marek. ChatGPT (bez web search) i Claude często odpowiadają jednym akapitem, w którym marki są wymienione w ciągłym tekście. Tu position score jest niewiarygodny, więc liczymy tylko mention rate i citation rate. Dobra praktyka: dodaj wagę 0.7 dla wszystkich wystąpień w tekście ciągłym, żeby nie zawyżać SoV względem list numerowanych.
Typ 3 — tabela porównawcza. Rzadka (około 5-10% odpowiedzi), ale bardzo wartościowa — oznacza, że model uznał markę za porównywalną z bezpośrednimi konkurentami. Tabelom przypisujemy dodatkowy mnożnik 1.2-1.5x w position score, bo są najsilniejszym sygnałem rekomendacyjnym.
Typ 4 — odmowa odpowiedzi lub ogólniki. Model odpowiada „zależy od wielu czynników”, „nie ma jednoznacznej odpowiedzi”, „skonsultuj się z ekspertem”. Te przypadki warto liczyć osobno jako no-answer rate — nie są wspomnieniami, ale są istotnym sygnałem o dojrzałości kategorii i o okazji pozycjonowania.
Każdy z tych czterech typów wymaga osobnej logiki w scorerze. Budując pipeline warto już od początku projektować klasyfikator typu odpowiedzi — to inwestycja 1-2 dni pracy dewelopera, która dramatycznie poprawia jakość agregatów.
Jakie są sygnały, które model wykorzystuje do cytowania marki?
Zrozumienie tego, skąd model bierze informacje o marce, jest kluczowe dla dalszych akcji content i PR. W 2026 r. trzy systemy (ChatGPT + Bing, Perplexity + Sonar, Gemini + Google Search) działają w architekturze RAG — czyli pobierają fragmenty z webu w locie i streszczają je w odpowiedzi. Oznacza to, że pojawienie się marki w odpowiedzi zależy od trzech warstw sygnałów.
Warstwa 1 — wyniki wyszukiwarki pod spodem. Jeśli domena marki nie jest w top 10-20 wyników Bing (dla ChatGPT) albo Google (dla Gemini AI Mode), szansa na cytowanie spada drastycznie. Pierwszym audytem, który robisz przed inwestycją w AI visibility, jest zawsze audyt klasycznego SEO — bo bez pozycji w SERP jesteś niewidzialny również dla modeli.
Warstwa 2 — obecność w listach i rankingach third-party. Modele chętnie cytują kompilacyjne artykuły typu „top 10 narzędzi do X” — i marki wymienione w tych kompilacjach pojawiają się automatycznie w odpowiedziach, nawet bez własnego autorytetu. Digital PR nakierowany na takie listy jest często tańszy niż budowanie autorytetu własnego bloga.
Warstwa 3 — dane strukturalne i llms.txt. Modele wykorzystują schemę Organization, Product, SoftwareApplication, FAQPage jako sygnały faktograficzne. Marka z kompletnymi danymi strukturalnymi dostaje „więcej kontekstu” przy cytowaniu, co zwiększa prawdopodobieństwo poprawnego wymienienia.
Te trzy warstwy warto audytować co kwartał razem z raportem SoV — bez ich zrozumienia decyzje content i PR są ślepe.
Jak budować konkurencyjny benchmark AI SoV?
SoV bez kontekstu konkurencyjnego jest bezużyteczny. Poniżej konkretna instrukcja budowy benchmarku, który pokazuje realną pozycję marki w niszy.
Krok pierwszy — wybór konkurentów. Minimum 3, optimum 5-7. Dzielisz ich na trzy grupy: (a) bezpośredni konkurenci cenowi (walczą o tego samego klienta), (b) aspiracyjni liderzy rynku (ci, do których chcesz się równać), (c) nowi gracze (startupy, którym rośnie SoV mimo niskiego udziału w SERP). Każda z tych grup mówi o czymś innym — pierwsza o pozycji teraźniejszej, druga o ambicji, trzecia o trendach i zagrożeniach.
Krok drugi — normalizacja. Konkurent, który jest 10 razy większy od Ciebie, będzie miał wyższy SoV niezależnie od jakości treści. Dlatego w raporcie warto pokazać SoV per dollar of marketing spend albo SoV per 100 domain backlinks — znormalizowane wartości dają uczciwszy obraz efektywności.
Krok trzeci — macierz share. Dla każdego konkurenta i dla każdej z trzech warstw intencji (transakcyjna, edukacyjna, problemowa) liczysz SoV osobno. Otrzymujesz matrycę 5-7 konkurentów × 3 intencje = 15-21 komórek. To pokazuje, gdzie konkretnie przegrywasz i gdzie konkretnie wygrywasz. Bez tej macierzy otrzymujesz jedną liczbę „ogólnego SoV”, która niewiele mówi.
Krok czwarty — analiza dynamik. Oprócz snapshotu pokazuj WoW i MoM change per konkurent. Konkurent, którego SoV rośnie o 3-5 punktów miesięcznie przez kwartał, to sygnał ostrzegawczy — zwykle oznacza, że zainwestował w content lub digital PR i trzeba przyjrzeć się temu, co robi inaczej.
Jak raportować AI SoV, żeby ruszył kadrę zarządczą?
Najlepszy raport SoV, jaki widziałem, miał jedną tabelę i trzy slajdy. Gorsze raporty mają po 40 slajdów i nic z nich nie wynika dla biznesu. Kluczem jest sformułowanie każdej liczby w języku decyzji, a nie w języku metody.
Slajd 1 — headline number. Jedna wielka liczba: „W kwietniu 2026 nasza marka została wymieniona w 34% odpowiedzi AI w badanych promptach. Konkurent X ma 51%, konkurent Y ma 28%”. Pod spodem strzałka trendu (+4 punkty w porównaniu do marca) i jedno zdanie interpretacji.
Slajd 2 — gdzie wygrywamy i gdzie przegrywamy. Macierz 3×3: intencje (transakcyjne/edukacyjne/problemowe) × stan (wygrywamy, rywalizujemy, przegrywamy). W każdej komórce 2-4 konkretne prompty. To daje decydentowi mapę działań w 30 sekund.
Slajd 3 — akcje na kolejny miesiąc. Lista 3-5 konkretnych inicjatyw: „(1) stworzyć pillar post o X, (2) wysłać pitch do 4 list branżowych z Y, (3) audyt llms.txt, (4) rozbudować FAQ na stronie Z”. Każda akcja ma właściciela, deadline i spodziewany efekt na SoV wyrażony liczbowo.
Dodatkowy materiał (detalne tabele, metodologia, pełen prompt set) idzie do appendixu, który czytają tylko analitycy. Zarząd czyta trzy slajdy i podejmuje decyzje budżetowe.
Czy AI SoV można automatyzować w 100%?
Techicznie tak, ale w praktyce nie warto. Pipeline automatyzuje 80-85% pracy: odpalanie promptów, zapis odpowiedzi, wstępny scoring, dashboard. Pozostałe 15-20% to praca analityczna, której nie zastąpi żaden skrypt — interpretacja trendów, wykrywanie halucynacji, decyzje o zmianach w prompt secie, analiza działań konkurentów. Zespoły, które próbują automatyzować wszystko, po 2-3 miesiącach raportują „dane są, ale nikt z nimi nic nie robi” — bo wnioski nie są gotowe, a tylko dane.
Dobry podział: runner + scorer + dashboard są w 100% automatyczne (raz zbudowane, działają miesiącami bez nadzoru). Scorer sentymentu i wykrywanie halucynacji działają półautomatycznie — model klasyfikuje, człowiek weryfikuje 5-10% próbki. Interpretacja i akcje content/PR są w 100% ręczne, w rytmie tygodniowym.
Co dalej — od pomiaru do programu AI Visibility
Samo mierzenie AI SoV jest tylko pierwszym krokiem. Dojrzałe zespoły w 2026 r. traktują pomiar jako fundament szerszego programu „AI Visibility”, który łączy cztery obszary: (1) mierzenie widoczności (to, czym zajmował się ten tekst), (2) produkcję treści zoptymalizowanych pod cytowanie AI (z tabelami, FAQ, danymi strukturalnymi), (3) digital PR nakierowany na listy third-party, które modele cytują jako źródła kompilacyjne, (4) audyt techniczny pod kątem llms.txt, crawl-friendly structure i dostępności dla botów LLM.
Jeżeli zaczynasz, uruchom program w tej kolejności — pomiar w tygodniach 1-3, produkcja treści w tygodniach 4-16, digital PR w miesiącach 2-6, audyt techniczny ongoing. Nie próbuj robić wszystkich czterech rzeczy naraz; bez warstwy pomiaru nie wiesz, co działa, a warstwy 2-4 są kosztowne i łatwo marnować budżet na aktywności, które nie ruszają SoV.
Z perspektywy narzędziowej rekomendacja minimalna na 2026: (a) Profound albo pipeline własny jako źródło danych, (b) Looker Studio jako warstwa raportowa, (c) Brandwatch AI Tracker albo ręczny review sentymentu jako dopełnienie, (d) GSC + GA4 jako pomiar dolnej części lejka.
Docelowo — i to najważniejsza myśl na koniec — AI SoV nie jest celem samym w sobie. Celem jest udział marki w decyzjach zakupowych użytkownika, które coraz częściej zaczynają się i kończą w chatbocie. Mierzenie SoV jest tylko sposobem, żeby tę rzeczywistość opisać liczbami, które można pokazać CFO. Program AI Visibility jest sposobem, żeby te liczby poprawiać.