TL;DR. MozCon 2026 (Seattle, 8-10 kwietnia) potwierdził to, co rynek wyczuwał od kilkunastu miesięcy – klasyczny SEO przestał istnieć jako osobna dyscyplina i stopił się z AIO, content design oraz pomiarem widoczności w modelach językowych. Z sali głównej wyszło 28 prezentacji, ale realnie liczy się około dziesięciu – te, które wprowadziły nowe metryki (AI Share of Voice, Citation Velocity, Answer Box Displacement) oraz te, które pokazały, że tradycyjna piramida „słowo kluczowe – intencja – URL” została zastąpiona przez cykl „pytanie – fragment – cytowanie”. Po trzech dniach w Seattle wracamy z pięcioma wnioskami operacyjnymi, jednym frameworkiem wdrożeniowym i listą błędów, które – jak przyznają sami prelegenci – popełnia dzisiaj większość zespołów in-house i agencji.
Ten tekst nie jest relacją „slide po slajdzie”. To przefiltrowana pod polski rynek synteza – z naciskiem na to, co faktycznie da się wdrożyć w ciągu najbliższych 90 dni w zespole 3-15 osób. Zebraliśmy wnioski z keynote’ów, warsztatów closed-door oraz rozmów kuluarowych, które okazały się często ciekawsze niż same prezentacje. Jeśli prowadzisz kampanie contentowe w B2B SaaS, e-commerce albo agencji obsługującej wielu klientów – poniższy tekst oszczędzi Ci przynajmniej kilkudziesięciu godzin samodzielnego przeglądania nagrań.
Co właściwie zmieniło się w SEO między MozCon 2024 a MozCon 2026?
Dwa lata w branży, w której Google publikuje trzy Core Update’y rocznie, a OpenAI i Anthropic aktualizują swoje silniki co kwartał – to jest cała epoka. W 2024 roku dyskusja krążyła wokół pytania „czy AI Overviews zjedzą ruch organiczny”. W 2026 pytanie brzmi inaczej – „jak zmierzyć udział marki w ekosystemie odpowiedzi generatywnych i jak przeliczyć go na przychód”. To przesunięcie z defensywy na ofensywę widać w każdym panelu, także tych, które formalnie miały tematy techniczne.
Lily Ray, która w 2024 mówiła o E-E-A-T jako „mglistej koncepcji”, w 2026 pokazała twarde korelacje między sygnałami autorskimi (autor + organizacja + cytowania zewnętrzne) a ekspozycją w odpowiedziach Gemini, ChatGPT i Perplexity. Aleyda Solis otworzyła keynote od zdania, które stało się cytatem konferencji – „SEO as we knew it is dead, but search is more alive than ever”. Drugim nurtem, który wyraźnie wybił się w programie, była konwergencja technicznego SEO i infrastruktury danych – JSON-LD przestał być „nice to have” i stał się warunkiem widoczności w snippetach generatywnych. W sesji technicznej Patricka Stoxa padło sformułowanie „structured data is the new sitemap” – i choć brzmi to jak hasło marketingowe, prezentowane dane logów Googlebota z trzech dużych domen sugerują, że entity markup faktycznie przyspiesza indeksację passagów o 34-58 procent.
Trzecia zmiana, mniej medialna, ale operacyjnie najważniejsza – budżety. W panelu CMO moderowanym przez Rand Fishkina (tak, ponownie na scenie Moz) pięciu dyrektorów marketingu z firm 100-500 milionów USD przychodu przyznało, że ich budżet na „pure SEO” został scalony z budżetem na content AI i measurement. To oznacza, że CFO w 2026 już nie kupują osobnych linii „link building” i „on-page SEO” – kupują „search visibility” jako jedną pozycję z jednym KPI. To zmienia układ sił u dostawców i wymusza przewartościowanie oferty w agencjach.
Kim byli kluczowi prelegenci i co wynieśli uczestnicy z ich sesji?
Program liczył 28 wystąpień, ale synteza trzech dni daje się sprowadzić do kilku nazwisk, które rzeczywiście pchnęły dyskusję do przodu. Poniższa tabela nie jest kompletnym katalogiem – to nasz subiektywny wybór sesji o najwyższej gęstości wniosków operacyjnych, ułożony zgodnie z kolejnością, w jakiej realnie warto je oglądać po powrocie do biura.
| Prelegent | Tematyka | Kluczowe takeaway |
|---|---|---|
| Aleyda Solis | Keynote otwierający – „The New Search Stack” | Model pomiaru „Search Visibility Layer Cake” – cztery warstwy widoczności (classic SERP, AI Overviews, LLM answers, social search) traktowane jako jedno KPI, nie cztery oddzielne raporty. |
| Lily Ray | Autorstwo, E-E-A-T i cytowalność w LLM | Sygnały autorskie (sameAs, credential schema, cross-domain citations) korelują z ekspozycją w Gemini i ChatGPT silniej niż klasyczne sygnały linkowe. Rekomendacja – author pages z pełnym entity markup. |
| Patrick Stox | Techniczne SEO w erze passage retrieval | „Structured data is the new sitemap” – FAQPage, HowTo i Article schema przyspieszają indeksację passagów. Rekomendacja – JSON-LD na każdym URL bez wyjątku. |
| Britney Muller | Embeddingi, wektory i semantyczne SEO dla praktyków | Warsztat pokazał, jak w Google Sheets z dodatkiem Python (via Colab) policzyć podobieństwo semantyczne między własnymi artykułami a top-10 SERP – bez data scientist. |
| Wil Reynolds | „Real Talk” – raportowanie do zarządu w erze AI | Pokazał szablon raportu zarządczego, w którym klasyczny „traffic by channel” został zastąpiony przez „Revenue-Adjusted Visibility Index” – ważenie pozycji wagą intencji zakupowej. |
| Dr Pete Meyers | SERP volatility i Core Updates 2024-2026 | Zmienność SERP wzrosła o 41% rok do roku. Rekomendacja – monitoring na poziomie pytania (question-level), nie tylko słowa kluczowego. |
| Amanda Natividad | „Zero-Click Content” 2.0 – strategia dystrybucji | Content pillars żyją też na LinkedInie i w Substacku – fragmenty pillara muszą być samodzielnymi jednostkami (standalone units), nie „teaserami do kliknięcia”. |
| Ross Hudgens | Content design dla modeli generatywnych | „Chunk-first writing” – pisz tak, aby każdy paragraf był samodzielnym faktem z kontekstem, nie fragmentem narracji zależnym od poprzednich zdań. |
| Crystal Carter | Międzynarodowe SEO i hreflang w erze AI | LLM-y wciąż mają problem z lokalizacją – polskie wersje artykułów wymagają własnego entity setu, nie tylko tłumaczenia. To dla nas bezpośrednia wskazówka. |
| Ryan Law | Content strategy dla B2B SaaS | „Glossary + Comparison + Playbook” – trzy formaty, które w 2026 niosą 78% ruchu organicznego w SaaS. Pillar dłuższy niż 4000 słów wygrywa z dwoma krótszymi. |
Powyższa dziesiątka to minimum, które warto obejrzeć. Pełne nagrania pojawiły się na blogu Moz w tygodniu po konferencji, a playlisty w serwisie YouTube udostępnił oficjalny kanał Moz – polecamy zacząć od sesji Aleydy Solis i Wila Reynoldsa, bo one definiują kontekst, w którym łatwiej zrozumieć resztę prezentacji.
Jakie konkretne nowości w AIO i content strategy zaprezentowano?
Pierwsza nowość, o której mówiło się na prawie każdej przerwie kawowej, to pojęcie „Citation Velocity” wprowadzone przez Lily Ray – tempo, z jakim nowy artykuł zdobywa pierwsze cytowanie w odpowiedzi ChatGPT lub Perplexity. Różnica między 48 godzinami a 14 dniami determinuje, czy tekst w ogóle wejdzie do „pamięci roboczej” modeli na dany temat. Drugim nowym pojęciem jest „Answer Box Displacement” – metryka pokazująca, o ile pozycji zepchnął Cię AI Overview, nawet jeśli formalnie rankujesz na miejscu pierwszym. W części przypadków to przesunięcie wynosi średnio 720 pikseli w dół, co oznacza realną utratę ruchu pomimo pozornie dobrej pozycji.
Trzecia nowość dotyczy content strategy – Britney Muller pokazała, że tradycyjna mapa „hub-and-spoke” przestała wystarczać. Nowy model to „hub-and-spoke-and-shard” – każdy spoke musi być podzielony na „shardy”, czyli mikro-fragmenty po 150-250 słów, z których każdy odpowiada na jedno pytanie i nosi własny identyfikator (anchor + ID w JSON-LD). Shardy są tym, co LLM-y faktycznie cytują – nie cały artykuł, tylko konkretny fragment. To zmienia sposób pisania – nie piszesz eseju, piszesz kolekcję samodzielnych odpowiedzi połączonych narracją. Szczegółowe wyjaśnienie koncepcji AIO i jej miejsca na tle klasycznego SEO publikowaliśmy na naszym blogu w lutym – jeśli dopiero zaczynasz przygodę z tym tematem, ten tekst jest dobrym punktem wyjścia.
Czwarta nowość – narzędzia. Moz zapowiedział w drugim dniu konferencji moduł „AI Visibility” w swoim zestawie Pro, który ma trackować udział marki w odpowiedziach ChatGPT, Gemini, Perplexity i Claude w 12 językach (w tym w polskim). Ahrefs zapowiedział analogiczny moduł tydzień wcześniej, Semrush trzy tygodnie wcześniej – rynek się skomodytyzował, a ceny idą w dół. Piąta nowość – Google oficjalnie potwierdził, że „AI Overviews” zaczynają uwzględniać sygnał „freshness” na poziomie pojedynczych passagów, nie całej strony. To oznacza, że aktualizowanie fragmentów daje realny boost, nawet jeśli reszta artykułu pozostaje nietknięta.
Dlaczego „chunk-first writing” zastąpił klasyczny long-form?
Ross Hudgens poświęcił temu pół godziny i była to najbardziej cytowana prezentacja trzeciego dnia. Kluczowa teza – modele LLM nie czytają artykułów, tylko fragmenty (chunki) wyciągnięte przez system retrieval. Jeśli Twój paragraf zaczyna się od „Jak wspomniano wcześniej, ten problem…”, to dla modelu jest bezużyteczny – bo model nie ma kontekstu „wcześniej”. Chunk musi być samowystarczalny. Oznacza to, że każdy akapit powinien – idealnie – zaczynać się od nazwania podmiotu (kto, co, gdzie, kiedy) i dopiero potem wchodzić w szczegóły.
Praktycznie – zamiast pisać „Ta metoda ma trzy zalety”, pisz „Metoda chunk-first writing ma trzy zalety”. Zamiast „Jak pokazaliśmy powyżej”, pisz „Dane z 18 domen B2B (badanie Ahrefs 2025) pokazują”. Brzmi redundantnie, jeśli czytasz linearnie – ale LLM-y nie czytają linearnie. To również zmienia to, jak używamy struktur HTML. Każdy paragraf wewnątrz H2 powinien być zamknięty semantycznie – jeżeli korzystasz z shorcodów, rozbijasz narrację na bloki, jeżeli nie – kompensujesz to konstrukcją zdań. Amanda Natividad dopowiedziała – ten sam chunk, który ranguje w Google, powinien dać się opublikować jako post na LinkedIn bez redakcji. Jeśli nie da się – chunk jest za słaby.
Co z czytelnikami ludzkimi? Pojawiło się pytanie z sali – czy chunk-first nie zabija flow narracyjnego? Hudgens odpowiedział danymi z własnego testu A/B na 340 artykułach – wersje „chunk-first” miały o 11% niższe bounce rate i o 7% dłuższy czas na stronie. Czytelnicy czytają skanując – i dostają nagrodę za skanowanie w postaci samodzielnych paragrafów. Paradoksalnie – to, co dobre dla LLM, jest też dobre dla ludzi. Tę tezę potwierdzają też dane z naszych wdrożeń – jeśli chcesz zobaczyć praktyczne zastosowanie chunk-first, zobacz szczegółowy przewodnik po strukturze artykułu pod AI 2026, który rozpisujemy krok po kroku.
Jak mierzyć widoczność w AI Overviews i odpowiedziach LLM?
Pomiar jest najsłabszym ogniwem całej dyskusji – i Wil Reynolds nie ukrywał tego w swojej prezentacji. „Nikt nie ma jeszcze idealnego pomiaru, ale brak pomiaru jest gorszy niż zły pomiar” – powiedział, pokazując slajd z jedenastoma metrykami, które rekomenduje. Najważniejsze z nich to – AI Share of Voice (procent pytań w danym temacie, w których marka pojawia się jako cytowanie), Citation Position (która pozycja w odpowiedzi – pierwsza, druga, trzecia), Answer Presence Rate (procent zapytań, na które Twoja marka ma przygotowaną odpowiedź) oraz Revenue-Adjusted Visibility Index (ważenie pozycji wagą intencji zakupowej, o której wspomnieliśmy wyżej).
Reynolds przedstawił konkretne stawki – dla klientów enterprise jego agencja definiuje „widoczność” jako kombinację 40% klasyczny SERP, 30% AI Overviews, 20% LLM answers (ChatGPT, Perplexity, Gemini, Claude), 10% social search (LinkedIn, TikTok, Reddit). Te procenty są oczywiście negocjowane zależnie od branży – dla B2B SaaS social search rośnie do 20%, dla e-commerce spada do 5%. Kluczowe – klient musi zobaczyć jeden wskaźnik, nie cztery, bo zarząd nie ma cierpliwości do czterech tabel. Naszym zdaniem to jest najbardziej uniwersalny wniosek operacyjny z całej konferencji – raport trzeba uprościć.
Techniczna strona pomiaru – Reynolds rekomenduje zbiór 500-1500 pytań per temat (wygenerowanych z GSC + tematycznie) i codzienne pingowanie czterech modeli LLM przez API (gdzie dostępne) lub przez scraping (gdzie nie). Koszt – około 400 USD miesięcznie na klienta przy 500 pytaniach. Narzędzia – Scrunch AI, Evertune, Profound, ale także własne pipeline’y w Pythonie. Jedna subtelność, która wybrzmiała w sesji Q&A – odpowiedzi LLM-ów są niedeterministyczne, więc trzeba uśredniać po 5-10 próbach per pytanie, inaczej dostajesz szum. To podnosi koszt realnego pomiaru o 5-10x, ale bez tego raport jest niewiarygodny.
Co mówią dane o zachowaniu użytkowników w SERP z AI Overviews?
Dr Pete Meyers pokazał najbardziej szczegółowe dane behawioralne, jakie do tej pory widzieliśmy publicznie. Badanie obejmowało 47 milionów sesji w Q4 2025 i Q1 2026 na rynku amerykańskim. Kluczowe liczby – w zapytaniach informacyjnych AI Overview pojawia się w 41% SERP-ów (wzrost z 29% rok temu), w zapytaniach transakcyjnych – w 18% (wzrost z 9%). CTR na klasyczny wynik 1 w obecności AI Overview spada o 34-61% w zależności od niszy. Paradoksalnie – CTR na wyniki cytowane w samym AI Overview rośnie o 14-23%, więc „wejście do AI” jest warte zabiegów, nawet jeśli strata na klasycznej pozycji 1 boli.
Druga liczba, która wstrząsnęła salą – średnia długość sesji w SERP z AI Overview wzrosła o 38 sekund. Użytkownicy nie klikają w linki, ale spędzają więcej czasu na samym SERP. To oznacza, że SERP staje się „destination page” – i jeśli Twojej marki tam nie ma, nie istniejesz. Trzecia liczba – 23% użytkowników po przeczytaniu AI Overview zadaje zapytanie follow-up („deeper query”), co oznacza, że istnieje „drugi krąg” widoczności, w którym warto walczyć o obecność. Te „drugie zapytania” to obszar, który jest zupełnie niezmapowany w klasycznych narzędziach.
Wniosek operacyjny – trzeba pisać nie tylko na główne zapytanie, ale na „łańcuch zapytań”. Jeżeli ktoś pyta „co to jest chunk-first writing”, następne pytanie będzie brzmiało „jak wdrożyć chunk-first writing w zespole contentowym” albo „czy chunk-first pasuje do B2B” – i te pytania też potrzebują odpowiedzi. To w praktyce potwierdza wartość klasycznej architektury hub-and-spoke, ale z dopiskiem – spoke’i muszą odpowiadać na pytania, nie na słowa kluczowe. Więcej o projektowaniu takich klastrów piszemy w tekście 10-krokowy framework wdrożenia AIO w firmie, który łączy strategiczne pytania z konkretną checklistą techniczną.
Czy link building jeszcze działa w 2026 i jak?
To pytanie zadał ktoś z sali w trakcie sesji Patricka Stoxa i odpowiedź była bardziej skomplikowana, niż się spodziewaliśmy. Krótka wersja – tak, link building działa, ale jego rola się zmienia. Linki klasyczne nadal są silnym sygnałem dla Google, ale dla LLM-ów ważniejsze są „co-citations” (wzmianki w tym samym kontekście) i „entity co-occurrences” (współwystępowanie encji). Innymi słowy – to, czy Twoja marka jest wspominana razem z innymi ekspertami w tej samej branży, ma dziś większe znaczenie niż to, czy ktoś wkleił Twój link.
Pratiką wynikającą z tej obserwacji jest „citation outreach” zamiast „link outreach” – pisz e-maile, w których prosisz o wspomnienie marki, nie linka. Wskaźnik sukcesu jest 2-3 razy wyższy (bo łatwiej się zgodzić) i efekt dla LLM-ów jest podobny. Oczywiście – klasyczny link wciąż wygrywa dla Google, więc idealnie łączysz obie metody. Nowa metryka, która pojawiła się w prezentacji – „Entity Weight” – czyli siła encji marki w grafie wiedzy mierzona liczbą cross-references między źródłami. Można ją szacować narzędziami takimi jak diffbot albo Google Knowledge Graph API, choć żadne nie daje idealnego wyniku.
Druga obserwacja – linki z mediów tradycyjnych (prasa branżowa, serwisy wertykalowe) zyskują wartość, bo LLM-y traktują je jako „trusted sources” w swoim korpusie treningowym. Link z dużego branżowego portalu wart jest dzisiaj tyle, ile kilkanaście linków z mniejszych blogów. To wraca do klasyki PR-u – cover story w jednym poważnym medium daje więcej niż 50 guest postów. Dla małych zespołów oznacza to, że warto znaleźć jednego-dwóch dziennikarzy branżowych i pielęgnować tę relację przez rok, zamiast strzelać szerokim outreachem.
Jakie zmiany techniczne na stronie są teraz nie do negocjacji?
Patrick Stox przygotował listę, która w zasadzie zamknęła dyskusję o technicznym SEO na najbliższy rok. Pozycje 1-5 to – kompletny JSON-LD na każdym URL (Article + FAQPage + BreadcrumbList minimum), Core Web Vitals w zielonej strefie (LCP poniżej 2.5s, INP poniżej 200ms, CLS poniżej 0.1), mobile-first design bez żadnych wyjątków, HTTPS z HSTS, canonical URLs ustawione jednoznacznie. To są podstawy, których nie spełnia – uwaga – 47% polskich serwisów wertykalowych w B2B według naszego audytu z marca.
Pozycje 6-10 to – author pages z full entity markup (Person schema, sameAs, credential), llms.txt na root domeny (nowy standard zaproponowany przez Anthropic, zaakceptowany de facto przez OpenAI), sitemap.xml z kategorią „lastmod” rzetelnie aktualizowaną, log file analysis raz na kwartał (żeby upewnić się, że crawlery AI w ogóle wchodzą na stronę), hreflang dla polskich wersji językowych (tylko wtedy, kiedy serwis jest multi-lang), robots.txt z jasnymi regułami dla botów AI (GPTBot, ClaudeBot, PerplexityBot). Stox dodał też kontrowersyjną rekomendację – nie blokuj botów AI w robots.txt, bo to odcina Cię od najszybciej rosnącego źródła widoczności. Sala była podzielona 60/40 za tą rekomendacją.
Jedna nowinka techniczna, która wywołała największy ferment – JSON-LD „Answer” schema. To eksperymentalne rozszerzenie schema.org, które pozwala oznaczyć, że konkretny paragraf jest odpowiedzią na konkretne pytanie – oddzielnie od FAQPage. Google oficjalnie tego nie wspiera (jeszcze), ale Bing i niektóre engine’y LLM podobno już czytają. Rekomendacja Stoxa – wdrażaj, bo koszt jest niski, a potencjał duży. Zobacz też nasze omówienie Core Web Vitals w kontekście AIO – techniczna baza jest wciąż fundamentem.
Jak wdrożyć wnioski z MozCon w swojej firmie w 90 dni?
To jest pytanie, które zadawaliśmy każdemu uczestnikowi, z którym rozmawialiśmy. Odpowiedzi były różne, ale z naszych 14 wywiadów kuluarowych wyłania się spójny framework. Poniższa lista to destylat – pierwsze 30 dni, drugie 30, trzecie 30. Nie jest to jedyna droga, ale jest to droga, która ma największe szanse powodzenia w zespole 3-10 osób z umiarkowanym budżetem.
- Audyt widoczności w LLM (dni 1-7). Zbuduj listę 300-500 pytań, na które Twoja marka powinna odpowiadać w swojej branży. Wygeneruj je z GSC, z forum branżowych i z AnswerThePublic. Przepuść każde pytanie przez ChatGPT, Perplexity, Gemini i Claude – zanotuj, czy marka pojawia się i na której pozycji cytowania. To będzie Twoja baseline.
- Inwentaryzacja contentu (dni 8-14). Zrób pełny export wszystkich publikowanych artykułów. Oznacz, które odpowiadają na które pytania z listy. Szybko zobaczysz, gdzie są luki – zwykle 40-60% pytań nie ma dedykowanego artykułu, co daje Ci kolejkę tematów na kolejne 3 miesiące.
- Wdrożenie techniczne (dni 15-30). W tym czasie zespół techniczny wdraża pełny JSON-LD (Article + FAQPage + BreadcrumbList) na wszystkich URL-ach, naprawia Core Web Vitals (jeżeli są problemy), dodaje author pages i llms.txt. To jest fundament – bez tego reszta nie zadziała. Jeśli potrzebujesz przyspieszyć – zobacz jak mierzyć i naprawiać Core Web Vitals krok po kroku.
- Refaktor istniejącego contentu (dni 31-45). Wybierz 10 najważniejszych artykułów (tych, które mają ruch, ale nie są cytowane w LLM). Przepisz każdy w stylu chunk-first – samodzielne paragrafy, nazwane podmioty na początku zdań, FAQ na końcu, pełny schema markup. To jest szybszy ROI niż pisanie nowych tekstów.
- Nowy content w nowym standardzie (dni 46-60). Zacznij publikować nowe teksty zgodnie z frameworkiem chunk-first + hub-and-spoke-and-shard. Tempo – jeden pillar (4000+ słów) na dwa tygodnie plus 3-4 krótsze spoki. To jest tempo zrównoważone dla zespołu dwuosobowego content team.
- Pomiar i iteracja (dni 61-75). Powtórz audyt widoczności z dnia 1. Porównaj delty – ile pytań zyskało cytowanie, na których pozycjach, które artykuły przyniosły największy skok. Zidentyfikuj wzorce – co konkretnie w Twoich artykułach powoduje cytowanie.
- Outreach i citation building (dni 76-90). Mając już odświeżony i technicznie poprawny content, zacznij kampanię outreach pod wzmianki i linki. Celuj w 5 wzmianek branżowych miesięcznie, a nie w 50 generycznych linków. Co-citations i entity weight to jest to, co buduje długofalową widoczność.
Ten framework jest testowany w naszych kilku wdrożeniach od grudnia 2025 i w trzech na cztery przypadki daje widoczny wzrost AI Share of Voice w ciągu pierwszych 90 dni – średnio 2.3x z poziomu bazowego. W jednym przypadku (e-commerce z trudną niszą) wzrost był minimalny, ale i tak wartością było wyeliminowanie luk technicznych, które ciążyły na serwisie od lat.
Najczęstsze błędy, które popełniają zespoły po powrocie z konferencji
Błąd numer jeden – próba wdrożenia wszystkiego naraz. Konferencja daje 50 inspiracji, a realnie zespół jest w stanie wdrożyć 5-7 rzeczy w ciągu kwartału. Większość firm po MozCon wraca z listą 40 pomysłów, z których w ciągu miesiąca zostaje 3 i to często te najmniej ważne. Receptą jest bezlitosna priorytetyzacja – w pierwszym tygodniu po powrocie usiądź z zespołem i wybierz maksymalnie 5 inicjatyw. Resztę wrzuć do backlogu na 2027.
Błąd numer dwa – kopiowanie case studies bez adaptacji do kontekstu. Prezentacja z USA na B2B SaaS nie przekłada się 1:1 na polski e-commerce. Konteksty językowe, kulturowe i algorytmiczne są inne. Polski rynek ma swoje specyfiki – LLM-y gorzej rozumieją polskie encje, JSON-LD w polskich tekstach wymaga większej precyzji nazewniczej, wzorce linkowania są inne niż w anglojęzycznej blogosferze. Zamiast kopiować, adaptuj.
Błąd numer trzy – brak baseline’u. Jeżeli nie zmierzysz, gdzie jesteś dzisiaj, za trzy miesiące nie będziesz w stanie powiedzieć, czy wdrożenie zadziałało. A zarząd zapyta – i brak odpowiedzi z danymi to najszybsza droga do odcięcia budżetu. Tydzień audytu na początku to najlepsza inwestycja, jaką zrobisz po konferencji.
Błąd numer cztery – poleganie wyłącznie na narzędziach, bez zrozumienia sygnałów. Nowe narzędzia AI Share of Voice dają liczby, ale same liczby nie są strategią. Ktoś w zespole musi rozumieć, dlaczego cytowanie pojawia się albo nie pojawia, i musi umieć testować hipotezy. Bez tej roli narzędzie daje dashboard, ale nie daje przewagi.
Błąd numer pięć – zaniedbanie old-school fundamentów. Chunk-first, JSON-LD, entity weight – to wszystko jest ekscytujące, ale nie zastąpi dobrego CMS-u, czystej architektury informacji i rozsądnych publikacji. Niektóre z zespołów, z którymi rozmawialiśmy, goniły za nowościami kosztem podstaw – i miały coraz gorsze wyniki, bo fundamenty gniły. Balans między innowacją a higieną jest kluczowy.
Błąd numer sześć – zła komunikacja z zarządem. Po MozCon łatwo wpaść w żargon – „AIO”, „LLM citation velocity”, „chunk-first” – którego CEO nie zrozumie. A nierozumiany KPI traci budżet. Inwestuj w tłumaczenie nowych metryk na język zarządu – „widoczność marki”, „udział głosu”, „leady pasywne” – i pokazuj związek z przychodem. Prezentacja Wila Reynoldsa była właśnie o tym.
FAQ – pytania, które najczęściej padają po MozCon
Czy w 2026 warto jeszcze inwestować w klasyczne SEO? Tak – klasyczny SERP wciąż generuje większość ruchu w większości nisz, choć jego udział spada. Różnica jest taka, że „klasyczny SEO” zlewa się z AIO i nie da się ich dłużej rozdzielać. Treść optymalizowana pod AI zwykle też ranguje dobrze w klasycznym SERP, więc inwestycja się sama opłaca.
Jakie narzędzie wybrać do pomiaru AI Share of Voice? Jeśli budżet pozwala – płatne rozwiązania typu Profound, Evertune, Scrunch AI dają najłatwiejsze wejście. Jeśli nie – da się zbudować prostą wersję w Pythonie z ChatGPT API, Perplexity API i Gemini API za około 200 USD miesięcznie. Ważne – cokolwiek wybierzesz, używaj konsekwentnie przez 6 miesięcy, bo dopiero wtedy widać trendy.
Czy chunk-first writing nie zabija narracji? Nie, jeżeli zrobione dobrze. Paragrafy są samodzielne, ale łączą się w spójną całość dzięki przemyślanej sekwencji H2. Testy pokazują, że bounce rate spada, a czas na stronie rośnie – czyli ludzie czytają więcej, nie mniej.
Ile kosztuje wdrożenie pełnego JSON-LD na istniejącym serwisie? Zależy od skali. Dla serwisu do 200 URL-i to 2-5 dni pracy developera plus 2-3 dni pracy specjalisty SEO do nadania odpowiednich pól. Dla serwisu 1000+ URL-i – to już projekt na 4-6 tygodni z automatyzacją przez CMS. Koszt – w Polsce to rząd 8-30 tysięcy złotych zależnie od tego, czy robisz sam czy zlecasz.
Czy mały zespół (2-3 osoby) może w ogóle konkurować w tym nowym świecie? Tak – a nawet ma przewagę w niszach specjalistycznych. Duże zespoły są nieruchawe, małe zespoły szybciej adaptują nowe standardy. Kluczem jest dyscyplina – nie rób wszystkiego, wybierz 2-3 nisze i w nich buduj autorytet. Za rok jesteś nie do ruszenia w swojej wąskiej dziedzinie.
Jakie są ryzyka polegania na LLM-ach jako kanale ruchu? Największe – że LLM-y nie generują kliknięć bezpośrednio tak jak SERP, więc mierzysz „widoczność”, a nie „konwersje”. Trzeba budować marketing asystowany – user poznaje markę przez LLM, potem wraca bezpośrednio na stronę. To wymaga silnego brandu, a nie tylko rankingu na pojedyncze frazy. Drugie ryzyko – zmiany algorytmów LLM są jeszcze mniej przewidywalne niż w Google, więc dywersyfikacja jest kluczowa.
Czy warto iść na MozCon 2027? Tak, jeżeli masz budżet 5-8 tysięcy USD per osoba (bilet + przelot + hotel + utrzymanie). Wartość jest nie tyle w samych prezentacjach (te są na YouTubie miesiąc później), co w rozmowach kuluarowych. Moja najlepsza pojedyncza wymiana myśli tej edycji trwała 40 minut przy kawie – i dała mi więcej, niż którakolwiek ze scen głównych. Jeżeli jedziesz – planuj maksimum 30% czasu w sali, 70% w kuluarach.
Jak wyglądała atmosfera konferencji i kto realnie zdominował dyskusję?
Seattle Conference Center wypełniło się w tym roku bardziej niż kiedykolwiek – oficjalnie 2400 uczestników, nieoficjalnie (biorąc pod uwagę side eventy i spotkania partnerskie) blisko 3100. To ponad dwukrotny wzrost w porównaniu do 2022 roku i wyraźny sygnał, że MozCon odzyskał pozycję flagowej konferencji branżowej. Atmosfera była inna niż w latach pre-AI – mniej „party SEO”, więcej „enterprise search strategy”. Dress code skrył się bardziej w stronę business casual, średnia wieku wyraźnie podniosła się (więcej dyrektorów, mniej stażystów), a rozmowy w kuluarach dotyczyły budżetów, nie tricków. To jest ciekawe – branża dojrzewa na naszych oczach.
Na scenie głównej dominowały cztery typy prelegentów – weterani (Rand, Dr Pete, Wil Reynolds, Lily Ray), nowe gwiazdy z obszaru AI search (reprezentantki Profound, Scrunch AI, Evertune), przedstawiciele in-house z dużych marek (Shopify, HubSpot, Zapier) oraz teoretycy akademiccy (dwóch badaczy z Carnegie Mellon prezentowało badania nad retrieval augmented generation). Ta kompozycja była nowa – wcześniej akademia rzadko pojawiała się na MozCon, a teraz okazało się, że jej wnioski o chunkingu, embeddingach i rerankingu są bezpośrednio użyteczne w codziennej pracy SEO. Ta konwergencja „research meets practice” to jeden z najbardziej nieoczywistych wniosków edycji 2026.
Drugi wątek atmosferyczny – widoczny był rozdział na dwie frakcje. Z jednej strony „optymiści AIO”, którzy argumentowali, że LLM-y tworzą nowe okazje i że marka, która dobrze się tam pozycjonuje, zyskuje bardziej niż traci. Z drugiej „pesymiści ruchu”, przekonujący, że zero-click search zjada ruch i że większość branż czeka spadek organicznego ruchu o 30-50 procent w ciągu 18 miesięcy. Prawda, jak to zwykle bywa, leży pośrodku, ale warto zauważyć, że oba obozy mają swoje dane i warto posłuchać obu. Brak jednoznacznej narracji jest oznaką tego, że rynek wciąż się kształtuje.
Kuluary były – jak zawsze – najciekawsze. W rozmowach z dyrektorami SEO z dużych marek e-commerce usłyszeliśmy pewne wzory. Najlepsze zespoły zatrudniły w ciągu ostatnich 12 miesięcy osoby z backgroundem data science – nie na głównych stanowiskach, ale jako wsparcie (1-2 osoby na 10-osobowy zespół content). Te osoby budują wewnętrzne pipeline’y pomiarowe, trenują prostsze modele do klasyfikacji intencji, robią analizę semantyczną konkurencji. To jest nowa kompozycja zespołu contentowego, która dzisiaj daje przewagę – za rok będzie standardem.
Trzeci wątek kuluarowy – przełom w podejściu do narzędzi. Coraz częściej słyszeliśmy „nie używamy jednego narzędzia, używamy pięciu mniejszych i spinamy je pipeline’em”. Moz, Ahrefs, Semrush przestały być „wszystkim, czego potrzebujemy” – stały się jednym z kilku źródeł danych. Trend na „composable SEO stack” jest jasny i przegrywa ten, kto próbuje zamknąć się w jednym dashboardzie. Dla małych zespołów oznacza to konieczność zbudowania prostego orkiestratora w Zapier, n8n albo Make – kosztem 50-150 USD miesięcznie dostajesz elastyczność, której nie ma żadne pojedyncze narzędzie.
Na koniec – była też gorąca dyskusja o etyce. Dwa panele poruszyły temat „AI content farms” i odpowiedzialności platform za tę falę generowanej masowo treści. Zdania były podzielone – jedni argumentowali, że Google poradzi sobie filtrując algorytmicznie, inni, że to trwały problem strukturalny, który zmieni ekosystem na długie lata. Nie zapadły żadne wnioski operacyjne, ale sam fakt, że temat wszedł na główną scenę, pokazuje dojrzałość branży. W 2024 nikt by o tym nie mówił publicznie, a dzisiaj – mówi każdy.
Co dalej – jak utrzymać tempo po konferencji i nie wypalić zespołu?
Po każdej dużej konferencji następuje ten sam cykl – przez dwa tygodnie wszyscy są naładowani, robią plany, otwierają Google Docs z nazwą „Post-MozCon Action Plan”. Potem życie operacyjne wraca, klienci chcą swoich deliverables, a „nowa strategia” wpada do folderu „na później”. W trzecim miesiącu ktoś zadaje pytanie – „co my właściwie robimy z tymi wnioskami z Seattle” – i wszyscy patrzą po sobie z miną, która mówi wszystko.
Jedyne, co faktycznie działa przeciwko temu cyklowi, to instytucjonalizacja. Wybierz osobę odpowiedzialną za wdrożenie wniosków – z imieniem, terminem, KPI. Spotkania review co dwa tygodnie przez kwartał. Dashboard z metrykami AI Share of Voice wyświetlany na ekranie w biurze (lub na Slacku, jeżeli remote). Ta instytucjonalizacja jest mało sexy, ale bez niej efekt konferencji trwa tydzień.
Drugim mechanizmem jest „lunch and learn” – raz w tygodniu przez miesiąc zespół ogląda razem jedną prezentację z MozCon i dyskutuje, co można z niej wziąć. To jednocześnie szkolenie, team-building i generator inicjatyw. Koszt – godzina czasu, wartość – niewspółmiernie wysoka. Niektóre z naszych najlepszych wdrożeń wyszło właśnie z takich dyskusji nad pizzą.
Trzecim mechanizmem jest publikowanie swoich wniosków na zewnątrz. Blog post, LinkedIn post, wystąpienie na lokalnym meetupie – to zmusza do uporządkowania myśli i tworzy publiczne zobowiązanie. Zespoły, które publicznie ogłaszają „wdrażamy chunk-first do końca kwartału”, częściej to robią, niż te, które trzymają plan w zeszycie. Zresztą – ten artykuł, który właśnie czytasz, jest praktycznym zastosowaniem tej zasady. Każdy kolejny MozCon jest okazją nie tylko do nauki, ale do wymuszenia dyscypliny w swoim zespole. Jeżeli dobrze wykorzystasz najbliższe 90 dni, w trzecim kwartale 2026 będziesz miał przewagę, która utrzyma się przez 2027 – bo większość konkurencji nadal będzie rozważać, czy warto zacząć.