Wydawcy mediowi w 2026 roku grają na trzech planszach jednocześnie: tradycyjnym Google, AI Overviews oraz asystentach głosowych typu ChatGPT Voice, Gemini Live i Alexa+. Każda z tych powierzchni inaczej dobiera źródła, a SEO mediow przestało być wyłącznie kwestią słów kluczowych. To dziś gra o ustrukturyzowane dane, opisy zdolne odpowiadać na pytania bez kliknięcia oraz schema dla wideo, którą rozumieją zarówno crawlery Google, jak i modele językowe pobierające treści przez retrieval.
W tym przewodniku pokazujemy, jak redakcje, portale informacyjne i wydawcy specjalistyczni mogą w 2026 roku zbudować widoczność jednocześnie w klasycznym SERP, w AI Overviews, w odpowiedziach głosowych oraz w cytowaniach Perplexity, ChatGPT Search i Gemini. Skupiamy się na trzech obszarach, które obecnie przesądzają o wyniku: optymalizacji pod głos, opisach pełniących funkcję mikroartykułów oraz pełnym schema dla wideo, w tym SeekToAction i Clip.
Czym jest seo mediow w 2026 roku
Seo mediow to zestaw praktyk SEO i AIO dopasowanych do specyfiki wydawców treści informacyjnych: portali, magazynów branżowych, redakcji telewizyjnych i podcastowych. Różni się od typowego SEO sklepu czy strony usługowej kilkoma cechami strukturalnymi. Po pierwsze, treści tracą świeżość w godzinach, nie miesiącach, więc cykl indeksacji i sygnały dla Google News oraz Discover są kluczowe. Po drugie, formaty są heterogeniczne: artykuł, galeria, wideo, podcast, transmisja na żywo, każdy z innym schematem strukturalnym. Po trzecie, modele AI traktują serwisy mediowe jako zaufane źródła faktów, dlatego semantyczna precyzja opisów i atrybucja autorska decydują o cytowaniach.
W praktyce dla zespołu redakcyjnego oznacza to, że klasyczna lista zadań SEO (tytuł, meta, nagłówki, linkowanie wewnętrzne) musi zostać uzupełniona o trzy warstwy: warstwę głosu (jak treść brzmi po przeczytaniu na głos przez asystenta), warstwę opisu (czy meta description sama w sobie odpowiada na pytanie) i warstwę wideo (czy każda klatka i fragment są opisane danymi strukturalnymi). Bez tych warstw nawet doskonale napisany tekst zostaje pominięty przez modele wybierające źródła do AI Overviews lub odpowiedzi głosowych.
Zmiana, którą widać w danych z 2025 i 2026 roku, jest fundamentalna. Liczba zapytań głosowych do asystentów AI w Polsce wzrosła w stosunku rocznym o około 180 procent, a udział sesji bez kliknięcia (zero click) w segmencie informacyjnym przekroczył 60 procent. Wydawcy, którzy traktują meta description jak relikt, tracą widoczność w warstwie, w której dziś rozgrywa się większość ekspozycji marki.
Najwazniejsze zasady i framework GOV (głos, opis, wideo)
Proponujemy framework GOV, który porządkuje pracę redakcji wokół trzech obszarów dających mierzalne efekty: Głos, Opis, Video. Każda warstwa ma własne reguły, własne typy danych i własne KPI, ale wszystkie powstają z tego samego artykułu źródłowego.
Warstwa głosu
Asystent głosowy nie czyta całego artykułu. Pobiera od jednej do trzech wypowiedzi liczących łącznie 30 do 60 sekund i odczytuje je w syntezie mowy. Treść musi być więc napisana w sposób przyjazny do odsłuchu: krótkie zdania (maksymalnie 18 wyrazów), brak skrótowców bez rozwinięcia, brak nawiasów, brak liczb w postaci 14,3 procent zamiast czternaście przecinek trzy procent, jeśli zależy nam na czystym brzmieniu. Dobrym sygnałem dla modeli jest sekcja Najważniejsze fakty ułożona z 4 do 6 jednozdaniowych wniosków, które brzmią naturalnie po wczytaniu na głos.
Warstwa opisu
Meta description w 2026 roku ma trzy zadania jednocześnie: skłonić użytkownika do kliknięcia w SERP, dostarczyć modelowi językowemu samowystarczalną odpowiedź na pytanie oraz pełnić rolę cytatu w AI Overviews. Optymalna długość rozpięta jest między 140 a 175 znaków. Konstrukcja powinna wyglądać następująco: zdanie pierwsze odpowiada wprost na pytanie (subject + predicate), zdanie drugie dodaje kontekst lub liczbę. Wpisanie marki na końcu wzmacnia sygnał atrybucji, ale tylko jeśli marka jest istotna semantycznie dla zapytania.
Warstwa wideo
Dla redakcji posiadających serwis VOD lub kanał YouTube embed schema VideoObject jest minimum, a nie szczytem ambicji. Pełne wdrożenie obejmuje pola: name, description, thumbnailUrl (co najmniej trzy rozmiary), uploadDate (ISO 8601 z timezone), duration (ISO 8601 duration), contentUrl, embedUrl, transcript (pełna transkrypcja), publication (BroadcastEvent), interactionStatistic (liczba odsłon) oraz, kluczowe dla AIO, SeekToAction i Clip definiujące kluczowe momenty w nagraniu.
Bez Clip i SeekToAction Google nie pokaże w SERP funkcji Key moments, a modele językowe odpowiadające na pytania wideo nie mają jak zacytować konkretnego fragmentu. To jeden z najczęściej pomijanych elementów na portalach mediowych w Polsce, mimo że jego implementacja zajmuje zespołowi technicznemu kilka godzin.
Jak to wdrozyc krok po kroku
Przedstawiamy 9-krokowy proces wdrożenia GOV w zespole redakcyjnym. Założenie: redakcja ma 40 do 200 nowych publikacji tygodniowo i działa na CMS WordPress lub własnym headless. Czas pełnego wdrożenia: od 6 do 10 tygodni przy zespole 2 do 3 osób.
Krok 1. Audyt obecnego stanu
Zacznij od audytu, ile artykułów z ostatnich 90 dni ma kompletny schema (Article + ImageObject + Author z sameAs), ile ma poprawne meta description o długości 140–175 znaków oraz ile zawiera wideo z VideoObject. Większość redakcji odkrywa tu, że tylko 20 do 35 procent treści spełnia minimum, a wideo jest opisane danymi strukturalnymi w mniej niż 10 procentach przypadków. Pełną metodologię opisaliśmy w audycie SEO pod AIO 2026.
Krok 2. Mapa typów treści
Stwórz katalog typów treści, jakie publikujesz: news, analiza, wywiad, galeria, wideo redakcyjne, podcast, transmisja na żywo, ranking, recenzja. Dla każdego przypisz dedykowany schema (NewsArticle, ReportageNewsArticle, AnalysisNewsArticle, VideoObject, PodcastEpisode, BroadcastEvent, Review, Product). Mapa powinna trafić do spec frontu i edytora w CMS jako lista wyboru, której nie da się ominąć.
Krok 3. Szablon meta description nowej generacji
Zdefiniuj wzorzec dla redaktorów: zdanie pierwsze 80 do 110 znaków odpowiadające na pytanie + zdanie drugie 60 do 90 znaków z kontekstem. Włącz w CMS walidator długości pokazujący licznik znaków oraz prosty checker, czy meta zawiera słowo kluczowe i nazwę marki. Zakaz publikacji bez meta description jest tu niezbędny: 2026 rok nie wybacza pustych meta wydawcom mediowym.
Krok 4. Skrypt głosowy w sekcji Najważniejsze fakty
Dla każdego artykułu o objętości powyżej 800 słów dodawaj sekcję Najważniejsze fakty liczącą 4 do 6 jednozdaniowych wniosków. To jeden z najmocniejszych sygnałów dla AI Overviews i jednocześnie idealny materiał dla asystentów głosowych. Sekcja powinna pojawiać się tuż po wstępie, oznaczona nagłówkiem H2, bez wypunktowania (ciąg krótkich zdań w paragrafach lub jako lista uporządkowana z prostymi zdaniami).
Krok 5. VideoObject z SeekToAction i Clip
W warstwie technicznej dodaj generator schema dla każdego wideo z biblioteki VOD. Pola obowiązkowe: name, description (co najmniej 250 znaków), thumbnailUrl (3 rozmiary), uploadDate, duration, embedUrl, transcript. Pola wzbogacające, decydujące o widoczności: SeekToAction (pozwala Google głęboko linkować do konkretnej sekundy), Clip (lista co najmniej 3 kluczowych momentów z startOffset, endOffset, name, url). Implementacja w JSON-LD, najlepiej generowana z pola tagów czasowych w CMS. Szczegóły implementacji renderingu i hreflang dla mediów opisaliśmy w tekście o SEO technicznym 2026.
Krok 6. Atrybucja autora i E-E-A-T
Każdy artykuł musi mieć autora z pełnym Person schema (sameAs do LinkedIn, X, ORCID jeśli dotyczy). Atrybucja jest jednym z najsilniejszych sygnałów w 2026 roku zarówno dla Google (Helpful Content), jak i dla modeli AI cytujących źródła. Redakcje bez konsekwentnej atrybucji są niżej w rankingach E-E-A-T, a Perplexity i ChatGPT Search rzadziej przypisują im cytowania imienne.
Krok 7. Linkowanie wewnętrzne pod retrieval
Hub-and-spoke przestało wystarczać. Wprowadź cluster updates: gdy publikujesz nowy artykuł w klastrze, zaktualizuj hub pillar dodając link i fragment. To buduje sygnał świeżości całego klastra i zwiększa szansę na włączenie do retrieval okna w modelach z funkcją web search. Zasady on-page przygotowujące treść do cytowań omawiamy w przewodniku SEO on-page 2026.
Krok 8. Profil linków zewnętrznych
Wydawcy często bagatelizują back-linki, licząc, że domena ma już autorytet. W 2026 roku sygnał link-buildingowy nadal liczy się dla AIO, ale zmienia się jego natura: chodzi o linki cytowane w odpowiedziach AI, nie tylko w klasycznym SERP. Strategie link-buildingu dopasowane do tego celu znajdziesz w analizie linki pod AIO 2026.
Krok 9. Cykl publikacji i resync
Wydawcy publikujący wiadomości breaking muszą wdrożyć resync: ping IndexNow do Bing, ping Google przez Search Console API, weryfikacja indeksacji w Google News, automatyczne push do Discover poprzez aktualizację dateModified i refresh meta. Cykl powinien trwać poniżej 5 minut od publikacji do indeksacji w Google News dla treści priorytetowych.
Schema dla wideo w 2026: pelna anatomia VideoObject
Ponieważ wideo jest najsłabszym ogniwem w polskim seo mediow, poświęcamy tej warstwie osobną sekcję. Pokażemy szczegółowo, jakie pola powinien zawierać kompletny VideoObject, które są obowiązkowe dla rich results, a które dodatkowo wzmacniają widoczność w AIO.
Pola obowiązkowe dla rich result wideo
- name: tytuł wideo, identyczny z H1 lub bardzo zbliżony semantycznie. Maksymalna długość: 110 znaków.
- description: opis 250 do 500 znaków, zawierający frazy długiego ogona i naturalny język. Nie kopiuj meta description strony.
- thumbnailUrl: tablica trzech URL w proporcjach 16:9, 4:3 i 1:1, każdy w rozdzielczości co najmniej 1200×675.
- uploadDate: ISO 8601 z timezone, np. 2026-05-09T10:00:00+02:00.
- duration: ISO 8601 duration, np. PT3M42S dla 3 minut 42 sekund.
- contentUrl i embedUrl: bezpośrednie linki do pliku wideo i embed playera.
Pola wzbogacające widoczność w AIO
- transcript: pełna transkrypcja w formie tekstowej (nie HTML, nie Markdown) jako jedno pole stringowe lub jako DigitalDocument z polem text. Bez transkryptu modele AI nie mogą cytować nagrania słownie.
- Clip: lista co najmniej 3 obiektów typu Clip z polami startOffset, endOffset, name, url. Każdy Clip to przynajmniej 30-sekundowy fragment poświęcony jednemu pytaniu lub jednemu wątkowi.
- potentialAction (SeekToAction): pozwala Google głęboko linkować do dowolnej sekundy poprzez parametr URL t=. Wymaga deklaracji startOffset-input z parametrem czasu w URL.
- publication (BroadcastEvent): dla materiałów pochodzących z transmisji live, opcjonalnie z polami startDate, endDate, isLiveBroadcast.
- interactionStatistic: liczba odsłon i polubień, sygnał popularności i zaufania.
- regionsAllowed: kody krajów, w których wideo jest dostępne, kluczowe dla wydawców międzynarodowych.
Dla wydawców używających Cloudflare Stream, JW Player lub własnego playera HLS, generowanie tego JSON-LD odbywa się na poziomie API streamingu. Większość headless CMS w 2026 roku ma natywne wsparcie dla pól Clip i SeekToAction. WordPress przy rozsądnej wtyczce VideoObject (lub własnym hooku do save_post) generuje ten kod automatycznie z meta pól tagujących czas. Średni czas wdrożenia po stronie technicznej: od 12 do 24 godzin programisty.
Najczestsze bledy i pulapki
Zebraliśmy listę dziesięciu typowych pomyłek, które obserwujemy w audytach polskich serwisów mediowych w 2026 roku. Każdy z nich obniża widoczność w AIO o kilka do kilkunastu procent.
| Błąd | Skutek | Co zrobić |
|---|---|---|
| Pusty meta description (lub auto-generowany z lead) | Brak cytowań w AI Overviews i Discover | Wymuś walidację 140–175 znaków przed publikacją |
| VideoObject bez Clip i SeekToAction | Brak Key moments w SERP, brak cytowań fragmentu | Dodaj 3+ Clip do każdego wideo redakcyjnego |
| Brak Person schema dla autora | Niższy E-E-A-T, pomijanie w cytowaniach Perplexity | Profile autorów z sameAs |
| Skrót redakcyjny bez rozwinięcia | Asystent głosowy odczytuje literowanie | Pierwsza wzmianka pełna nazwa + skrót w nawiasie |
| Galeria bez ImageObject | Brak udziału w Google Images i AI obrazowych | Schema ImageObject z license i contentUrl |
| Streaming bez BroadcastEvent | Brak rich result dla transmisji na żywo | BroadcastEvent + isLiveBroadcast: true |
| Brak transkryptu wideo | Modele AI nie mają jak zacytować nagrania | Auto-transkrypt + redakcja + pole transcript |
| Mieszane formaty dat | Schema invalid, brak rich results | ISO 8601 z timezone, jeden format w całym CMS |
| Hreflang źle skonfigurowany dla wydań regionalnych | Kanibalizacja pomiędzy wersjami | x-default + cluster hreflang z weryfikacją |
| Sekcja Najważniejsze fakty z marketingowymi sloganami | Brak zacytowania przez AI, ostrzeżenie Helpful Content | Czyste fakty z liczbami i datami |
Najczęstszą pułapką jest jednak coś, co trudno wyłapać w audycie technicznym: redakcyjna kultura SEO. Jeśli redaktor traktuje meta description jako uciążliwy obowiązek, a producent wideo jako niepotrzebny formularz, żaden framework nie zadziała. Wdrożenie GOV wymaga minimum 4 godzin szkolenia dla zespołu redakcyjnego oraz 2 godzin dla zespołu wideo, plus ciągłej pętli feedbackowej z osobą odpowiedzialną za SEO.
Studium przypadku: portal informacyjny po wdrozeniu GOV
Aby pokazać, jak framework GOV przekłada się na wyniki, opisujemy zanonimizowany przypadek polskiego portalu informacyjnego z segmentu lifestyle, który wdrożył pełny zestaw zmian od stycznia do kwietnia 2026 roku. Portal publikuje około 80 artykułów dziennie, prowadzi kanał YouTube z 200 wideo miesięcznie i nadaje 3 transmisje live w tygodniu. Punkt startowy: 12 procent artykułów z kompletnym schema, 0 procent wideo z Clip, 22 procent meta description w docelowym przedziale długości, brak Person schema dla autorów.
Wdrożenie podzielono na trzy fazy. Faza pierwsza (tygodnie 1 do 3) objęła technikalia: walidator meta description w CMS, generator Person schema z bazy redakcji oraz upgrade VideoObject o Clip i SeekToAction. Faza druga (tygodnie 4 do 6) skupiała się na redakcji: szkolenia, nowy szablon meta, sekcja Najważniejsze fakty jako obowiązkowy element artykułów powyżej 800 słów. Faza trzecia (tygodnie 7 do 12) dotyczyła wideo: redakcja transkryptów, dodanie 3 do 5 momentów Clip do każdego materiału powyżej 90 sekund, włączenie pola publication BroadcastEvent dla nagrań archiwalnych z transmisji live.
Wyniki po 4 miesiącach: AIO citation rate w kategorii lifestyle wzrósł z 7 do 24 procent w próbce 400 zapytań tygodniowo. Voice answer share w teście miesięcznym wzrósł z 2 do 11 procent. Wyświetlenia w Discover urosły o 38 procent miesiąc do miesiąca. Liczba wideo z aktywnym Key moments w SERP wzrosła z 0 do 158 w trzecim miesiącu. Łączny ruch organiczny wzrósł o 22 procent, ale co istotniejsze, zmienił się jego skład: udział sesji z odpowiedziami AI wzrósł trzykrotnie, a CTR z Discover o 6 punktów procentowych.
Najmocniejszym efektem był jednak czas reakcji w cyklu newsowym. Przed wdrożeniem mediana czasu od publish do indeksacji w Google News wynosiła 14 minut, po wdrożeniu spadła do 3 minut 40 sekund. To bezpośrednio przełożyło się na udział w breaking news, gdzie redakcja zaczęła pojawiać się w pierwszej trójce źródeł cytowanych w AI Overviews dla około 30 procent zapytań trendingowych w swojej domenie tematycznej.
Mierzenie efektow i KPI dla seo mediow
SEO mediow w 2026 roku wymaga rozszerzonego zestawu KPI. Klasyczne metryki (kliknięcia z organic, średnia pozycja, CTR) są nadal istotne, ale opowiadają tylko fragment historii. Poniżej proponujemy 12 wskaźników, które realnie pokazują efektywność.
- AIO citation rate: procent zapytań w danej kategorii, w których serwis jest cytowany w AI Overviews. Mierzony przez próbkę 200 do 500 zapytań tygodniowo, narzędziami typu seoClarity, Authoritas lub własnym scraperem.
- Voice answer share: udział odpowiedzi głosowych z brand mention. Mierzony testem 100 zapytań w ChatGPT Voice, Gemini Live, Alexa+ raz w miesiącu.
- Zero click recovery: liczba sesji powracających po pierwszym zero click w danej kategorii (proxy dla siły marki).
- Discover impressions delta: zmiana wyświetleń w Discover tygodniowo, wskaźnik zdrowia ekspozycji wizualnej.
- Key moments coverage: procent wideo redakcyjnych z aktywnym Clip schema (cel: 100 procent w 6 miesięcy).
- Time to index: mediana czasu od publish do indeksacji w Google News (cel: poniżej 5 minut dla priorytetowych).
- Author entity strength: liczba autorów z weryfikowalnym profilem Person + sameAs (cel: 100 procent etatowych).
- Citation diversity: liczba różnych modeli AI cytujących redakcję w danym miesiącu (Perplexity, ChatGPT Search, Gemini, Copilot, Claude).
- Schema coverage: procent publikacji z kompletnym schema (cel: 95 procent po wdrożeniu).
- Meta description compliance: procent meta w przedziale 140–175 znaków (cel: 90 procent).
- Transcript availability: procent wideo z transkryptem (cel: 100 procent dla materiałów dłuższych niż 60 sekund).
- Cluster freshness: średni wiek pillar w klastrze (cel: aktualizacja co 90 dni).
Raportowanie tych KPI w cyklu tygodniowym dla zespołu redakcyjnego i miesięcznym dla zarządu pozwala szybko reagować na regresje. Dodatkową wartością jest ustawienie alertów na spadki w AIO citation rate powyżej 15 procent tydzień do tygodnia, ponieważ to wczesny sygnał algorytmicznych zmian po stronie Google lub OpenAI.
Polskie redakcje mogą korzystać z otwartych źródeł dokumentacji schema, w tym specyfikacji NewsArticle w schema.org oraz dokumentacji video w Google Search Central. Oba zasoby są aktualizowane szybciej niż jakikolwiek polski podręcznik branżowy i powinny być punktem wyjścia dla zespołu technicznego.
Plan działania na pierwsze 30 dni
Jeśli odpowiadasz za SEO w średniej redakcji i czytasz ten tekst we wtorek rano, oto jak wygląda realny harmonogram pierwszych 30 dni wdrożenia GOV. Nie potrzebujesz kompletu narzędzi enterprise. Wystarczy Search Console, dostęp do CMS, jeden frontend developer na 50 procent etatu i godzina tygodniowo z naczelnym lub szefem newsroomu.
W tygodniu pierwszym przeprowadź audyt 50 ostatnich publikacji oraz 30 ostatnich wideo. Sprawdź obecność schema, długość meta, atrybucję autora i transkrypty. Wynik zapisz w tabeli, którą pokażesz na zebraniu redakcyjnym. To buduje świadomość problemu lepiej niż jakakolwiek prezentacja teoretyczna.
W tygodniu drugim wprowadź walidator meta description w CMS oraz szablon sekcji Najważniejsze fakty. Przeszkol redakcję w 90-minutowej sesji opartej o konkretne przykłady z Twojego serwisu. Pokaż jeden artykuł cytowany w AI Overviews i jeden pominięty, omów dlaczego.
W tygodniu trzecim zacznij wdrożenie schema dla wideo. Pierwszych 10 materiałów oznacz ręcznie z pełnym kompletem pól, w tym Clip i transcript. Te 10 wideo posłuży jako wzór dla automatyzacji w kolejnym kroku.
W tygodniu czwartym wdroż automatyczny generator VideoObject (na podstawie pól tagów czasowych z CMS) oraz Person schema dla autorów. Po tych 30 dniach masz fundament, na którym przez kolejne 60 dni dostroisz pozostałe elementy: cluster updates, IndexNow, BroadcastEvent dla transmisji live i monitoring KPI.
FAQ
Czy seo mediow różni się od klasycznego SEO contentowego?
Tak, różnice są strukturalne: krótszy cykl świeżości, wielość formatów (artykuł, wideo, podcast, transmisja), wyższy ciężar atrybucji autorskiej i znacznie szersza rola schema. Klasyczne SEO contentowe skupia się na ewergreenach i zapytaniach informacyjno-transakcyjnych, podczas gdy seo mediow optymalizuje pod cykl wiadomości, Discover, Google News i cytowania w odpowiedziach AI.
Jakie schema są krytyczne dla portali mediowych w 2026 roku?
Minimum to NewsArticle (lub jego podtypy: ReportageNewsArticle, AnalysisNewsArticle), Person dla autora z sameAs, ImageObject dla każdego zdjęcia, VideoObject z polami Clip i SeekToAction dla każdego wideo oraz BroadcastEvent dla transmisji na żywo. Dla podcastów: PodcastEpisode i PodcastSeries.
Czy meta description nadal ma znaczenie w erze AI Overviews?
Ma większe niż kiedykolwiek. Meta description w 2026 roku pełni potrójną rolę: zachęca do kliknięcia w SERP, dostarcza modelowi językowemu krótkiej odpowiedzi gotowej do cytowania w AI Overviews oraz buduje cytat w odpowiedziach głosowych asystentów. Optymalna długość 140–175 znaków, konstrukcja: zdanie odpowiadające na pytanie + zdanie z kontekstem.
Jak optymalizować treści pod asystentów głosowych?
Trzy zasady: krótkie zdania (do 18 wyrazów), brak skrótowców bez rozwinięcia w pierwszej wzmiance, dedykowana sekcja Najważniejsze fakty z 4 do 6 jednozdaniowymi wnioskami. Dodatkowo warto unikać liczb dziesiętnych w treści głównej (lub podawać je obok formy słownej), nawiasów oraz długich list, których synteza mowy nie czyta naturalnie.
Co daje wdrożenie SeekToAction i Clip w VideoObject?
Aktywuje funkcję Key moments w Google SERP, pozwala modelom AI cytować konkretne fragmenty wideo z timestampem oraz zwiększa CTR z wyników wideo średnio o 8 do 15 procent. Bez Clip wideo redakcyjne traktowane jest przez Google jako pojedynczy obiekt bez nawigacji wewnętrznej, co znacząco obniża widoczność długich materiałów.
Jak szybko można wdrożyć framework GOV w średniej redakcji?
Przy zespole 2 do 3 osób (jeden specjalista SEO, jeden frontend developer, jedna osoba z zespołu redakcyjnego jako product owner) pełne wdrożenie zajmuje od 6 do 10 tygodni. Pierwsze efekty w AI Overviews i Google News widoczne są w 4 do 6 tygodni od startu, pełne dojrzewanie KPI typu AIO citation rate trwa od 3 do 6 miesięcy.
Czy schema dla wideo wystarczy umieścić w meta serwisu, czy musi być per artykuł?
Per artykuł lub per strona wideo. Każde nagranie powinno mieć osobny VideoObject w JSON-LD. Schema globalne na poziomie serwisu (Organization, WebSite) uzupełnia dane strukturalne, ale nie zastępuje schema indywidualnego dla pojedynczego wideo. Reguła: jedno wideo = jeden VideoObject z pełnym kompletem pól.