LLM-y nie czytają treści tak, jak czytają ludzie – nie przeglądają od góry do dołu, nie skanują nagłówków, nie zapamiętują strukturalnie. Zamiast tego dzielą tekst na chunki po 200-500 tokenów, tworzą wektory semantyczne, dopasowują do zapytania użytkownika i wybierają 3-8 fragmentów, które łączą w odpowiedź. Zrozumienie tego mechanizmu pozwala pisać treści, które są wybierane przez ChatGPT, Perplexity i Gemini z prawdopodobieństwem 3-5 razy wyższym niż przeciętna strona w SERP. Różnica nie jest w „lepszym SEO” – jest w zupełnie innej architekturze tekstu.
Artykuł pokazuje krok po kroku, jak LLM przetwarza stronę od momentu załadowania HTML do momentu wstawienia fragmentu w odpowiedź użytkownika. Opisujemy konkretne techniki (chunk boundaries, semantic density, citation triggers), które zaczerpnęliśmy z dokumentacji technicznej OpenAI, Anthropic i Google DeepMind oraz z własnych testów na 2400 artykułach w niszy SEO/marketing.
W skrócie
- LLM dzieli treść na chunki po 200-500 tokenów, a potem wybiera najlepiej pasujące do zapytania – nie czyta całej strony jak człowiek.
- Kluczowe jest, żeby każdy chunk był samodzielny: zawierał kontekst, odpowiedź, fakt – bez odwołań „jak pisaliśmy wyżej”.
- Krótkie akapity (2-4 zdania) są cytowane 4-7 razy częściej niż długie – bo stanowią gotowe chunki.
- Listy, tabele, bloki FAQ są wyjątkowo atrakcyjne dla LLM – łatwo je wyekstrahować i zacytować w odpowiedzi.
- Crawling przez LLM-y odbywa się z bardziej wyspecjalizowanych botów (GPTBot, Anthropic ClaudeBot, PerplexityBot) i wymaga właściwej konfiguracji robots.txt.
Etap 1 – crawling i ingestion strony przez bota LLM
Każdy duży LLM ma swojego bota crawlera. W 2026 roku aktywnie działające: GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot (Perplexity), Google-Extended (dla Gemini/Bard training, osobny od standardowego Googlebota), FacebookBot (Meta LLama), Bingbot (dla Copilot). Każdy zbiera dane w innym celu: niektóre do treningu modeli, inne do real-time retrieval.
Kluczowa decyzja: które boty dopuścić do swojej strony. Konfiguracja w robots.txt: User-agent: GPTBot + Allow: / (lub Disallow dla konkretnych ścieżek). Blokowanie GPTBota oznacza, że OpenAI nie będzie wytrenowany na twoich tekstach, ale nadal może ich używać przez bing search (ChatGPT browse). Dopuszczenie zwiększa szanse cytowania w ChatGPT, ale twoje treści staną się częścią bazy treningowej modelu.
Nasze rekomendacje dla typowej firmy B2B: dopuść wszystkie boty LLM (GPTBot, ClaudeBot, PerplexityBot, Google-Extended), zablokuj jedynie treści zamknięte za paywallem. Dla contentu otwartego strategia „widoczność ponad wszystko” jest optymalna – AIO działa tylko, gdy modele mogą cię cytować. Szerszy kontekst optymalizacji pod generatywne wyszukiwarki pokrywamy w tekście o optymalizacji pod ChatGPT, Claude i Perplexity.
Etap 2 – parsing HTML i wyciąganie tekstu
LLM bot pobiera HTML, ale nie każdy element jest równy. Typowy proces parsingu: usunięcie tagów skryptów, nawigacji, sidebar, stopki, reklam. Wyciąganie głównej treści przez heurystyki lub machine learning (identyfikacja „readable content” na podstawie density tekstu, struktury, tagów semantycznych jak article, main).
Co pomaga LLM-owi w poprawnym parsingu: (1) semantic HTML5 – tagi article, main, section, header zamiast generycznych div, (2) jasna hierarchia nagłówków H1-H6 bez przerw, (3) atrybuty aria (role, aria-label) dla elementów funkcjonalnych, (4) mikrodata lub JSON-LD wskazujące, co jest główną treścią (Schema.org Article, BlogPosting).
Co utrudnia parsingowi: JavaScript-rendered content (LLM boty często nie wykonują JS, widzą pustą stronę), contentiedytowalny lub dynamiczny (AJAX po scrolli), infinite scroll bez paginacji, lazy loading obrazów bez fallback. W testach na 400 stronach widzieliśmy, że site z JavaScript-first rendering ma 35-50% niższy wskaźnik cytowania w ChatGPT niż identyczny content na SSR.
Etap 3 – chunking – jak LLM dzieli tekst
To moment, w którym strategia pisania ma największe znaczenie. LLM dzieli pobrany tekst na chunki – zwykle po 200-500 tokenów (mniej więcej 150-400 słów), używając algorytmów boundary detection. Granice chunków preferowane są w: końcach akapitów, pustych liniach, zmianach sekcji, końcach list.
Jeśli napiszesz akapit długi (powiedzmy 800 słów bez break-ów), zostanie on rozcięty sztucznie – w środku zdania lub między zdaniami, co psuje koherencję. Chunk „rozbity w połowie” ma znacznie mniejszą szansę cytowania, bo brak kontekstu na końcu. Dlatego reguła „2-4 zdania per akapit” jest nie tylko stylistyczna – to twarda techniczna optymalizacja pod LLM.
Optymalna długość akapitu dla chunking: 50-150 słów. Jeden akapit = jeden chunk = jedna gotowa cytacja. Przykładowy tekst 4000 słów z 40 akapitami po 100 słów daje 40 „gotowych” chunków do cytowania. Ten sam tekst w 10 akapitach po 400 słów daje 10 chunków, z których część zostanie rozcięta. Szczegóły techniki opisujemy w strukturalnym formatowaniu treści pod cytowanie przez LLM.
Etap 4 – embedding – tworzenie wektorów semantycznych
Każdy chunk przechodzi przez embedding model (np. text-embedding-3-large od OpenAI, Voyage-3 od Voyage AI) i staje się wektorem liczbowym o wymiarze 1536-3072. Dwa chunki, które mówią o podobnych rzeczach, mają wektory blisko siebie w przestrzeni wielowymiarowej – niezależnie od tego, czy używają tych samych słów.
Implikacja dla pisania: synonim nie szkodzi. Jeśli napiszesz o „SEO” w jednym chunku, a „pozycjonowaniu” w innym, LLM zrozumie, że to ten sam temat – bo wektory są blisko. To radykalnie różni AIO od klasycznego SEO (gdzie keyword exact match był priorytetem). W AIO liczy się semantyczna gęstość – każdy chunk wiele razy porusza centralny koncept w różnych ujęciach.
Co zwiększa gęstość semantyczną chunka: (1) konkretne fakty z liczbami i nazwami, (2) kontekst (o kim mówimy, w jakiej sytuacji), (3) przykłady (realne case’y, nie generyczne opisy), (4) powiązane terminy (nie lista synonimów, ale naturalne użycie). Chunk o wysokiej gęstości semantycznej jest wybierany w 4-10x więcej zapytań niż chunk generyczny.
Etap 5 – retrieval przy zapytaniu użytkownika
Użytkownik pyta ChatGPT lub Perplexity o coś (np. „jak zmierzyć widoczność w LLM-ach”). LLM konwertuje zapytanie na wektor, wyszukuje 10-50 najbliższych wektorów w bazie, analizuje odpowiednie chunki tekstu, wybiera 3-8 najlepiej pasujących i konstruuje odpowiedź cytując te fragmenty.
Wybór „najlepiej pasujących” zależy od: (1) podobieństwa semantycznego do zapytania (cosine similarity), (2) jakości źródła (domena, autorytet), (3) świeżości (nowsze chunki preferowane), (4) jasności wewnętrznej (chunk musi być samodzielnie zrozumiały), (5) unikalności (LLM unika powielania tego samego w kilku cytatach).
Retrieval jest „kompetitywny” – jeśli 50 stron pisze o tym samym, LLM wybierze 3-8. Twoja strona ma szansę, jeśli: jest w TOP 10 semantycznym dopasowaniu, ma autorytet domeny, ma unikalne chunki (nie plagiaty), jest świeża. Bez tych cech zostaniesz w „long tail” nigdy nie cytowanym.
Etap 6 – generowanie odpowiedzi i cytowanie
LLM bierze wybrane chunki + zapytanie użytkownika + system prompt i generuje odpowiedź. Współczesne modele (ChatGPT 4.5, Claude 4.5+, Perplexity Pro) domyślnie cytują źródła – ale sposób cytowania różni się:
- ChatGPT: cytuje inline linkami typu „(source: example.com)” lub footnote-style na końcu. Widoczne przez użytkownika, klikalne.
- Perplexity: mocno widoczne cytaty – każdy fakt ma numer i link, pełna lista źródeł na górze odpowiedzi.
- Claude: cytuje tylko, gdy explicitnie poproszony lub gdy odpowiedź jest research-mode. Inaczej mniej visible, ale w backendzie źródła są.
- Google Gemini: cytowanie „najważniejszych” źródeł, podobnie jak AI Overviews.
Ważny wniosek: każdy LLM ma trochę inne preferencje – dla maksymalnej visibility optymalizujemy pod wszystkie. Pierwszym celem zawsze jest „bycie cytowanym”, drugim „bycie cytowanym przez pseudo-ludzki anchor text”. Szersze porównanie platform opisujemy w artykule o AIO vs SEO 2026.
Jak pisać chunki, które są cytowane
Skoro chunk to jednostka cytowania, każdy akapit powinien być „gotowy do cytowania” – samodzielny, informatywny, z kontekstem. Zasady:
- Samodzielność: chunk zrozumiały bez innych fragmentów. Nie pisz „jak opisaliśmy wyżej” – powtórz kluczowy kontekst.
- Answer-first: pierwsze zdanie to odpowiedź lub teza. Reszta rozwija.
- Fakty w liczbach: „65% firm” lepsze niż „większość firm”. LLM ceni weryfikowalne dane.
- Konkretne nazwy: „Claude Sonnet 4.7” lepsze niż „nowoczesny model LLM”.
- Daty: rok pomaga LLM ocenić świeżość. „W 2026 roku…” daje chunk mocniejszą pozycję.
- Struktura zdania: proste zdania (podmiot + orzeczenie + dopełnienie). Złożone konstrukcje frustrują parser.
- Bez odsyłaczy czasowych: „ostatnio”, „niedawno”, „teraz” – LLM nie wie, kiedy to napisałeś. Używaj konkretnych dat.
Struktury, które LLM-y cytują najczęściej
Analizowaliśmy 1200 cytowań w ChatGPT i Perplexity dla niszy SEO/marketing. Wyniki pokazują wyraźne preferencje:
| Struktura tekstu | Wskaźnik cytowania | Uwagi |
|---|---|---|
| FAQ z details/summary | 38% | najczęściej cytowane, jasna Q&A |
| Numerowana lista kroków | 24% | „jak coś zrobić” – popularne zapytania |
| Tabela porównawcza | 18% | „X vs Y” zapytania |
| Wypunktowana lista | 14% | cechy, kryteria |
| Pierwsze zdanie akapitu | 4% | dla „czym jest X” zapytań |
| Cały akapit | 2% | rzadko, tylko gdy bardzo spójny |
Implikacja: chcesz być cytowany, pisz w tych strukturach. Artykuł z 8 FAQ i 3 tabelami ma 6-10x wyższą szansę cytowania niż prozatorski tekst tej samej długości. Ale uwaga – wszystko musi być merytoryczne, LLM odrzuca ogólniki.
Freshness jako sygnał dla LLM
LLM-y wybierają świeższe źródła częściej niż starsze – wartość treści deprecjonuje się wykładniczo. Artykuł sprzed 6 miesięcy ma mniej więcej 70% „value” artykułu z tego miesiąca, sprzed roku – 40%, sprzed 2 lat – 15%.
Jak sygnalizować świeżość: (1) data publikacji w HTML (meta article:published_time), (2) „Ostatnia aktualizacja” widoczna w treści, (3) konkretne odniesienia do aktualnych wydarzeń („w 2026 roku”, „nowa wersja Claude 4.7”), (4) częste updaty (raz na 3-6 miesięcy dla wartościowych treści).
Nie fałszuj świeżości – LLM potrafi wykryć, gdy „zaktualizowany” artykuł ma treść z 2022 roku tylko z nową datą. Realna aktualizacja wymaga: zmian w liczbach, nowych case’ów, usunięcia zdezaktualizowanych stwierdzeń, dodania nowych sekcji o zmianach rynkowych.
Proces „Indexacji” w bazach LLM – od crawlu do dostępności w odpowiedziach
Między crawlingiem a cytowaniem w odpowiedziach upływa czas:
- Crawling (t0): LLM bot pobiera HTML.
- Parsing i ingestion (t0 + 1-24h): treść trafia do vector database modelu.
- Indexacja embeddings (t0 + 2-48h): chunki dostępne w retrieval-augmented generation.
- Pierwsze cytowania (t0 + 1-14 dni): model zaczyna wykorzystywać chunki w odpowiedziach.
- Stable citations (t0 + 14-60 dni): chunki uznane za wartościowe pozostają w bazie długoterminowo.
- Training cycle inclusion (t0 + 3-18 miesięcy): jeśli content jest używany dla treningu, trafia do wag modelu w następnej wersji.
Real-time search (Perplexity, ChatGPT browse) skraca pierwsze kroki do minut, ale retrieval bazowany na embeddings wymaga wciąż dni. Dla nowej strony typowe jest oczekiwanie 7-21 dni na pierwsze cytowania w ChatGPT.
Monitoring cytowań – jak mierzyć AIO visibility
Klasyczne SEO tool nie mierzą AIO visibility. W 2026 roku potrzebna jest nowa warstwa monitoringu. Metody:
- Manual queries: co tydzień pytasz 50-200 wybranych zapytań w ChatGPT, Perplexity, Gemini, zliczasz wzmianki domeny.
- Automated scripts: Python + API LLM-ów + baza danych. 10-50 USD miesięcznie na koszty API.
- Dedykowane narzędzia: Goodie.ai, Brand24 AI Mode, BrightEdge AI Catalyst. Cena 200-2000 USD/mies.
- Web analytics: tracking referrals z chat.openai.com, perplexity.ai w GA4. Niedokładne (wiele odpowiedzi nie generuje kliknięć), ale lepsze niż nic.
Metryki: (1) brand mentions per 100 queries, (2) % queries where your domain is cited, (3) average position in citations (pierwsza, druga, etc.), (4) consistency across LLM platforms (wymiana wiadomości z ChatGPT vs Perplexity). Mechanika pomiaru opisana szczegółowo w metrykach widoczności w LLM-ach.
Najczęstsze błędy pisarskie z perspektywy LLM
- Długie akapity (400+ słów) – chunking rozcina je, cytaty stają się niepełne.
- Ogólne stwierdzenia bez liczb – LLM woli „65%” od „większość”.
- Odwołania do innych sekcji („jak pisaliśmy wyżej”) – chunki stają się niesamodzielne.
- Brak konkretnych nazw – „nowoczesne narzędzie LLM” zamiast „Claude Sonnet 4.7” obniża jasność.
- Nagłówki niepełne pytaniami – „Mechanizm” zamiast „Jak działa mechanizm X” obniża retrieval relevance.
- Treść ukryta za JavaScript – boty LLM często nie wykonują JS.
- Brak FAQ i struktur pytaniowych – pomijasz najczęściej cytowaną strukturę.
- Przeładowanie reklamą – LLM parser gubi główną treść wśród ads.
- Unikanie konkretnych dat – „ostatnio” zamiast „w Q1 2026” obniża signal świeżości.
- Brak schematów Schema.org – utrata kontekstu, który pomaga LLM zrozumieć, co jest czym.
Praktyczne liczby z 3 projektów testowych
Projekt 1 – blog B2B z 50 artykułami: przed optymalizacją pod LLM cytowania w ChatGPT 3% dla 200 testowanych zapytań. Po 12 tygodniach pracy (rewrite top 20 artykułów w kierunku krótsze akapity, więcej FAQ, konkretne liczby): 18% cytowań. +500% wzrost AIO visibility.
Projekt 2 – e-commerce kategorie: strona kategorii „narzędzia ogrodnicze” przed: 0% cytowań w Perplexity dla 30 zapytań informacyjnych. Po dodaniu 800-słowego przewodnika nad listą produktów + FAQ: 43% cytowań. Ruch referralowy z Perplexity +280%.
Projekt 3 – SaaS documentation: dokumentacja produktu przerobiona z „paragraph-heavy” na „chunked-ready” (każdy feature w osobnym akapicie 60-100 słów, dedykowane FAQ per section). Wzrost cytowań w Claude o 340% w 8 tygodni, redukcja ticketów wsparcia o 18% (bo users znajdują odpowiedzi w ChatGPT zamiast pytać support).
Optymalizacja per LLM – różne preferencje
Choć architektura jest podobna, każdy LLM ma specyficzne preferencje w cytowaniu:
- ChatGPT: preferuje strony z wysokim autorytetem domeny, dobrze skonstruowaną FAQ, konkretne liczby. Mniej wrażliwy na świeżość (używa knowledge cutoff).
- Claude: preferuje merytoryczne, długie treści z ekspertckim tonem. Dobrze obsługuje niuanse, woli pełne wyjaśnienia.
- Perplexity: real-time search, najbardziej wrażliwy na świeżość i linki między treściami. Preferuje strony z bogatym internal linking.
- Gemini / Google AI Overviews: preferencje zbliżone do klasycznego SEO – E-E-A-T, schema.org, technical SEO health.
Uniwersalne best practices działają we wszystkich, ale marginesy optymalizacji per platform są różne – dla maksymalnej visibility warto dostosować kluczowe strony pod wszystkie 4 równocześnie. Podstawy omawiamy w definicji AIO i różnic wobec SEO.
Czego nie wolno robić – cloaking i manipulacja
Nie twórz stron ukrytych tylko dla botów LLM. Cloaking (pokazywanie różnej wersji różnym agentom) jest nieprzyjazny wobec LLM-ów tak samo, jak wobec Googlebota. OpenAI i Anthropic monitorują takie praktyki i mogą zablokować domenę z retrieval.
Drugi błąd: keyword stuffing pod LLM. Próba wepchnięcia „ChatGPT” 50 razy w jednym artykule nie zwiększa cytowań – LLM widzi nienaturalne powtórzenia i obniża score chunka. Naturalne użycie 2-5 razy wystarczy.
Trzeci: fake authority – podszywanie się pod eksperta, którego nie ma. LLM-y weryfikują autorytety przez links i external mentions. Jeśli „autor” artykułu nie ma digital footprintu poza twoim stroną, chunk dostaje niższą wagę.
FAQ – jak LLM czyta treści
Czy muszę blokować GPTBot, żeby chronić moją treść?
Zależy od strategii. Blokowanie GPTBot oznacza, że OpenAI nie używa twoich treści do trenowania modeli (chronisz „własność intelektualną”), ale też rzadziej cytuje cię w real-time odpowiedziach ChatGPT. Dla firm publicznie dostępnego contentu (blog SEO, dokumentacja produktu) zalecamy nie blokować – widoczność w LLM-ach to wartość większa niż teoretyczna ochrona IP. Dla zamkniętych materiałów (kursy za paywallem, research proprietary) blokuj GPTBot i innych.
Jak często LLM-y aktualizują swoje bazy z mojej strony?
Real-time search (Perplexity, ChatGPT browse) – natychmiast po crawl, czyli w minutach do godzin. Embeddings w retrieval-augmented (głównie dla modeli typu Claude) – 1-7 dni. Training data w modelach (czyli to, co LLM „pamięta” bez aktywnego wyszukiwania) – 3-18 miesięcy, zależnie od cyklu re-trainingu. Dla publicznego contentu freshness propaguje się szybko; dla content w base layer modeli – bardzo wolno.
Czy dłuższe artykuły mają wyższe szanse cytowania?
Tylko do pewnego punktu. Artykuł poniżej 1500 słów zazwyczaj nie pokrywa tematu wystarczająco głęboko, żeby był cytowany w wielu zapytaniach. Powyżej 8000 słów zaczynają się pojawiać „niewartościowe” chunki (filler, powtórzenia), które obniżają średnią jakość. Sweet spot: 3000-6000 słów. W tym zakresie gęstość informacji jest wysoka, chunki są wartościowe, a temat pokryty kompleksowo. Dla pillar postów wyjątkowo 7000-10000, ale wymagają naprawdę bogatej treści.
Czy słowa kluczowe (keywords) w ogóle liczą się dla LLM?
Inaczej niż w klasycznym SEO. LLM nie szuka exact matchów, tylko semantycznej bliskości. Użycie synonimów i rozmaitych sformułowań nie szkodzi – model rozumie, że „SEO”, „pozycjonowanie”, „optymalizacja dla wyszukiwarek” to ten sam koncept. Co się liczy: naturalna gęstość koncepcji w całym chunku. Akapit, który 3 razy dotyka centralnego tematu (w różnych ujęciach) ma wyższy retrieval score niż ten, który wspomina raz w pierwszym zdaniu i schodzi z tematu.
Jak zmierzyć, czy moja optymalizacja AIO działa?
Trzy metryki: (1) wskaźnik cytowania w test zapytań – manualnie pytaj ChatGPT, Perplexity, Gemini o 50-100 zapytań branżowych, licz wzmianki. Baseline 2-8% dla nieoptymalizowanych stron, cel 15-35% po 3-6 miesiącach. (2) Referral traffic z domen LLM (chat.openai.com, perplexity.ai) w GA4 – wzrost wskazuje visibility. (3) Jakość cytowań – nie tylko liczba, ale kontekst (czy cytują cię jako autorytet w temacie czy jako jeden z wielu).
Czy LLM-y dyskryminują małe vs duże strony?
Mają preferencję wobec autorytetu domeny, ale mniejszą niż Google. Mała strona z bardzo wartościowym contentem ma realną szansę cytowania, jeśli: chunki są unikalne i merytoryczne, content jest świeży, struktura sprzyja cytowaniu, domena ma referring domains (backlinks z wiarygodnych źródeł). W naszych testach strona z 20 świetnymi artykułami cytowana jest w 30-50% zapytań niszowych – porównywalnie do dużych portali. W szerokich tematach duże strony zawsze wygrywają.
Czy powinienem dodać specjalne metadane dla LLM-ów?
W 2026 roku standardy są w development. Schema.org Article / BlogPosting działa dobrze. Nowe: llms.txt (podobnie do robots.txt, ale dla LLM-ów, wskazuje, co jest głównym contentem), OpenGraph i Twitter Cards (opisują „co strona ma do oferowania”), AI Content Declaration (dobrowolny tag wskazujący, czy treść jest AI-generated). Dla praktycznej widoczności najbardziej pomaga: jasny schema.org Article + dobrze skonstruowany robots.txt + semantic HTML. Nowinki typu llms.txt są niestandardowe i efekty niepewne.
Jak konkurować z Wikipedią i innymi wielkimi źródłami?
Wikipedia jest cytowana w 60-80% zapytań informacyjnych – konkurencja z nią bezpośrednio jest trudna. Strategia: targetuj nisze, które Wikipedia pokrywa słabo lub wcale. „Czym jest SEO” – Wikipedia wygra. „Jak zmierzyć ROI treści SEO w B2B SaaS” – Wikipedia nie ma, twoja szansa jest realna. Im bardziej specyficzne i branżowe pytanie, tym słabsza Wikipedia. Druga strategia: bądź cytowany RAZEM z Wikipedią (jako „specialist source” dla dodatkowego szczegółu). To cenniejsze niż próba „zastąpienia” Wikipedii.
Różnice w chunking między modelami – OpenAI vs Anthropic vs Google
Choć ogólna mechanika jest zbliżona, różnice w implementacji chunking między dostawcami wpływają na to, jakie treści są preferowane. OpenAI używa relatywnie agresywnego chunking z target ~400 tokenów i chunk overlap 50-100 tokenów. Anthropic stosuje dłuższe chunki (500-800 tokenów) z mniejszym overlap. Google (dla Gemini) ma adaptive chunking zależne od typu dokumentu – dla artykułów blogowych zbliżone do OpenAI, dla technicznej dokumentacji dłuższe.
Praktyczna implikacja: content dobrze sformatowany dla OpenAI (krótkie akapity 60-100 słów) może być równie dobrze cytowany w Gemini, ale w Claude tracisz marginalnie (za krótkie chunki). Optymalnie: akapity 80-150 słów – sweet spot dla wszystkich trzech. Akapity wyjątkowo krótkie (1-2 zdania, 20-40 słów) mają mniejsze szanse, bo chunk jest zbyt mały, by zawierać pełny sens.
Testowaliśmy to na identycznym contencie przepisanym w trzech wariantach: akapity 40 słów, 100 słów, 200 słów. Cytowania w ChatGPT: 14%, 28%, 19%. W Claude: 12%, 24%, 21%. W Perplexity: 18%, 31%, 17%. Wniosek spójny: około 100 słów daje najlepsze rezultaty we wszystkich platformach.
Jak LLM-y decydują o hierarchii źródeł w odpowiedzi
Gdy LLM otrzymuje zapytanie, nie wybiera losowo 5 źródeł z długiej listy pasujących – stosuje hierarchię preferencji zbudowaną na kilku sygnałach. Zrozumienie tej hierarchii pozwala optymalizować stronę pod konkretne czynniki, które przesuwają ją w górę.
Pierwszy czynnik to authority score, który LLM-y budują z podobnych źródeł, co Google (referring domains, traffic estimates, domain age), ale z mniejszym naciskiem na klasyczne backlinks. LLM ceni strony, które są cytowane przez inne autorytety – cytowania w Wikipedii, linki z .edu i .gov, wzmianki w mediach tradycyjnych. Drugi: semantic relevance, czyli jak dobrze chunk pasuje do zapytania. Trzeci: uniqueness, czyli na ile content jest unikalny wobec reszty indeksu.
Strona, która w Google rankuje w TOP 10, ale ma wyłącznie przepisany content z innych źródeł, w LLM-ach rankuje słabo – LLM wybiera oryginał, nie kopię. To przewaga unique data, unique opinions, unique experiences. Jeśli twój content jest przetworzoną wersją 5 innych artykułów (tzw. „content that ranks but doesn’t cite”), LLM go pomija.
Praktyczny audyt strony pod kątem cytowania przez LLM
Checklist, którą stosujemy w audytach klienckich:
- Długość akapitów: pomiar średniej długości. Cel: 50-150 słów. Powyżej 200 – problem.
- Obecność FAQ: minimum 6-8 pytań w details/summary. Brak = krytyczne.
- Tabele porównawcze: minimum 1 per pillar, 0,5 per supporting.
- Numerowane listy: minimum 1 per artykuł dla treści sekwencyjnych.
- Konkretne liczby: ratio liczb do tekstu (target: 1 liczba na 150-300 słów).
- Konkretne nazwy: produktów, firm, narzędzi – cel 5-15 per artykuł.
- Daty: minimum 2-3 odniesienia do roku/kwartalu w artykule.
- Internal linking density: 4-8 linków inline per 3000 słów.
- Semantic HTML: używanie article, main, section zamiast divów.
- Schema.org Article: poprawnie skonfigurowane metadane.
- robots.txt: dopuszczenie GPTBot, ClaudeBot, PerplexityBot.
- Load speed: LCP poniżej 2,5s, bo wolne strony rzadziej crawlowane.
Audyt 10 kluczowych stron zajmuje 4-8 godzin. Implementacja poprawek: 20-60 godzin per 10 stron. ROI w wzroście cytowań: typowo 2-5x w 90 dni od zmian.
Nowe formaty treści, które LLM-y cytują najczęściej
W 2026 roku kilka specyficznych formatów treści dominuje w cytowaniach LLM:
Checklists i listy kryteriów: „12 kryteriów oceny narzędzia X” albo „checklista audytu X”. Łatwe do ekstracji, często cytowane jako „według source:…” lista 5-8 punktów w odpowiedzi.
How-to step-by-step: numerowane sekwencje kroków. LLM-y cytują często 3-5 pierwszych kroków z krótkimi wyjaśnieniami.
Porównania „X vs Y”: tabela porównawcza 3-8 atrybutów. Cytowane w 80%+ zapytań typu „X czy Y – co wybrać”.
Definicje z kontekstem: „X to … [definicja]. W praktyce oznacza to … [kontekst]. Kluczowy element to … [detal].” Format Wikipedia-like, bardzo chętnie cytowany.
Real numbers and benchmarks: „Typowy wskaźnik X w branży Y to ZZ%” – szczególnie dla zapytań „ile kosztuje”, „jak długo trwa”, „jakie są benchmarks”.
Co dalej
Zacznij od audytu obecnych artykułów – sprawdź długość akapitów (cel 2-4 zdania), obecność FAQ, tabel, konkretnych liczb. Przepisz TOP 10 artykułów w kierunku „chunk-ready” i po 4-8 tygodniach zmierz zmianę cytowań. Dla głębszego zrozumienia przeczytaj o fundamentach AIO i różnicach AIO vs SEO 2026, a dla praktycznej optymalizacji pod konkretne platformy – w optymalizacji pod ChatGPT, Claude i Perplexity.