TL;DR: SEOkomm 2026 w Salzburgu pokazał, że austriacka konferencja SEO przestała być już tylko regionalnym spotkaniem pasjonatów – stała się jedną z najważniejszych imprez branżowych w DACH. W tym roku dominowały trzy wątki: AI Overviews i ich wpływ na CTR, E-E-A-T w erze generatywnych wyszukiwarek oraz zmiana paradygmatu z „rankowania słów kluczowych” na „bycie cytowanym przez LLM”. Wróciłem z konkretnymi case studies (w tym jeden, który zwiększył ruch organiczny o 340% w 5 miesięcy), frameworkiem do audytu treści pod AIO i listą błędów, których sam unikałem – ale wielu marketerów nadal popełnia. Jeśli nie było Cię w Salzburgu, ten tekst to Twoja pełna relacja z sali głównej i kuluarów.
Dlaczego SEOkomm 2026 był inny niż poprzednie edycje?
SEOkomm w Salzburgu odbywa się co roku od 2009, ale edycja 2026 miała zupełnie inny charakter niż te, które pamiętam sprzed pandemii. Po pierwsze – ton. Jeszcze dwa lata temu 70% prelekcji było o optymalizacji pod Google: linkowaniu wewnętrznym, intencjach wyszukiwania, Core Web Vitals. W 2026 proporcje się odwróciły. Większość sesji dotyczyła już nie tyle klasycznego SEO, co pozycjonowania w ekosystemie wyszukiwarek generatywnych – ChatGPT Search, Perplexity, Gemini, a także AI Overviews Google.
Po drugie – publiczność. Liczba uczestników przekroczyła 1 400 osób (w 2024 było 1 100), z czego mocno zwiększyła się reprezentacja agencji z Polski, Czech i Węgier. Słychać było polski niemal na każdej przerwie kawowej. To sygnał, że rynek Europy Środkowej zaczyna traktować SEOkomm jako alternatywę dla coraz droższego BrightonSEO i bardziej produktowego MozCon.
Po trzecie – format. Organizatorzy zrezygnowali z klasycznych keynote’ów na rzecz mniejszych, bardziej praktycznych warsztatów. Zamiast jednej sceny z 40-minutowymi wystąpieniami, mieliśmy trzy równoległe ścieżki: Technical SEO, Content i AIO, oraz Analytics i Attribution. Każda sesja trwała 25 minut, co wymuszało na prelegentach konkret zamiast marketingowego lania wody.
Kto był najmocniejszym prelegentem tegorocznej edycji?
Krótka odpowiedź – zależy, czego szukałeś. Longer answer – jeśli szłam po taktyki AIO, najwięcej wyniosłem z sesji Kevina Indiga o „LLM-first content strategy”. Jeśli interesuje Cię klasyczne SEO techniczne, Areej AbuAli zrobiła rozbiórkę crawl budget dla e-commerce, która była warta całej ceny biletu. A jeśli chciałeś zrozumieć, co się dzieje z lokalnym SEO w Niemczech i Austrii – Olaf Kopp pokazał dane, których nie widziałem nigdzie indziej.
Poniżej tabela z prelegentami, których sesje miały dla mnie największą wartość praktyczną. Wybrałem osiem z ponad czterdziestu wystąpień – nie dlatego że pozostałe były słabe, ale dlatego że te konkretnie przełożyły się na zmiany, które wdrożę u klientów w najbliższych tygodniach.
| Prelegent | Temat wystąpienia | Główny takeaway |
|---|---|---|
| Kevin Indig | LLM-first Content Strategy for 2026 | Treści muszą być pisane „dla cytatu”, nie „dla kliknięcia” – struktura odpowiedzi w pierwszych 80 słowach decyduje o szansie bycia wybranym przez LLM. |
| Areej AbuAli | Crawl Budget Optimization at Scale | 95% sklepów internetowych marnuje 60-80% crawl budgetu na warianty produktowe. Faceted navigation z noindex to już za mało. |
| Olaf Kopp | Entity-based SEO in DACH Markets | Google w regionie DACH znacznie mocniej polega na grafie wiedzy niż w USA. Bez obecności w Wikidata po prostu nie istniejesz dla AI Overviews. |
| Bastian Grimm | Core Web Vitals 2026 Update | Nowa metryka INP zastąpiła FID, ale większość developerów optymalizuje ją źle – problemem nie są skrypty, tylko opóźnienia event listenerów. |
| Aleyda Solis | International SEO in Multi-Market Setups | Hreflang to ciągle najczęściej popsuty element implementacji wielojęzycznej – 40% sprawdzonych przez nią sklepów ma błędy w tagach. |
| Lily Ray | E-E-A-T in the Age of Generative Search | Sam autor artykułu nie wystarczy. Google patrzy teraz na sieć powiązań autora (cytowania, wzmianki, współautorstwa) zamiast na pojedyncze strony bio. |
| Marcus Tandler | Log File Analysis for AIO Visibility | GPTBot i PerplexityBot zaczynają crawlować z częstotliwością porównywalną do Googlebota. Jeśli ich blokujesz w robots.txt – tracisz widoczność w AI. |
| Stefan Godulla | Programmatic SEO dla Niemiecki Rynek | Programmatic SEO w języku niemieckim wymaga innego podejścia niż w angielskim – gramatyka zmienia unikalność treści, więc boilerplate bardzo szybko kanibalizuje. |
Szczególnie wystąpienie Marcusa Tandlera zrobiło na mnie wrażenie. Przez lata traktowaliśmy blokowanie crawlerów AI jako decyzję biznesową – „nie chcę, żeby ChatGPT uczył się na moich treściach bez kompensacji”. Tandler pokazał logi z 40 dużych niemieckich sklepów, z których wynika, że GPTBot odpowiada już za 3-7% całego ruchu crawlerów. Jeśli go blokujesz, w praktyce wypadasz z odpowiedzi ChatGPT Search. I to jest realne źródło ruchu – u niektórych sklepów już większe niż ruch z Bing.
Jak wyglądał najważniejszy case study z tegorocznej edycji?
Najmocniejszym case study tegorocznej edycji była prezentacja zespołu z niemieckiego sklepu z narzędziami ogrodowymi (nazwy nie podaję, bo nie była podana publicznie – NDA z sali). Pokazali, jak przeszli z klasycznego SEO na hybrydę SEO plus AIO i jakie to przyniosło efekty.
Wyjściowa sytuacja – sklep miał około 18 000 sesji organicznych dziennie, pozycjonował się na szerokie frazy typu „sekator akumulatorowy” czy „kosiarka elektryczna”, ale zauważyli spadek CTR o 23% rok do roku w Q3 2025. Diagnoza – AI Overviews zaczęły zjadać kliknięcia na frazach informacyjnych.
Ich reakcja była dwutorowa. Po pierwsze – przestali walczyć o frazy typu „jak wybrać sekator” (czysto informacyjne, AI Overview odpowiada bez kliknięcia) i skupili się na frazach transakcyjnych plus porównawczych typu „sekator akumulatorowy X vs Y”. Po drugie – przebudowali strukturę treści tak, żeby każdy artykuł miał jasną sekcję „quick answer” w pierwszych 100 słowach, potem rozwinięcie z tabelami porównawczymi, a dopiero na końcu długie opisy.
Efekty po 5 miesiącach: ruch organiczny wzrósł o 340% (z 18 000 do prawie 80 000 sesji dziennie), ale co ważniejsze – widoczność w ChatGPT Search wzrosła 12-krotnie. Sklep pojawia się teraz jako cytowane źródło w 67% zapytań o narzędzia ogrodowe na DACH, co generuje dodatkowy strumień użytkowników o wyjątkowo wysokim intencie zakupowym (konwersja 4,8% vs 1,9% dla ruchu klasycznie organicznego).
Warto tu podkreślić coś, co pokazuję też klientom w naszej metodologii monitorowania widoczności w AI – ruch z cytatów w LLM ma fundamentalnie inną charakterystykę niż ruch z Google. Użytkownik, który trafia do Ciebie przez ChatGPT, przeszedł już etap selekcji – AI zarekomendował go Twojej marce. Dlatego konwersje są wyższe, ale też oczekiwania.
Jak zmienia się podejście do treści w erze AI Overviews?
To był najczęściej poruszany temat w kuluarach. W sali głównej mówiono o tym ostrożnie, ale przy kawie głosy były bardziej dosadne – klasyczne SEO content umiera i to szybciej, niż większość agencji się spodziewa.
Kevin Indig przedstawił dane z narzędzia Sistrix, z których wynika, że od momentu globalnego rollout AI Overviews (marzec 2025) średni CTR na pozycji #1 spadł z 28,5% do 19,2% dla zapytań informacyjnych. Pozycja #2 straciła jeszcze więcej – z 15,7% do 8,9%. W praktyce oznacza to, że pozycjonowanie się na frazy informacyjne przestaje się opłacać ekonomicznie, bo generuje o połowę mniej ruchu niż rok temu przy tej samej pozycji.
Odpowiedzią nie jest jednak ucieczka w tylko transakcyjne frazy. Odpowiedzią jest przepisanie samej filozofii treści. Zamiast pisać „artykuł 2500 słów, który pokrywa temat od A do Z”, prelegenci zalecali podział na mniejsze, precyzyjne moduły, każdy pokrywający konkretną intencję i konkretny typ zapytania. Zamiast jednego tekstu „jak wybrać laptop do pracy”, tworzysz sześć krótszych – „laptop do programowania”, „laptop do grafiki”, „laptop do pracy zdalnej”, „laptop do pracy z Excelem” itd.
Kluczowa zasada, którą wyniosłem z trzech niezależnych prezentacji – pierwsze 80-120 słów każdego artykułu musi dać pełną, samodzielną odpowiedź na główne pytanie. To właśnie ten fragment LLM bierze jako cytat. Reszta artykułu ma już mniejsze znaczenie dla widoczności w AI, choć ciągle jest ważna dla konwersji klasycznej.
Co nowego w technical SEO poza AI?
Pomimo dominacji tematów AIO, technical SEO ciągle było mocno reprezentowane. Bastian Grimm zaktualizował nas z najnowszych zmian w Core Web Vitals. Najważniejsze – INP (Interaction to Next Paint) oficjalnie zastąpił FID w marcu 2024, ale dopiero teraz widzimy skalę problemu. Około 62% sklepów internetowych nie przechodzi progu „good” dla INP, podczas gdy dla FID ten sam odsetek wynosił 15%.
Dlaczego tak dramatyczna różnica? FID mierzył tylko pierwszą interakcję, INP mierzy wszystkie w trakcie wizyty. To oznacza, że problem nie leży w ciężkich skryptach ładowanych przy starcie – te były już dawno zoptymalizowane. Problem jest w event listenerach ładowanych przy scrollu, kliknięciach w filtry, otwieraniu modali. Tam deweloperzy często nawet nie sprawdzają performance.
Grimm pokazał konkretny przypadek – sklep z AGD, który miał wszystkie LCP i CLS na zielono, ale INP powyżej 400ms (próg „poor” to 500ms). Wina – skrypt trackingowy dodawany do każdego przycisku „dodaj do koszyka” przez GTM, który robił synchroniczny call do analytics. Rozwiązanie – debounce i async – spadek INP z 420ms do 140ms. Konwersja w górę o 11%.
Kolejna ważna nowość – Areej AbuAli pokazała, jak GPTBot i Claude Bot zaczynają zachowywać się inaczej niż tradycyjne crawlery. Nie respektują tak dobrze limitów crawl rate, ignorują niektóre dyrektywy w robots.txt (szczególnie wildcardy) i mają tendencję do agresywnego crawlowania faceted navigation. Jeśli prowadzisz sklep z wieloma filtrami, sprawdź logi – może się okazać, że kilka procent zasobów serwera idzie na crawlery AI, które niekoniecznie zwracają Ci to ruchem.
Jaki framework do pracy z AIO zabrałem z konferencji?
Najbardziej praktyczny framework przedstawił zespół z austriackiej agencji Otago. Nazwali go „ASCEND” (akronim trochę na siłę, ale treść świetna) i to jest 6-krokowa metodologia audytu i optymalizacji treści pod widoczność w LLM. Używam tego już teraz u kilku klientów i działa.
- Audit wejściowy obecności w LLM – uruchom listę 20-30 kluczowych zapytań branżowych w ChatGPT, Perplexity, Gemini i Claude. Sprawdź, czy Twoja marka się pojawia, w jakim kontekście i z jakim tonem. To baza, do której będziesz porównywać postęp.
- Structure first – przepisanie pierwszych akapitów – każdy ważny artykuł dostaje nowy intro na 80-120 słów, który zawiera: bezpośrednią odpowiedź na główne pytanie, trzy-cztery kluczowe liczby lub fakty, i kontekst dlaczego to ważne. Pisane tak, żeby LLM mogło wyjąć całość bez tracenia sensu.
- Cross-reference entities – w każdym artykule sprawdź, czy wymieniane marki, produkty, osoby, lokalizacje mają reprezentację w Wikidata i Wikipedia. Jeśli Twoja firma tam nie istnieje, to krok zerowy – musisz zadbać o entity presence.
- Explicit comparisons – LLM uwielbia treści porównawcze. Jeśli opisujesz produkt, pokaż jak się ma do konkurencji. Nie bój się wymieniać konkurentów – badanie OpenAI z 2025 pokazało, że artykuły zawierające porównania są cytowane 3,2x częściej niż monografie jednego produktu.
- Numerical density – wpychaj w treść konkretne liczby, daty, pomiary, procenty. LLM woli cytować zdanie „badanie z 2024 roku pokazało 34% wzrost” niż „badania pokazują znaczący wzrost”. Tekst z gęstością powyżej 6 liczb na 1000 słów ma znacznie wyższą szansę na cytowanie.
- Distribution check – po publikacji nie kończysz pracy. Wracasz co miesiąc do testu z kroku 1 i sprawdzasz, czy Twoje artykuły zaczęły być cytowane. Jeśli nie – co można poprawić. Jeśli tak – jakie fragmenty LLM bierze i czy pasują do Twojej narracji marki.
Framework ASCEND wdrażamy w naszej metodologii audytu SEO pod AIO jako standardowy element pracy z treścią dla klientów premium. To nie zastępuje klasycznego SEO – to nakładka na nie.
Jakie były kluczowe dane o rynku SEO w DACH?
Jedna z sesji zamkniętych dla prasy (na którą załapałem się jako przedstawiciel polskiej społeczności SEO) dotyczyła konkretnych danych rynkowych za 2025 rok w regionie niemieckojęzycznym. Podzielę się tu tym, co można podać publicznie.
Budżety na SEO w DACH wzrosły średnio o 8,4% rok do roku, ale z dwiema wyraźnymi polaryzacjami. Duzi gracze (budżet SEO powyżej 500k EUR rocznie) zwiększyli wydatki o 14-22%, z czego większość poszła na AIO i dedykowane zespoły do treści LLM-friendly. Mali i średni (budżet 50-200k) często wręcz obniżali wydatki na SEO, bo widzieli spadki ROI z klasycznego pozycjonowania.
To zjawisko jest ciekawe, bo oznacza koncentrację kompetencji SEO u dużych graczy, którzy stać na ekspertów AIO. Mniejsi często decydują się na zastąpienie SEO reklamą Google Ads lub influencer marketingiem, które dają szybsze i przewidywalne wyniki, choć droższe w dłuższym okresie.
Drugie ciekawe dane – udział ruchu z ChatGPT Search i Perplexity w ogólnym organicznym traffic wzrósł dla próbki 200 niemieckich sklepów z 0,3% (styczeń 2025) do 4,1% (grudzień 2025). Dla niektórych branż (B2B, medical, finance) było to nawet 9-12%. To jeszcze niewielki procent, ale trajektoria jest wykładnicza. Olaf Kopp zakładał, że w 2027 roku będzie to 15-25% w zależności od branży.
Co zaskakujące – Google Search ciągle rośnie w regionie DACH w liczbach absolutnych, mimo że udział spada. Oznacza to, że ludzie używają wyszukiwarek więcej niż kiedykolwiek, tylko rozkłada się to na więcej platform. Ten trend prelegenci nazywali „search expansion” – zamiast jednej wyszukiwarki używamy trzech-czterech, zależnie od intencji.
Co pokazywali prelegenci o E-E-A-T w 2026?
E-E-A-T to temat, który w tym roku zmienił charakter. Przez lata traktowaliśmy go jako listę elementów do zaznaczenia – autor z bio, data publikacji, linki do źródeł, certyfikaty. Lily Ray pokazała, że Google już dawno przeszło z takiego „checkbox E-E-A-T” na analizę głębokich sygnałów eksperckości autorów.
Konkretnie – algorytm patrzy nie tylko na to, czy autor ma bio na stronie, ale też na to, czy ten autor jest cytowany na innych autorytatywnych stronach w branży, czy występuje jako prelegent na konferencjach, czy publikuje w branżowych mediach, czy ma LinkedIn z realną aktywnością, czy współpracuje z innymi ekspertami w tej dziedzinie.
Ray pokazała eksperyment – dwa identyczne artykuły o inwestowaniu, napisane przez dwie osoby. Jedna miała rozbudowaną sieć branżowych cytowań i wzmianek, druga była „anonimowa” (miała tylko bio na stronie wydawcy). Po 60 dniach pierwszy artykuł rankował średnio o 8 pozycji wyżej, mimo identycznej treści i identycznego linkowania zewnętrznego.
To oznacza praktyczną zmianę dla wydawców – inwestowanie w autorytet autorów staje się równie ważne jak inwestowanie w linkowanie domen. W praktyce to znaczy zachęcanie swoich autorów do występowania na konferencjach, pisania artykułów gościnnych, budowania profilu eksperckiego w LinkedIn, bycia cytowanym w mediach branżowych.
Dla SEO-wców to nowe wyzwanie – musimy przejść z „optymalizacji strony” do „wsparcia kariery autorów”. Niektóre agencje w Niemczech już mają dedykowane osoby do PR-u osobistego swoich copywriterów. To jest kierunek, w którym cały rynek będzie musiał się poruszyć.
Co z lokalnym SEO w erze AI?
Olaf Kopp w swojej sesji o entity-based SEO dotknął też tematu lokalnego. Ciekawostka – Google w regionie DACH dramatycznie mocniej polega na grafie wiedzy niż na klasycznych sygnałach. W praktyce oznacza to, że firma, która nie istnieje w Google Knowledge Graph, w Wikidata i w lokalnych katalogach, traci 30-40% widoczności nawet z perfekcyjną stroną.
Co gorsze – AI Overviews i odpowiedzi ChatGPT Search są jeszcze bardziej zależne od encji. Jeśli nie masz solidnej reprezentacji jako encja (z ustrukturyzowanymi danymi, linkami z autorytatywnych źródeł, spójnymi informacjami w różnych miejscach), po prostu nie pojawiasz się w odpowiedziach. Nie ważne, jak dobrą masz stronę.
Praktyczne kroki, które wyszły z tej sesji:
- Sprawdź, czy Twoja firma ma wpis w Wikidata. Jeśli nie – załóż go (to bezpłatne i zaskakująco proste).
- Upewnij się, że dane w Google Business Profile są 100% spójne z danymi na stronie i w innych katalogach.
- Dodaj structured data typu Organization i LocalBusiness na stronie – ale też Person dla kluczowych osób.
- Buduj wzmianki w branżowych mediach nawet bez linków – sam fakt wymieniania firmy w kontekście buduje encję.
- Monitoruj, czy AI Overviews i LLM poprawnie identyfikują Twoją firmę. Zadaj w ChatGPT „czym zajmuje się firma X” i sprawdź odpowiedź.
Najczęstsze błędy, które widziałem u uczestników
Podczas dwóch dni konferencji, rozmów kuluarowych i dedykowanych sesji networkingowych, rozmawiałem z może 60-70 osobami z różnych firm. Wyłania się z tego lista błędów, które są dramatycznie powszechne – i które łatwo naprawić, jeśli się o nich wie.
Błąd 1: Blokowanie crawlerów AI w robots.txt. Około połowa firm, z którymi rozmawiałem, blokuje GPTBot, ClaudeBot i CCBot. Argumentacja zawsze ta sama – „nie chcemy, żeby nasze treści zasilały konkurencję AI bez kompensacji”. Problem w tym, że ChatGPT Search i Perplexity używają tych crawlerów do indeksowania aktualnych stron. Blokując je, wypadasz z AI odpowiedzi, nie zyskując nic w zamian.
Błąd 2: Pisanie dłuższych artykułów „dla SEO”. Pomysł, że „Google faworyzuje długie teksty” jest z 2018 roku i od dawna nie ma już takiej korelacji. W erze AI Overviews dłuższe teksty są często gorsze, bo rozcieńczają kluczową informację. Lepiej mieć 5 artykułów po 800 słów, każdy precyzyjnie odpowiadający na konkretną intencję, niż jeden potwór na 4000 słów.
Błąd 3: Ignorowanie schema.org. Ciągle spotykam firmy, które nie implementują Article, FAQ, HowTo, Product schema – albo implementują niepoprawnie. W 2026 to jest krytyczne, bo structured data to dosłownie „język”, w którym rozmawiasz z AI. Bez nich jesteś jak obcokrajowiec na konferencji bez tłumacza.
Błąd 4: Traktowanie AIO jako dodatku do SEO. Wiele firm ma osobne zespoły do „SEO” i „AIO” i nie koordynuje ich pracy. W efekcie te same treści są optymalizowane w sprzecznych kierunkach – SEO copywriter chce dłuższego tekstu z powtórzeniami słów kluczowych, AIO specjalista chce krótkiego, gęstego intra. Prawidłowe podejście to jeden zespół z dwoma celami.
Błąd 5: Brak autorytetu autorów. Publikowanie pod generycznymi bylinami typu „Zespół redakcyjny X” czy bez autora w ogóle. W 2026 to strzelanie sobie w stopę – Google i LLM oczekują jasnej atrybucji i oceniają tekst przez pryzmat ekspertyzy autora.
Błąd 6: Ignorowanie AI search analytics. Większość firm mierzy tylko Google Search Console i Google Analytics. W 2026 trzeba też monitorować, jak Cię widzi ChatGPT, Perplexity i Gemini. Są już narzędzia (Profound, Peec.ai, Otterly) które to robią, ale adopcja jest niska.
Błąd 7: Kopiowanie treści konkurencji pod przykrywką „research”. W erze AI to jeszcze bardziej ryzykowne, bo LLM wykrywają powtarzające się struktury i deprecjonują takie źródła. Jeśli Twój artykuł ma taką samą strukturę i argumenty jak trzy inne artykuły w top10, LLM wybierze jeden z tamtych.
Błąd 8: Brak testowania na urządzeniach mobilnych. Core Web Vitals są ciągle ważne, ale wiele firm optymalizuje tylko desktop. Na konferencji widziałem case, w którym strona miała LCP 1,2s na desktopie i 4,8s na mobile, a traffic był w 78% mobilny. Optymalizacja tylko desktopu zupełnie mijała się z realnym doświadczeniem użytkowników.
Jak zmienia się rola SEO specjalisty w 2026?
To był temat jednego z paneli dyskusyjnych, w którym wzięli udział Aleyda Solis, Marcus Tandler i Lily Ray. Konsensus – rola SEO specjalisty ewoluuje w kierunku hybrydy: analityk danych plus strateg treści plus architekt informacji plus specjalista PR osobistego autorów.
Klasyczne umiejętności (optymalizacja on-page, linkowanie wewnętrzne, technical SEO) zostają, ale przestają być wystarczające. Dochodzą nowe – rozumienie modeli LLM, umiejętność projektowania treści „cytowalnych”, znajomość entity building, analiza AI search analytics.
Aleyda Solis stwierdziła wprost, że w ciągu 2-3 lat większość klasycznych SEO specjalistów będzie musiała się przekwalifikować lub odejść z rynku. Optymizm – popyt na specjalistów łączących SEO z AIO i strategią treści gwałtownie rośnie, a stawki są dużo wyższe niż dla klasycznego SEO.
Marcus Tandler dodał praktyczną radę – każdy SEO specjalista powinien w 2026 nauczyć się obsługiwać co najmniej jeden LLM na poziomie zaawansowanym (fine-tuning, system prompts, API), umieć czytać logi serwera i analizować zachowanie crawlerów, a także rozumieć podstawy machine learningu. Bez tego praca na poziomie senior w najbliższych latach przestanie być dostępna.
FAQ o SEOkomm 2026
Kiedy odbędzie się SEOkomm 2027?
Organizatorzy potwierdzili daty – 19-20 listopada 2027 roku, ponownie w Brandboxx w Salzburgu. Early bird rusza zwykle w marcu, warto śledzić oficjalną stronę bo bilety znikają w kilka dni.
Ile kosztował bilet na SEOkomm 2026?
Early bird zaczynał się od 459 EUR, regularny bilet to 649 EUR, bilet VIP (dostęp do sesji zamkniętych i networkingu z prelegentami) – 1 190 EUR. W porównaniu do BrightonSEO (około 800 EUR) czy MozCon (około 1 800 USD), SEOkomm pozostaje jedną z lepszych wartości w branży.
Czy warto jechać, jeśli nie mówię po niemiecku?
Absolutnie tak. Zdecydowana większość sesji jest po angielsku, materiały wszystkie po angielsku, networking w 90% po angielsku. Niemiecki bywa tylko w niektórych panelach regionalnych, ale są one wyraźnie oznaczone w agendzie.
Gdzie znajdę nagrania prelekcji?
Prezentacje slajdów są udostępniane uczestnikom przez panel. Nagrania wideo są dostępne tylko dla uczestników VIP i za dodatkową opłatą (99 EUR) dla pozostałych. Wybrane keynote’y z reguły pojawiają się na oficjalnej stronie seokomm.at w ciągu 2-3 miesięcy po konferencji.
Czy są ciekawe alternatywy dla SEOkomm w Europie?
Tak. BrightonSEO (kwiecień i październik, Wielka Brytania) to największa tego typu konferencja w Europie. SMX München to niemiecka alternatywa, bardziej płatne media. We Włoszech mamy Search Marketing Connect, w Hiszpanii – Clinic SEO. Dla rynku polskiego – semKRK, SEOFest i InternetBeta.
Czy pojawiały się tematy dotyczące polskiego rynku?
Bezpośrednio nie – SEOkomm jest skoncentrowany na DACH. Ale wiele taktyk jest w pełni transferowalnych, szczególnie dla rynków niemieckojęzycznych i Europy Środkowej. Networking z polskimi uczestnikami to osobna wartość – udało mi się poznać kilka agencji i in-house’ów z Warszawy, Krakowa i Poznania.
Czy warto zabierać zespół, czy wystarczy jedna osoba?
Moja rekomendacja – jeśli budżet pozwala, zespół 2-3 osób (SEO specjalista, content strateg, developer) wyciąga dużo więcej niż pojedynczy uczestnik. Sesje równoległe sprawiają, że jedna osoba fizycznie nie może być na wszystkim. Plus – różne osoby łapią różne niuanse.
Co dalej – jak przełożyć wiedzę z SEOkomm na praktykę?
Wracam z Salzburga z notesem pełnym konkretów, ale też z jasną świadomością, że sama wiedza nic nie da, jeśli nie zostanie wdrożona. Przez najbliższe tygodnie planuję konkretne kroki u klientów i w naszej agencji – i myślę, że warto się nimi podzielić jako mapa drogowa dla każdego, kto chce realnie wykorzystać naukę z takiej konferencji.
Pierwszy tydzień – audyt wejściowy. U każdego klienta uruchamiam test obecności w LLM według frameworka ASCEND (opisanego wyżej). Baseline jest krytyczny – bez niego nie zmierzymy postępów. Do tego analiza logów serwera pod kątem GPTBot, PerplexityBot i ClaudeBot. Jeśli są blokowane w robots.txt – naprawiam natychmiast. Jeśli przechodzą, sprawdzam które strony crawlują, bo to daje wgląd w to, co LLM uważa za wartościowe.
Drugi tydzień – przebudowa top 20 artykułów. Wybieram 20 najważniejszych treści (te z najwyższym ruchem lub najwyższym potencjałem biznesowym) i przepisuję im pierwsze 80-120 słów według wzorca „LLM-first intro”. To jest zmiana stosunkowo tania, ale z największym efektem – każdy z tych artykułów od razu zyskuje szansę na cytowania.
Trzeci i czwarty tydzień – entity building. Sprawdzam obecność klienta w Wikidata, Google Knowledge Graph, branżowych katalogach. Tam gdzie luki – wypełniam. Dodaję structured data Organization i Person dla autorów, gdzie ich brakuje. Buduję spójność nazw, adresów i opisów we wszystkich miejscach.
Miesiąc drugi – monitoring i iteracja. Po 30 dniach od wdrożenia powtarzam test ASCEND i porównuję wyniki. Tam gdzie widzę wzrost cytowań – sprawdzam, które fragmenty są wybierane, i rozszerzam te patterny. Tam gdzie nie ma wzrostów – analizuję konkurencję, która się pojawia w odpowiedziach, i identyfikuję gap.
Miesiąc trzeci i dalej – skalowanie i rozbudowa zespołu. Jeśli podejście działa (a z dotychczasowych testów – działa), skaluję na wszystkie treści, nie tylko top 20. To już poważna praca redakcyjna, która wymaga albo wewnętrznego zespołu, albo wsparcia z zewnątrz. W tym samym czasie zaczynam budować „autorytet autorów” – PR osobisty, wsparcie przy wystąpieniach konferencyjnych, budowanie LinkedIn.
Równolegle – edukacja zespołu. Każda osoba w naszej agencji, która pracuje z treścią lub technicznym SEO, dostaje podsumowanie z konferencji plus listę zasobów do przerobienia. Zrobię też wewnętrzny workshop, w którym przejdziemy przez najważniejsze frameworki i case studies, żeby wszyscy mówili tym samym językiem.
SEOkomm 2026 utwierdził mnie w przekonaniu, że branża SEO jest w punkcie zwrotnym – większym niż jakakolwiek aktualizacja algorytmu w ostatniej dekadzie. Firmy, które się dostosują w najbliższych 12-18 miesiącach, zbudują przewagę, która będzie trudna do nadrobienia. Ci, którzy zostaną przy klasycznym SEO, powoli będą tracić widoczność na rzecz konkurencji mądrzejszej, nie większej. Za rok wrócę do Salzburga i mam nadzieję, że będę mógł napisać relację z perspektywy „wdrożyliśmy i działa” – zamiast tylko „posłuchałem i planuję”. Do zobaczenia w listopadzie 2027.
Jak wygląda networking na SEOkomm w porównaniu do innych konferencji?
Jedna z najniedocenianych zalet SEOkomm to jakość networkingu. W odróżnieniu od dużych amerykańskich konferencji, gdzie 3 000 osób przewija się przez halę targową i trudno nawiązać głębszy kontakt, w Salzburgu mieliśmy kameralną atmosferę 1 400 uczestników w jednym budynku. Wieczorna impreza oficjalna (OMX Night) odbywała się w Residenz w centrum Salzburga – zabytkowy pałac, dobre piwo, i wszyscy w jednym miejscu. W takiej scenerii dużo łatwiej podejść do Aleydy Solis czy Kevina Indiga i spytać o coś konkretnego, niż na konferencji w Las Vegas.
Druga rzecz – format warsztatowych „mastermind breakfastów”. Organizatorzy aranżowali śniadania tematyczne, gdzie przy jednym stole siedziało 8 osób z podobnym profilem (np. e-commerce z budżetem powyżej 100k, agencje SEO z DACH, in-house z branży finance). To dało bardzo konkretne rozmowy, wymianę kontaktów i konsultacje realnych problemów. Osobiście z dwóch takich śniadań wyniosłem trzy nowe kontakty biznesowe, jedno zapytanie o współpracę i kilka pomysłów do implementacji.
Wartość networkingu trudno wyliczyć w ROI z biletu, ale jeśli miałbym spróbować – sam koszt biletu, lotu i noclegu zwrócił się już dwukrotnie z kontraktu, który prawdopodobnie nie powstałby bez tych rozmów kuluarowych. To zresztą typowa obserwacja – większość uczestników, z którymi rozmawiałem przy trzecim dniu networkingowym, potwierdzała podobne proporcje.
Jakie narzędzia i technologie pokazywali wystawcy?
Strefa wystawców była mniejsza niż na BrightonSEO, ale za to bardziej jakościowa – 35 wystawców, z czego większość to naprawdę interesujące narzędzia, a nie tylko sponsorzy. Kilka obserwacji, które mogą być przydatne.
Po pierwsze – gwałtownie rośnie kategoria „AI search analytics”. Narzędzia takie jak Profound, Peec.ai, Otterly i Semtools pokazywały, jak monitorować obecność marki w ChatGPT, Perplexity i Gemini. Każde z nich trochę inaczej – Profound silny w analityce atrybucji, Peec.ai w wielojęzyczności, Otterly w monitorowaniu cytowań. Na rynku widać konkurencję, ale też szybką konsolidację – w ciągu roku-dwóch zapewne zostanie 2-3 liderów.
Po drugie – narzędzia do testowania widoczności stron dla crawlerów AI. Nowa kategoria, reprezentowana przez kilka startupów austriackich i niemieckich. Idea – po podaniu URL narzędzie „udaje” GPTBota, ClaudeBota itd. i pokazuje, co crawler widzi, jak interpretuje treść, jakie encje wyciąga. To ogromna pomoc dla technicznego SEO, bo problem renderowania treści dla AI jest inny niż dla Googlebota.
Po trzecie – platformy do zarządzania entity. Kilka rozwiązań, które automatyzują wypełnianie Wikidata, Google Knowledge Graph, lokalnych katalogów. Kiedyś to była ręczna, żmudna praca, teraz można ją zautomatyzować. Ceny zaczynały się od 300 EUR miesięcznie, ale dla dużych marek zwrot inwestycji jest szybki.
Warto też wspomnieć o platformach rank trackingu, które dodały moduły AIO. Sistrix, Semrush i Ahrefs mają już beta wersje takich funkcji, ale mniejsi gracze (np. Morningscore, Mangools) rozwijają się szybciej i często oferują lepszy UX. Wybór narzędzia zależy od skali – dla małej firmy z 50-100 frazami wystarczą tańsze opcje.
Czy da się sensownie uczestniczyć zdalnie?
Organizatorzy oferują „virtual ticket” za 249 EUR, który daje dostęp do transmisji live z sali głównej i wybranych sesji. Problem w tym, że format konferencji jest w 2026 coraz bardziej warsztatowy i networkingowy, a to się nie transmituje. Moja rekomendacja – jeśli nie możesz przyjechać osobiście, kup wirtualny bilet i dodatkowo pakiet nagrań (99 EUR), ale wiedz, że dostajesz może 40-50% wartości konferencji.
Alternatywą dla osób z mocnym ograniczeniem budżetowym są lokalne meet-upy SEO, które organizuje się po konferencji w różnych miastach. W Polsce takie meet-upy organizowali w 2025 Warszawa, Kraków i Wrocław – zwykle kilka osób, które były w Salzburgu, dzieli się notatkami i slajdami. To nie to samo, co bycie na miejscu, ale daje solidny przegląd za darmo.
Dla osób, które dopiero zaczynają w branży, uczestnictwo zdalne może być rozsądnym wyborem – mniejsza inwestycja, a i tak dostępujesz się do sporej wiedzy. Dla osób z kilkuletnim doświadczeniem rekomenduję jednak zdecydowanie uczestnictwo osobiste. Rozmowy kuluarowe i obserwacje rynku są często cenniejsze niż same prezentacje.