Technické SEO rozhoduje o tom, jestli Google, Seznam i nové AI vyhledávače (ChatGPT Search, Perplexity, Google AI Overviews) váš web vůbec uvidí, pochopí a zařadí. V roce 2026 se laťka znovu zvedla — přibyla Core Web Vitals 2.0, indexují vás AI crawlery jako GPTBot a ClaudeBot a Google v prosinci 2025 navíc zvýšil váhu page experience signálů.
Tenhle průvodce vám ukáže, co dnes technické SEO obnáší, jaké chyby brzdí české weby nejčastěji a jak je odhalit. Bez vaty, s konkrétními limity a postupy.
Co je technické SEO a proč na něm v roce 2026 stojí všechno ostatní
Technické SEO je optimalizace infrastruktury webu tak, aby ho vyhledávače a AI systémy dokázaly spolehlivě procházet (crawlovat), vykreslit (renderovat), pochopit a zaindexovat. Netýká se obsahu ani odkazového profilu — řeší rychlost, strukturu URL, indexaci, strukturovaná data, mobilní použitelnost, JavaScript, schema markup a robots.txt.
Bez technického základu nepomůže ani špičkový obsah, ani silné zpětné odkazy. Když Google na vaši stránku nedosáhne nebo z ní nedokáže rozumně vyčíst, o čem je, prostě ji nezařadí.
V roce 2026 je situace náročnější ze tří důvodů. Algoritmy hodnotí weby jako propojené systémy, ne jako sbírku stránek. Mobilní výkon dominuje — mobile-first indexing je standardem už roky a Google primárně používá mobilní verzi pro hodnocení. A k Googlu se přidaly AI crawlery, které mají vlastní pravidla i očekávání.
Search Engine Land v dubnu 2026 publikoval data, podle kterých provoz GPTBota na desktopu meziročně narostl o 55 % a ClaudeBot téměř zdvojnásobil zátěž. Robots.txt už není seznam zákazů, ale governance dokument, který říká, kdo smí číst váš obsah pro trénink modelů a kdo pro real-time odpovědi.
Jaký je rozdíl mezi technickým, on-page a off-page SEO?
Tři pilíře SEO se doplňují, ale řeší jiné věci. Technické SEO se zabývá tím, jak web funguje pod kapotou. On-page SEO řeší samotný obsah jednotlivých stránek. Off-page SEO se týká signálů zvenčí — hlavně zpětných odkazů a brand mentions.
| Oblast | Co řeší | Příklady |
|---|---|---|
| Technické SEO | Crawlování, indexace, rychlost, struktura, JS rendering | Core Web Vitals, sitemap, robots.txt, canonical, schema |
| On-page SEO | Obsah a optimalizace samotných stránek | Title, meta description, nadpisy, klíčová slova, alt texty |
| Off-page SEO | Externí signály důvěryhodnosti | Zpětné odkazy, PR, brand mentions, autorita domény |
Ideální je řešit všechny tři oblasti paralelně, ale technika má prioritu. Pokud Google nevidí stránku korektně, ostatní práce jde do ztracena.
Šest pilířů technického SEO, které musí mít každý web
Technický audit pokrývá desítky bodů, ale dají se shrnout do šesti oblastí. Každá z nich je podmínkou pro další.
1. Crawlovatelnost a indexace
Crawlovatelnost znamená, že roboti dokážou váš web projít. Indexovatelnost znamená, že chcete, aby konkrétní stránky byly v indexu Googlu. Klíčové soubory: robots.txt (řídí přístup botů), XML sitemap (seznam URL pro vyhledávače), canonical tagy (řeší duplicity) a noindex meta tag (vyřazuje stránky z indexu).
Nejčastější chyba českých webů je noindex omylem ponechaný v produkci po přesunu z testovacího serveru. V průběhu několika dní zmizí celý web z Googlu. Druhým problémem je crawl budget — u e-shopů s tisíci produktů a kombinatorikou filtrů Googlebot vyplýtvá zdroje na bezcenné URL a k důležitým stránkám se nedostane.
V roce 2026 patří do robots.txt navíc rozhodnutí o AI crawlerech. GPTBot, ClaudeBot, PerplexityBot a CCBot mají odlišné chování — některé scrapují obsah pro trénink, jiné pro real-time odpovědi. Blokovat je naslepo znamená zmizet z AI odpovědí.
2. Rychlost a Core Web Vitals
Core Web Vitals jsou tři metriky, kterými Google měří reálný uživatelský zážitek. Hodnocení probíhá na 75. percentilu reálných dat z Chrome User Experience Reportu — 75 % vašich návštěv musí dosáhnout dobré hodnoty.
| Metrika | Co měří | Dobrá hodnota | Špatná hodnota |
|---|---|---|---|
| LCP (Largest Contentful Paint) | Načtení největšího prvku (typicky hero obrázek) | pod 2,5 s | nad 4 s |
| INP (Interaction to Next Paint) | Reakce stránky na kliknutí, tap, klávesu | pod 200 ms | nad 500 ms |
| CLS (Cumulative Layout Shift) | Neplánované posuny layoutu při načítání | pod 0,1 | nad 0,25 |
Velký posun přinesl březen 2024, kdy INP nahradil starší FID. INP měří všechny interakce v průběhu návštěvy, ne jen tu první — a je přísnější. Podle Cloudflare data spadá INP do „dobré“ kategorie u 88 % desktopových návštěv, ale jen u 67 % mobilních. WordPress weby s těžkými page buildery (Elementor, Divi) na INP rutinně padají, někdy i s hodnotami 800 ms.
Začátkem roku 2026 přidal Google Core Web Vitals 2.0 s novou metrikou Visual Stability Index (VSI), která sleduje stabilitu layoutu po celou dobu návštěvy, ne jen při načtení. To je relevantní pro infinite scroll, dynamicky načítané reklamy a SPA aplikace.
Praktická poznámka pro WordPress weby: podle dat HTTP Archive z roku 2025 jen 45 % WordPress webů dosahuje dobrých CWV skóre na mobilu — proti 65 % u Shopify a 85 % u Duda. Pokud běžíte na sdíleném hostingu s TTFB přes 600 ms, zlepšení LCP bez upgrade hostingu je téměř nemožné.
3. Mobilní použitelnost a mobile-first indexing
Google používá mobilní verzi webu jako primární zdroj pro hodnocení už od roku 2023. V roce 2026 to znamená, že 100 % vysokoprioritních crawlů musíte ověřovat se Googlebot Smartphone user agentem, ne s desktopem.
Klasická past: hamburger menu, které se do DOM nedostane, dokud uživatel neklikne. Pokud navigace existuje jen po JavaScriptu, primární crawler ji nevidí a strukturu webu si přebere špatně. Stejný problém mají taby, accordion menu a obsah načítaný po scrollu, pokud nejsou v původním HTML.
Mobilní CWV mají vyšší váhu než desktopové. Pokud váš desktop LCP je 2 s, ale mobilní 4 s, Google vás hodnotí podle té čtyřky.
4. Strukturovaná data (schema markup)
Schema markup je strojově čitelný popis obsahu stránky. Říká vyhledávačům: tohle je článek, tohle produkt, tohle FAQ — a co konkrétně znamenají jednotlivé prvky. V roce 2026 je schema klíčové ze dvou důvodů.
Za prvé generuje rich snippets v Googlu (hvězdičky, ceny, FAQ rozbalovátka, recepty). Za druhé je to hlavní zdroj informací pro AI Overviews a generativní vyhledávače — dobře označená stránka má mnohem vyšší šanci být citována.
Pro většinu webů jsou nejdůležitější tyto typy schema:
- Article / BlogPosting — pro články a blog posty
- Product — produkty s cenou, dostupností a recenzemi (kritické pro e-shopy)
- Organization / LocalBusiness — firma, pobočky, otevírací doba
- FAQPage — sekce častých otázek (vysoký impact pro AI Overviews)
- HowTo — návody krok za krokem
- Review / AggregateRating — recenze a hodnocení
- BreadcrumbList — drobečková navigace
Validujte přes Google Rich Results Test. Časté chyby: kanonické JSON-LD odkazuje na URL, která vrací 404 nebo redirect; aggregateRating bez konkrétních recenzí; chybějící povinné property (name, image, description u Product).
5. Architektura URL a interní prolinkování
Hloubka stránky (počet kliků z homepage) ovlivňuje, jak často ji Google navštěvuje. Důležité stránky by měly být maximálně 3 kliky od homepage. Strom kategorií, který se rozrůstá do hloubky 5–6 úrovní, je signál, že architektura selhává.
Interní odkazy jsou nejdůležitější mechanismus, jak rozdělit autoritu mezi stránky. Klíčová pravidla: použijte standardní <a href> tagy, ne JavaScript event handlery (Googlebot je nečte jako odkazy); kotevní text by měl popisovat cílovou stránku; vyhněte se „klikněte zde“; budujte topic clustery (pillar page + podpůrné články, navzájem provázané).
Časté problémy: redirect chainy (A → B → C ztrácí část link equity), redirect smyčky (A → B → A způsobí chybu), interní odkazy na 404 stránky a osiřelé URL bez jediného odkazu vedoucího na ně.
6. JavaScript rendering
Tady padá v praxi nejvíc webů. Googlebot dnes umí renderovat JavaScript, ale nikdy ne stejně rychle a spolehlivě jako vykreslené HTML. Indexace probíhá ve dvou vlnách: nejprve se přečte HTML, později se zařadí do fronty na rendering — a ta může trvat hodiny až týdny.
| Strategie | Kdy použít | SEO výhody | Riziko |
|---|---|---|---|
| SSR (server-side rendering) | Veřejné stránky, e-shop, blog | Plné HTML hned, rychlá indexace | Vyšší zátěž serveru |
| SSG (static site generation) | Marketingové stránky, dokumentace, blog | Maximální rychlost, žádný rendering queue | Nepoužitelné pro real-time obsah |
| CSR (client-side rendering) | Aplikace za přihlášením, dashboardy | Rychlá interaktivita | Nevhodné pro veřejné SEO stránky |
| Hybrid (SSR + CSR) | Moderní React/Vue/Next.js projekty | Nejlepší kompromis | Náročnější implementace |
Pravidlo pro 2026: pokud SEO hraje roli, naplánujte SSR nebo SSG hned od začátku. Retrofit SSR do existující čisté CSR aplikace je výrazně náročnější než ho postavit od základu. Dynamic rendering Google formálně označil za deprecated workaround.
Praktický příznak problému: open source nástroj curl proti URL vrací prázdný <div id=”root”></div> a žádný obsah. To je přesně to, co vidí Googlebot v první vlně. URL Inspection v Search Console pak ukáže, jestli druhá vlna obsah doplnila.
Jak technické SEO ovlivňuje viditelnost v AI vyhledávačích
ChatGPT Search, Perplexity, Google AI Overviews a Gemini používají vlastní crawlery a vlastní logiku výběru zdrojů. Klasické technické SEO je pro ně základem, ale přidávají několik specifik.
Robots.txt řízení AI botů. Některé firmy chtějí být citovány v odpovědích (větší dosah), ale nechtějí přispívat k tréninku modelů. Rozlišení podle bota:
- GPTBot (OpenAI) — trénink GPT modelů
- OAI-SearchBot (OpenAI) — real-time vyhledávání pro ChatGPT Search
- ClaudeBot (Anthropic) — trénink Claude modelů
- PerplexityBot — indexace pro Perplexity odpovědi
- Google-Extended — opt-out pro Bard/Gemini training, neovlivňuje Google Search
Pokud blokujete všechny AI boty plošně, mizíte z generativních odpovědí. Většina webů by měla povolit retrieval boty (real-time vyhledávání) a rozhodnout se vědomě o trénovacích.
Druhý faktor je freshness přes <lastmod> v sitemapě a viditelné datum aktualizace. AI systémy preferují aktuální zdroje — analýzy z roku 2026 ukazují, že 44 % citací AI Overviews pochází z obsahu z roku 2025 a 30 % z roku 2024.
Třetí faktor: schema markup s důrazem na FAQPage, Article s autorem (Person schema se sameAs odkazy na LinkedIn/X) a Organization. AI systémy z těchto signálů odvozují E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) — bez nich váš obsah nedostane prioritu.
Nový experimentální standard llms.txt zatím nemá oficiální podporu velkých hráčů, ale jeho adopce roste. Funguje podobně jako robots.txt, ale specifikuje, jaký obsah je vhodný pro LLM odpovědi a jak ho strukturovat.
Jaké jsou nejčastější technické chyby na českých webech?
Z desítek auditů českých firemních webů a e-shopů se opakují stále stejné problémy. Tady je přehled toho nejhoršího — s tím, proč to škodí.
- Pomalý LCP nad 4 sekundy. Příčiny: neoptimalizované obrázky (JPEG místo WebP/AVIF), pomalý hosting s TTFB nad 600 ms, příliš mnoho JavaScriptu blokujícího render. Řešení: konverze obrázků na WebP, lazy loading pod foldem, code splitting, upgrade hostingu.
- Špatný INP na mobilu. Hlavní viník: těžké JavaScript bundly z page builderů (Elementor, Divi), třetí strany (chat widgety, A/B testovací nástroje), neoptimalizované event handlery. Řešení: rozdělení dlouhých tasků, debouncing/throttling, redukce DOM (pod 1 500 nodes).
- Duplicitní obsah z filtrů a stránkování. E-shop s 1 000 produkty může vygenerovat milion variant URL přes kombinatoriku filtrů. Řešení: noindex na filtrované URL, canonical na základní kategorii, blokace parametrů v robots.txt, parameter handling v Search Console.
- Chybějící nebo špatná hreflang. Bez hreflangu může Google ukázat českou verzi polskému uživateli. Časté chyby: x-default chybí, hreflang ukazuje na noindex stránku, absentující return tag (cs → pl ano, pl → cs ne).
- Neošetřené redirect chainy. Po redesignu nebo migraci platformy zůstávají řetězce A → B → C → D. Každý hop ztrácí část link equity a zpomaluje crawl. Řešení: detekce přes Screaming Frog → sekce Redirects, oprava na single hop.
- Důležitý obsah jen v JavaScriptu. Texty produktů, ceny nebo recenze, které se zobrazí jen po JS rendering. Test: vypněte JavaScript v prohlížeči, podívejte se, co zbude. Co zmizí, to Googlebot vidí v první vlně jako prázdné.
- Zapomenutý noindex z testovacího serveru. Klasika: vývojáři přidají <meta name=”robots” content=”noindex”> na staging, deploy ho přenese do produkce. Web zmizí z Googlu během několika dní. Před každým release zkontrolujte přes Screaming Frog.
- Nesprávně nastavený canonical tag. Canonical mířící na 404, na noindex stránku nebo na verzi s odlišným obsahem. Self-referencing canonical chybí tam, kde má být.
- Chybějící Product schema u e-shopů. Bez něj nemáte rich snippets s cenou, dostupností a hvězdičkami — a v AI Overviews se neobjevíte vůbec. Důležité property: price, priceCurrency, availability, aggregateRating.
- Velký rozdíl mezi mobilní a desktopovou verzí. Některé weby skrývají na mobilu klíčový obsah „pro lepší UX“. Mobile-first indexing znamená, že Google vidí jen mobilní verzi — a co je tam skryto, neexistuje.
Jak provést technický SEO audit krok za krokem
Audit má smysl dělat minimálně jednou ročně, po každém redesignu nebo migraci a vždy, když organická návštěvnost nečekaně klesne. Tady je workflow, který odhalí 90 % problémů.
Krok 1: Crawl celého webu
Použijte Screaming Frog SEO Spider (free do 500 URL, placená verze pro větší weby) nebo Sitebulb. Crawl ukáže: status kódy (4xx, 5xx), duplicitní title a meta description, chybějící alt texty, redirect chainy, hloubku stránek, interní odkazy. Spustte v módu Googlebot Smartphone, ne desktop.
Krok 2: Google Search Console
V GSC zkontrolujte: Coverage report (kolik URL je zaindexovaných vs. v indexu chybí), Core Web Vitals report (mobil i desktop), Mobile Usability, problémy se schema markupem v sekci Enhancements, manuální akce a problémy se zabezpečením.
Pokud Coverage ukazuje vysoké číslo „Excluded“ s důvodem „Crawled — currently not indexed“ nebo „Discovered — currently not indexed“, máte problém s kvalitou nebo crawl budgetem.
Krok 3: PageSpeed Insights pro klíčové stránky
Otestujte 5–10 nejdůležitějších URL (homepage, top kategorie, top produkty, top články) zvlášť pro mobil i desktop. Pracujte s field daty (CrUX) — laboratorní data slouží jen k debugování.
Pokud nemáte dost trafficu pro field data, zaměřte se na Lighthouse skóre nad 90 a hledejte největší blockery v sekci „Opportunities“ a „Diagnostics“.
Krok 4: Validace strukturovaných dat
Otestujte 3–5 reprezentativních URL přes Google Rich Results Test a Schema.org Validator. Sledujte, jestli mají rich snippets eligibility a jestli chybí povinné property.
Krok 5: Test JavaScript rendering
V Search Console použijte URL Inspection na 5–10 URL. Zkontrolujte, co Googlebot reálně vidí — sekce „Tested page“ ukáže rendered HTML i screenshot. Pokud místo obsahu vidíte prázdné prvky, máte JS rendering problém.
Krok 6: Robots.txt a sitemap audit
Robots.txt: žádné neúmyslné Disallow na klíčové sekce, povolené CSS a JS soubory potřebné pro rendering, validní syntaxe. Sitemap: jen kanonické URL se status kódem 200, aktuální <lastmod>, segmentace podle typu obsahu, registrace v Search Console.
Krok 7: Prioritizace a implementace
Z auditu vznikne typicky 30–80 nálezů. Klíč je prioritizace podle dopadu × pracnosti:
- Kritické / quick wins — chyby blokující indexaci, špatné canonical, noindex omylem (řešit hned)
- Vysoký dopad / střední pracnost — Core Web Vitals, JS rendering, schema markup (do 30 dní)
- Strukturální — architektura URL, hreflang, redesign navigace (do 90 dní, vyžaduje vývojáře)
Jaké nástroje použít pro technické SEO?
Vystačíte si i s bezplatnými. Placené přidávají efektivitu a hloubku, ale nejsou nutné pro 80 % auditů.
Bezplatné (základ pro každého):
- Google Search Console — bez tohoto se SEO dělat nedá. Indexace, výkon, CWV, problémy.
- PageSpeed Insights — Core Web Vitals na konkrétní URL, field i lab data.
- Google Rich Results Test — validace schema markupu pro rich snippets.
- Lighthouse (v Chrome DevTools) — performance, accessibility, SEO audit lokálně.
- Screaming Frog SEO Spider — crawler do 500 URL zdarma.
- Bing Webmaster Tools — pokrývá i Bing a IndexNow protokol.
Placené (pro větší weby a agentury):
- Ahrefs / Semrush / SISTRIX — komplexní SEO platformy s site auditem, monitoringem a research nástroji.
- Sitebulb — vizuální crawler s prioritizovanými reporty.
- DebugBear / SpeedCurve — kontinuální monitoring CWV a performance.
- Marketing Miner (CZ) — vhodné pro český a slovenský trh.
Nejčastější otázky
Musím být programátor, abych dělal technické SEO?
Ne. Většinu auditu zvládnete s Google Search Console, PageSpeed Insights a Screaming Frog bez psaní kódu. Implementaci oprav (canonical tagy, schema, redirecty, robots.txt) ale buď řeší pluginy v CMS (Yoast SEO, Rank Math), nebo to potřebuje vývojáře. Základní technické znalosti situaci výrazně usnadní.
Jak dlouho trvá, než se technické úpravy projeví v rankingu?
Závisí na velikosti webu a typu změny. Crawl a re-indexace běžných stránek trvá několik dní až 2 týdny. Migrace z CSR na SSR se na zavedeném webu projeví za 1–2 týdny, na novějším za 3–6 týdnů. Změny Core Web Vitals se projevují postupně, protože Google používá rolling 28denní okno reálných dat.
Co je crawl budget a od jaké velikosti webu ho řešit?
Crawl budget je počet URL, které Googlebot na vašem webu projde za daný čas. U malých webů do několika set stránek nehraje roli — Google projde všechno. Začíná být důležitý u e-shopů s tisíci produkty, news webů s rychlou produkcí obsahu a webů s rozsáhlou kombinatorikou filtrů. Řešení: blokace nízkokvalitních URL, optimalizace XML sitemap, odstranění redirect chainů, oprava 4xx/5xx errorů.
Mám blokovat AI crawlery jako GPTBot a ClaudeBot v robots.txt?
Záleží na strategii. Pokud chcete být citováni v ChatGPT Search, Perplexity nebo AI Overviews, blokace vás z těchto odpovědí vyřadí. Pokud naopak nechcete, aby váš obsah trénoval modely, můžete zablokovat trénovací boty (GPTBot, ClaudeBot) a povolit retrieval boty (OAI-SearchBot, PerplexityBot). Plošná blokace všech AI botů je v roce 2026 obvykle špatné rozhodnutí — výjimkou jsou specifické případy ochrany unikátního obsahu.
Jak často mám provádět technický SEO audit?
Plný audit minimálně jednou ročně, po každém redesignu nebo migraci platformy a vždy při neočekávaném propadu organické návštěvnosti. Mezi audity sledujte v Search Console týdně Coverage, CWV report a manuální akce. Velké weby a e-shopy mají smysl auditovat pololetně.
Jaké technické SEO problémy jsou specifické pro e-shopy?
E-shopy mají několik typických bolestí navíc. Filtrování a kombinatorika parametrů (řešte přes noindex + canonical), správa nedostupných nebo zrušených produktů (404/410 pro permanentně odstraněné, 200 + interní odkazy pro dočasně nedostupné), Product schema s aktuální cenou a dostupností, optimalizace velkého množství obrázků a mobilní rychlost na produktových stránkách. Mobilní podíl trafficu u e-shopů často přesahuje 70 %.
Další zdroje:
- Technical SEO Checklist: The Complete Guide For 2026 – DebugBear [online]. [cit. 9. 5. 2026]. Dostupné z: https://www.debugbear.com/blog/technical-seo-checklist
- SEO in 2026: Higher standards, AI influence, and a web still catching up – Search Engine Land [online]. [cit. 9. 5. 2026]. Dostupné z: https://searchengineland.com/seo-2026-higher-standards-ai-influence-web-catching-up-473540
- Full Technical SEO Checklist: The 2026 Guide – Yotpo [online]. [cit. 9. 5. 2026]. Dostupné z: https://www.yotpo.com/blog/full-technical-seo-checklist/
- Core Web Vitals 2026: Technical SEO That Actually Moves the Needle – ALM Corp [online]. [cit. 9. 5. 2026]. Dostupné z: https://almcorp.com/blog/core-web-vitals-2026-technical-seo-guide/
- JavaScript SEO 2026: How to Make Your JS Site Crawlable by Google – W3era [online]. [cit. 9. 5. 2026]. Dostupné z: https://www.w3era.com/blog/seo/javascript-seo-guide/
- What Are the Core Web Vitals? LCP, INP & CLS Explained (2026) – Core Web Vitals.io [online]. [cit. 9. 5. 2026]. Dostupné z: https://www.corewebvitals.io/core-web-vitals
- Technické SEO v roce 2026 – PŘESAH.agency [online]. [cit. 9. 5. 2026]. Dostupné z: https://presah.agency/slovnicek-reklamnich-pojmu/technicke-seo/
- SEO audit pro rok 2026: Jak najít a opravit slabá místa webu – Conviu.cz [online]. [cit. 9. 5. 2026]. Dostupné z: https://www.conviu.com/blog/seo-audit-pro-rok-2026