Procházení a indexace ve zkratce

Převezměte kontrolu nad procesem procházení a indexace vašeho webu tím, že vyhledávačům řeknete, jaké jsou vaše preference.

To jim pomůže porozumět, na jaké části vašeho webu se mají zaměřit a jaké naopak ignorovat. Pro to existuje mnoho metod, takže kdy jakou metodu použít?

V tomto článku si probereme, jaké metody kdy použít a zhodnotíme také všechna pro a proti.

Vyhledávače prochází miliardy stránek každý den. Ale zaindexováno je jich o mnoho méně a ještě méně jich pak zobrazí ve výsledcích vyhledávání. A vy chcete, aby vaše stránky byly mezi nimi. Takže, jak převzít kontrolu nad celým tímto procesem a zlepšit svoji pozici?

K zodpovězení této otázky je třeba se nejdříve podívat na to, jak funguje proces procházení (crawling) a indexování (indexing). Poté se společně podíváme na dostupné metody, které můžete použít ke kontrole tohoto procesu.

Je kriticky důležité pochopit rozdíl mezi procházením a indexací a přenášením link-juice, stejně tak i znát nástroje, které vám mohou pomoci. Bez toho se vám snadno může stát, že indexovaný obsah nebude procházen a procházený nemusí být indexován."

Jak funguje crawling?

Crawling = procházení. Roboti vyhledávačů mají za úkol nalézt a prohledat co nejvíce URL adres je možné. Dělají to, aby zjistili, jestli je tam nějaký nový obsah. Tyto adresy URL mohou být nové nebo existující, o kterých již věděli. Nové adresy URL nachází při procházení stránek, které jsou již známé. Po procházení předávají tyto výsledky k indexování. Stránky, které vyhledávače mohou procházet, se často nazývají anglicky crawlable, tedy prohledávatelné.

Jak funguje indexace?

Indexátory obdrží obsah adres URL z procházení (od tzv. crawlers). Indexátory se pak tomuto obsahu snaží porozumět tím, že ho analyzují (včetně případných odkazů). Indexátor zpracovává kanonické adresy URL a určuje autoritu každé adresy URL. Indexátor také určuje, zda by měl indexovat stránku. Stránky, které vyhledávače mohou indexovat, se často nazývají anglicky indexable, tedy idexovatelné.

Po procházení je stránka předána indexátorům.
Po procházení je stránka předána indexátorům.

Indexátory také stránky načítají a spouštějí JavaScript. Pokud je cíl odkazu nalezen, jsou tato data odeslána zpět do procházecího modulu.

Jak převzít kontrolu nad crawlingem a indexací

Převezměte kontrolu nad procesy procházení a indexování tím, že vyhledávačům jasně stanovíte vaše preference. Tímto způsobem jim pomůžete porozumět, které části vašeho webu jsou pro vás nejdůležitější.

V této kapitole vám představíme všechny možné metody a také vhodnost jejich využití. Sestavili jsme tedy pro vás tabulku, která ilustruje, co mohou a nemohou jednotlivé způsoby dělat.

Pro začátek si vysvětlíme některé pojmy:

  • Crawlable: jsou vyhledávače schopny procházet URL adresu?
  • Indexable: jsou vyhledávače vyzývány k tomu indexovat danou URL adresu?
  • Brání duplicitnímu obsahu: zabraňuje tato metoda vzniku problémům s duplicitním obsahem?
  • Konsolidace signálů: jsou vyhledávače vyzývány ke konsolidaci signálů relevance a autority URL adres dle definice obsahu a odkazů URL adresy?

Dále je důležité také chápat, co je to tzv. Crawl budget (rozpočet pro procházení). Crawl budget je čas, který vyhledávače denně stráví na vašich stránkách, nebo počet stránek, které za den prohledají. Vaším zájmem je, aby jej využily co nejmoudřeji a nejefektivněji. A k tomu jim můžete dát určité instrukce.

Soubor robots.txt

Controlling crawling and indexing with robots.txt.

Soubor robots.txt je centrální místo, které poskytuje základní pravidla pro procházecí roboty (crawlery). Tyto základní pravidla nazýváme direktivy. Pokud chcete, aby crawlery procházely nebo neprocházely určité adresy URL, soubor robots.txt je tím nejlepším způsobem jak to sdělit.

Pokud roboti nesmějí procházet adresu URL a požadovat její obsah, indexátor nikdy nebude moci analyzovat obsah a odkazy. To může zabránit duplicitnímu obsahu a také to znamená, že dotyčná adresa URL nebude vyhledávači nikdy nijak hodnocena. Tím pádem vyhledávače ani nebudou moci konsolidovat signály relevance a autority, protože nevědí, co je na stránce. Tyto signály budou proto ztraceny.

Užitečný tahák pro procházení a indexaci

Lámete si často hlavu, jakou metodu zvolit, abyste měli vyhledávače pod kontrolou? Ušetřete si čas a volte jen ty správné!

Zadejte správnou e-mailovou adresu, prosím.

Příklad použití souboru robots.txt

Aministrátorská sekce na vašem webu je skvělým příkladem toho, kdy použít soubor robots.txt pro to, aby stránka nebyla procházena roboty. Řekněme, že administrátorská sekce sídlí na: https://www.priklad.com/admin/.

Zabklokování přístupu procházecích robotů do této sekce docílíte jednoduchým příkazem v souboru robots.txt:

Disallow /admin

Nemůžete změnit váš soubor robots.txt? Aplikujte direktivu meta robots noindex na sekci /admin.

Důležité poznatky

Pamatujte ale, že adresy URL, které jste nedovolili procházet, se stále mohou objevit ve výsledcích vyhledávání. K tomu dochází, když jsou adresy URL propojeny s jinými stránkami, nebo již byly vyhledávači zaindexovány předtím, než jste je znepřístupnili prostřednictvím souboru robots.txt. Vyhledávací nástroje potom zobrazí náhled takto:

Page is inaccessible through robots.txt

Soubor robots.txt tedy nemůže sám o sobě vyřešit již existující problémy s duplicitním obsahem. Není totiž pravda, že vyhledávače zapomenou na URL adresu jednoduše proto, že k ní už nemají přístup.

Přidání kanonické adresy URL nebo meta tagu robots noindex do adresy URL, která byla zablokována prostřednictvím souboru robots.txt, ji neodindexuje. Vyhledávače se nikdy o této žádosti nedozví jednoduše proto, že váš soubor robots.txt jim ji už nedovolí projít.

Soubor robots.txt je také nezbytným nástrojem pro optimalizaci zmíněného crawl budgetu na vašem webu. Pomocí souboru robots.txt můžete vyhledávačům říct, že není třeba procházet části vašeho webu, které pro ně nejsou relevantní.

Co soubor robots.txt udělá:

  • Nedovolí vyhledávačům procházení určitých částí vašeho webu, a tím zachová váš crawl budget.
  • Nedovolí vyhledávačům procházení určitých částí vašeho webu – pokud na ně neexistují žádné odkazy.
  • Zabrání vzniku nového duplicitního obsahu.

Co soubor robots.txt neudělá:

  • Nekonsoliduje signály relevance a autority.
  • Neodstraní ten obsah, který již je zaindexován*.

* Ačkoliv Google podporuje direktivu noindex a obsah odstraní, nedoporučuje se tuto metodu používat, protože se nejedná o oficiální standard. Podpora od Googlu ještě neznamená 100% spolehlivost. Použijte to tedy jen v případě, že nelze využít robots direktivy a canonical URLs.

Chcete se o souboru robots.txt dozvědět více?

Podívejte se na náš podrobný průvodce souborem robots.txt.

Robots direktivy

Controlling crawling and indexing with Meta Robots noindex.

Robots direktivy instruují vyhledávače o tom, jak indexovat stránky, a zároveň udržuje stránku přístupnou pro návštěvníky. Často se používají jako instrukce pro vyhledávače, aby nezahrnuly určité stránky. Pokud jde o indexování samotné, jedná se o silnější signál než je kanonická URL.

Implementování direktiv se obecně provádí jejich přidáním do zdrojového kódu za pomoci tagu meta robots. U ostatních dokumentů, jako jsou soubory PDF nebo obrázky, se to provádí přes HTTP hlavičku X-Robots-Tagu.

Příklad použití robots direktiv

Řekněme, že máte připravených deset cílových stránek pro návštěvnost z reklam Google AdWords. Obsah z ostatních stránek jste zkopírovali a pak ho jen trochu upravili. Nechcete tedy, aby byly tyto vstupní stránky indexovány, protože by to způsobilo problémy s duplicitním obsahem. Z toho důvodu je zde třeba zahrnout direktivu spolu s atributem noindex.

Důležité poznatky
Robtos direktivy vám pomohou předejít problémům s duplicitním obsahem, ale zároveň nepředávají relevanci a autoritu další URL adrese. Ta je prostě ztracena.

Kromě instrukce, že vyhledávače nemají stránku indexovat,  direktivy meta robots noindex také znemožňují vyhledávačům stránku procházet. Trocha z vašeho crawl budgetu je tak uspořena.

Navzdory svému názvu meta atribut robots nofollow neovlivňuje procházení stránky, která noffolow atribut obsahuje. Nicméně, když je robots direktiva nofollow nastavena, roboti nebudou využívat odkazy na této stránce k procházení dalších a následně nebudou ani na tyto další stránky předávat autoritu.

Co robots direktivy udělají:

  • Znemožní vyhledávačům indexovat určité části vašeho webu.
  • Zabrání problémům s duplicitním obsahem.

Co robots direktivy neudělají:

  • Nezabrání vyhledávačům procházet určité části webu a nezachová váš crawl budget.
  • Nekonsoliduje většinu signálů relevance a autority.

Chcete se dozvědět více o meta tagu robots?
Podívejte se na náš kompletní průvodce pro meta tag robots.

Kanonické URL adresy

Controlling crawling and indexing with Canonical URLs.

Kanonická adresa URL zpřístupňuje kanonickou verzi stránky vyhledávačům a vyzývá vyhledávače k jejímu indexování. Kanonická adresa URL může odkazovat na sebe nebo jiné stránky. Pokud je pro návštěvníky užitečné, aby měli přístup k více verzím stránky, a chcete, aby je vyhledávače považovaly za jednu verzi, využití kanonické URL adresy je tou správnou cestou. Když jedna stránka odkazuje na jinou pomocí kanonické adresy URL, většina její relevance a autority je přiřazena cílové URL.

Příklad použití kanonické URL adresy

Řekněme, že máte internetový obchod s produktem zařazeným ve třech kategoriích. Takže jeden produkt je dostupný ze tří různých URL adres. To je sice dobré pro návštěvníky, ale vyhledávače by se naopak měly zaměřit na procházení a indexování jedné URL. Zvolte tedy jednu z kategorií jako primární a zbylé dvě kategorie "kanonikalizujte".

Důležité poznatky

Ujistěte se, že URL adresy trvale přesměrované kódem 301, které jsou již odstraněny, nasměrují návštěvníky na kanonickou verzi. To vám umožní přiřadit veškerou svou aktuální relevanci a autoritu kanonické verzi. Toto také pomáhá přimět ostatní weby, aby odkazovaly na kanonickou verzi.

Kanonická URL adresa je spíše vodítkem než nařízením. I vyhledávače se tedy mohou rozhodnout, zda ji budou ignorovat.

Aplikací kanonické URL neuspoříte svůj crawl budget, protože tím nezabráníte robotům prozkoumat dané stránky. Zabráníte tím ale tomu, aby se zobrazovaly pro vyhledávací dotazy, protože jsou konsolidovány s kanonickou verzí dané URL.

Co kanonická URL udělá:

  • Zabrání vyhledávačům indexovat určité části vašeho webu.
  • Zabrání problémům s duplicitním obsahem.
  • Konsoliduje většinu signálů relevance a autority.

Co kanonická URL neudělá:

  • Nezabrání robotům prozkoumat určité části vašeho webu a nezachová váš crawl budget.

Chcete se dozvědět více o kanonických URL adresách?
Podívejte se na podrobný průvodce kanonickou URL.

Hreflang atribut

Controlling crawling and indexing with hreflang.

Atribut rel=“alternate” hreflang=“x, neboli zkráceně hreflang atribut, je užíván ke sdělení vyhledávačům, v jakém jazyce je obsah a pro jaký region je stránka určena. Pokud například používáte tentýž obsah pro několik regionů, použití prvku hreflang je tou správnou volbou.

Umožňuje vám být zařazen do výsledků se stejným obsahem na každém trhu a zabránit problémům s duplicitním obsahem. Kromě duplicitního obsahu je nejdůležitější věc, abyste se ujistili, že váš obsah je spřízněn s cílovým publikem. Ujistěte se, že se vaši návštěvníci cítí jako doma, proto doporučujeme mít (poněkud) odlišný text a vizuální údaje např. pro Spojené království a Spojené státy a podobně.

Příklad užití atributu hreflang

Cílíte na několik anglicky mluvících trhů a používáte subdoménu pro každý z nich. Každá subdoména obsahuje ten samý obsah:

  • www.priklad.com pro americký trh
  • ca.priklad.com pro kanadský trh
  • uk.priklad.com pro britský trh
  • au.priklad.com pro australský trh

Na každém z nich chcete být hodnoceni se stejným obsahem a také předejít duplicitnímu obsahu. A zde nastupuje na scénu atribut hreflang.

Co atribut hreflang udělá:

  • Umožní zacílit na několik cílových skupin se stejným obsahem.
  • Zabraňuje problémům s duplicitním obsahem.

Co atribut hreflang  neudělá:

  • Nezabrání procházení určitých částí vašeho webu a nezachová váš crawl budget.
  • Nezabrání vyhledávačům indexovat určité části vašeho webu.
  • Nekonsoliduje signály relevance a autority.

Chcete se dozvědět více o hreflang atributu?

Podívejte se na náš podrobný průvodce pro hreflang atribut.

Stránkování: rel=“prev” a rel=“next”

Controlling crawling and indexing with rel=“prev” and rel=“next”.

Odkazy rel=“prev” a rel=“next”, zkráceně stránkování, se používají ke sdělení vyhledávačům, jaký je vztah mezi sériemi jednotlivých stránek. Pro sérii podobných stránek, jakou je například stránkování archivu blogů nebo stránkování kategorie produktů, je velmi doporučeno užití stránkovacích atributů. Vyhledávače pochopí, že stránky jsou velmi podobné, což eliminuje problémy s duplicitním obsahem.

Ve většině případů nebudou vyhledávače zařazovat do výsledků zařazovat jiné stránky než tu první v sérii.

Co stránkovácí atribut udělá:

  • Zabrání problémům s duplicitním obsahem.
  • Konsoliduje signály relevance a autority.

Co stránkovací atribut neudělá:

  • Nezabrání procházení určitých částí vašeho webu a nezachová váš crawl budget.
  • Nezabrání vyhledávačům indexovat určité části vašeho webu.

Chcete se dozvědět více o stránkovacích atributech?
Podívejte se na náš podrobný průvodce stránkováním.

Atribut rel=“alternate” mobile

Controlling crawling and indexing with rel=“alternate” mobile attribute.

Atribut rel=“alternate” mobile, neboli zkráceně "mobile attribute", sděluje vyhledávačům vztah mezi desktopovou a mobilní verzí webu. Tím pomáhá vyhledávačům zobrazit správnou verzi webu pro jednotlivá zařízení a zabrání vzniku problémů s duplicitním obsahem.

Co atribut rel="alternate" mobile udělá:

  • Zabrání problémům s duplicitním obsahem.
  • Konsoliduje signály relevance a autority.

Co atribut rel="alternate" mobile neudělá:

  • Nezabrání procházení určitých částí vašeho webu a nezachová váš crawl budget.
  • Nezabrání vyhledávačům indexovat určité části vašeho webu.

Chcete se dozvědět více o mobile attribute?
Podívejte se na náš průvodce Atribut rel=“alternate“ mobile

Práce s parametry v nástrojích pro webmastery

Controlling crawling and indexing with Webmaster Tools.

Pokud nemáte možnost (rychle) provést změny na vašem webu, můžete nastavit zpracování parametrů v nástrojích Google Search Console a Bing Webmaster Tools. Zpracování parametrů definuje, jak by měly vyhledávače řešit adresy URL, které obsahují parametr. Díky tomu můžete Googlu a Bingu říct, aby neprocházely a/nebo indexovat určité adresy URL.

Chcete-li nastavit zpracování parametrů, potřebujete adresy URL, které lze rozpoznat podle určeného vzoru. Zpracování parametrů by mělo být použito pouze v určitých situacích, například při třídění, filtrování, překládání a ukládání relací dat.

Důležité poznatky

Mějte na paměti, že konfigurace této funkce pro Google a Bing nebude mít vliv na procházení stránek ostatními vyhledávači.

Co nastavení parametrů udělá:

  • Nedovolí vyhledávačům procházení určitých částí vašeho webu, a tím zachová váš crawl budget.
  • Zabrání vyhledávačům indexovat určité části vašeho webu.
  • Zabrání problémům s duplicitním obsahem.
  • Konsoliduje signály relevance a autority.

Co nastavení paramterů neudělá:

  • Neumožňuje nakonfigurovat procházení a indexování pro jednotlivé adresy URL.

HTTP autentizace

Controlling crawling and indexing with HTTP authentication.

HTTP autentizace (HTTP authentication) vyžaduje po uživatelých nebo strojích přihlášení k webové stránce (nebo její sekci). Zde máme příklad, jak to vypadá:

Authentication required

Bez uživatelského jména a hesla vy (nebo robot) nepřekonáte přihlašovací obrazovku a nebudete mít k ničemu přístup. HTTP autentizace je skvělý způsob, jak například udržet nežádoucí návštěvníky - lidi i vyhledávací roboty - mimo testovací prostředí. Google doporučuje zabránit robotům v přístupu k testovacím verzím pomocí ověření protokolu HTTP:

Pokud máte důvěrný nebo soukromý obsah, který se nemá zobrazovat ve výsledcích Vyhledávání Google, nejjednodušším a nejúčinnějším způsobem, jak zablokovat zobrazování soukromých adres URL, je uložit je na webovém serveru do adresáře chráněného heslem. K adresářům chráněným heslem nemá přístup Googlebot ani ostatní prohledávače.

Co HTTP authentication udělá:

  • Nedovolí vyhledávačům procházení určitých částí vašeho webu, a tím zachová váš crawl budget.
  • Zabrání vyhledávačům indexovat určité části vašeho webu.
  • Zabrání problémům s duplicitním obsahem.

Co HTTP authentication neudělá:

  • Nekonsoliduje signály relevance a autority

Užitečný tahák pro procházení a indexaci

Rychle zvolte správnou metodu pro řešení problémů s procházením a indexací.

Zadejte správnou e-mailovou adresu, prosím.

Procházejte stránky jako vyhledávače: vžijte se do jejich kůže

Takže, jak se crawlery vyhledávačů dívají na vaše stránky a jak je vykreslují? Vžijte se do jejich kůže díky nástrojům "Fetch and Render".

Funkce "Načíst jako Google" je již dobře známá. Je umístěna v Google Search Console a dovoluje vám zadat URL adresu na vašem webu a Google vám poté ukáže co na této URL vidí jejich prohledávací roboti a jak dané URL vykreslují. Toto můžete udělat pro desktopy i mobilní zařízení. Podívejte se níže, jak to vlastně vypadá:

Fetch as Googlebot
Načítání URL

render as Googlebot
Vykreslení URL

To je skvělé pro potvrzení, za URL adresy odpovídají očekávaným požadavkům, ale také se tím vynutí jejich indexování. Během několika sekund tak můžete mít URL adresu projitou a zaindexovanou. To neznamená, že se její obsah ihned zpracovává a že její ranking je upraven, avšak umožňuje to zrychlit proces procházení a indexování.

Další situace ve kterých funkce Načíst jako Google přijde vhod

Načíst jako Google není užitečné pouze pro zrychlení procesu procházení a indexace induviduálních URL adres, ale umožní vám to také:

  1. Urychlit objevení celých nových sekcí na vašem webu
    Načtěte URL, ze kterého jsou nové sekce prolinkované a vyberte "Request index" s možností "Crawl this URL and its direct links"
  2. Zkontrolujte si uživatelskou zkušenost z mobilních zařízení
    Načtěte URL jako "Mobile: smartphone".
  3. Zkontrolujte, zda přesměrování 301 pracuje správně
    Vyplňte adresu URL a zkontrolujte odpověď.

Dobré vědět:

  • Poslední situace může být snadno zkontrolována hromadně v aplikaci ContentKing.
  • Google umožňuje odeslat pro zaindexování 500 URL adres měsíčně.
  • Google vám umožňuje odesílat pouze 10 adres URL za měsíc pro indexování s odkazy, protože všechny adresy, které jsou s touto URL prolinkovány, se také procházejí.
  • Bing nabízí podobný nástroj s názvem "Fetch as Bingbot".

Nejčastejší dotazy ohledně procházení a indexace

1. Jak často Google prochází můj web?

Google Search Console s vámi sdílí své postupy procházení. Podívejte se na to:

  1. Přihlašte se do Google Search Console a vyberte webovou stránku.
  2. Pokračujte do “Procházení” > “Statistiky procházení” a zde zjistíte jak často Google prochází vaši webovou stránku.

Pokud jste technicky zdatní, můžete zjistit, jak často Google prochází vaše webové stránky pomocí analýzy logů (log files) vašeho webu.

Stojí za to vědět, že Google určuje, jak často by měl procházet vaše webové stránky pomocí rozpočtu pro procházení vašeho webu, tedy pomocí crawl budgetu.

Zjistíte-li, že crawlovací bot neprochází vámi chtěné indexované stránky (např. skrze robots.txt, z logu serveru, atp.), objevili jste chybu, která vám může snižovat návštěvnost a také případné konverze. Je tedy důležité analyzovat svůj stav webu s využitím specializovaných nástrojů, které vám zkrátí čas pro zhotovení analýzy a pomohou vám tak práci zefektivnit."

2. Mohu zpomalovat roboty při procházení mých webových stránek?

Ačkoli se to nedoporučuje pro společnosti Google a Bing, můžete použít direktivu crawl-delay pro zpoždění procházení. Nikdy bychom to ale nedoporučili nastavit pro Google a Bing, protože jejich roboti jsou dostatečně chytří na to, aby poznali, kdy jsou vaše webové stránky přetížené. V takovém případě se vrátí později.

3. Jak mohu zabránit robotům procházet web nebo stránku?

Existuje několik způsobů, jak zabránit vyhledávačům procházet části vašeho webu nebo pouze určité stránky:

  • Soubor robots.txt: lze použít k zabránění procházení celého webu, sekcí a jednotlivých stránek.
  • Nastavení parametrů: lze je použít k zabránění procházení adres URL, které obsahují určitý parametr.
  • HTTP autentizace: lze použít k zabránění procházení celého webu, sekcí a jednotlivých stránek.

4. Co znamená indexování webových stránek?

To znamená, že vyhledávací operátor se snaží určit obsah webové stránky, aby jím byla správně vyhledatelná.

5. Je moje stránka indexovatelná pro vyhledávače?

Nejlepší způsob, jak na to odpovědět, je vytvořit si účet s ContentKing, který vyhodnotí, jak jsou vaše webové stránky indexovatelné pro vyhledávače. Jak jste si již přečetli, existuje mnoho způsobů k ovlivnění toho, jak vyhledávače indexují vaše webové stránky.

6. Jak často Google indexuje můj web?

Tak často, jak Google prochází vaše webové stránky. Roboti následně předají informace o tom, co našli, tzv. indexátoru, který se stará o indexování webových stránek.

7. Jak dlouho trvá, než Google zaindexuje nové webové stránky?

Na tuto otázku neexistuje žádná univerzální odpověď, protože závisí na míře propagace nové webové stránky. Propagace zrychluje proces procházení a indexování. Pokud ji děláte dobře, malá stránka může být indexována i za hodinou. Někdy ale může trvat i měsíce, než se zcela nová stránka zaindexuje.

Vezměte prosím na vědomí, že mít webové stránky indexované vyhledávači neznamená, že vaše stránky automaticky získají dobré umístění ve výsledcích vyhledávání. Dosažení vysoké pozice trvá mnohem víc času.

8. Jak mohu zabránit vyhledávačům indexovat web nebo stránku?

Vyhledávačům je možné zabránit v indexování webu nebo stránky pomocí těchto metod:

  • Meta tag robots noindex: je velmi silný signál pro vyhledávače, aby stránku neindexovaly. Nepřenáší také signály relevantnosti nebo autority na jiné stránky.
  • Kanonická URL: je pro vyhledávače mírně silný signál o tom, kterou stránku indexovat a přenést na ni relevanci a autoritu
  • HTTP autentizace: zabrání pouze procházení a indexování nových stránek z hlediska SEO. Je ale stále obecnou osvědčenou praxí používat autentizaci HTTP v testovacích prostředích, aby nedocházelo k nežádoucímu vstupu vyhledávačů a uživatelů.
  • Soubor robots.txt: lze použít pouze k zabránění procházení a indexování nových stránek.
  • Nastavení parametrů: lze je použít k zabránění procházení adres URL, které obsahují určitý parametr.

Získejte zkušební verzi na 14 dní zdarma

Začněte během 20 vteřin

Vložte platnou doménu, prosím (www.priklad.cz).
  • Platební karta není potřeba
  • Není třeba žádná instalace
  • Bez závazků