V této případové studii se zaměříme na projekt optimalizace rozsáhlého e-commerce webu s více než 50 000 produkty, který se potýkal s vážnými problémy s duplicitním obsahem. Tyto problémy vedly k neefektivnímu využívání crawl budgetu, nízké indexaci produktových stránek a v konečném důsledku k horším pozicím ve vyhledávačích a nižší organické návštěvnosti. Díky systematickému přístupu k identifikaci a řešení problémů s duplicitním obsahem se nám podařilo zvýšit indexaci stránek o 40 % během tří měsíců a výrazně zlepšit organickou viditelnost webu.
Náš klient, jeden z největších českých e-shopů s elektronikou a domácími spotřebiči, se na nás obrátil s problémem nízké organické návštěvnosti a špatné indexace produktových stránek. Přestože nabízel více než 50 000 produktů, v indexu Google bylo pouze přibližně 22 000 URL adres. To znamenalo, že více než polovina produktů nebyla vůbec indexována a nemohla být nalezena přes vyhledávače.
Počáteční audit odhalil několik závažných problémů. V první řadě byl každý produkt dostupný přes několik různých URL adres v závislosti na kategorii, ze které uživatel přišel. Tato multiplicitní dostupnost produktů vytvářela značné množství duplicitního obsahu.
Dalším významným problémem bylo, že filtrované a řazené verze kategoriových stránek byly indexovány, což vytvářelo tisíce duplicitních stránek. Uživatelé mohli přistupovat k seznamu produktů prostřednictvím různých URL s parametry pro řazení a filtrování. Každá z těchto variant byla indexována jako samostatná stránka, přestože obsahovala v podstatě stejný obsah.
Stránkování v kategoriích generovalo další duplicity. Uživatelé procházející kategorie mohli vidět URL s parametry pro stránkování, případně v kombinaci s parametry pro řazení. Tyto stránky byly opět indexovány jako samostatné entity, což dále rozšiřovalo problém s duplicitním obsahem.
Na webu zcela chyběly kanonické tagy, které by vyhledávačům indikovaly preferovanou verzi URL. To znamenalo, že vyhledávače neměly žádný způsob, jak určit, která z mnoha verzí stejné stránky by měla být považována za autoritativní.
Sitemap.xml soubor obsahoval všechny varianty URL, včetně filtrovaných a řazených verzí, což vedlo k neefektivnímu využití crawl budgetu. Vyhledávače tak plýtvaly svými zdroji na procházení duplicitních stránek místo objevování nových, unikátních produktů.
Tyto problémy měly několik negativních dopadů na výkonnost webu ve vyhledávačích. Vyhledávače plýtvaly crawl budgetem na duplicitní stránky místo objevování nových produktů, což znamenalo, že mnoho produktů zůstávalo neindexovaných. Hodnota zpětných odkazů se tříštila mezi různé verze stejné stránky, což oslabovalo jejich celkový efekt. Vyhledávače měly problém určit, která verze stránky je ta hlavní, což vedlo k horším pozicím ve výsledcích vyhledávání. Navíc se uživatelé mohli setkat s různými verzemi stejného produktu v různých částech webu, což mohlo vést ke zmatení a horší uživatelské zkušenosti.
Na základě detailní analýzy jsme vytvořili komplexní strategii pro řešení problémů s duplicitním obsahem a zlepšení indexace webu. Naše strategie zahrnovala několik klíčových kroků, které byly navrženy tak, aby systematicky řešily každý identifikovaný problém.
Nejprve jsme provedli kompletní crawl webu pomocí specializovaných nástrojů, abychom identifikovali všechny duplicitní URL a vzory, které je generují. Tato analýza byla mimořádně důkladná a časově náročná, protože jsme museli projít více než 150 000 URL adres. Každou URL jsme analyzovali a kategorizovali podle typu duplicity, abychom mohli vytvořit specifická řešení pro každý typ problému.
Pro každý typ duplicity jsme vytvořili jasná pravidla pro určení kanonické (preferované) verze. Tato pravidla byla klíčová pro zajištění konzistentního přístupu k řešení duplicit napříč celým webem. Pro produktové stránky jsme jako kanonickou verzi zvolili nejkratší možnou cestu, která jasně identifikovala produkt. Tato URL byla dostatečně specifická, aby jednoznačně identifikovala produkt, ale zároveň dostatečně stručná, aby byla uživatelsky přívětivá a snadno zapamatovatelná.
Proces mapování duplicit byl komplexní a vyžadoval spolupráci s vývojovým týmem klienta, abychom plně pochopili logiku generování URL na webu. Vytvořili jsme podrobnou dokumentaci všech identifikovaných vzorů duplicit a navrhovaných kanonických verzí, která sloužila jako základ pro implementaci následných řešení.
Pro všechny identifikované duplicitní stránky jsme implementovali kanonické tagy (rel=”canonical”), které odkazovaly na preferovanou verzi URL. Toto řešení bylo zvoleno jako první krok, protože nevyžadovalo složité změny v architektuře webu a mohlo být implementováno relativně rychle.
Implementace kanonických tagů byla provedena systematicky podle předem definovaných pravidel. Tento tag jasně signalizoval vyhledávačům, která verze stránky je preferovaná, což pomohlo konsolidovat hodnotu různých URL adres.
Kanonické tagy byly implementovány nejen na produktových stránkách, ale také na kategoriových stránkách, kde řešily problém s duplicitami způsobenými filtry a řazením. Tím jsme zajistili, že vyhledávače budou považovat základní verzi kategorie za autoritativní, zatímco uživatelé mohli stále využívat funkce filtrování a řazení.
Implementace kanonických tagů byla technicky relativně jednoduchá, ale vyžadovala pečlivou koordinaci s vývojovým týmem klienta, aby bylo zajištěno, že tagy jsou generovány dynamicky na základě správných pravidel. Vytvořili jsme podrobnou dokumentaci s pokyny pro každý typ stránky, aby vývojový tým měl jasné instrukce pro implementaci.
Pro řešení duplicit způsobených filtry a řazením jsme implementovali několik vzájemně se doplňujících opatření. Tato část byla obzvláště důležitá, protože filtry a řazení generovaly tisíce duplicitních stránek, které významně zatěžovaly crawl budget.
Prvním opatřením bylo přidání atributu rel=”noindex, follow” na všechny filtrované a řazené verze kategoriových stránek. Tento atribut instruoval vyhledávače, aby stránku neindexovaly, ale aby sledovaly odkazy na této stránce. To bylo důležité, protože jsme chtěli, aby vyhledávače mohly objevovat nové produkty prostřednictvím filtrovaných stránek, ale aby tyto stránky samotné nebyly zahrnuty do indexu.
Druhým opatřením byla konfigurace parametrů URL v Google Search Console. Zde jsme označili parametry pro řazení a filtrování jako parametry, které nemění obsah stránky z pohledu vyhledávačů. Tato konfigurace poskytla Googlu dodatečné informace o struktuře webu a pomohla mu lépe pochopit, které URL považovat za duplicitní.
Třetím opatřením bylo vytvoření speciálních landing pages pro často používané kombinace filtrů, které měly obchodní hodnotu. Tyto stránky měly unikátní obsah a vlastní URL strukturu bez parametrů, což je činilo vhodnými pro indexaci. Tento přístup nám umožnil zachovat SEO hodnotu pro důležité kombinace filtrů, zatímco jsme eliminovali problém s duplicitním obsahem.
Pro řešení duplicit způsobených stránkováním jsme implementovali několik technických opatření. Přidali jsme rel=”prev” a rel=”next” tagy na stránky s paginací, což pomohlo vyhledávačům pochopit vztah mezi jednotlivými stránkami v sekvenci. Zajistili jsme, že první stránka v paginaci neobsahuje parametr stránkování, což eliminovalo nejběžnější duplicitu.
Implementovali jsme také kanonické tagy na stránky s paginací, které odkazovaly na první stránku v sekvenci, ale zachovali jsme rel=”prev” a rel=”next” pro lepší pochopení struktury vyhledávači. Tato kombinace tagů poskytla vyhledávačům jasné signály o tom, jak mají interpretovat stránky s paginací.
Dalším důležitým krokem bylo zajistit, aby interní odkazy na webu používaly konzistentně kanonické URL adresy. To zahrnovalo úpravu navigace, drobečkové navigace, souvisejících produktů a cross-selling sekcí. Všechny tyto prvky byly aktualizovány tak, aby odkazovaly pouze na kanonické URL, což pomohlo konsolidovat hodnotu interních odkazů a poskytlo vyhledávačům konzistentní signály o struktuře webu.
Implementovali jsme také JavaScript přesměrování, které automaticky upravovalo URL v adresním řádku prohlížeče na kanonickou verzi, pokud uživatel přistupoval k produktu přes nekanonickou URL. Toto řešení zlepšilo uživatelskou zkušenost a zároveň pomohlo konsolidovat různé URL adresy.
Kompletně jsme přepracovali sitemap.xml soubor, aby obsahoval pouze kanonické URL adresy. Sitemap byl rozdělen do několika menších souborů podle kategorií produktů, což usnadnilo vyhledávačům efektivnější crawlování webu. Každá URL v sitemap obsahovala také informace o poslední aktualizaci a frekvenci změn, což poskytlo vyhledávačům dodatečné informace pro efektivnější crawlování.
Sitemap byl pravidelně aktualizován, aby odrážel změny v produktovém katalogu, a byl automaticky odesílán do Google Search Console, aby se zajistilo, že vyhledávače jsou informovány o nových nebo aktualizovaných stránkách.
Jako dlouhodobější řešení jsme navrhli implementaci 301 přesměrování z nekanonických URL na jejich kanonické protějšky. Toto řešení bylo implementováno postupně, začínající s nejproblematičtějšími sekcemi webu, aby se minimalizovalo riziko negativního dopadu na uživatelskou zkušenost nebo SEO.
Přesměrování byla implementována na serverové úrovni pomocí pravidel v konfiguračních souborech, což zajistilo rychlé a efektivní přesměrování. Každé přesměrování bylo testováno, aby se zajistilo, že funguje správně a že uživatelé jsou přesměrováni na odpovídající stránku.
Implementace výše uvedených opatření probíhala postupně během období dvou měsíců. Rozdělili jsme ji do několika fází, abychom mohli monitorovat dopad každého kroku a případně upravit strategii.
V první fázi jsme implementovali kanonické tagy na všechny produktové stránky a nakonfigurovali parametry URL v Google Search Console. Tato fáze byla nejméně riziková a mohla být implementována rychle bez významných změn v architektuře webu.
Implementace kanonických tagů byla provedena během jednoho týdne a okamžitě jsme začali sledovat, jak vyhledávače reagují na tyto změny. Sledovali jsme indexaci stránek v Google Search Console a monitorovali jsme, zda se začínají objevovat kanonické URL v indexu místo jejich duplicitních verzí.
Konfigurace parametrů URL v Search Console byla provedena souběžně s implementací kanonických tagů. Tato konfigurace poskytla Googlu dodatečné informace o struktuře webu a pomohla mu lépe pochopit, které URL považovat za duplicitní.
Ve druhé fázi jsme implementovali řešení pro filtrované a řazené stránky a optimalizovali jsme stránkování. Tato fáze vyžadovala více testování, protože změny mohly potenciálně ovlivnit uživatelskou zkušenost.
Implementace atributu rel=”noindex, follow” na filtrované a řazené stránky byla provedena postupně, začínající s méně důležitými sekcemi webu. Sledovali jsme, jak tato změna ovlivňuje indexaci a organickou návštěvnost, a postupně jsme ji rozšiřovali na další sekce.
Optimalizace stránkování pomocí rel=”prev” a rel=”next” tagů byla implementována souběžně s řešením pro filtry a řazení. Tato změna byla méně riziková, protože neovlivňovala přímo indexaci stránek, ale poskytovala vyhledávačům dodatečné informace o struktuře webu.
Ve třetí fázi jsme optimalizovali interní odkazování a kompletně přepracovali sitemap.xml. Tato fáze byla kritická pro zajištění, že vyhledávače budou efektivně crawlovat a indexovat správné stránky.
Optimalizace interního odkazování byla provedena postupně, začínající s hlavní navigací a drobečkovou navigací. Následně byly aktualizovány sekce souvisejících produktů a cross-selling. Tato změna vyžadovala pečlivou koordinaci s vývojovým týmem, aby se zajistilo, že všechny interní odkazy jsou generovány dynamicky na základě správných pravidel.
Přepracování sitemap.xml bylo provedeno po dokončení optimalizace interního odkazování. Nový sitemap obsahoval pouze kanonické URL a byl strukturován tak, aby usnadnil vyhledávačům efektivní crawlování webu. Sitemap byl automaticky generován na základě databáze produktů a byl pravidelně aktualizován, aby odrážel změny v produktovém katalogu.
V poslední fázi jsme začali postupně implementovat 301 přesměrování, začínající s nejproblematičtějšími sekcemi webu. Tato fáze byla implementována postupně a pečlivě monitorována, aby se minimalizovalo riziko negativního dopadu.
Přesměrování byla nejprve implementována pro nejčastěji navštěvované duplicitní URL, které byly identifikovány analýzou dat z Google Analytics. Postupně jsme rozšiřovali přesměrování na další sekce webu, vždy s pečlivým monitoringem dopadu na indexaci a organickou návštěvnost.
Během celého procesu implementace jsme pečlivě monitorovali několik klíčových metrik. Sledovali jsme počet indexovaných stránek v Google Search Console, počet stránek s duplicitními titulky a meta popisky, počet crawlovaných stránek denně, organickou návštěvnost a pozice klíčových slov, a také konverzní poměr a tržby z organického vyhledávání.
Pro monitoring jsme používali kombinaci nástrojů včetně Google Analytics, Google Search Console, profesionálních SEO nástrojů a vlastních monitorovacích skriptů. Tyto nástroje nám poskytovaly komplexní pohled na výkonnost webu a umožňovaly nám rychle identifikovat jakékoliv problémy nebo anomálie.
Implementace naší strategie pro řešení duplicitního obsahu přinesla výrazné zlepšení v indexaci a organické viditelnosti webu. Zde jsou klíčové výsledky, kterých jsme dosáhli během tří měsíců od zahájení projektu.
Počet indexovaných stránek v Google vzrostl z 22 000 na 31 000, což představuje nárůst o 40 %. Tento nárůst byl přímým důsledkem efektivnějšího využití crawl budgetu, který nyní nebyl plýtván na duplicitní stránky, ale mohl být využit k objevování a indexaci nových, unikátních produktů.
Počet stránek s duplicitními titulky klesl o 87 %, což výrazně zlepšilo kvalitu indexu a pomohlo vyhledávačům lépe pochopit obsah webu. Počet stránek s chybou “Discovered – currently not indexed” v Search Console klesl o 62 %, což indikovalo, že vyhledávače nyní efektivněji zpracovávaly obsah webu.
Průměrný denní počet crawlovaných stránek Googlebotem vzrostl o 35 %, což umožnilo rychlejší indexaci nových a aktualizovaných produktů. Průměrná doba stažení stránky Googlebotem se snížila o 0,4 sekundy, což indikovalo lepší technickou optimalizaci webu.
Efektivita crawlování, měřená jako poměr indexovaných stránek k crawlovaným, se zvýšila o 28 %. To znamenalo, že vyhledávače nyní efektivněji využívaly své zdroje při procházení webu a více crawlovaných stránek bylo skutečně indexováno.
Organická návštěvnost vzrostla o 23 % během tří měsíců od implementace změn. Tento nárůst byl způsoben kombinací lepší indexace, lepších pozic ve vyhledávačích a větším počtem indexovaných produktů, které nyní mohly být nalezeny uživateli.
Průměrná pozice sledovaných klíčových slov se zlepšila o 4,2 pozice, což výrazně zvýšilo viditelnost webu ve vyhledávačích. Počet klíčových slov, pro která se web zobrazoval na první stránce výsledků, vzrostl o 31 %, což vedlo k významnému nárůstu organické návštěvnosti.
Konverzní poměr z organického vyhledávání vzrostl o 7 %, což indikovalo, že návštěvníci nyní nacházeli relevantnější produkty a měli lepší uživatelskou zkušenost. Tržby z organického vyhledávání vzrostly o 28 %, což byl kombinovaný efekt vyšší návštěvnosti a lepšího konverzního poměru.
Návratnost investice (ROI) projektu byla 380 % během prvních tří měsíců, což jasně demonstrovalo obchodní hodnotu řešení problémů s duplicitním obsahem. Tato vysoká návratnost investice byla dosažena díky relativně nízkým nákladům na implementaci změn v porovnání s významným nárůstem tržeb.
Abychom lépe ilustrovali dopad našich opatření, zde jsou konkrétní příklady zlepšení pro vybrané kategorie a produkty.
Před optimalizací bylo indexováno pouze 41 % produktů v této kategorii. Po optimalizaci se tento podíl zvýšil na 86 %, což znamenalo, že mnohem více produktů bylo nyní viditelných ve vyhledávačích. Organická návštěvnost této kategorie vzrostla o 42 %, což výrazně zvýšilo prodeje v této klíčové kategorii.
Před optimalizací existovaly čtyři různé URL tohoto produktu v indexu, což tříštilo jeho hodnotu a vedlo k horším pozicím ve vyhledávačích. Po optimalizaci byla v indexu pouze jedna kanonická URL, což konsolidovalo hodnotu všech odkazů a zlepšilo pozice ve vyhledávačích. Pozice pro hlavní klíčové slovo se zlepšila z osmé na třetí, což vedlo k nárůstu organické návštěvnosti na tento produkt o 156 %.
Před optimalizací se web zobrazoval pro přibližně 28 000 klíčových slov. Po optimalizaci se tento počet zvýšil na přibližně 42 000 klíčových slov, což představuje nárůst o 50 %. Tento nárůst byl způsoben především lepší indexací produktových stránek, které nyní mohly být nalezeny pro specifické long-tail dotazy. Návštěvnost z long-tail klíčových slov vzrostla o 37 %, což významně přispělo k celkovému nárůstu organické návštěvnosti.
Na základě našich zkušeností z tohoto projektu jsme formulovali několik klíčových poučení a doporučení pro řešení problémů s duplicitním obsahem.
Před implementací jakýchkoli změn je nezbytné provést důkladnou analýzu a pochopit všechny vzory duplicit na webu. Bez tohoto pochopení mohou být implementovaná řešení neúčinná nebo dokonce kontraproduktivní. V našem případě nám detailní analýza umožnila identifikovat všechny typy duplicit a vytvořit specifická řešení pro každý typ.
Implementace změn v postupných fázích nám umožnila monitorovat dopad každého kroku a případně upravit strategii. Tento přístup minimalizuje riziko negativního dopadu na SEO a uživatelskou zkušenost. V našem případě jsme začali s nejméně rizikovými změnami, jako jsou kanonické tagy, a postupně jsme přecházeli k více komplexním řešením, jako je 301 přesměrování.
Žádné jednotlivé řešení (kanonické tagy, přesměrování, noindex) není samo o sobě dostatečné pro komplexní problém s duplicitním obsahem. Kombinace různých přístupů přináší nejlepší výsledky. V našem případě jsme použili kombinaci kanonických tagů, atributů noindex, optimalizace interního odkazování a 301 přesměrování, což nám umožnilo efektivně řešit různé typy duplicit.
Úzká spolupráce s vývojovým týmem klienta byla klíčová pro úspěšnou implementaci našich doporučení. Pravidelné schůzky a jasná dokumentace pomohly překonat technické výzvy a zajistily, že změny byly implementovány správně. V našem případě jsme vytvořili podrobnou dokumentaci s příklady pro každý typ stránky, což výrazně usnadnilo implementaci.
Ačkoli jsme viděli rychlé zlepšení v některých metrikách, skutečný dopad našich opatření se projevil až po několika měsících. Je důležité mít trpělivost a zaměřit se na dlouhodobou strategii. V našem případě jsme viděli postupné zlepšování indexace a organické návštěvnosti během tří měsíců, přičemž plný dopad našich opatření se projevil až po šesti měsících.
Na základě našich zkušeností doporučujeme následující přístup pro řešení problémů s duplicitním obsahem na rozsáhlých e-commerce webech.
Začněte s důkladným auditem a identifikací všech vzorů duplicit. Tento krok je klíčový pro pochopení rozsahu problému a vytvoření efektivní strategie řešení. Věnujte dostatek času analýze dat a identifikaci všech typů duplicit na webu.
Vytvořte jasná pravidla pro určení kanonických URL adres. Tato pravidla by měla být jednoduchá, konzistentní a snadno implementovatelná. Ideálně by měla být automatizovatelná, aby mohla být aplikována na celý web bez nutnosti manuálních zásahů.
Implementujte kanonické tagy jako první krok, který může přinést rychlé zlepšení bez významných změn v architektuře webu. Kanonické tagy jsou relativně bezpečným řešením, které pomáhá vyhledávačům identifikovat preferované verze stránek bez ovlivnění uživatelské zkušenosti.
Řešte technické aspekty jako jsou filtry, řazení a stránkování pomocí kombinace rel=”noindex”, rel=”prev/next” a nastavení v Search Console. Tyto technické aspekty často generují velké množství duplicit a jejich řešení může výrazně zlepšit efektivitu crawlování.
Optimalizujte interní odkazování, aby konzistentně používalo kanonické URL. Interní odkazy jsou důležitým signálem pro vyhledávače a konzistentní používání kanonických URL pomáhá konsolidovat hodnotu stránek.
Přepracujte sitemap.xml, aby obsahoval pouze kanonické URL a byl strukturován efektivně. Sitemap je důležitým nástrojem pro komunikaci s vyhledávači a měl by obsahovat pouze ty stránky, které chcete mít indexované.
Implementujte 301 přesměrování jako dlouhodobé řešení, ale postupně a s pečlivým monitoringem. Přesměrování je nejsilnějším signálem pro vyhledávače, ale také nejrizikovějším z hlediska potenciálního negativního dopadu na SEO.
Pravidelně monitorujte klíčové metriky a buďte připraveni upravit strategii na základě výsledků. SEO je dynamický proces a to, co funguje dnes, nemusí fungovat zítra. Pravidelný monitoring vám umožní rychle identifikovat a řešit jakékoliv problémy.
Tento projekt jasně demonstruje, jak významný dopad může mít řešení problémů s duplicitním obsahem na indexaci a organickou viditelnost rozsáhlého e-commerce webu. Systematickým přístupem k identifikaci a řešení duplicit se nám podařilo zvýšit indexaci o 40 %, zlepšit organickou návštěvnost o 23 % a významně zvýšit tržby z organického vyhledávání.
Klíčem k úspěchu byla kombinace různých technických řešení, postupná implementace a pečlivý monitoring výsledků. Tento přístup minimalizoval rizika a maximalizoval pozitivní dopad našich opatření.
Problémy s duplicitním obsahem jsou běžné na mnoha e-commerce webech, ale s správným přístupem mohou být efektivně řešeny, což vede k významným zlepšením v organické viditelnosti a obchodních výsledcích.
© 2025 LAUFEY LTD