Een veel gehoord probleem met een foutje dat zo gemaakt is. Duplicate content betekend heel simpel dat dezelfde inhoud op meerder URL’s voorkomt. Zoekmachines kunnen moeilijk kiezen welke ze nu moeten laten zien en zodoende kunnen ze dus besluiten om maar 1 pagina te laten zien of helemaal niets. Vervelend dus, beter is het om je linkkracht te focussen op één pagina.
Zo kwam ik vanmiddag het volgende tegen op ons bekendste marketing blog: marketingfacts.nl
- http://www.marketingfacts.nl/rss_cat/rubriek/5/
- http://www.marketingfacts.nl/rss_cat/rubriek/51/
- http://www.marketingfacts.nl/rss_cat/rubriek/534213/
- http://www.marketingfacts.nl/rss_cat/rubriek/5123123/
- http://www.marketingfacts.nl/rss_cat/rubriek/1231212331/
Vroeger kon je heel makkelijk per categorie een RSS feed ophalen zodat je alleen bepaalde categoriën kon volgen, in het nieuwe redesign is deze handige feature helaas gesneuveld word op die pagina gewoon de frontpage weergegeven (of een XML variant hiervan, zodat een RSS lezer hier nog niets mee kan). Er wordt dus HTTP status 200 OK weergegeven op deze URL’s met als gevolg dat er als er links naar toe liggen deze geïndexeerd worden.
Niet erg netjes en zolang er niet naar gelinkt word ook niet echt een probleem, zeker niet gezien het de homepage betreft en mensen geen kwade zin hebben. Zo’n sitemap maken met 100.000 URL’s is niet zo’n probleem en mijn gok is dat Google dat niet zo gaaf vind, met niet altijd even prettige gevolgen.
Dit probleem is op minimaal 2 manier te verhelpen:
- 301 redirect naar de homepage of de feed
- Gebruik van de meta-tag canonical
Eenvoudig op te lossen of te voorkomen dus. Nu is dit wel beetje spijkers op laag water zoeken. Punt dat ik hiermee wil maken is dat ook al kan je webdesigner goed bouwen en huur je een goede SEO partij in, dit soort fouten voorkom je alleen maar als je webdevelopment club serieus SEO snapt of je alle beslissingen volledig na hebt gelopen. Dit is een “als-als-en-als” situatie die je vooraf nooit kunt raden. Het is dus slim om de echte essentie uit te leggen in een SEO workshop voor webdevelopers voordat je live gaat met een nieuwe site, zodat je dit soort kleine foutjes kunt afvangen en eventuele problemen in de toekomst kunt voorkomen.
PS: als je in je robots.txt zet dat je sitemaps hebt, is het ook wel handig deze daadwerkelijk te gebruiken en je site te verifiëren in de Google Webmaster Tools
Geef een reactie