lordfritte
Lieutenant
- Registriert
- Juli 2006
- Beiträge
- 955
Hallo, ich hoffe hier kennt sich jemand mit dem crawler von google aus.
Ich habe folgendes Problem: Google crawlt täglich URLs. welche es gar nicht mehr in der sitemap gibt.
Die sitemap wird jeden Tag automatisiert neu generiert. Die "changefreq" ist auf "daily" festgelegt, aber dennoch tauchen jeden Tag neue 404 in der google search console auf.
Besonders interessant, erst vor 3 Tagen wurden Seiten mit einer .html Endung gecrawlt, solche Seite gibt es seit über 2 Jahren nicht mehr im System geschweige in der sitemap.
Hat jemand eine Idee, wie ich google vermitteln kann den Index zu aktualisieren?
Ich habe folgendes Problem: Google crawlt täglich URLs. welche es gar nicht mehr in der sitemap gibt.
Die sitemap wird jeden Tag automatisiert neu generiert. Die "changefreq" ist auf "daily" festgelegt, aber dennoch tauchen jeden Tag neue 404 in der google search console auf.
Besonders interessant, erst vor 3 Tagen wurden Seiten mit einer .html Endung gecrawlt, solche Seite gibt es seit über 2 Jahren nicht mehr im System geschweige in der sitemap.
Hat jemand eine Idee, wie ich google vermitteln kann den Index zu aktualisieren?