Webseite nicht von Google indexiert, warum?

webmark487

Newbie
Registriert
März 2024
Beiträge
7
Hallo,
Die Webseite christian-ostermann.com wurde von mir vor ca. 1 Monat online geschalten, sie ist immer noch nicht indexiert.
GSC sagt "Seite ist nicht indexiert: Durch "noindex"-Tag ausgeschlossen".
Siehe attachment.
Ich habe schon alles (mir) Mögliche versucht, keine Ahnung, warum sie nicht indexiert wird.
Bitte um Hilfe, Danke im Voraus.
Freundliche Grüße
Markus
 

Anhänge

  • co_noindex.jpg
    co_noindex.jpg
    79,3 KB · Aufrufe: 178
Im Quelltext steht zwar:

Code:
<meta name='robots' content='index, follow, max-image-preview:large, max-snippet:-1, max-video-preview:-1' />
Aber das hier scheint das Problem zu sein.
Code:
# START YOAST BLOCK
# ---------------------------
User-agent: *
Disallow:

Sitemap: https://www.christian-ostermann.com/sitemap_index.xml
# ---------------------------
# END YOAST BLOCK

Ich würde auf den ersten Blick mal raten in den Einstellungen des Yoast-Plugins zu schauen, was diesen Eintrag in die robots.txt schreibt.
 
Die Angaben auf deinem Screenshot stammen vom 30.1.2024. Wenn Du die Webseite vor einem Monat live geschaltet hast, sind die Angaben somit veraltet. Du musst den Bot veranlassen sie erneut zu crawlen. Denn alle Angaben zur Indexierung sind derzeit richtig gesetzt (auch das was in der robots.txt steht ist richtig).
 
danke für die schnellen Antworten
dass Google sagt, dass ein noindex Tag das Problem ist, habe ich gesehen.

Im Screenshot habe ich deswegen die 2 Zeilen rot unterstrichen.

Seitenindexierung Seite ist nicht indexiert: Durch "noindex"-Tag ausgeschlossen
Indexierung zulässig? Nein: "noindex" im Meta-Tag "robots" erkannt


es ist aber kein noindex Tag gesetzt.
 
Und was steht in deiner robots.txt?

Edit: URL übersehen
 
Ich wuerde das mal bereinigen.

Code:
<meta name='robots' content='index, follow, max-image-preview:large, max-snippet:-1, max-video-preview:-1' />

Da sollten eigentlich " hin anstatt '.

@Iriquois
Das was Du da auffuehrst ist eigentlich das Erlauben von ALLEN Robots.
Ergänzung ()

pseudopseudonym schrieb:
nd was steht in deiner robots.txt?

1709856004358.png
 
@BFF Danke, bin wohl blind...
 
in der robots.txt (von Yoast generiert) steht:

Code:
# START YOAST BLOCK
# ---------------------------
User-agent: *
Disallow:

Sitemap: https://www.christian-ostermann.com/sitemap_index.xml
# ---------------------------
# END YOAST BLOCK

meines Wissens bedeutet das, dass jeder Robot von nichts ausgeschlossen ist
 
Zuletzt bearbeitet:
Hi...

webmark487 schrieb:
es ist aber kein noindex Tag gesetzt.
Ähm, ja... das Problem ist:
vom Codevorgebenden und -interpretierenden "Suchdienst-Unternehmen" wird die Angabe innerhalb des "YOAST BLOCK" nicht exklusiv nur für YOAST benutzt - der Parameter Disallow bei der Angabe User-Agent: * betrifft alle Suchdienste, ergo auch G*. Ein "Disallow" ohne weitere Spezifizierung bzw. Angabe von Unterverzeichnissen/Dateien wird von G* als Verbot für das globale Hauptverzeichnis (ergo die Domain) und damit gleichbedeutend einem "No-Index" interpretiert.
Siehe zur Konfiguration dazu die von G* empfohlenen Spezifikationen.

- EDIT -
P.S.:
Fast perfektes Beispiel, wie diese SEO-Module Code "verschlimmbessern" - die Sitemap-Angabe sollte in der robots.txt auch mal geändert werden auf https://www.christian-ostermann.com/page-sitemap.xml, denn dort sind ja die relevanten Informationen platziert.​
 
Zuletzt bearbeitet: (Beitrag ergänzt)
Code:
<meta name='robots' content='index, follow, max-image-preview:large, max-snippet:-1, max-video-preview:-1' />

also mit ' (nicht mit ") verwende ich zb. auch bei einer anderen Webseite (andreasfrischmann.com), diese Webseite ist ohne Probleme indexiert

und auch die https://www.andreasfrischmann.com/robots.txt schaut quasi exakt gleich aus wie die https://christian-ostermann.com/robots.txt
 
Zuletzt bearbeitet:
threadi schrieb:
Die Angaben auf deinem Screenshot stammen vom 30.1.2024. Wenn Du die Webseite vor einem Monat live geschaltet hast, sind die Angaben somit veraltet. Du musst den Bot veranlassen sie erneut zu crawlen. Denn alle Angaben zur Indexierung sind derzeit richtig gesetzt (auch das was in der robots.txt steht ist richtig).
ich verstehe - Neuindexierung habe ich ja schon öfter beantragt, dann wird das passen, sobald die Neuindexierung durch ist - hoffentlich
 
User007 schrieb:
Ein "Disallow" ohne weitere Spezifizierung bzw. Angabe von Unterverzeichnissen/Dateien wird von G* als Verbot für das globale Hauptverzeichnis
Nein. Ein "Disallow:" verbietet nichts und erlaubt somit die gesamte Site, ein "Disallow: /" hingegen verbietet die gesamte Site.
 
  • Gefällt mir
Reaktionen: BFF
Vielen Dank, mittlerweile ist sie indexiert. Es hat bis dato bei keinem meiner Webprojekte 10 Tage gedauert, bis die Seite indexiert wurde. Die Neuindexierung habe ich in der GSC seit ca. 1 Woche versucht, ohne Erfolg. Deswegen dachte ich, dass doch eine Konfiguration fehlerhaft ist.
Es funktioniert jetzt!
 
Zurück
Oben