Seiten ausgeschlossen, trotz richtiger Sitemap

dig

Lieutenant
Registriert
Sep. 2012
Beiträge
655
Hi Leute, bei mir werden gerade Seiten ausgeschlossen die eigentlich richtig indexiert sind.
Habe mal ein paar Bilder angehängt. Kennt jemand das Problem und weiß zu helfen?
vielen Dank im voraus.
lars
Screenshot (108).png
 

Anhänge

  • Screenshot (107).png
    Screenshot (107).png
    76,2 KB · Aufrufe: 314
  • Screenshot (106).png
    Screenshot (106).png
    42,7 KB · Aufrufe: 316
  • Screenshot (105).png
    Screenshot (105).png
    123,3 KB · Aufrufe: 318
  • Screenshot (103).png
    Screenshot (103).png
    63,6 KB · Aufrufe: 311
  • Screenshot (103)_LI.jpg
    Screenshot (103)_LI.jpg
    540,5 KB · Aufrufe: 318
Guten morgen, aufgestanden. E-mail bekommen, neues Problem -.-
Kann es mir auch nicht erklären, da die Sitemap meiner Meinung nach richtig ist, und nichts in der robot.txt steht.
Ergänzung ()

mal aufgeklappt
 

Anhänge

  • Screenshot (110).png
    Screenshot (110).png
    97,7 KB · Aufrufe: 296
  • Screenshot (111).png
    Screenshot (111).png
    65,4 KB · Aufrufe: 295
Zuletzt bearbeitet:
Für mich sie die robots.txt richtig aus.

dig schrieb:

Ich hoffe das war ein Schreibfehler. Wobei alles indexiert wird, wenn die Datei so heißt.

Lösche die robots.txt mal vom Server und schau, was passiert. Dann kann man den Fehler wirklich auf die Datei schieben, ich sehe da aber wie gesagt nichts.
 
Wo genau hast du nachgeschaut?

Noch als Nachtrag: Hatte mal das Plugin Google XML Sitemaps und Yoast für die Sitemaps benutzt. Beides ist allerdings derzeit deaktiviert. Kann aber sein das irgendwo noch Spuren auf dem ftp liegen.

robots.exe habe ich gelöscht. Überlege die sitemap ebenfalls zu löschen und mir yoast premium zu holen, da ich mal gelesen habe das yoast dann auf die htaccess zugreift und nach Fehlern checkt.
 
Na auf deinem Screenshot habe ich nachgesehen. Hätte aber vielleicht besser direkt schauen sollen.

dig schrieb:

Bitte, eine solche Datei gibt es hoffentlich gar nicht. Du musst bei diesen Dateien auf die Namengebung und in der Datei auf die 100% korrekte Schreibung achten.

Deine Sitemap war übrigens mit http:// in der robots.txt angegeben, nicht mit https://, worauf automatisch verwiesen wird. Keine Ahnung, ob das Einfluss hat, sollte man aber auch vermeiden.

Deine jetzige robots.txt ergibt keinen Sinn:

Code:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Wenn du /wp-admin/ ausschließt, ist das Allow auf die admin-ajax.php ohne Funktion und wird nicht gelesen, da das ganze Verzeichnis ein Dissalow trägt. Eigentlich braucht man Allow gar nicht.
 
glaube du hast meine letzte Nachricht nicht gelesen.
dig schrieb:
Wo genau hast du nachgeschaut?

Noch als Nachtrag: Hatte mal das Plugin Google XML Sitemaps und Yoast für die Sitemaps benutzt. Beides ist allerdings derzeit deaktiviert. Kann aber sein das irgendwo noch Spuren auf dem ftp liegen.

robots.exe habe ich gelöscht. Überlege die sitemap ebenfalls zu löschen und mir yoast premium zu holen, da ich mal gelesen habe das yoast dann auf die htaccess zugreift und nach Fehlern checkt.
Ergänzung ()

meinte natürlich robots.txt. Hatte mich nur verschrieben
 
Zurück
Oben