Suche Software für Webseiten Check

C

Casimyr

Gast
Der Titel ist wohl etwas schwammig.

Ich suche ein (semi-)professionelles Tool / Webseite / Programm zur Unterstützung bei der Programmierung von Webseiten.

Die Software soll folgendes für mich erledigen:

- HTML Code / Tippfeheler suchen
- Links nach Dead Links überprüfen
- Fehlende 'title' und 'alt' Attribute, insbesondere bei Bilddateien anzeigen
- XML Sitemap erstellen

Optimal, aber nicht unbeding notwendig wären:
- Fehlende Title und Meta Angaben checken
- Doppelte Title und Meta Angaben finden
- weitere Hilfen aus dem Seo Bereich

Ich möchte vor allem einfache handwerkliche Fehler ausschließen.

Wenn weitere Hilfen, speziell zum Thema SEO, angeboten werden und der Preis der Software stimmt, wäre es auch gut.

Kann mir da jemand was empfehlen?
 
Naja, ich kann mir die Tools natürlich online zusammensuchen.

Aber eine eigene Software, die alles erledigt und eventuell noch mehr bietet wäre komfortabler.

edit: w3c checkt nur den Code. Mehr bekomme ich da nicht. Für fast alle genannten Probleme finde ich eine Seite, auf der ich das checken kann.
 
Zuletzt bearbeitet:
Casimyr schrieb:
- HTML Code / Tippfeheler suchen
Schreibfehler im Content musst du selbst bemerken, HTML-Fehler mäkelt der W3C-Valdiator an.

- Links nach Dead Links überprüfen
Dafür müsstest du jeden Link crawlen... n bisschen aufwändig, oder? Arbeite einfach sauber und verlinke nur, was auch funktioniert.

- Fehlende 'title' und 'alt' Attribute, insbesondere bei Bilddateien anzeigen
title ist eh optional, das sagt dir kein Tool. Alt ist Pflicht, wobei leeres alt ausreicht. Also... W3C Validator

- XML Sitemap erstellen
Die hat gefälligst dein System zu erstellen, nicht ein obskures Drittanbieter-Tool...

- Fehlende Title und Meta Angaben checken
- Doppelte Title und Meta Angaben finden
- weitere Hilfen aus dem Seo Bereich
Gibts dutzende Browser Addons, die genau das machen. Wozu also noch eins schreiben?
 
Daaron schrieb:
Dafür müsstest du jeden Link crawlen... n bisschen aufwändig, oder? Arbeite einfach sauber und verlinke nur, was auch funktioniert.

Und das funktioniert dann auch in alle Ewigkeit? Was an einem Crawler ein Riesenaufwand sein soll, erschließt sich mir persönlich nicht. Besonders viele Resourcen scheint mir das im Betrieb auch nicht zu benötigen.


Schau Dir mal grunt oder gulp an. Damit lassen sich viele Tasks automatisieren.
 
Sofern die Seite über Google zu finden ist, einfach mal Google's Webmaster Tools ausprobieren. Die sind genau für solche Dinge gemacht (Gibts vllt. auch von anderen Suchmaschienen?).
 
T0a5tbr0t schrieb:
Sofern die Seite über Google zu finden ist, einfach mal Google's Webmaster Tools ausprobieren. Die sind genau für solche Dinge gemacht (Gibts vllt. auch von anderen Suchmaschienen?).
Kann ich hiermit nur bestätigen. Macht genau das, was Du willst:
- Duplicate Content
- mangelhafte Meta-Tags (Keywords, Description, ...)
- tote Links
- ... im Grunde das wichtigste, was für die SEO Gift ist.
für SiteMaps gibts glaub auch was (wobei sowas heute eigentlich nicht mehr notwendig ist imho). Sofern Du eine solche nicht dynamisch auf dem Server auf Basis Deiner Inhalte generieren kannst, würde ich davon auch absehen, da eine falsche/veraltete Sitemap sicher mehr Schaden anrichtet, als eine richtige Gutes tut.

HTML-Validierung am besten mit dem W3C-Validator. Fürs erste hilft auch die Anzeige des Source-Codes in einem Browser wie Firefox, das reicht schonmal um verwaiste Closing-Tags oder nicht escaped-e &'s zu finden (in wiefern 100%-ige Standard-Konformität machbar/sinnvoll ist, mag jeder selbst entscheiden).

Grundsätzlich würde ich auch zur Entwicklung eine gute IDE statt einfachen Texteditoren empfehlen. Visual Studio z.B. weist mich auf fehlende Title-Tags, invalides HTML, JavaScript-Fehler usw. hin. Da VS für die reine Web-Entwicklung ohne den IIS nicht sinnvoll (und totaler Overkill) ist, kann ich Dir leider keine konkrete Empfehlung aussprechen.

Edit:

ach ja, ganz vergessen... zur Entwicklung in JavaScript empfehle ich http://www.jslint.com/ . Wenn die Warnungen/Fehler zu viel sind, und Du nicht verstehst, warum das Tool diverse Dinge ankreidet, empfehle ich auf YouTube nach JavaScript: The Good Parts zu suchen.
 
Zuletzt bearbeitet:
hier: http://smart.sistrix.de/

Die Seite crawlt deine Seite einmal durch und analysiert sie (findet, wenn ich mich recht erinnere, auch tote Links und fehlende/zu lange title-Tags sowie duplicate content). Zusammen mit den (schon erwähnten) Google Webmaster Tools und em (ebenfalls schon erwähnten) W3C Validator solte das eigentlich ausreichend sein.
 

Ähnliche Themen

Antworten
47
Aufrufe
190.672
Zurück
Oben