News Firefox-Addon „Page Speed“ von Google

Flachzange schrieb:
1) Geht ja wohl kaum um den traffic sondern um die Ladezeit
2) Nicht alle Optimierungen sind "eher offensichtlich"
3) Nicht nur Firmen hosten Webseiten
Wenn man privat einen Webserver betreibt, muss man sich im klaren sein, was man anbietet.
Der größte Trafficverursacher (auch absolut in heruntergeladenen Bytes und der Ladezeit) sind Werbebanner und Co. auf Flashbasis.
Stellt Flash aus und schon habt ihr schnelleren Seitenaufbau.
Wer mit seinem Edge Mobilphone Medienbibliotheken ansurft, den kann eh nicht mehr geholfen werden.

Verzichtet man als Webdeveloper auf diverse Sachen nur weil wohlmöglich ein armer Tropf mit seinem Handy auf seine Webseite gelangt ist? Nein.
Wer nicht in der Lage ist, seinen Browser Bilder und Multimedia zu verbieten, um Downloadlimits etc. einzuhalten, hat im heutigen Web 2.0 nichts zu suchen.
Der Endnutzer muss sich den Gegebenheiten anpassen. Nicht umsonst existieren Derivate von Opera und Co., die sich diesem Problem annehmen.
 
Absolut gut Sache. Wenn ich mir überleg, wie schlecht manche Pages gecoded sind.
Der Traffic kann dort nicht nur reduziert werden, sondern auch die gesamte Geschwindigkeit der Page.

Wie langsam vor allem manche Flash Seiten sind merkt man erst, wenn man darauf mal mit einem Netbook zugreift. Ich denke da beispielsweise an Prosieben.tv. Viel Schnick Schnack und viele Animationen, läuft aber unter aller Sau.
 
Ok, wer recherchiert hier wieder mal solche News? Das Addon ist schon mehrere Monate alt und nichts Neues. Aber was manche Leute hier in den Kommentaren für einen Mist schreiben wie "Damit telefoniert Google bestimmt nach Hause" ist auch nicht viel besser.

CB, bitte konzentriert euch mehr auf das was ihr könnt: Hardware-News.
 
ScoutX schrieb:
Wer sich als Firma nicht unlimited Traffic leisten kann, der ist arm dran. Denn der Aufpreis ist relativ gering.
Du denkst weil du jetzt bei irgende einem 0815 billig Hoster 1 Euro oder so mehr zahlst und dort unlimited Traffic steht, hast du wirklich unlimited Traffic? Verbrauch mal etwas mehr Traffic als eine winzige Seite die maximal von 2 Leuten am Tag besucht wird und du wirst merken wie unlimited das ganze wirklich ist :rolleyes:...

Unlimited gibt es höchstens nur für eine ganze Menge Geld...
ScoutX schrieb:
Wer als Firma ein Google Speed Page braucht, um irgendwelche eher offensichtlichen Optimierungen zu erkennen, der tut mir Leid.
Nein du tust mir Leid, da du anscheinend keine Ahnung hast...

Einerseits sind nicht alle Optimierungen sofort zu erkennen, zweitens übersieht man leicht Dinge, die eine Software nicht übersieht (es ist Unterstützung nicht Ersatz!) und drittens bewertet Google Seiten auch nach ihrer Größe und Ladegeschwindigkeit und wenn man jetzt ein Tool direkt von Google bekommt kann man auch gezielt Suchmaschinenoptimierung betreiben!

Hier ein Link darüber, dass Google die Geschwindigkeit in die Bewertung mit einfließen lässt: http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html
Und hier ein paar generelle Informationen darüber wie man Seiten schneller bekommt (auch wenn es vorrangig um die Vorstellung einer PHP Bibliothek geht): http://www.peterkroener.de/der-css-...k-zur-ladezeitenbeschleunigung/#comment-31180
braumeister schrieb:
Wen intressiert denn in der heutigen Zeit von DSL 16000 und co. bitteschön Ladezeiten von Webseiten und Traffic??? Und bevor jetzt losgeflamed wird: Bilder, Videos, Flash und so Zeug kann man mit Codeoptimierung nicht kleiner bzw. schneller machen!
JEDEN! Du kannst noch so viel MB Datendurchsatz haben, wenn die Seite mit Javascript Bildern und co so dermaßen überlastet ist, dass es auf den meisten Rechnern hängt oder aber wenn die Seite zum Beispiel in tausende kleine Dateien zerlegt wurde.

Auch hat nicht jeder DSL 16000 und mehr oder kann kann das überhaupt bekommen! In Deutschland haben das wahrscheinlich sogar die aller wenigsten! Auch gibt es noch genügend Leute die maximal DSL Light oder gar nicht mal das haben! Aber ja es ist schon verdammt schwer einen Zentimeter über den Tellerrand zu schauen!

Hinzu kommt, dass bei genügend gleichzeitigen Zugriff auch der Server schnell an das Limit seiner Leitung kommen kann oder aber es wird verdammt teuer das Limit so hoch zu halten, dass dies nicht mehr eintritt und wir reden hier (ohne Traffic) nicht nur von ein paar Hundert Euros...
Benzer schrieb:
Der einzige dem das tool was nützt ist google, es telefoniert bestimmt nach hause und so verschafft sich google mal wieder einen überblick über das surfverhalten der nutzer ect.
Nein nicht nur denen nützt das, jedoch teile ich deine Bedenken, dass man sich das Tool mit der Spionage seitens Google erkauft...
 
Zuletzt bearbeitet:
ScoutX schrieb:

Hier geht es nicht primär um Traffic oder oder tatsächliche Datenvolumen, sondern um die Performance des Codes auf Clientseite.

Hier wird wild diskutiert, aber es hat sich offensichtlich mal wieder niemand tatsächlich mit dem Thema beschäftigt:

http://code.google.com/intl/de-DE/speed/page-speed/docs/rules_intro.html schrieb:
About the performance best practices

Page Speed evaluates performance from the client point of view, typically measured as the page load time. This is the lapsed time between the moment a user requests a new page and the moment the page is fully rendered by the browser. The best practices cover many of the steps involved in page load time, including resolving DNS names, setting up TCP connections, transmitting HTTP requests, downloading resources, fetching resources from cache, parsing and executing scripts, and rendering objects on the page. Essentially Page Speed evaluates how well your pages either eliminate these steps altogether, parallelize them, and shorten the time they take to complete. The best practices are grouped into five categories that cover different aspects of page load optimization:

* Optimizing caching — keeping your application's data and logic off the network altogether
* Minimizing round-trip times — reducing the number of serial request-response cycles
* Minimizing request overhead — reducing upload size
* Minimizing payload size — reducing the size of responses, downloads, and cached pages
* Optimizing browser rendering — improving the browser's layout of a page

ScoutX schrieb:
Verzichtet man als Webdeveloper auf diverse Sachen nur weil wohlmöglich ein armer Tropf mit seinem Handy auf seine Webseite gelangt ist? Nein.
Wer nicht in der Lage ist, seinen Browser Bilder und Multimedia zu verbieten, um Downloadlimits etc. einzuhalten, hat im heutigen Web 2.0 nichts zu suchen.
Der Endnutzer muss sich den Gegebenheiten anpassen. Nicht umsonst existieren Derivate von Opera und Co., die sich diesem Problem annehmen.

LOL, naja, es gibt mit Hilfe von Browsererkennung die unterschiedlichsten Möglichkeiten eine Webseite für eine bestimmte Zielgruppe zu optimieren.
Aber abhängig davon macht es schon einen erheblichen Unterschied, wie effizient eine Webseite arbeitet. Wenn auf einer Webseite 30 Bilder geladen werden müssen, macht es einen erheblichen Unterschied, mit welchem Dateiformat, mit welcher Kompression usw. die Bilder gespeichert wurden. Der Enduser merkt so etwas vielleicht nicht direkt, wenn er eine fette Leitung hat, aber Leute die noch mit ISDN & Co unterwegs sind, merken das sehr wohl. - Und von denen gibt es noch erstaunlich viele.

Mal ganz davon abgesehen, dass dabei serverseitig auch komplett andere Volumina entstehen. Selbst wenn ein Unternehmen o.ä. kein Volumenkontingent bei der Internetanbindung hat, du vergisst hier völlig alles was innerhalb des Rechenzentrums vor sich geht - z. B. die entstehende Server-/Netzwerklast, wenn 1.000 Leute eine Webseite mit 100 Bildern à 100KiB oder eben eine mit 100 Bildern à 50KiB anfordern. Rechne's dir aus ;)

Das Ganze hat jedoch mit dem eigentlichen Thema nichts zutun (siehe oben).
 
Zuletzt bearbeitet:
@ BPoenix: Die Firma sollte aber auch entsprechend ausgebildete Webdesigner anstellen.
Es ist nicht die Aufgabe der Firma, mit Google Speedpage, jemanden die Arbeit zu erleichtern.
Sorry wenn es so rüber kommt. Aber wer seinen Beruf nicht versteht, sollte auch kein Webmaster sein. Der Mensch ist keine Maschine und übersieht natürlich immer etwas.
Die grundsätzliche Arbeit hängt aber von der Erfahrung und dem Willen ab, neues auszuprobieren und mit dem Lauf der Zeit zu gehen.

Die meisten schlecht gecodeten Seiten sind tatsächlich auch so schlecht, dass es auch ohne Google Speedpage offensichtlich ist.
Wenige Fehler oder andere Kleinigkeiten sind verschmerzbar. Vielleicht auch eher der persönliche Stil des Webmasters.

Oft ist der Seitenaufbauspeed eher vom Hoster und dessen MySQL Implementierung, Apacheimplementierung und Co. begrenzt, da diese keine bugbereinigten Versionen haben und dessen Datenbankserver einfach grotten langsam sind.

Unlimited traffic. Ich habe geschrieben relativ: Man sollte es sich eben leisten, um nicht im nachhinein doch draufzubezahlen. Wer hier einspart, muss die Konsequenzen tragen. Solche Seiten dürfen aber auch nicht verlangen, bandbreitenintensive Anwendungen zu fordern und trotzdem nur durch Codeoptimierung noch im grünen Bereich zu liegen.
Man muss sich deutlich machen in welchem Verhältnis beides zueinender steht.
Cacheoptimierungen und Benutzung einer Datenbank zur Referenzierung von Content gehört ebenso zum Repertoire eines Coders.
Wenn keine ordentliche Datenbank vorhanden ist, wird natürlich viel doppelt und dreifach geladen, insbesondere mehrfach genutzte Bilder etc. Muss uns dies aber Google sagen?

Suchmaschinenoptimierung ist eh verpönt. Wer vernünftig nach Dublin Core Meta Tags setzt, bekommt mehr Ranking Punkte, als wenn man es übertreibt. Wer im Grundsatz nicht weiß, wass für Parameter die Suchmaschinen listen und was negative Bewertungen einbringt, der sollte sich mit dieser Materie beschäftigen.

Abschluß: Ich bin nicht gegen dieses Tool, nur sollte man zuerst die groben Unstimmigkeiten einer Seite beseitigen, bevor man dann so etwas einsetzt.
Bei den Kleinigkeiten wird dies kaum mehr als 3 oder 4 Punkte ausmachen, was marginal ist.

@erazzed . Ich stimme dir im Grundsatz zu. Aber ich bin der Meinung, dass man auf das Rechenzentrum nicht Rücksicht nehmen darf. Die Zeit bleibt nicht stehen. Die Server werden schneller und schneller. Die ersten Stimmen mit möglichen Exabyte an Datenverarbeitung werden laut.
Wer veraltete Server hat, der ist eben nicht wettbewerbsfähig. Das ist eben unsere schnelllebige IT Welt.
Außerdem kenne ich nur wenige Seiten, die auf jpg und png verzichten. Dieser verschwindend kleine Teil an bmp und tiff Angeboten, macht den Kuchen nicht fett.
 
Zuletzt bearbeitet:
Hmm also sehr veraltet und dazu noch total uninteressante News. CB, wie ein Vorredner schon gesagt hat, eure Tests sind es warum ich und viele andere bestimmt auch eure Webseite besuchen. Jetzt werden schon News über Plugins gebracht, die dazu auch noch monate alt sind :(
 
braumeister schrieb:
Wen intressiert denn in der heutigen Zeit von DSL 16000 und co. bitteschön Ladezeiten von Webseiten und Traffic???

In unserer lieben Bundesrepublik ist DSL 16000 nach wie vor eher Ausnahme als Regel.
 
Hackt bitte nicht auf den armen Autor herum. Wahrscheinlich gegoogelt. 5. Juni gesehen und dann gepostet.Ob es nun 2009 war, was soll es.
 
Das Addon ist wirklich sehr nützlich, vor allem für die Suchmaschinenoptimierung. Ich nutze es allerdings schon seit einigen Monaten.

braumeister schrieb:
Wen intressiert denn in der heutigen Zeit von DSL 16000 und co. bitteschön Ladezeiten von Webseiten und Traffic???
Google? Die Ladegeschwindigkeit einer Seite ist ein wichtiger Rankingfaktor, außerdem nehmen Bots Webseiten nicht in Ihren Suchmaschinenindex auf, wenn die Ladezeiten zu lange sind.
Die Ladezeiten sollten nicht viel länger als eine Sekunde betragen, am besten unter einer halben Sekunde liegen.

ScoutX schrieb:
Wer als Firma ein Google Speed Page braucht, um irgendwelche eher offensichtlichen Optimierungen zu erkennen, der tut mir Leid.
Page Speed ist ein Analysetool, um z.B. Websites zukünftiger Kunden schnell analysieren zu können, um zu sehen, wo welcher Optimierungsbedarf besteht.
 
Zuletzt bearbeitet:
Da das Hauptgeschäft Googles das Internet ist, ist deren Qualität, von größter Bedeutung und deshalb auch dieses Tool. Weshalb man es natürlich aber nicht schlecht finden muss.
 
Sorry, aber das ist doch alt, für Firebug gibt es schon seit "Jahren" das Entwickler Addon YSlow. Von den Yahoo Entwicklern.
Das Tool ist extrem wertvoll für das entwickeln von Internet-Applikationen

Google bringt quasi nur ein eigenes Update heraus.
 
ScoutX schrieb:
Oft ist der Seitenaufbauspeed eher vom Hoster und dessen MySQL Implementierung, Apacheimplementierung und Co. begrenzt, da diese keine bugbereinigten Versionen haben und dessen Datenbankserver einfach grotten langsam sind.

nein das macht im Schnitt nur 10% der Seitenaufbauzeit aus. Der überwiegende Teil hängt vom Rendern des Frontends ab. Empfehlenswertes Video zu dem Thema:
http://www.youtube.com/watch?v=aJGC0JSlpPE
sein Buch kann ich auch empfehlen.

Gerade bei den immer wichtiger werden Smartphones ist das ganze wichtig. Über UMTS hat man, wenn man Glück hat einen Ping von 200ms, ganz schlecht wenn man dann auf einer Seite landet, die hunderte Icons,... laden muss. HTTP ist immer noch auf ZWEI gleichzeitige Verbindungen begrenzt. Da ist es schon eine enorme Verbesserungen wenn sich der Browser die ganzen 304er Anfragen sparen kann, weil der Entwickler auf Versionierung und Caching seiner Objekte geachtet hat.
 
Ein absolutes Muss für jeden Seitbenbetreiber.
Die CSS Komprimierung bzw. Javascript Komprimierung erfolgt dadurch das alle einzelnen CSS / Javascript Dateien zu einer Datei jeweils zusammengefasst werden und anschließend komkprimiert werden. Wesentliche Bilder die auf jeder Seite vorkommen können als CSS Sprite eingebunden werden.

Technisch betrachtet ergibt sich der Performance Boost dadurch das insgesamt weniger Request zum laden der Seite benötigt werden. Da ja mit HTTP 1.1 Protokol nur 2 Dateien gleichzeitig geladen werden können ergibt sich bei einer großen anzahl von requests eine lange Ladezeit.

Und um auch mal auf das Thema"Das bringt ja nix!" einzugehen: Definitiv bringt es eine ganze Menge. Schließlich ist es nachweisbar das die Ladezeit der Seite auch damit in Verbindung steht wie lang ein Besucher auf einer Seite bleibt. Gerade bei Internet Shops ist das ein wichtiger Aspekt!

Und ja, nicht jeder hat eine 16.000er Leitung. Gerade im mobilen Sektor (Edge) merkt man den Unterschied enorm.
 
Vielleicht ist das Add-On in einer Beta-Phase gwesen? Ansonsten benutz ich das auch schon seit Anfang des Jahres, ein klasse Tool! :)
 
Ich habe mir das Sounders Video angetan.
Viele recht dürftige Statistiken. Das bemerkenswerteste war, noch den Vatikan und den Mittlere Osten "abzuurteilen". Ich habe das Gefühl, dies war Absicht.
Ansonsten nichts neues: Neue Browser und alte Browser. Schlechte Server und bessere Server (compression, minifying). Gut 80 % aller Webseiten hat darauf noch nicht mal einen Einfluß, da shared Server. Wie ich schon sagte, wie man Apache konfiguriert, ist ausschlaggebend.
Proxies und Antivirensoftware bremsen aus. Nicht, dass wir das nicht wissen.
Dies war eher ein langwieriger Vortrag für Semi- bis Prowebseitenhoster und ein klares Statement an die Browserentwickler, wo Fehler begangen werden.

Die paar Hinweise, die Alltagstauglich sind, kann man mitnehmen.

Ich sehe das Fazit so: Bitte nehmen sie einen anderen Browser (Opera).
Bitte sitzen sie nicht hinter einem Proxy, benutzen sie auch keine Filtersoftware oder Antivirensoftware. Sie werden einen schnelleren Seitenaufbau haben.
Interessant, womit man Geld verdienen kann.
 
Zurück
Oben