[Suche] Statistiken zur Erreichbarkeit großer Internetkonzerne

MenschGuenther

Cadet 4th Year
Registriert
Juni 2012
Beiträge
112
Hi,

ich bin zur Zeit auf der Suche nach ein paar Fakten, die gewisse Aussagen zu unseren großen Internetkonzernen belegen.

z.B.
Google: 0,5 sec Verzögerung -> 20 % weniger Traffic
Amazon: Pro 100 ms Verzögerung -> 1 % weniger Umsatz

Leider habe ich in den Berichten zu diesen Aussagen keine Quellen gefunden, die dies belegen.
Kennt ihr ein paar Seiten, wo ich solche Dinge nachlesen kann ?
Gerne auch von anderen Firmen.
 
"Amazon: Pro 100 ms Verzögerung -> 1 % weniger Umsatz"

Was hat die Verzögerung mit Umsatz zu tun?
Edit: Beim ersten Beispiel verstehe ich das genauso wenig....

Also ich könnte mir vorstellen was er meint, das sind doch aber nur Rechnungen die zwar mathematematisch richtig sind aber Praktisch nicht sinnvoll sind... und auch vollkommen in der Zufälligkeit untergehen...

Also für mich nur Spielereien von Leute die gerne Dinge ausrechnen :)
 
Zuletzt bearbeitet von einem Moderator:
Weiss schon was er meint, aber ich kann nicht sagen, ob das was die Börsen betrifft auch auf anderes anwendbar ist. Wobei sowas gerne schöngerechnet wird. Kann ja auch gut sein, dass mann dank Latency bessere oder schlechtere Kursbedingungen hat, je nachdem wies gerade schwankt.
Evtl hält www.eunetworks.com was bereit.

http://www.eunetworks.com/eutrade.html
 
Zuletzt bearbeitet:
evtl. findest du ja auf alexa.com etwas dazu
 
homerpower schrieb:
"Amazon: Pro 100 ms Verzögerung -> 1 % weniger Umsatz"

Höhere Absprungraten bei höherer Verzögerung. Aber sicherlich erst ab einer bestimmten "Schmerzgrenze". Und sicherlich kein komplett linearer Zusammenhang.

Aber selbst Google ranked dich schlechter, wenn deine Seite lahm ist.

Beim ersten Beispiel verstehe ich das genauso wenig....
Höhere Verzögerung -> weniger Requests pro Sekunde -> weniger Traffic
 
Danke schonmal für die Antworten.
Etwas abstrakter mein ich auch:

"Wie wirkt sich die Antwortzeit einer Webseite auf deren Nutzerverhalten aus."

also, klicken die Nutzer das rote X wenn die Seite sich nicht innerhalb 3 Sekunden aufbaut..?!
 
Ist das nicht bischen einseitig betrachtet?
Die Geschwindigkeit des Internets des potentiellen Käufers wird hier ja garnicht betrachtet.
Klar lädt das Handy langsamer als der PC mit 100Mbit Leitung.
 
@moodle
weniger traffic pro Sekunde, der gesamte traffic bleibt gleich, nur über einen längeren Zeitraum verteilt (es sei denn die Seite ist so lahm, dass der Nutzer sie schließt)
 
Hier habe ich nochmal eine andere Seite gefunden, die genau das Anspricht:

Die Toleranz der Nutzer, auf die Ladezeit einer Website zu warten, ist mehr als begrenzt. Google fand gemeinsam mit Bing innerhalb einer Studie heraus, dass bei der Ladezeit einer Website oft Millisekunden über ihren weiteren Erfolg entscheiden. Selbst minimale Anpassungen der Antwortzeiten führten zu signifikanten Veränderungen. Als die Homepage von Google Maps von 100 KB auf 78 bis 80 KB reduziert wurde, stieg der Traffic innerhalb der ersten Woche um 10 Prozent und in den folgenden drei Wochen noch mal um 25 Prozent. Ein Test des Online-Händlers Amazon ergab ähnliche Ergebnisse. Jede Erhöhung der Ladezeit um 100 Millisekunden erzielte eine Verlaufssteigerung von einem Prozent. Experimente mit Microsoft und Live Search zeigten, dass die Verlangsamung von Suchergebnisseiten um eine Sekunde dazu führte, dass ein Prozent weniger Suchanfragen stattfanden und 1,5 Prozent weniger Werbeklicks verzeichnet wurden. Nachdem die Anzeigeschnelligkeit sogar um 2 Sekunden verschlechtert wurde, fielen die Suchanfragen um 2,5 Prozent und die Werbeklicks um 4,4 Prozent.


Auch hier ist in den Quellen keine Verlinkung zu den Studien von Google, Bing und Amazon :(
 
Gandalf2210 hat es erkannt. Bei höherer Serverauslastung steigt natürlich die "Verzögerung", aber gerechnete auf die volle Minute ergeben sich daraus keine Änderungen gegenüber theoretisch 0ms Verzögerung. Der limitierende Faktor ist in diesem System die Anzahl der Personen, die zugreifen wollen. Das ist keine Funktion der Serverantwortzeit.
 
Gandalf2210 schrieb:
@moodle
weniger traffic pro Sekunde, der gesamte traffic bleibt gleich, nur über einen längeren Zeitraum verteilt (es sei denn die Seite ist so lahm, dass der Nutzer sie schließt)

Die Reaktionszeit der Seite verändert jedoch trotzdem mein Nutzerverhalten - selbst wenn ich sie nicht sofort verlasse.
Ladet eine Seite sehr schnell, dann klicke ich gerne herum nur um auszuprobieren, ohne bestimmtes Ziel.

Bei einer lahmen Seite (so 2-3 Sekunden) bewege ich mich schon gezielter auf der Seite.

Ab ca. 5 Sekunden habe ich keine Lust mehr auf der Seite zu surfen :D

Und wie ich schon geschrieben habe:
Schlechtere Reaktionszeit -> schlechteres Google-Ranking -> weniger Besucher -> weniger Traffic
Auf Google selber trifft das natürlich nicht zu xD
 
Die Reaktionszeit der Seite verändert jedoch trotzdem mein Nutzerverhalten - selbst wenn ich sie nicht sofort verlasse.
Na das möchte ich sehen, dass du den Unterschied zwischen 4 und 20ms merkst. (immerhin Faktor 5)
 
Sherman123 schrieb:
Na das möchte ich sehen, dass du den Unterschied zwischen 4 und 20ms merkst. (immerhin Faktor 5)

Es ging im Eingangsposts um 500ms Schritte ;)

Und ja, ich meinte auch mehr Ladezeit ^^
 
Zuletzt bearbeitet:
Also ich glaube hier muss man ein paar Dinge unterscheiden, 100 ms ist eine 10tel Sekunden, davon 2-3 mehr wird wohl keinem auffallen. Wenn die Seite aber mal gut 3 Sekunden länger braucht kann ich mir vorstellen das ein Paar Leute abspringen...

@moodle:
"Höhere Verzögerung -> weniger Requests pro Sekunde -> weniger Traffic"


Als Beispiel:

Alle Menschen surfen 10 Mrd. Stunden am Tag, pro Minute ein Webseite, 100 ms Verzögerung pro Webseite >>> 1 Mio. Webseiten werden weniger besucht.

Wenn ich aber falsch lag und die Menschen im Schnitt 1 Sekunde weniger auf allen Webseiten bleiben werden 10 Mio Webseiten mehr besucht....

Das Ergebnis liegt daher meiner Meinung nach weit unter dem Statistischen Fehler und somit nur eine nette spielerrei :)
 
Ich habe jetzt die Quelle gefunden (für die -1% Amazon Umsatz bei 100ms längerer Seitenaufbauzeit)

home.blarg.net/~glinden/StanfordDataMining.2006-11-29.ppt

Leider offline :D
Komm ich an das ppt noch irgendwie anders heran ?

Bei Google eingegeben komm ich leider immer nur auf diese Webseite.
 
Ah, meinst also die drei Statistiken:
- Amazon: 100 ms of extra load time caused a 1% drop in sales. (Source: Greg Linden, Amazon)
- Google: 500 ms of extra load time caused 20% fewer searches. (Source: Marrissa Mayer, Google)
- Yahoo!: 400 ms of extra load time caused a 5 to 9% increase in the number of people that clicked "back" before the page even loaded. (Source: Nicole Sullivan, Yahoo!)

Finde aber auf die Schnelle auch keine alternative Quelle. Zitat zu Amazon hat Greg Linden wohl im Rahmen eines Vortrages in Stanford 2006 gesagt ...
 
Also wenn das alles so eine Auswirkung hat, dann sollten sich die Betreiber von mit Werbung überfrachteten Sites wohl mal die Frage stellen, ob weniger nicht mehr wäre...
 
Zurück
Oben