Technik von Top-Websites ?

PCB

Lt. Commander
Registriert
Dez. 2001
Beiträge
1.691
Hi,

die Top 1000 Websites Liste von Google listet als Nr. 1 Facebook.com mit 590 Mio Benutzern (unique users), welche im Dezember 2010 unglaubliche 760 Mrd Seiten aufgerufen haben! :o

Wie sieht denn eine solch leistungsfähige Serverlandschaft eigentlich technisch aus?

Leider finde Ich nix passendes dazu im Netz!

Vielleicht hat ja jemand ein paar Links oder kann was aus eigener Praxis dazu sagen, thnx vorab dazu. :)

my2cents

PCB
 
Sicher ein 386 in Kalifornien mit ganz vielen Festplatten. ;)

Ist sowas wie das hier.

serverfarm.jpg
 
Danke für die schnellen Antworten :daumen:, irgendwie hab Ich heut wohl ne Google-Blockade. ;)

Konnte mir aufgrund dieser 760 Mrd Pageviews irgendwie keine Vorstellung davon machen, wie dieser / diese Mega-Server wohl aussieht, aber 25 Tbyte an Logfiles sagt schon was aus! :eek:

cya

PCB
 
ansich wirkt Facebook ja als würds nur auf einem Server liegen (weil ja alles über facebook.com rennt) aber durch load balancing und ähnliches landet nicht jeder Zugriff auf dem selben Server, und dass das ganze Datenbank / Storage Backend auf vielen Servern rennt ist auch nur zu logisch
 
@Zeroflow: Es sind halt die unglaublichen Datenmengen und auch, das solche sites ja anders als zb Filehoster wie RS nicht nur Bandbreite und große Festplatten brauchen, sondern mehr mit DB-Zugriffen und der Verarbeitung des ganzen User-Contents wie Links, fotos, blogs usw beschäftigt sind, und das ist ja imho sehr Rechenintensiv!

Ich finde das schon erstaunlich, gerade wenn man sich mal die Entwicklung von Facebook anschaut: Vor 3 Jahren (Dez 07) hatten die (grad mal ;)) 40 Mio Besucher mit 80 Mrd Pageviews, in 36 Monaten gingen also 15 mal mehr Besucher mit 10 mal mehr Views auf Facebook. :freak:

cya

PCB
 
Zurück
Oben