Wie läuft es eigentlich mit so vielen Daten ?

xtern

Cadet 2nd Year
Registriert
Aug. 2005
Beiträge
29
Hallo zusammen

Habe mal eine Frage.

Einer lädt bei einem (youtube,google video) ein Video hoch, was dann auf die festplatte von denen abgespeichert wird.(mal so leicht gesagt)

Wie läuft es denn jetzt wenn zum beispiel gleichzeitig tausende von leuten den selben film anklicken das die server von denen nicht in die knie gehen.

Wird die datei mehrmals bei denen gespeichert oder wird es aus einem zwischenspeicher abgespielt oder wie ist es.Weil, das die das einmal abspeichern und jeder es aus der gleichen Datei abruft kann ich mir nicht vorstellen da würde keine Festplatte mitmachen.

Wenns einer kurz erläutern könnte oder mir wenigstens ein Link gibt wo diese Server Technik für einen normalen verständlich erklärt wird.

Danke schon im voraus
 
ich muss sagen ich hab mir über so einen kram noch garkeine gedanken gemacht...

es gibt aber wohl eine ganz simple erklärung: ein großer server (oder auch: serverfarm).

der server muss einfach nur wegen der menge der daten groß genug sein. zum hochladen eines files würde auch ein stinknormaler server mit einer entsprechend guten festplatte reichen. denn eine festplatte ist - auch wenn sie oft den flaschenhals in einem system darstellt - immernoch schneller als unser liebes gutes altes DSL.
die festplatte des servers wirst du wegen dem wahrscheinlich verwendeten raid nicht an ihre grenzen bringen. das raid wird wahrscheinlich 150mb/s und mehr machen, was bedeutet das ca. 75 teilnehmer gleichzeitig mit voller dsl16k-leistung ziehen könnten. bei downloadraten um 50kb/s sinds dann 3000. bei 25kb/s wären es dann 6000 usw.
da allerdings auch die größe der files begrenzt ist, ist eher die leitung zum server vorher dicht, und man kann eben nur mit sehr geringer geschwindigkeit das video ansehen.
kann auch sein, dass die daten zwei oder mehrmals gespeichert sind, sodass man die 3000 benutzer nochmals multiplizieren könnte.

wird auf jedenfall schon etwas herauskommen, das nicht so schnell kleinzukriegen ist ;)

so long and greetz
 
Zuletzt bearbeitet:
Hi,

weder Cluster in der klassischen Form (alle Nodes können Datei xy ausliefern) noch ein großer Server. Das wäre viel zu teuer. Das geht bei vielen Anwendungsfällen viel billiger und einfacher.
Bei den größeren Dingern wie Youtube, diverse Filehoster oder auch Google laufen einfach massig "normale" Server und jeder hat nur einen Teil des ganzen.
Sprich Filehost xy hat dann zum Beispiel 100 Rechner, jede Datei liegt auf 2-3 Rechnern.
Wenn du ne Datei anfragst schaut der Webserver wo die Daten liegen und evtl. noch welcher Rechner gerade am wenigsten zu tun hat. Dann wird auf den umgeleitet und von da runtergeladen.

Für Google gabs da mal Infos zu, dass die Tausende Billo-0815-Rechner haben, kein Raid, ECC-Speicher, Dual-CPUs oder sonstwas. Die Seiten/Links zu einem Suchbegriff liegen dann auf ein paar Rechnern, wenn einer ausfällt wird der von ner Steuerungssoftware rausgekicked und ersetzt.

Viel problematischer bei so großen Projekten ist meistens eher die Datenbank als die Dateispeicherung.
 
Für die Frontends (also die Webseiten an sich) gut möglich, aber aller vorraussicht nicht für die Speicherung der Videos.
Das Load-Balancing ist nur die Verteilung der Anfragen und löst das Speicherproblem nicht.
 
Zurück
Oben