@7
Es ist relativ leicht, einen Server an seine Kapazitätsgrenze kommen zu lassen.
Ein Standardserver schafft kaum mehr wie ein paar hundert Leute gleichzeitig zu verwalten. Dazu kommt noch das Problem mit der Latenz und den Servern vorgeschaltete Technik.
Beispiel: Ein Gameserver bietet Platz für 32 Spieler. 32 Spieler loggen sich daraufhin dort ein. Das bedeutet, dass im Schnitt 5 kB/s Upload und Download pro Spieler anfällt. Also 10 kB/s pro Spieler. Das nehmen wir mal 32, macht 320 kB/s oder auch ~3 MBits/s. Das hört sich moderat an, ne? Dazu komme naber noch die ca. 3 bis 5 vorgeschalteten Proxys, Backbones usw., ehe die Signale der Spieler beim Server ankommen. Sagen wir also 3 MBits/s mal 3 zwischengeschaltete Weiterleitungsstellen = 9 MBits/s und da wir ja nciht nur in eine Richtung kommunizieren, rechnen wir das mal 2 = 18 MBits/s. Es fallen also Pi mal Daumen schon knapp 20 MBits/s Internettraffic für einen kleinen Gameserver an. Davon sieht der Spieler aber nichts.
Jetzt kommt die Tatsache hinzu, dass pro Spieler und je nach Software ein paar Kilobytes bis Megabytes an Daten im Speicher gehalten werden müssen. Bei einer Datenbankanwendung sollen wirklich unglaublich 10 Megabytes/angemeldeter User anfallen. Das rechnest du mal ein paar hundert User und schon ist der RAM voll. Natürlich haben die großen Firmen mehr als nur einen Webserver, aber schon ein paar tausend User reichen ganz locker aus, um Einiges lahmzulegen.
Du siehst nicht, wieviel Aufwand betrieben werden muss, damit eine "kleine" Sache im Internet funktioniert. In den letztens News von CB wurde von defekten Internetkabel geredet. Schon ein defektes Kabel kann ganze Regionen lahmlegen, obwohl das Netz mehrfach redundant angelegt ist.
Edit: Sry, verrechnet. Da oben kommen keine 18 MBit/s raus. Up- und Download sind bereits in den 9 MBits/s verrechnet.