Server Vergleichs Frage

T

tender89

Gast
Guten Abend zusammen.

Aslo ich habe vor mir einen Server zu mieten.

So jetzt dachte ich zuerst an einen V-server.
Aber auf einem V-server werden die Resourcen ja geteilt.....
Merkt man den Performance unterschied stark??

Ich dachte da an V-server: http://all-inkl.com/webhosting/business/ (30 kunden je server)

oder Managed Server: http://all-inkl.com/server/server_l (ich alleine auf server)

Da auf einem V-server 30 kunden drauf sind (siehe oben link)
müsste dieser doch eigendlich halbwegs gescheite hardware verbaut haben oder irre ich mich da.... ??

Was sagt ihr dazu??

Der Server Sollte 3000 anfangen zum selben zeitpunkt standhalten.
 
3000 Anfragen ist doch schon recht viel, da würde ich lieber einen managed server nehmen. Andernsfalls kannst du ja beim Support von all-inkl anfragen ob ein Upgrade von V-Server zu Managed Server möglich ist und erstmal den V-Server probieren.
 
naja support ist sone sache...

ich dachte ich frage mal nach ob sich die hardware zwischen den 2 servern stark unterscheidet.
es kam ein trockenes 'firmengeheimnis' zurück -.-*
ich mein 25€ ist schon ne menge kohle. 30 kunden x 25 = sind 750€ im monat...

ist hier jemand der im server zentrum arbeitet ?? ^^
 
Das Problem an V-Servern ist, selbst wenn der Provider "nur" 30 User sagt, kann er mehr draufpacken. Je nachdem wie kritisch deine Anwendung ist würde ich wie gesagt den Managed Server nehmen.
 
die frage lautet eher, was du wirklich machen willst....
bei 3000 anfragen _gleichzeitig_ kippt dir recht schneller jeder durchschnittsserver um - vorallem wenn dynamischer kontent ausgegeben werden will.

daher hier klar die frage, was genau willst du machen. statische websiten ausgeben? nen irc für 3000 verbindungen? nen downloadserver? streaming dienst?

ohne genauere infos kann man dazu nix sagen.
 
!!! auf keinen fall nen root wenn du selbst keine erfahrungen im umgang mit server betriebssystemen hast, vorallem bei linux!!
 
Schau dir mal die Server von Alphahosting an.

http://alfahosting.de/index.php?wmid=tmsub

Dort kannst du auch einen Root-Server 7 Tage kostenlos testen, so das du da bereits sehen kannst ob es passt oder nicht.

Ich betreibe meine Website dort und bin mit dem Service sehr zu frieden - innerhalb weniger minuten meistens unter 1 Stunde bekommt man über ein Ticket immer eine qualifizierte Antwort

Gruß
TMaske77
 
3000 Anfragen / Sekunde ?
Wenn wir von nem Webserver reden, dann denke ich mal, dass du dir eher Gedanken über die Anzahl der physikalischen Server Gedanken machen solltest die du brauchst um das zu handhaben. Oder ist das ein Typo und du meinst 3000/Stunde ?
7200rpm-Platten machen vielleicht 70 iops, wenn das also nicht eine handvoll Dateien sind die alle in den Cache passen ist das eher die Kenngröße der Verbindungen / Sekunde pro Server. ;)
 
naja, ne, so kannste bei servern nicht rechnen.

dein ansatz würde ja bedeuten, alle hochlastseiten brauchen 1000k server.
aber brauchste nicht, da arbeitest du dann mit memcache technologien und caching systemen! damit reduzierst du die IO last auf dem dateisystem drastisch und kannst solche kisten auch ohne 10 server bauen. ;)
 
Das funktioniert aber auch nur bedingt.
Wenn da nur ein wenig Dynamik drin ist gibts zu jeder Anfrage auch diverse SQL-Verbindungen usw.

Und bei größeren Files kannste nicht alles cachen, dann hängts doch wieder bei den Platten.
Wir haben mal nen DL-Server für Sourceforge gehostet, der kam nicht ansatzweise auf 1000 gleichzeitige Verbindungen.

PS:
Größere Seiten haben teilweise tausende Rechner, Google läuft nicht auf nem vserver sondern auf mehrere Dutzend RZ voll mit Rechnern verteilt. ;)

Guck dir mal zum vergleich die Werte von CB an:
https://www.computerbase.de/mediadaten/
Page Impressions: 41.246.948 Abrufe
Das macht gemittelt ca. 15 Seitenaufrufe / Sekunde. Lass es im Peak dann vielleicht 100/s sein.
Das ganze mal 30 Dateien und du kommst auf seine 3000 Anfragen / Sekunde.
Ich denke nicht, dass die Seite hier auf nem einzelnen Server funktionieren würde. ;)
 
tut sie aber :D
weil grade bei websachen arbeitest du mit caches.

die seiten - abseits vom forum - sind fast alle statisch, grade was die newsseite und damit die größte last betrifft.
damit können di ekomplett gecached werden, sowohl beim client selbst im browser oder beim provider, damit reduzierst du die anfragen extrem. und da du nur die seiten einmalig berechnen brauchst wenn sich was ändert machst du das so und wirfst die daten neu in den memcache zb... damit gibst du nur ne rein statische seite aus und hast gar keine last auf dem server.

bei nem dl server ist das was anderes, da muss das stoagesystem entsprechend schnell ausgebaut sein!


installier dir einfach mal nen plugin deiner wahl in den browser und schau dir die headerdaten und deren cacheanweisungen an.

hier noch nen link dazu:

https://www.computerbase.de/impressum/#abschnitt_hosting
 
easteregg schrieb:
Tut sie eben nicht.
Die Seite hier läuft auf 6 Servern verteilt und er fragt ob das in ner vm läuft die mit 29 anderen auf einem Rechner läuft.
Ergo ist da bis zu Faktor 180 zwischen und ich vermute mal, dass CB schon ziemlich viel optimiert hat.

Ich kenne andere Projekte die kleiner sind und (trotz memcached und so Sachen) mehrere Schränke mit Equipment füllen.
 
Zuletzt bearbeitet:
warum liest du nicht einfach mal die daten von computerbase, die offiziell auf der seite stehen? da steht klipp und klar folgendes:

ComputerBase läuft seit dem 14. November 2003 auf Hochleistungsservern, die bei Host Europe in Deutschland (Köln) mehrfach redundant mit 200 MBit/s an das Internet angebunden sind.

Nach einer Frischzellenkur im September 2007, im Rahmen derer die im Februar 2006 angeschafften Server mit AMD-Opteron- und Intel-Pentium-4-Prozessoren ersetzt wurden, zeichneten sich zwischenzeitlich 4 Server für den reibungslosen Betrieb von ComputerBase verantwortlich. Seit September 2010 verzichten wir auf einen dedizierten Download-Server, so dass noch 3 Server übrig sind.

und anschliesend schaust du dir mal die slide zu ner wirklichen hochlastseite an:

http://www.slideshare.net/phphatesme/redaktionelle-hochlastwebseiten-am-beispiel-von-sternde

mit der richtigen technik brauchst du deinen "geld spielt keine rolle, wir brauchen 500 server" ansatz nicht weiter verfolgen...
 
Es ist möglich, solch ein Projekt wie CB auf nur einem Server laufen zu lassen (ohne Downloads), allerdings müsste dazu jede Komponente hochoptimiert sein und man müsste die Software dafür speziell entwickeln. Bei einer "allgemeinen Software" wie dem vBulletin mit der Größe wie CB sie hat, ist es unmöglich.
Man sollte aber auch erwähnen, dass CB keinerlei Optimierungsarbeit vorgenommen hat, um die Last auf den Server zu mindern (aus Sicht von außen):
  • keine Expires-Header, somit muss für jeden Webseitenaufruf für jede Grafik erneut der Server kontaktiert werden
  • Im Forum keine CSS-Sprites sondern jedes Bild einzeln
  • JavaScript werden nicht zusammengefasst
  • und und und

Wie es auf technischer Seite auf dem Server aussieht, wissen wir natürlich nicht. Aber wenigstens die Low Hanging Fruits wie das Browercaching hätte man mal nutzen können...
 
Zuletzt bearbeitet:
wird doch gemacht, wahlloses file:

Request URL:https://www.computerbase.de/design/footer-dots.png
Request Method:GET
Status Code:200 OK (from cache)
Response Headersview source
Accept-Ranges:bytes
Cache-Control:max-age=5184000
Connection:keep-alive
Content-Length:373
Content-Type:image/png
Date:Sat, 19 Nov 2011 14:03:08 GMT
Expires:Wed, 18 Jan 2012 14:03:08 GMT
Last-Modified:Tue, 04 Mar 2008 07:51:21 GMT
Server:nginx


auf die computerbase css das selbe:

Expires:Wed, 18 Jan 2012 14:03:07 GMT

und da die dann sowieso im client gecached werden ist css und js konsolidierung nicht wirklich notwendig, da nur beim absoluten worstcase dadurch viele request entstehen.
selbiges bei den css sprites!

keine ahnung wo ihr hier so ne schlechte config seht :D
und vorallem woher ihr das mit den 6 servern alleine fürs forum habt! :D
 
Ok dann nehme ich alles zurück, ich sehe die Header auch gerade, ich habe mich da auf Firebug verlassen. Aus irgendwelchen Gründen greift das Caching auf CB nicht bei meinem FF, wer weiß.
 
easteregg schrieb:
schaust du dir mal die slide zu ner wirklichen hochlastseite an:
Dann beachte aber auch, dass das nur für solche Seiten funktioniert die in das Schema passen (Folie #5), sprich nahezu null dynamischen Content haben der sich nicht oft ändert.
Bau das ganze mal mit nem Forum oder ner Seite a la Ebay, Google oder ähnlich die bis auf die Grafiken fast durchweg dynamisch sind.
 
das computerbase portal ist nix anderes, damit kann man davon ausgehen, dass damit schonmal gut 60% des traffics abgehakt sind (sprich 40% werden durchs forum verursacht; grob geschätzt, kann mich hier auch irren, macht aber nicht soviel veränderung...)

das sind bei rund 38mio PIs pro monat noch rund 175req/s fürs forum, was zu großen teilen mit intern!
das meiste davon liegt im op und memcache, das ressourcenfressenste ist daher die suche und zwar auf der datenbank!

der db master hat nich umsonst 32gb ram und das meiste im cache zu halten... und damit nicht alles umkippt gibts noch den slave, worauf die last mit sicherheit verteilt wird. der rest sind peanuts... also ich wees nich woher ihr eure 6 server nehmt oder meint, dass man ne super server farm braucht für so ein system braucht.
 
Ja, das Portal ist nicht großartig anders als ne Newsseite, aber ich denke nicht, dass das Forum 40% der Zugriffe (damit meine ich Seitenaufrufe) ausmacht, ich hätte jetzt auf 10% oder weniger getippt.

Aber jetzt erzähl mir nochmal wie du ne beliebige Seite (die also tendentiell eher weniger cachebar ist als CB oder Stern) mit 1/90 der Power (keine Ahnung woher ich die 6 Server hatte, aber das prinzipielle Problem ändert sich auch nicht wenns 3 sind) betreiben willst.

Aber ohne Info vom TE was er da drauf laufen lassen will kommen wir hier vermutlich eh nicht weiter.
 
Zurück
Oben