News OnLive: Dienst soll Streaming von Spielen bieten

Hab zwar ne gute kiste aufm tisch stehen! Aber das macht mich sehr neugierig! Also testen werde ich es allemal!
Wäre ma echt geil wenn se zb: Resident evil5 streamen würden so vonna x360 auf meinen pc !Dann hätten sie mich als kunde sofort an bord!
 
Zuletzt bearbeitet:
Trotzdem gibt es keinen Supercomputer, der die Rechenleistung für eine Million Instanzen von Crysis liefern könnte. Der momentan schnellste Supercomputer besteht gerade mal aus 6000 AMD Dual Cores und 13000 Cells von IBM. Wie wir alle dank der PS3 wissen reicht ein Cell nicht mal für die Berechnung von einer Instanz von Crysis, sodass der leistungsfähigste Supercomputer wenn's hoch kommt gerade mal für 10.000 Spieler den angesprochenen Dienst zur Verfügung stellt. Dabeit betrachte ich die Umwandlung in einen hochauflösenden Stream noch nicht einmal. Nur um mal die Rechenleistung von der wir hier sprechen in eine Perspektive zu setzen.

Es bleibt dabei. Diese Technik ist mit den heutigen technischen Mitteln nicht umzusetzen und wird es auch mindestens für die nächsten zehn Jahre bleiben. Alleine mit den Betriebskosten für eine derartige Infrastruktur könnte man sich ein kleines Land kaufen.

Gehen wir von den 200Megawatt Leistung aus, die ich vorhin angesprochen hatte. Nehmen wir einen Strompreis von 10 cent für Firmenkunden.

200.000 KW/h x 24 x 365 x 0,1€ = 84, 1 Millionen € reine Stromkosten.
Keine Instandhaltungskosten, keine Neu und Ersatzanschaffungen. Da wir bei den 200 Megawatt von einer dauernden Nutzerbasis von 1 Million Nutzern ausgegangen sind könenn wir das nun auch auf die Gebühr runterrrechnen. Wenn wir von einer durchschnittlichen Nutzung von 2 Stunden am Tag ausgehen (was wieder sehr konservativ ist, die meisten Gamer zocken mehr) kommen wir auf 12 Millionen Nutzer. Allein für die Stromrechnung des Unternehmens müsste also schon jeder Nutzer 7,5 € pro Jahr bezahlen und zwar vor Steuern.
Dann kommen zu den laufenden Kosten des Unternehmens noch:
Personalkosten
Ersatz für alte Hardware
Instandhaltung bestehender Hardware
Steuern
Bandbreite (was sicherlich den Löwenanteil ausmacht. Weiß jemand was 1Gbit an Bandbreite heute kostet?)
Die Erstinvestion der Hardware, die sich über die Dauer ihrer Laufzeit, welche nicht mehr als wenige Jahre betragen dürfte, wieder amortisieren müsste, und wir kämen wahrscheinlich auf eine Gebühr von weit mehr als 200€ pro Jahr.
 
@dgschrei
Hast dich ja richtig ins zeug gelegt :) Aber ich denke ma wenn du das weißt dann wissen das die von onlive bestimmt auch ! Und werden bestimmt keine 81mio € Für strom ausgeben :)
Die haben sicherlich einen plan wie sie sowas bewältigen wollen! Ich hätte zb ne Idee: Ein userlimit von sagen wa 12k! Is ja nur ein reines beispiel! Für den anfang um ma zu gucken wie es sich entwickelt!
Aber naja mir is es latten... wenns läuft bin ich dabei :D
 
Abgesehen von der technischen Seite frage ich mich viel mehr wie es denn dann mit Rechten der Kunden aussieht.

So wie ich das sehe, ist man mit diesem System der totalen Kontrolle des Service-Anbieters unterworfen.
Wenn das System als eine Art "Videothek" für PC-Spiele gedacht ist, wäre es eine gute Sache. Aber als Ersatz für den konventionellen Spiele-Markt is es untauglich.
Da sind meiner Meinung zu viele ungeklärte Fragen, was die Rechte des Nutzers angeht.

Ich glaube kaum dass die Spieler, welche ja bei Securom schon auf die Barrikaden gehen, dann tatsächlich ein Systenm wollen, bei dem (theoretisch) eine umfassende Kontrolle der Nutzung möglich wäre.

Zumal man damit die Modding-Community beerdigen würde. Das wäre sicher auch ein massiver Verlust, denn durch Mods werden Spiele teilweise deutlich aufgewertet oder es werden Fehler ausgebügelt, die der Entwickler nicht behoben hat (Bsp.: Oblivion, WoW). Oder es werden einfach neue Inhalte erstellt, die das Spiel weiter interessant machen.
Daher wäre der Wegfall des Moddings sicher ein erheblicher Verlust für die gesamte Spielergemeinde.
 
wenn ich das richtig verstanden habe, ist die latenz des encoding-process gemeint und nicht die der inet übertragung.


edit: zu der frage mal Minute 44 vom Video der Pressekonferenz gucken!

Das Ding wird Hammer.
 
Zuletzt bearbeitet:
dgschrei schrieb:
Trotzdem gibt es keinen Supercomputer, der die Rechenleistung für eine Million Instanzen von Crysis liefern könnte.
Schon mal etwas von SETI@home gehört?

Gehen wir von den 200Megawatt Leistung aus, die ich vorhin angesprochen hatte. Nehmen wir einen Strompreis von 10 cent für Firmenkunden.

200.000 KW/h x 24 x 365 x 0,1€ = 84, 1 Millionen € reine Stromkosten.
Und 168,2 Millionen würden die Nutzer Zuhause für den Strombezahlen, der Strom würde dann halt Zuhause verbraucht werden als im Rechenzentrum. Da spart man immernoch, desweiteren kann man ja nicht genutzte Ressourcen abschalten, wenn ich meinen PC abschalten würde nur weil er zu 1% beim Tippen beansprucht wird, dann könnte ich nicht mehr tippen.

Keine Instandhaltungskosten, keine Neu und Ersatzanschaffungen.
Jepp jetzt rechne mal, kein Aufrüsten mehr jedes Jahr, 1x kaufen und Ruhe bis der Rechner hin ist und dann wird für 200 € eine neue Officekiste gekauft, das reicht ja!

Da wir bei den 200 Megawatt von einer dauernden Nutzerbasis von 1 Million Nutzern ausgegangen sind könenn wir das nun auch auf die Gebühr runterrrechnen. Wenn wir von einer durchschnittlichen Nutzung von 2 Stunden am Tag ausgehen (was wieder sehr konservativ ist, die meisten Gamer zocken mehr) kommen wir auf 12 Millionen Nutzer. Allein für die Stromrechnung des Unternehmens müsste also schon jeder Nutzer 7,5 € pro Jahr bezahlen und zwar vor Steuern.
Wenn ich jetzt für meinen Stromverbrauch 15 € oder mehr im Jahr ausgebe alleine für den PC, dann rechnet es sich ja wieder.

Bandbreite (was sicherlich den Löwenanteil ausmacht. Weiß jemand was 1Gbit an Bandbreite heute kostet?)
So ab 7000 € im Monat, aber als Massenkoster kriegst du natürlich ganz andere Konditionen.

Die Erstinvestion der Hardware, die sich über die Dauer ihrer Laufzeit, welche nicht mehr als wenige Jahre betragen dürfte, wieder amortisieren müsste, und wir kämen wahrscheinlich auf eine Gebühr von weit mehr als 200€ pro Jahr.[/QUOTE]

Wenn ich mir dafür einen 400 € Rechner kaufen kann mit quasi der selben Leistung eines 800 € Rechners? Und ich spare dazu auch noch Stromkosten. :lol: Nach 2 1/2 Jahren ist die Hardware eh wieder veraltet. Also es tut sich nicht viel ausser, dass wir so 10 - 15 Atomkraftwerke weltweit abschalten könnten wenn jeder seinen PC so nutzen würde.

Aber auch wenn ich jetzt Pro war, einfach mal abwarten bis sie die nächste Demo herausbringen von dem Produkt. Es wird sehr auf die Umsetzung ankommen. Und um Rechenleistung zu sparen könnte man die Spielelevel parallel berechnen lassen. Also anstelle, dass jeder Spieler eine eigene Spielwelt nur für sich erhält, wird nur eine Spielwelt gerendert, die Spieler wären also wie bei WoW parallel in der selben Umgebung unterwegs.

Allerdings rechnet der Prozessor dann die Spielwelten auseinander für jeden Spieler.
Sagen wir Spieler A steht im selben Level auf Punkt A und Spieler b steht 5 Meter daneben. Beide würden die selbe gerenderte Spielwelt sehen, mit der Ausnahme, dass Spieler A Spieler B nicht sieht. Somit müsste die Umgebung nur 1x gerendert werden und ledigtlich die Veränderungenaufgeteilt werden
 
Hmm, halte nicht so viel davon. Mit diesem Streaming-Kram fällt ja das komplette Modding weg - eben u.a. genau DAS, was den PC gegenüber der Konsole zum Zocken so attraktiv macht. Oder kann ich den Betreibern von Onlive meine Crysis-Config schicken, die packen's dann auf ihren Server und erlauben es mir, das Spiel unter meinen eigenen Ultra-ÜBER-High-Settings zu spielen; natürlich auf deren Hardware-Kosten? :lol:
 
Zuletzt bearbeitet:
@dgschrei

Du solltest bei all deinen schönen Ausführungen beachten, dass das was du hier alleine in ein paar Minuten durchdacht und ausgerechnet hast nicht der Weisheit letzter Schluss sein dürfte. Ohne zu wissen was an Technik hinter dem Dienst steht, ist das einfach nur sinnlos...
Wenn man deinen Ausführungen glauben schenkt, könnte man meinen, dass Ongame in einer Bierlaune von einer Handvoll Idioten entwickelt wurde...
Schaut man sich mal die Liste der Entwickler an, dürfte diese Idee allerdings schnell verpuffen... Da sind echte Koryphäen am Werk!

Ich sehe momentan einzig und allein die Verzögerung vom Benutzer zum Server und zurück als nicht so ohne Weiteres zu beherrschendes Problem an.
 
Wenn die Koryphäen aber nicht gerade Bill Gates und Steve Jobs heißen, haben die meist aber nicht gerade 3-5Mio € auf der Seite liegen um überhaupt einmal einen solchen Dienst zu starten. Gehen wir mal von den 12000 Nutzern aus, die Demo@Elite angesprochen hat. Wir waren dabei von einer Nutzung von 2 Stunden/Tag ausgegagnen, also würden theoretisch immer 1000 Leute gleichzeitig spielen. (Praktisch wesentlich mehr, da das Rechenzentrum nur an einem Ort stehen würde, und der Lag wie gesagt nur bei einer relativen Nähe zum Server zu beherrschen wäre. Also würde das Gros der Nutzer auf den 8 Stunden Zeitraum zwischen 15:00 und 24:00 Uhr spielen und somit theorethisch 3000 Nutzer gleichzeitg spielen).

Gehen wir davon aus, dass ein Server, der Crysis berechnen und es in Echtzeit in einen HD-Stream umwandeln kann 1000€ kostet.
Wenn ich davon 1000 brauche habe ich schon mal reine Hardwarekosten von 1Million €.
Dann brauche ich ein Gebäude, in dem ich das Ganze samt Büros unterbringen kann. Sagen wir mal das pachten wir für 100.000€ im Jahr.
Dann benötigt eine Firma Personal. Sagen wir mal 5 Fachkräfte mit einem Jahreslohn von 40.000€.
Dann die Energiekosten, die wir vorhin schon ausgerechnet haben. Da wir das Unternehmen genau um den Faktor 1000 verkleinert haben, landen wir bei 81.000€ im Jahr.
Fehlt noch die Bandbreite. 1000x6 Mbits = 6Gbits. Wenn die Zahlen von Suxxess stimmen, man als Großabnehmer allerdings Rabatt bekommt, dann gehen wir mal von 4000€ Gbit/monat aus.

Und nun noch ein Kostenpunkt, den ihr vollends außer Acht gelassen habt. Die Spieleschmieden wollen immer noch 60€ pro Spieler pro Spiel verdienen, da ja die Entwicklung der Spiele nicht billiger wird und die auch ihren Profit machen wollen. Für die Rechnung brauche ich aber den Preis ohne Umsatzsteuer, also ungefähr 50€. Zusätzlich gehen wir mal davon aus, dass der durchschnittliche Spieler so 6 Spiele im Jahr spielt. Mit diesem System ist gebraucht kaufen oder billig importieren nicht mehr möglich, also wird Vollpreis zum Standard werden.

Gehen wir jetzt noch davon aus, dass diese Firma ihre Hardware alle 5 Jahre erneuern muss. Wenn die Firma keinen Verlust machen will, dann müssen sich sowohl die Hardware als auch alle in diesen 5 Jahren angefallenen Kosten innerhalb dieser 5 Jahre wieder amortisieren.
Dann könne wir jetzt langsam die Rechnung zusammenstellen:

[(1000x1000€ + 100.000€ x5 + 5 x 40.000€ x5 + 81.000€ x5 + 6x 4000€ x12 x5 +12.000 x 6 x 50€ x5) x1,19] : 12.000 : 5 =
=[(1.000.000€ + 500.000€ + 1.000.000€ + 405.000€ + 1.440.000€ + 18.000.000€) x1,19]:12.000 :5 =
= [22.345.000€ x1,19] :12.000 :5 = 26.590.550€ :12000 : 5 = 443,17€/Spieler/Jahr

Bei täglich 2 Stunden Spielen macht das Etwas mehr als 50 Cent die Stunde. Und das ist wohlgemerkt nur, wenn es sich um eine Nonprofit Organisation handelt, die nur mit reiner Kostendeckung arbeitet. Wenn die noch Gewinn machen wollen, wirds nochmal teurer.
Außerdem waren alle Annahmen wieder extrem Konservativ und zum Vorteil von OnLive. Die meisten Spieler werden mehr als 6 Spiele spielen, und wie man an der Rechnung schön sehen kann (deswegen habe ich sie auch so langsam aufgedröselt) macht das den Löwenanteil der Gebühren aus. Außerdem wird man mit 5 Angestellten nicht hinkommen man braucht: 1 Führungskraft, Techniker, Programmierer, Webdesigner, Support Personal, Buchhaltung, Marketing etc.

@Suxxess, was soll denn der schwachsinnige Hinweis auf SETI@Home? SETI@Home kann nichts in Echtzeit berechnen. Ganz im Gegenteil die einzelnen Rechenpakte sind teilweise tagelang im Umlauf, bevor sie wieder bei SETI ankommen. Außerdem existiert das Ganze ja nur deshalb, weil es eben keinen Supercomputer gibt, der stark genug dafür wäre und diese auch nahezu unbezahlbar sind. SETI funktioniert nur deshalb weil, ohne hier jemand auf den Schlips treten zu wollen, sich genug Doofe finden die zu Hause ihre Stromrechnung für die Suche nach Aliens in die Höhe treiben wollen. Wenn man schon an einem Distributed Computing Projekt teilnimmt, dann doch bitte an einem, das der Allgemeinheit auch einen Nutzen verspricht wie Folding@Home oder andere. Außerdem brauchst du ja für Seti@Home auch wieder die Rechenleistung zu Hause, womit du auch gleich den Gamer PC behalten könntest.
Und falls du darauf hinaus wolltest, dass viele einzelne Rechner im Rechenzentrum das Ganze berechnen können, dann meinst du eigentlich genau das Gleiche wie ich. Mir ging es ja gerade darum, dass es eben nicht einen ominösen Übercomputer geben wird, der Crysis mit 200.000 fps berechnen kann, sondern dass man eher viel einzelne Server, die jeweils eine Instanz berechnen installieren wird.


Und wie Tycho hier schon schreibt, war das System auf der GDC mit Gigabit Ethernet mit dem Rechenzentrum verbunden, das keine 10 Meter weit hinter der Leinwand stand. Wenn da shon Lag zu erkennen war, kann man das Ganze sowieso vergessen. Wie gesagt, physikalische Grenze für Lag bei 800km Entfernung zum Server 5ms.
 
Zuletzt bearbeitet:
@dgschrei

Was versuchst du hier eigentlich mit deinen Rechnungen zu beweisen? Das sind doch alles nur Spekulationen, ohne jegliche Fakten. Ich würde dir einfach mal empfehlen die Videos von der GDC anzuschauen, da wird beispielsweise auch die Frage der Investoren geklärt. Ich kann mich jetzt grad nicht 100 prozentig an die Investoren entsinnen, deshalb verweise ich besser nur auf das Video. Der Link wurde hier schon gepostet. Desweiteren solltest du vielleicht beachten dass es hier nicht darum geht, von einem auf den anderen Tag alle Spiele über diese Plattform laufen zu lassen. Leute wie du, welche einen High End PC besitzen sind einfach nicht die Zielgruppe. Als Beispiel für die Zielgruppe würde ich jetzt einfach mal mich nehmen. Ich besitze ein Notebook der gehobenen Klasse, welches zwar für die meisten Aufgaben gut gerüstet ist, jedoch bei der Spielleistung nicht mehr mithalten kann. Ein normaler Tower Pc kommt für mich nicht in Frage, da ich z.Z. keinen festen Standort habe. Zocken würde ich jedoch trotzdem manchmal gerne neuere Titel, wie z.B. GTA 4, wo ich des öfteren überlege mir einfach einen Pc zusammenzubasteln, auch wenn es sich nicht lohnen würde. Dazu sei gesagt dass ich mich auch wirklich gerne mit Hardware auseinander setze und es sogar als Hobby bezeichnen würde. Trotzdem wäre aufgrund des Kosten/Nutzen Faktors ein solche Service einfach perfekt für mich.

Ich wollte hier jetzt eigentlich gar nicht meine Lebensgeschichte erzählen, aber versuch doch einfach mal darüber nachzudenken was für andere Leute ein solcher Service bedeuten würde.

Nachtrag zu dem von "Tycho" geschriebenen:
Also mein Englisch ist jetzt nicht unbedingt das Beste, aber soweit ich dass verstehe hast du es vollkommen aus dem Zusammenhang gerissen.

"I reminded him that years ago - during E3 That Was - we saw a demo of the Phantom that was impressive enough to elicit a purchase. The demo was that good. So good that I never wrote about it - it was, in fact, too good. The machines that served the content were situated in a room not ten feet away, connected via gigabit ethernet. Every time I pore over some unchecked torrent from an ecstatic new convert, I start to become very curious about topology."

Er gibt da einen Rückblick auf Phantom, eine vollkommen andere Entwicklung, welche nichts mit OnLive zutun hat.
 
Zuletzt bearbeitet:
Dass ich nicht unbedingt zu Zielgruppe gehöre ist schon klar. Aber was Spieleleistung angeht, habe ich auch nicht wirklich einen High-End PC. da fehlt ganz einfach die Hochleistungs Graka. Die HD4670, welche nicht mal nen eigenen Stromanschluss braucht, schafft ja nicht mal COD4 mit 60fps und das auf meinem 1280x1024 Bildschirm. Der Core-i7 und die Unmengen an RAM sind vor allem dafür da, da ich mich in meinem kommenden Studium mit 3d-Modellierung und Animation auseinandersetzen muss und da beim Rendern eben die CPU samt RAM wichtig werden.
Mir würde prinzipiell die Idee nicht andauernd eine neue Grafikkarte für Spiele kaufen zu müssen schon gefallen, allerdings zweifle ich eben die technische Machbarkeit des ganzen an. Wie Tycho schon sagt, kann das vielleicht bei WoW oder Strategiespielen funktionieren, da da der Lag nicht so entscheidend ist. (Wir haben vor Jahren auch C&C3 über Hamachi gespielt, um auf den alten Versionen spielen zu können, nachdem EA das Game totgepatcht hatte. Da ist uns der gestiegene Lag auch nicht aufgefallen.) Aber bei einem Shooter wo das Gameplay doch sehr reflexbasiert ist, sieht das anders aus.

Aber was mich an dem Ganzen am meisten stört und auch einer der Gründe ist, warum ich gegen Cloud Computing bin, ist einfach die Tatsache, dass man sich damit in die völlige Abhängigkeit vom Dienstanbieter begiebt. Und wenn die es erst einmal geschafft haben, dass man ein bestimmtes Spiel nur noch bei ihnen spielen kann, dann wird man mit an Sicherheit grenzender Wahrscheinlichkeit wesentlich mehr bezahlen, als man es mit dem klassischen Modell getan hat. Und die Kontrollmöglichkeiten und die Zensur kommen da noch hinzu. Wie schon öfter im Thread aufgetaucht ist, sollte sich diese Technologie in der Zukunft durchsetzen dann kann man es in D vergessen, dass man noch an ungeschnittene Spiele oder noch schlimmer an die Spiele herankommt, die hier gar nicht erscheinen.
Vor allem würde diese Entwicklung dazu führen, dass man auf dem normalen Markt quasi nur noch Netbooks kaufen könnte, denn wer braucht den schon noch einen High-End PC wenn z.B. Google alles berechnet. Und an diesem Punkt ist es dann nahezu unmöglich noch aus diesem neuen System auszubrechen, da ja einige wenige Firmen den Großteil der Rechenkraft auf dem gesamten Planeten besitzen. Wie war das noch? Macht korrumpiert, absolute Macht korrumpiert absolut.
So jetz bin ich auch total vom Thema abgekommen aber was solls.
 
Bei der Abhängigkeit gebe ich dir natürlich recht, so richtig anfreunden kann ich mich damit auch noch nicht.
Jedoch kannst du die Gründe hierfür nicht nur beim Cloud Computing suchen. Steam oder Games for Windows Live gehen mit der Abhängigkeit in eine Ähnliche Richtung der Überwachung. Diese Dienste haben fast alle negativen Aspekte des OnLive Konzepts und brauchen zusätzlich noch einen Gaming PC. Teilweise kann ich diese Überwachung sogar nachvollziehen, Raupkopiererei in Massen ist nun mal zum Alltag geworden.

Was die Zensur betrifft sehe ich das Problem weniger bei den Dienstleistern, sonder eher bei der Gesellschaft. Als Dienstleister muss man sich einfach nach den jeweiligen Regeln des Staates halten, daran ist nicht zu rütteln. Das Problem ist das niemand die Interessen der erwachsenen Computerspieler vertritt. Man liest überall nur von Beschwerden, aber es tut ja auch einfach niemand etwas. Es ist doch klar das ein Dienstleister wie OnLive sich nicht dafür einsetzen würde dass alle an ungeschnittene Spiele herankommen, was ja auch vollkommen legitim ist. Wenn alle Leute die im Internet immer groß herum tönen würden, auch mal was tun würden könnte man auch was ändern. Also kreide lieber den an der die Gesetze erstellt, als den der sie ausführt.

Zu der Technik sei einfach noch gesagt dass es ganz klar einen Markt für dieses Konzept gibt. Wenn man sich den Anfang der PC`s anschaut hätte auch niemand gedacht dass es sich so schnell und rasant entwickeln würde. Jedoch entstand ein Markt für PC`s, jeder wollte einen Zuhause haben und alle wollten immer mehr Leistung bessere Grafik und einfach immer höher, weiter, besser. Somit entstand auch Technik die vor einiger Zeit noch unvorstellbar war. Ich kann mir vorstellen dass es hier ähnlich ablaufen wird, bzw. schon abgelaufen ist.

Einen weiteren Vorteil sehe ich in der Standardisierung am Spiele Markt. Zur Zeit macht jeder sein eigenes Ding. Durch einen Standard könnte alles viel effizienter und leichter entwickelt werden. Dies ist natürlich noch Zukunftsmusik, denn vorerst werden Cloud Computing und nennen wir es jetzt einfach mal Home Computing, parallel laufen.

Was die Macht angeht sind wir doch heute schon von riesigen Monopolen umgeben, die quasi machen können was sie wollen. Falls sich ein solcher Dienst wie OnLive durchsetzen würde, würde er die Machtverhältnisse erstmal ziemlich verändern. Ob nun zum positiven oder zum negativen ist meiner Meinung nach jetzt noch nicht abzuschätzen. Ich fände aber alleine die Vorstellung auf einem Macmini zu zocken schon sehr interessant. Microsoft könnte durch diesen Dienst auf jeden Fall von seiner vorherschenden Stellung bei Betriebssystemen gekippt werden.
 
Sehr interessantes Thema. Dies könnte endlich eine Lösung sein die grossen Verluste durch die Raubkopien wieder einzuholen. Ich denke mir die Publisher werden sehr interessiert an dem Dienst sein. Wieso die Hardwareindustrie keine freude daran haben soll kann ich nicht ganz verstehen? Schliesslich verlagern sich die Hardwarekosten lediglich vom Einzelnutzer zu einem grossen Rechenzentrum. Stellt euch vor, ein neues Game erscheint, ihr müsst weder installieren noch Patchen, und ihr habt eine Garantie, das das Spiel so aussieht wie auf der Packung!
 
Also wenn man manche eurer Kommentare liest, dann könnte man echt denken, dass ihr die Entwicklung der letzten Jahre nicht mitbekommen habt.
Was wurde damals nicht alles für unmöglich gehalten.

Wirklich. Hier an der technischen Machbarkeit zu zweifeln, wie: "Kein Server kann 1Mio Instanzen von Crysis wuppen" sind doch völlig aus der Luft gegriffen.
1. Wird nicht von heute auf morgen jedes Spiel der Welt auf Server ausgelagert. Es würde ein schleichender Prozess werden. Ist doch heute auch so. Manche kaufen sich ihre Spiele im Laden, andere online bei Steam und dann wird es noch ein paar geben, die eben über Cloudcomputing spielen.

Da wird es also Nachfrage geben und die wird gedeckt seitens der Serverbetreiber...

Auch irgendwelche Bandbreiten hier in Betracht zu ziehen... Spul mal 10 Jahre zurück und wo sind wir da? ISDN. "Das ist doch unmöglich eine Demo von 1Gb zu laden, währenddessen online auf Youtube Videos zu schauen während die Schwester mit ihrer Webcam chattet." Alltag heute!
Nicht lang und wir werden "alle" eine 100Mbit Leitung im Haus haben. Garantiert!

Die Spieleentwickler sind begeistert! Nicht umsonst haben sie schon so viele Publisher im Boot sitzen.
Auch hier über irgendwelchen Preiskalkulationen zu spekulieren...
Tut mir leid, das ist völlig sinnfrei.
Hast du da mit einbezogen, dass vielleicht viel mehr Kunden in Betrach kommen, weil sie keine "Höllenmaschine" zuhause haben müssen? Das Beispiel mit Chinas Internet Cafés ist da sehr gut! Die gibt es an jeder Ecke und werden gut besucht!

Stichwort Abhängigkeit. Bist du doch heute schon! Steam, dein Internetprovider... Klar ist das vielleicht nicht schön, aber ich glaube nicht, dass sich das Gros der Kunden "einen Dreck" um solch eine Abhängigkeit schwert.

Also. Das Konzept ist interessant und könnte die Spielgewohnheiten revolutionieren! Technisch anspruchsvoll, aber bei weitem nicht unmöglich!

Btw, der PC, mit seiner Basis und Clientel von Spielern dürfte weit weniger bedroht sein als eine Xbox360 und PS3.
Wer kauft sich schon für 300€ eine Konsole, wenn alle neuen Titel online verfügbar sind, ohne, dass man Geld in teure Hardware stecken muss, die nach 5 Jahren veraltet ist. Die Argumente Mods und so greifen hier nicht.

Wollte das unbedingt loswerden.
Greets
 
Zuletzt bearbeitet:
Ich bin da absolut Safdas Meinung.

Die Entwicklung wird sich sprunghaft verschnellern und ehe man es sich versieht hat Europa flächendeckend 100mbit.

Vor 3 Jahren hatte ich hier in Wien mit Standard Tarif 4mbit, heute sinds - um dasselbe Geld(!) - 25-30mbit, je nachdem wie Chello aufgelegt ist - bei uns ist das jetzt standard.

Ich denke ganz ehrlich - und muss da leider mal Onkel Bill von Microsoft zitieren - dass die Zukunft sowieso in Rechenzentralen oder Servern liegt die via netzwerk Rechenleistung zur Verfügung stellen.

Ganz egal obs jetzt ein Rechner im Keller des Einfamilienhauses ist und alle 2 Kinder plus Papa an jeweils einem eigenen Rechner sitzen der darauf zugreift und dessen Rechenpower nutzt, oder obs Rechenzentren sind die Leistung für ganze Ortschaften übernehmen können, ODER eben wie jetzt mit diesem Spielestreaming.

ich denke dass die ganzen Rechenbeispiele die ihr da so gebastelt habt vollkommen sinnlos sind, denn Leute die so etwas planen haben weitaus mehr auf Lager als diese Kommentare hier vermuten lassen, ansonsten würden sie wohl kaum Unterstützung von Spiele Entwicklern, Hardware Herstellern und Vertriebspartnern bekommen..

Alleine der Fakt des Wegfalles jeglichen Kopierschutzes dürfte bei allen Entwicklern ein grosses AHA ausgelöst haben.
Vom Preis her wirds auf alle Fälle so gestaltet sein dass es sich auch der 08/15 Student leisten wird können, sie wären bescheuert wenn das nicht so wäre...denkt doch mal logisch bevor ihr wieder alles schlecht macht.

Das mit dem Datenschutz oder Anonymität wird wohl ähnlich geregelt werden wie Steam es macht und dessen Nutzer sind doch sehr begeistert von dieser Plattform, oder?

Ausserdem muss es sich ja keiner antun...hier herrscht immer noch die freie Marktwirtschaft, mal abgesehen davon dass so ein System sowieso erst in ein paar Jahren marktreif ist, weil sie als Basis für den Erfolg wie bereits geschrieben, die nötige Bandbreite beim USER brauchen.

Und davon ist euer Deutschland noch 5 Jahre entfernt, schade.

Ausserdem werde ich auf meinem 22" er und dann mal 24"er sicher nicht mit 1280x720p spielen, da verlange ich schon die native Auflösung bitteschön..
 
Zuletzt bearbeitet:
vorallem über den Stromverbrauch sollte man nicht lamentieren.
Ich möchte wirklich nicht wissen, wieviele Kraftwerke wir abschalten könnten, wenn jeder zuhause nur noch stromsparende Office Rechner bräuchte, da Hochleistungsberechnungen über Serverfarmen laufen.

Ich meine wieviele Gaming- oder sonstigen High-End PCs laufen den ständig unter Volllast? Eine bedarfsorientierte Serverfarm ist schon per se weit sparsamer.

Technisch können solche Konzepte die Zukunft darstellen, auch in anderen Bereichen. Es könnte Firmen geben die Rechenzeit auf ihren HighEnd Servern verfügbar machen, so dass wirklich nur für wirklich benötigte Leistung, Strom verbraucht bzw. Geld ausgegeben werden muss.

Ich meine, nimm 1000 Leute mit High-End Rechnern welche ihn über den Tagesschnitt ca. zu einem Viertel auslasten (noch viel zu hoch gegriffen). Hier würde ein Server mit dem Viertel der Gesamtleistung, absolut ausreichen, keiner würde einen Unterschied merken. (Im Gegenteil, würde man bei so einem Konzept seine Aufgaben im Schnitt viel schneller erledigt bekommen).

Ich hab vor kurzem mal in einem Blog zum Thema verteiltem Rechnen gelesen, dass in Wirklichkeit weit über 80% der Heim-PC Ressourcen brach liegen. Dass sind hunderte Kraftwerke eigentlich unnötiger Verbrauch (da muss ich mich teilweise selbst auch dazu zählen, ich brauch die volle Leistung meines Quads vielleicht 8-10 Stunden pro Woche)

Über die technische Unmöglichkeit zu jammern, zeugt von wenig Fachwissen, und bei den schlechten Latenzen, die manche in DE scheinbar haben, sollte man auch nicht davon ausgehen, soetwas als Standard zu bezeichnen, da man in Deutschland scheinbar noch ziemlich nachhinkt...


edit: hab jetzt spaßhalber mal einige Server mit tracert verfolgt:

Innerhalb Österreichs bin ich immer unter 10ms, und sogar nach Amerika (cnn.com; microsoft.com; nbc.com) bleibe ich oft unter 60ms (bei google.com bleibt jeder einzelne Router, bis zum Ziel (8 hops) unter 20 ms :) )
Bei CSS hab ich auf meinen lieblingsservern auch höchstens 6-8er Ping
 
Zuletzt bearbeitet:
Es gibt keinen Server, der die Rechenleistung von 250 PCs liefern kann. Das kann nur im Serververbund funktionieren. Ein typischer Server heute besteht maximal aus 2 Xeon Quadcores. Der riesige Leistungsunterschied zwischen einem Server und einem Heim PC war vielleicht vor 10 Jahren noch gegeben, ist heute aber nicht mehr vorhanden. Auch Strom wirst du mit dieser Konstruktion fast keinen sparen.
Zum Einen kannst du höchstens den Idle Strom sparen, da die CPUs in den Servern sich vom Stromverbrauch nicht viel von den Desktop CPUs unterscheiden. Und nur weil jetzt die Berechnung im Serververbunf stattfindet, heißt das ja nicht, dass deswegen die Heimgeräte keinen Strom mehr verbrauchen. Ganz im Gegenteil, nun laufen ja zwei Geräte , nämlich der Serververbund und das Heimgerät. Eine weniger leistungsstarke CPU hat zwar einen geringeren Idle-Verbrauch, aber man kann wahrscheinlich trotzdem davon ausgehen, dass insgesamt eher mehr Strom verbraucht wird, als zuvor.

Auch hast du das Problem, dass bei diesen ganzen blauäugigen Rechnereien immer davon ausgegangen wird, dass sich die benötigte Rechenlast absolut gleichmäßig über die 24 Stunden verteilt. Dem ist aber nicht so. Der normale Heim PC ist immer zu den selben Zeiten ausgelastet, nämlich dann, wenn der Nutzer zu Hause und noch wach ist, sprich in der Zeit von ungefähr 15:00 bis 24:00 Uhr. Und während dieser Zeit muss dann in den Rechenzentren auch genug Leistung bereitstehen, um diesem Ansturm Herr zu werden, was wiederum in einer enormen Überkapazität zur Stabilitätssicherung resultiren würde.
Oder ums nochmal kurz zusammenzufassen. Du kannst keine Kraftwerke abschalten, ohne dass du entweder die Masse an anfallenden Berechnungen eingrenzt, oder eben sparsamere Hardware entwickelst, da es vom Stromverbrauch keinen Unterschied macht, ob die Berechnung am heimischen PC oder auf den Servern, denen man immer noch geradezu mystische Rechenpower nachsagt, abläuft.
 
oh man, jetzt wird's bald witzig...

Wenn ich von einem Server spreche, dann meine ich grundsätzlich immer einen Verbund (wenn man z.B. vom google server spricht, dann meint man auch nicht eine bestimmte Hardware, sondern das virtuell darüber liegende Gebilde (Google hat intern unzählige Hardwareeinheiten an unzähligen Standorten, welche gemeinsam nach außen z.B. einen "Server" darstellen, was anderes findest du ohnehin nur bei sehr geringen Ansprüchen) und nicht ein einzelne Hardwareeinheiten.

Einzelne Racks gibt's mit 2,4,8 etc. Multicore CPU's mit jeweils eigenem Speicher. Wieviele Racks du dann zusammenschließt ist egal. Die Energieeffizienz im Vergleich zu Desktopsystemen ist dabei immer höher (Performance/Watt). Serversysteme werden auch meist wirklich nach der Nutzung geplant (natürlich mit genügend Luft für die Zukunft), und nicht hoffnungslos überpowert.

Davon habe ich aber gar nicht gesprochen. Du kannst bei so einer Serverfarm dann, dadurch, dass du für viele Kunden rechnest, eine bessere Auslastung der Hardware erzielen = keine sinnlosen idle Zeiten, wie sie bei HeimPCs 80% der zeit ausmachen.

Wenn du deinen PC wirklich nur einschaltest, wenn du ihn voll auslastest, kommst du wahrscheinlich energiebilanztechnisch besser davon, wenn du aber, sagen wir mal deinen PC auch mal ein paar Stunden für Office oder Surfen benutzt, brauchst du in dieser Zeit auch nicht mehr Leistung als der besagte Office PC, verbrätst aber mindestens doppelt soviel Strom.

Wenn nun so ein Dienst (an meiner alten UNI hatten wir es genau so, alle rechenintensiven Anwendungen (Simulationen) liefen am Mainframe, dessen Leistung je nach Bedarf auf die Institute verteilt wurde, um ihn, wenn möglich, immer optimal auszunutzen; gearbeitet haben wir an Thin Clients) etabliert würde, könnte man bei den Heimsystemen (die ja trotzdem noch zu 80% idlen) Hardware verwenden die dabei weniger Strom braucht. Der energietechnisch einzig sinnvollen Zustand eines High-End Prozessors ist maximale Auslastung. Da helfen alle Stromsparmechanismen nichts, die beste Performance/Watt hat man unter Volllast.

Der große Erfolg von Programmen ala Folding@Home, Seti@Home etc. zeigt doch ganz klar, dass weltweit weit mehr Rechenleistung installiert ist als tatsächlich auch zu Spitzenzeiten gebraucht wird (laut Hochrechnungen liegen auch zu Spitzenzeiten weit mehr als 2/3 brach). Weltweit hast du übrigens eine durchaus akzeptable Verteilung über die 24 Stunden hinweg, da es ja die Zeitverschiebung gibt ;)
So wie die erwähnten Programme (folding) ein Ansatz sind die übermäßig vorhandene Leistung zu nutzen, könnte man mit diesem, dem entgegengesetzen Ansatz, die vorhandene, an die tatsächlich benötigte Leistung anpassen, was aber nur durch starke Vernetzung, bzw. Cloud Computing geht.

Einfach ausgedrückt: Für alle weltweit anfallenden Berechnungen würde ein sehr kleiner Teil der momentan installierten Rechenpower ausreichen --> enormes Sparpotential.

Ich weiß nicht ob so etwas die Zukunft sein wird, aber interessant ist es allemal...
 
Zuletzt bearbeitet:
Zustimmung @ Wiesi

Übrigens, wer sich die Präsentation angesehen hat, der weiß, dass die Leute von GoLive eigens konzipierte Server/Racks erstellt haben, die leistungsfähige GPUs integriert haben, die sie dann in die bestehenden Farmen installieren.
 
@ Wiesi
Dass weltweit und vor allem zu Hause zu viel Rechenleistung installiert ist, kann ich nur zustimmen.
Allerdings ist das doch ein weiteres Argument warum OnLive es schwer haben wird sich durchzusetzen. Die ganzen Hardwarehersteller würden aus Angst vor dem sinkenden Absatz, der die unweigerliche Folge daraus wäre eine Lobbyarbeit gegen solche Dienste leisten, wie wir sie so bisher noch nicht gekannt haben.

Denn wo wären denn nVidia Amd/Ati und Intel, wenn nicht mehr jeder Gamer der auch nur einigermaßen aktuelle Spiele spielen will sich sündhaft teure Hardware kaufen müsste?
Intel könnte das vielleicht noch überstehen, aber nVidia und AMD/Ati könnten wahrscheinlich zusperren. Und dass durch weniger Absatz und weniger Konkurrenzkampf, denn die meisten Unternehmen haben sowas wie eine Hausmarke, wie unsinnig das auch sein mag, insgesamt zu weniger Investitionen in die Entwicklung neuer leistungsfähigere Hardware gesteckt wird, kommt noch mal als negativer Aspekt für alle anderen hinzu.
 
Zurück
Oben