• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Nintendo kündigt Start der Wii U für Ende 2012 an

Damit ist sie auch die erfolgreichste Konsole von Nintendo überhaupt und könnte die Verkaufszahlen der Playstation 1 (102,49 Millionen) noch übertreffen.

MfG Blueeye_x
 
Zuletzt bearbeitet von einem Moderator:
Jens_M@ul schrieb:
Nein das wars eben noch lange nicht. 40 "vollwertige" und gute Games bietet die Wii mindestens.
Wie viele dieser Titel sind PSP/PS2/GC-Ports mit mehr schlecht als recht aufgezwungener Fuchtelsteuerung?^^

Von dem einst als haste nich gesehen Revolution gepriesenen heiligen Gral zum Resteverwerter degradiert... Hab's schon mal gesagt: Peinlichster Marktführer aller Zeiten. Selbst die Dreamcast hatte ein höherwertiges LineUp, wenn man beim Wii die vielen LastGen-Titel wie RE0,1,4, Metroid Prime 1+2, Silent Hill usw. abzieht, die ja nicht primär für diese Konsole konzipiert sondern nur billig aufgewärmt wurden.

Wenn man obendrein aus den Windeln rausgewachsen ist und folglich mit Mario nicht viel anfangen kann, bleiben nicht mehr viele gute Titel übrig neben Xenoblade und ähm ja Xenoblade. :o

darkunimatrix schrieb:
Jo, 94,8 Mio. Konsolen abgesetzt, das ist fast soviel wie Sony (55,5 Mio.) und MS (64,6 Mio.) zusammen :D
Der große Rubel rollt über die Software - und in der Beziehung verhungern die 3rd Party Entwickler und Publisher regelrecht auf der Wii. :p
 
Der große Rubel rollt über die Software - und in der Beziehung verhungern die 3rd Party Entwickler und Publisher regelrecht auf der Wii.

Im Gegensatz zu Microsoft und Sony hat Nintendo an jeder einzelnen verkauften Wii auch was verdient.


MfG Blueeye_x
 
Wodurch der "Core-Gamer" sichtlich profitiert... Nintendo spart sich dumm und dämlich an Hardwareleistung und Funktionsumfang der Konsole und die Entwickler ordentlicher Spiele, die über billige Minispiel-Sammlungen hinausgehen, machen ein reines Verlustgeschäft auf dem Gerät.

Ja, Nintendo geht's finanziell prima. Nur hab ich als Spieler rein gar nichts von. :rolleyes:
 
@ Huhamamba

Ja, ein paar Ports sind dabei, das stimmt.

Und ja, es sind auch einige Mario Titel dabei. Dann denk die dir halt weg, wenn die dir zu "kindisch" (was auch immer) sein sollten. Ändert aber rein gar nix daran, dass Super Mario Galaxy zu den ideenreichsten und besten Spielen überhaupt gehört.

Welche Titel noch übrig bleiben, aus meiner Liste? Zum Beispiel No More Heroes, Zelda (wenn das "kindisch" sein soll... was ist dann Final Fantasy?), Resident Evil DC + UB, The Conduit, Goldeneye, Monster Hunter 3 und viele mehr.

Ich gebe ja zu, dass die Wii nicht so viele "Coregames" wie PS3 oder XBOX360 hat. Hab ich auch gar kein Problem mit. Aber weit mehr, als viele hier denken. Und das wollte ich schließlich klarstellen.

So, und jetzt hab ich genug zur Wii gesagt, auf zum Nachfolger!
 
Genau^^
Reden wir mal über den Preis *g*
Angeblich soll ein Händler die Konsole schon listen für 450 Euro. Ob es nun stimmt oder nicht ist ja egal, die Frage ist was wird sie wohl wirklich kosten? 200, 300 oder wirklich 450 - 500? Weihnachten hin oder her aber Nintendo muß schon einen "guten" Preis bringen. Klar neue Konsole und so aber bedenkt man die Wii kostet neu "nur" 100-120 (ohne alles) und eine X360/PS3 200-250, überlegt es sich der Käufer vielleicht nochmal. Ich denk mal das "Joytab" oder "Tabpad" wird wohl eh das teuerste an der Konsole sein *fg*
 
Nintendo Konsolen waren eigendlich immer "bezahlbar".Es kommt halt auch darauf an wie viel Geld Nintendo diesmal in die Hardware gesteckt hat....

Ich tippe mal auf einen Startpreis von 299 Euro, nur die Konsole.Ich werde dann zuschlagen wenn sie 249 kostet ;)


MfG Blueeye_x
 
Zuletzt bearbeitet von einem Moderator:
Blueeye_x schrieb:
Im Gegensatz zu Microsoft und Sony hat Nintendo an jeder einzelnen verkauften Wii auch was verdient.

Das die PlaySation 3 ein Verlustgeschäft für Sony war, ist ein weit verbreiterter Irrglaube, der leider noch immer viel zu häufig in den Foren des Internets propagiert wird.

Warum wird diese Behauptung immer wieder aufgestellt? Weil sich die Entwicklungskosten der PlayStation 3 nur sehr spät im Lauf des Lebenszyklus der Konsole über Softwareverkäufe amortisiert haben. Sony hat also jahrelang keinen Gewinn mit der PlayStation 3 gemacht, was von vielen als wirtschaftlicher Misserfolg interpretiert wurde. Das ist aber nicht korrekt und eine erschreckend eindimensionale Betrachtungsweise.

Warum sind die Entwicklungskosten für die PlayStation 3 denn überhaupt so hoch gewesen? Sony hat in die Entwicklung der Cell BE (die CPU der Konsole) alleine 400 Mio US-Dollar gesteckt. Dem folgten mindestens 500 Mio US-Dollar für die Produktionsstätten des Prozessors. Für die CPU alleine wurde also beinahe eine Milliarde Dollar investiert. Desweiteren verfügte die PlayStation 3 schon 2006 über einen BluRay-Player, der damals mehr wert war als die ganze Xbox 360. Der Knackpunkt ist jedoch, dass diese Hardware nicht ausschließlich für die PlayStation 3 entwickelt wurde. Trotzdem hat die Konsole die Entwicklungskosten dafür aber längst wieder eingefahren.

Die Cell BE ist ein absolutes Rechenmonster was Prozessortechnologie betrifft und soll bald dank konstant schrumpfender Fertigung in verschiedenen Varianten in allen möglichen Sony Produkten eingesetzt werden: Fernseher, Notebooks, Homeserver und so weiter. Darüberhinaus hat man mit der Cell BE ein Rechenherz für die PlayStation 4, dass praktisch ohne Entwicklungskosten daher kommt. Während Microsfoft und Nintento komplett neue CPUs für ihre Next-Gen Konsolen entwickeln müssen, wird Sony die Cell BE auf 32nm shrinken, die Kerne höher Takten und von selbigen auch mehr auf das Die pressen. Dank XDR-Unterstützung besitzt die Cell BE genug Bandbreite für zukünftige Aufgaben. Es wurde immer wieder betont, von vielen aber auch immer wieder ignoriert: Die Cell BE war von Anfang an als Langzeitinvestition gedacht. Die PlayStation 3 war die "Jungfernfahrt" dieser Technologie und die Investitionen haben sich längst wieder amortisiert.

Den BluRay-Player in die PlayStation zu integrieren war ein einziges Vorantreiben dieses Mediums. Zwar war der Player teuer, aber dafür verdient Sony bei jeder verkauften BluRay-Disc mit. Um die BluRay so schnell wie möglich als Standard für Filme in den Wohnzimmern zu etablieren, war dieser Schritt absolut notwendig. NextGen-Konsolen ohne BluRay-Player sind aus heutiger Sicht für die meisten absolut undenkbar und so wird Sony die Früchte bei Microsoft ernten, die sie mit der PlayStation 3 gesäht haben, sollten die Amerikaner sich für ein BluRay-Laufwerk für die XBox 720 entscheiden.


Sony hat mit der PlayStation 3 langfristig geplant und das wird ihnen bei der PlayStation 4 die Kassen füllen. Die Cell BE und der BluRay Player waren im Jahr 2006 nicht NextGen, sondern Alien Technologie. Heute kann sich Sony aber zurücklehnen: Die Entwicklungskosten für diese Hardware wurden mit der PlayStation 3 wieder eingefahren und die PlayStation 4 wird trotz hoher Rechenleistung und Ausstattung (32nm Cell BE-Refresh, XDR-RAM, BluRay-Player) günstig über die Ladentheke wandern und von anfang an Gewinn einfahren. Microsoft und Nintendo müssen sich hingegen entscheiden: Viel Rechenleistung teuer anbieten oder eine kostengünstige, aber dafür langsamere Konsole die sofort Gewinn einbringt. Sony hat beides.
 
Bei so einem Unsinn wird mir schlecht:

nanoworks schrieb:
Warum sind die Entwicklungskosten für die PlayStation 3 denn überhaupt so hoch gewesen? Sony hat in die Entwicklung der Cell BE (die CPU der Konsole) alleine 400 Mio US-Dollar gesteckt. Dem folgten mindestens 500 Mio US-Dollar für die Produktionsstätten des Prozessors. Für die CPU alleine wurde also beinahe eine Milliarde Dollar investiert. Desweiteren verfügte die PlayStation 3 schon 2006 über einen BluRay-Player, der damals mehr wert war als die ganze Xbox 360. Der Knackpunkt ist jedoch, dass diese Hardware nicht ausschließlich für die PlayStation 3 entwickelt wurde. Trotzdem hat die Konsole die Entwicklungskosten dafür aber längst wieder eingefahren.
Der point of even break war ca. 2 Jahre nach dem Release. Das ist Sonys eigene Angabe. Realistischer als Sonys q3 2008 ist wohl eher q1 2009. Auch hat Sony die Entwicklungs- und Herstellungskosten, die du nennst, nicht alleine getragen. Wir wollen hier mal nicht vergessen, dass es ein von IBM gefertigter und von Sony und Toshiba entwickelter PowerPC-Abkömmling ist. Es wurde keine neue Architektur entwickelt, es wurden nur die damit verbundenen Buses geändert. Ähnliches haben sowohl MS als auch Nintendo mit ihren jetzigen Konsolen gemacht. Während Nintendo ihren IBM Kern aus dem Gamecube upgraden, wechselte MS von x86 zu PowerPC mit einer abgewandelten Form der regulären Prozessoren, die IBM so fertigt.

Die Cell BE ist ein absolutes Rechenmonster was Prozessortechnologie betrifft und soll bald dank konstant schrumpfender Fertigung in verschiedenen Varianten in allen möglichen Sony Produkten eingesetzt werden: Fernseher, Notebooks, Homeserver und so weiter.
Genau weil das so ist, sterben auch die PowerPC Modelle sogar in ihren Vorzugsbereichen aus. Natürlich! Wenn das Hauptsegment einer Architektur stirbt, liegt es nahe, dass diese im Consumer-Segment eine führende Position einnehmen wird.

Darüberhinaus hat man mit der Cell BE ein Rechenherz für die PlayStation 4, dass praktisch ohne Entwicklungskosten daher kommt. Während Microsfoft und Nintento komplett neue CPUs für ihre Next-Gen Konsolen entwickeln müssen, wird Sony die Cell BE auf 32nm shrinken, die Kerne höher Takten und von selbigen auch mehr auf das Die pressen.
Genau... MS und Nintendo werden keine weiteren Upgrades ihrer bisherigen Modelle fahren können. Weil sich ja auch son 90nm Kern nicht shrinken lässt... Wie kommst du bitte auf so einen Stuss? Es wird bei allen dreien wahrscheinlich das selbe passieren: In Richtung SoC und shrinken. Da ist nun wirklich Sony nicht alleine.

Die Cell BE war von Anfang an als Langzeitinvestition gedacht. Die PlayStation 3 war die "Jungfernfahrt" dieser Technologie und die Investitionen haben sich längst wieder amortisiert.
Genau hier liegt Sonys Fehler. Sie mussten ein Heimgerät bauen, haben jedoch viel zu groß gedacht. Cell mag eine gute CPU für Randbereiche wie Supercomputing sein, zu Hause macht sie jedoch wenig Sinn. Solange die Software im Heimbereich nicht exakt gleich ist mit der von Supercomputern (und das wird aufgrund der Tatsache, dass sich nicht alles sinnvoll parallelisieren lässt, nie passieren), war es eine Fehlentwicklung.

Den BluRay-Player in die PlayStation zu integrieren war ein einziges Vorantreiben dieses Mediums.
Es war das einzige Vorantreiben des Mediums. Optische Datenträger sind am aussterben. Zum Zeitpunkt des Release der PS3 war man sich noch nicht sicher, ob Streaming-Dienste den Markt erobern konnten. Hätte MS direkt auf das Pferdchen anstatt erst auf HD-DVD, stände Bluray ziemlich alleine da. Ich persönlich gebe Bluray noch maximal fünf Jahre, dann wird es im Erdboden versinken.

NextGen-Konsolen ohne BluRay-Player sind aus heutiger Sicht für die meisten absolut undenkbar und so wird Sony die Früchte bei Microsoft ernten, die sie mit der PlayStation 3 gesäht haben, sollten die Amerikaner sich für ein BluRay-Laufwerk für die XBox 720 entscheiden.
Der einzige Grund sich für Blurays zu entscheiden, ist die schiere Menge an Daten, die man auf solche Datenträger bekommt. Ansonsten gibt es keinen Grund, der für optische Medien spricht. Die Kopierschutzmechanismen sind geknackt, Rohlinge sind im Handel ohne Umstände erhältlich, etc. Gegen typische Systeme wie Steam auf Konsolen spricht eigentlich nur noch die Bandbreite der Haushalte. Das sieht man auch daran, dass sich Titel zunehmend besser verkaufen, die rein digital distributiert werden.
Auch bei der Wii U wird Nintendo sich wieder gegen Multimedia-Wiedergabe über optische Medien entscheiden. Das senkt nämlich die Produktions- und Garantiekosten. Ich kann ein qualitativ schlechteres Laufwerk verbauen, ohne Gefahr zu laufen in der Garantiezeit es austauschen zu müssen. Für uns Deutsche ist das einzige Problem damit, dass wir Institutionen haben, die gerne dazwischen funken und so Streaming-Angebote weniger rentabel machen.

Sony hat mit der PlayStation 3 langfristig geplant und das wird ihnen bei der PlayStation 4 die Kassen füllen.
Träum weiter.

Sony hat nur eines gemacht, das was sie jedes mal machen, seit dem Walkman:
Sie versuchen ihren Weg als den Weg für alle zu etablieren. Sie sind jetzt mit Bluray noch mit einem blauen Auge davon gekommen, da sie genug PS3s verkaufen konnten. Die Entscheidung für Cell werden sie spätestens dann bereuen, wenn die Konkurrenz PowerPC abschwört und zu Alternativen wie ARM wechselt.
 
thes33k schrieb:
Der point of even break war ca. 2 Jahre nach dem Release. Das ist Sonys eigene Angabe. Realistischer als Sonys q3 2008 ist wohl eher q1 2009. Auch hat Sony die Entwicklungs- und Herstellungskosten, die du nennst, nicht alleine getragen. Wir wollen hier mal nicht vergessen, dass es ein von IBM gefertigter und von Sony und Toshiba entwickelter PowerPC-Abkömmling ist. Es wurde keine neue Architektur entwickelt, es wurden nur die damit verbundenen Buses geändert. Ähnliches haben sowohl MS als auch Nintendo mit ihren jetzigen Konsolen gemacht. Während Nintendo ihren IBM Kern aus dem Gamecube upgraden, wechselte MS von x86 zu PowerPC mit einer abgewandelten Form der regulären Prozessoren, die IBM so fertigt.

Was du da schreibst ist einfach nur falsch! (und es heißt übrigens Break-Even Point!)

Cell steht für Cell Broadband Engine Architecture, wird mit Cell BE oder CBEA abgekürzt und ist eine eigene CPU Architektur. Der Power Core im Power Processor Element basiert auf der IBM Power Architektur, ist aber auch eine eigene Entwicklung. Die acht Synergistic Processing Elements sind komplett neu entwickelte RISC Kerne.

Microsoft ist mit der XBox 360 zudem nicht zu einem regulären IBM PowerPC gewechselt. Der Xenon in der XBox 360 hat mit den normalen IBM CPUs nicht viel gemeinsam. Dieser Chip beinhaltet drei Power Cores wie sie im PPE der Cell BE vorkommen. Was du da über Architekturen schreibst ist einfach nur Blödsinn! Nur weil an meinem Pentium 4 x86 dran steht, hat er doch nicht die gleiche Architektur wie mein Core i7 Sandy Bridge! Sie verwenden weitesgehend das gleiche Instruction-Set, aber das wars dann auch.

Sony ist zudem der einzige der von dir genannten Allianz, der Cell BE Prozessoren herstellt.


Genau weil das so ist, sterben auch die PowerPC Modelle sogar in ihren Vorzugsbereichen aus. Natürlich! Wenn das Hauptsegment einer Architektur stirbt, liegt es nahe, dass diese im Consumer-Segment eine führende Position einnehmen wird.

Das ist genauso ein Blödsinn. Herrgott...

PowerPCs sterben nicht aus. Diese Chips werden genauso wie ARM Chips für eingebettete System entwickelt. ARM Chips finden so zB in Smartphones ihren Einsatz. PowerPCs sind deutlich leistungsfähiger und werden so zum Beispiel beim Militär (zB F22 Raptor Kampfjets) eingesetzt. PowerPCs sind erste Wahl für eingebettete Systeme und das sie aussterben ist einfach nur falsch. Sie sind aus ihren Einsatzgebieten nicht wegzudenken.

Genau... MS und Nintendo werden keine weiteren Upgrades ihrer bisherigen Modelle fahren können. Weil sich ja auch son 90nm Kern nicht shrinken lässt... Wie kommst du bitte auf so einen Stuss? Es wird bei allen dreien wahrscheinlich das selbe passieren: In Richtung SoC und shrinken. Da ist nun wirklich Sony nicht alleine.

Das ist eine absolut naive Denkweise. Du kannst nicht einfach eine CPU Architektur nehmen, sie unendlich oft shrinken und dabei unendlich viel Performance gewinnen. Neue Chipdesigns ermöglichen deutlich höhere Leistungssprünge. Das beste Beispiel liefern doch die ganzen X86 Chips von Intel: Beinahe jede neue Generation hat bei gleichem Takt/Kernzahl eine deutlich bessere Performance als der Vorgängergeneration. Nintendo wird Gerüchten zufolge eine CPU verwenden, die auf IBMs Power7 Architektur basiert. Mit dem Broadway Prozessor der Wii wird diese CPU nicht mehr viel gemein haben.

Genau hier liegt Sonys Fehler. Sie mussten ein Heimgerät bauen, haben jedoch viel zu groß gedacht. Cell mag eine gute CPU für Randbereiche wie Supercomputing sein, zu Hause macht sie jedoch wenig Sinn. Solange die Software im Heimbereich nicht exakt gleich ist mit der von Supercomputern (und das wird aufgrund der Tatsache, dass sich nicht alles sinnvoll parallelisieren lässt, nie passieren), war es eine Fehlentwicklung.

Genau an dieser Stelle deiner Argumentation bestraft dich dein Unwissen erneut. Die Xenon-CPU in der XBox 360 beinhaltet wie bereits erwähnt drei Power Cores, die identisch sind mit den Power Cores des Power Processing Elements der Cell BE. Das Problem der PlayStation 3 war jedoch die mies optimierte API: Das sogenannte PSGL hat viele Entwickler in den frühen Jahren zur Weißglut getrieben, während hingegen das DirectXBox der XBox 360 sehr leicht zu nutzen war. Mit der Zeit hat Sony die API der PlayStation immer weiter optimiert, viele Entwickler sprechen davon, dass es mitlerweile einwandfrei nutzbar ist. Die Probleme der PS3 lagen also nicht an der Hardware (die ist der der XBox ja sehr ähnlich), sondern an Kinderkrankheiten der Software.

Es war das einzige Vorantreiben des Mediums. Optische Datenträger sind am aussterben. Zum Zeitpunkt des Release der PS3 war man sich noch nicht sicher, ob Streaming-Dienste den Markt erobern konnten. Hätte MS direkt auf das Pferdchen anstatt erst auf HD-DVD, stände Bluray ziemlich alleine da. Ich persönlich gebe Bluray noch maximal fünf Jahre, dann wird es im Erdboden versinken.

Optische Datenträger sind nicht am aussterben. Gerade die Kernmärkte der Unterhaltungsindustrie, also die USA, (vor allem) UK, Deutschland und Frankreich besitzen Internetnetze mit katastrophalen Datendurchsätzen. Gerade bei Filmen wird es daher noch eine lange Zeit dauern, bis sich Streamingdienste durchsetzen, denn um die BluRay-Qualität zu erreichen müssten die meisten User viele Stunden buffern. Bis sich On-Demand-Streamingdienste in der Unterhaltungsindustire durchsetzen, werden aufgrund der miesen Infrastruktur sicher noch zehn oder zwanzig Jahre vergehen. Vor allem wenn man bedenkt das der nächste schritt 4k-Auflösung ist: Welche Leitung soll sowas streamen können?

Der einzige Grund sich für Blurays zu entscheiden, ist die schiere Menge an Daten, die man auf solche Datenträger bekommt. Ansonsten gibt es keinen Grund, der für optische Medien spricht. Die Kopierschutzmechanismen sind geknackt, Rohlinge sind im Handel ohne Umstände erhältlich, etc. Gegen typische Systeme wie Steam auf Konsolen spricht eigentlich nur noch die Bandbreite der Haushalte. Das sieht man auch daran, dass sich Titel zunehmend besser verkaufen, die rein digital distributiert werden.
Auch bei der Wii U wird Nintendo sich wieder gegen Multimedia-Wiedergabe über optische Medien entscheiden. Das senkt nämlich die Produktions- und Garantiekosten. Ich kann ein qualitativ schlechteres Laufwerk verbauen, ohne Gefahr zu laufen in der Garantiezeit es austauschen zu müssen. Für uns Deutsche ist das einzige Problem damit, dass wir Institutionen haben, die gerne dazwischen funken und so Streaming-Angebote weniger rentabel machen.

Ebenso: Nein, die Infrastruktur ist dafür einfach zu schwach. Um auf physikalische Datenträger zu verzichten, müsste man zu starke Qualitätseinbußen in Kauf nehmen.

Sony hat nur eines gemacht, das was sie jedes mal machen, seit dem Walkman:
Sie versuchen ihren Weg als den Weg für alle zu etablieren. Sie sind jetzt mit Bluray noch mit einem blauen Auge davon gekommen, da sie genug PS3s verkaufen konnten. Die Entscheidung für Cell werden sie spätestens dann bereuen, wenn die Konkurrenz PowerPC abschwört und zu Alternativen wie ARM wechselt.

Das habe ich ja eben schon angesprochen: ARM Chips haben ein ganz anderes Einsatzgebiet. PowerPCs sind vielfach leistungsfähiger und decken den Markt mit hoher Rechenleistung ab. ARM Chips werden einzig und allein auf Effizienz getrimmt. ARM Chips werden weder PowerPCs, noch x86 CPUs in deren Einsatzgebieten ablösen.


Bevor du jetzt wieder soviel Blödsinn dazu schreibst, lass es bitte gut sein. :stock:
 
nanoworks schrieb:
Was du da schreibst ist einfach nur falsch! (und es heißt übrigens Break-Even Point!)
Danke für die Korrektur. Ich wusste gar nicht, dass point of even break nicht äquivalent zu break-even point ist... Formulierungen des Genitivs mit of sind nur dann schlechtes Englisch, wenn ein weiterer Genetitiv direkt benachbart ist. Mag sein, dass BWL Literatur es immer Break-Even Point nennt, jeder halbwegs intelligente Mensch versteht trotzdem den Ausdruck point of even break.

Dann kommt von dir viel bla bla über wie unterschiedlich doch die Feinheiten sind und am Ende ist es immernoch so: PowerPC ist die Grundlage und die sterben nunmal aus. Gerade im embedded Bereich sollte man sie erst recht nicht nennen... Wer auf marketing reinfällt, dem ist nunmal nicht mehr zu helfen.

PowerPCs sterben nicht aus. Diese Chips werden genauso wie ARM Chips für eingebettete System entwickelt. ARM Chips finden so zB in Smartphones ihren Einsatz. PowerPCs sind deutlich leistungsfähiger und werden so zum Beispiel beim Militär (zB F22 Raptor Kampfjets) eingesetzt. PowerPCs sind erste Wahl für eingebettete Systeme und das sie aussterben ist einfach nur falsch. Sie sind aus ihren Einsatzgebieten nicht wegzudenken.
Der klassische Markt für PowerPC ist nunmal Realtime-Berechnungen in Form von Clustern. Muss ich jetzt wirklich aufzeigen, dass beim Marktführer für PowerPC Prozessoren die Systeme mit eben solchen reduziert werden? Ist es nicht im gleichem Atemzug auffällig, dass immer mehr Consumer-Produkte mit PowerPC abgeschafft wurden? Das wird schon seine Gründe haben, wieso sich Apple für x86 entschieden hat und das war nunmal der Vorreiter für PowerPC im Heimsegment.

Das ist eine absolut naive Denkweise. Du kannst nicht einfach eine CPU Architektur nehmen, sie unendlich oft shrinken und dabei unendlich viel Performance gewinnen.
Das habe ich auch nicht behauptet. Was ich sage ist, dass Nintendo mit Sicherheit die Option hat ihre alten Kerne weiter zu shrinken. 90nm... Und daraus gibt sich nunmal vorerst Leistungszuwachs.

Neue Chipdesigns ermöglichen deutlich höhere Leistungssprünge.
Daraufhin bringst du doch sogar das beste Beispiel, wieso das eben nicht immer so ist. Gerade bei x86 ist es mehrfach vorgekommen, dass der angeblich so viel performantere Nachfolger sich kaum vom Vorgänger absetzen konnte.

Genau an dieser Stelle deiner Argumentation bestraft dich dein Unwissen erneut. Die Xenon-CPU in der XBox 360 beinhaltet wie bereits erwähnt drei Power Cores, die identisch sind mit den Power Cores des Power Processing Elements der Cell BE. Das Problem der PlayStation 3 war jedoch die mies optimierte API: Das sogenannte PSGL hat viele Entwickler in den frühen Jahren zur Weißglut getrieben, während hingegen das DirectXBox der XBox 360 sehr leicht zu nutzen war. Mit der Zeit hat Sony die API der PlayStation immer weiter optimiert, viele Entwickler sprechen davon, dass es mitlerweile einwandfrei nutzbar ist. Die Probleme der PS3 lagen also nicht an der Hardware (die ist der der XBox ja sehr ähnlich), sondern an Kinderkrankheiten der Software.
Also erst willst du uns hier weiss machen, dass Nintendo und MS nicht die gleichen Möglichkeiten wie Sony haben und dann unterstellst mir Unwissen und stellst klar, das eigentlich doch in der 360 nichts großartig anderes werkelt? Na das soll mal einer verstehen: Nein, SONY hat jetzt den besseren Stand! Obwohl in der Xbox das nahezu gleiche arbeitet!
Und dann musste ich ehrlich gesagt grinsen. Ich arbeite in der Spielebranche in der Entwicklung und ich versichere dir eines: Wenn das Framework spackt, wird es nicht benutzt. Natürlich stimmt, dass über die Jahre Entwickler zufriedener werden, aber nicht weil es sich groß ändert, sondern weil sich die nervigen Kleinigkeiten ändern. Frag irgendeinen Informatiker, der sich mit php und zend rumschlägt und er wird dir eine Antwort geben: Zend ist erträglich geworden, hat nervige Bugs und jedes mal wenn einer verschwindet wird sich wien Schoßhund gefreut. So sehr, dass man seine Workarounds anfassen muss.. Und exakt das gleiche wird derjenige dir auch über php sagen. PHP stinkt, es wird nur tolerabel gemacht und nach Außen das "oh jetzt ist es so gut" propagiert. Das ändert aber nichts an der Tatsache, dass in der Zeit bis es verbessert wurde, es weniger genutzt wurde und genau das ist tödlich für ein System das sich daraus refinanziert.

Optische Datenträger sind nicht am aussterben. Gerade die Kernmärkte der Unterhaltungsindustrie, also die USA, (vor allem) UK, Deutschland und Frankreich besitzen Internetnetze mit katastrophalen Datendurchsätzen. Gerade bei Filmen wird es daher noch eine lange Zeit dauern, bis sich Streamingdienste durchsetzen, denn um die BluRay-Qualität zu erreichen müssten die meisten User viele Stunden buffern. Bis sich On-Demand-Streamingdienste in der Unterhaltungsindustire durchsetzen, werden aufgrund der miesen Infrastruktur sicher noch zehn oder zwanzig Jahre vergehen. Vor allem wenn man bedenkt das der nächste schritt 4k-Auflösung ist: Welche Leitung soll sowas streamen können?
Genau, deshalb explodieren auch Dienste wie Youtube/Vimeo/Grooveshark/8tracks/etc. Weil streaming von Multimedia-Content heute noch so problematisch ist. Dann schauen wir mal über den Teich in das Land, das die Vorreiterposition was Streamingdienste angeht und stellen fest: OMG! Allein durch die Größe des Landes ist das Netz deutlich schlechter ausgebaut. Was die Qualität des Netzes angeht ist das nur noch von Australien und so manchem dritte Welt land zu unterbieten. Und trotzdem haben sie erfolgreiche Dienste wie Hulu und Netflix. Könnte es da nicht vielleicht daran liegen, dass einfach die Produkte hierzulande aufgrund der rechtlichen Lage sich nicht rentieren würden?

Und stell dir mal vor: Selbst wenn sich 4k durchsetzen würde (was ich erstmal durchaus bezweifle, weil da eben mehr als nur die technische Möglichkeit dranhängt), dann bräuchte man nur 4x so große Leitungen im Vergleich zu 1080p. Lösungen wie FTTH oder FTTB sind momentan sogar verhältnismäßig ungefragt, eben weil es keinen content-Lieferanten gibt, der das sinnvoll machen würde. Und die wird es auch in den nächsten Jahren nicht geben, eben weil Fernsehanstalten etc. in den letzten Jahren in HD investiert haben. Die werden niemals jetzt großartig wieder investieren. Am Ende steht dann noch der Kunde, der jetzt vllt schon länger fullhd besitzt aber sich fragt, wieso er upgraden sollte.

Ebenso: Nein, die Infrastruktur ist dafür einfach zu schwach. Um auf physikalische Datenträger zu verzichten, müsste man zu starke Qualitätseinbußen in Kauf nehmen.
Joah, man kann quasi sagen, dass in Deutschland steam nicht funktioniert, weil hier die Infrastruktur so sehr suckt. Noch einmal: Wir mögen hier vllt viel zu viel Kupfer im Boden liegen haben um mit Ländern zu konkurrieren, die auf "bessere" Leiter in den letzten Jahrzehnten gesetzt haben. Wir haben trotzdem eine der besten Infrastrukturen von Datenleitungen im weltweiten Vergleich.
Nebenbei zeigen ausgerechnet Spiele, dass mehr nicht automatisch besser ist. Wir sind noch weit von einer Welt entfernt, in der jeder Titel größer als eine dl-dvd ist und dementsprechend auch aussieht.

Das habe ich ja eben schon angesprochen: ARM Chips haben ein ganz anderes Einsatzgebiet. PowerPCs sind vielfach leistungsfähiger und decken den Markt mit hoher Rechenleistung ab. ARM Chips werden einzig und allein auf Effizienz getrimmt. ARM Chips werden weder PowerPCs, noch x86 CPUs in deren Einsatzgebieten ablösen.
Weil sie ja auch noch nicht begonnen haben, genau das zu tun. NAS mit ARM ist nur der Anfang für klassische professionelle Segmente. Solange der Trend anhält, dass man bei x86 und PowerPC am Ende der Fahnenstange angelangt ist und größtenteils nur noch am Verbrauch werkelt, wird ARM wachsen. Natürlich wird es Bereiche geben in denen PowerPC und x86 ihren Sinn haben, aber nunmal nicht im Wohnzimmer.
Man sollte auch nicht vergessen, wieso man sich ausgerechnet für PowerPC damals entschieden hatte: Man musste mit dem klassischen Spiele-Segment konkurrieren. Dafür brauchte man eine Plattform, die auf diesen Zweck zugeschnitten war und das war x86 einfach nicht. Dazu kam, dass man sicherheitsrelevant seine Software schützen wollte und das mit den effektivsten Mitteln. Proprietär, nur emulierbar, etc. Das ist heute aber nicht mehr von absoluter Bedeutung dank DRM.
 
Oh man bitte verschone uns mit diesem Blödsinn...

Du hast offenbar nicht die leiseste Ahnung wovon du überhaupt sprichst, verwendest Fachbegriffe die du nicht verstehst und verwickelst dich immer wieder in Widersprüche. Du willst Entwickler in der Spielebranche sein? Das glaubst du doch wohl selber nicht... Alleine was du alles über den Cell erzählt hast war von vorne bis hinten schlichtweg falsch.
 
Dann glaubs halt nicht. Ich fahr Montag wieder nach Hamburg, setz mich an meinen Schreibtisch und dreh Däumchen, weil ich ja nicht in der Branche arbeite... Ich arbeite nicht an Konsolen-Titeln (zumindest nicht klassischen Konsolen) und kenn dementsprechend nicht alle Details. Trotzdem wage ich zu bezweifeln, dass es sich großartig anders verhält.

Nebenbei würde ich gerne meine Widersprüche aufgezeigt bekommen. Ich habe eine einfache Argumentation geäußert: Sony hat keine Vorreiterrolle und keine Vorzüge zu anderen Herstellern von Konsolen. Mit dem was sie versucht haben zu etablieren, sind sie auch gescheitert. Sie sind mit Bluray gerade so noch durchgekommen, während bei jetzigen Trends es nicht abzusehen ist, dass das so bleibt.

Glaub einfach weiter an deinen Cell. Überlies einfach jedes Beispiel dafür, dass es Einsatzzwecke nach und nach einbüßt (wie z.B. dieser US Airforce ps3 Cluster "The Condor Cluster", weil Sony aktiv gegen so etwas Entscheidungen trifft). Lob Sony weiter in den Himmel, wo sie in der Vergangenheit überhaupt nicht gezeigt haben, wie inkompetent sie sind. Aber bitte, mach es in deinem Kopf und nicht unter Lesern, die realistische Ansprüche besitzen.
 
Du kapierst es einfach nicht. Du kommst hier her, zitierst die Leute und verstehst gar nicht wovon sie reden. Es ist einfach unfassbar...

Noch mal für dich: Sony ist nicht gescheitert, weil die Cell BE ein Mehrgenerationenprojekt war. Dieser Architektur war von Anfang an zu "groß" für die PlayStation 3, sie war 2006 Next-NextGen, aber das mit Absicht. Sony hat mit dieser Chiparchitektur für viele Jahre in die Zukunft geplant. Die Entwicklungkosten der Cell BE haben sich aber schon mit der PlayStation 3 amortisiert, was bedeutet, dass alle weiteren Verwendungszwecke reinen Gewinn generieren (wenn man die Fertigungskosten abzieht). Der Rest ist also "Kür". Diese Chiparchitektur wurde also von Anfang an für PlayStation 3, PlayStation 4 und darüberhinaus entwickelt.

Die Cell BE wird in zukünftigen Sony Produkten in allen Möglichen Varianten zum Einsatz kommen, allen voran in der PlayStation 4: Das PSGL ist ausgereift, die Entwickler kennen die Hardware mitlerweile und selbst die derzeitige Cell BE in der PlayStation 3 wäre stark genug für NextGen. Diese Architektur hat einfach unfassbar viel Power. Ein Shrink auf 32nm erlaubt höhere Taktraten, mehr SPEs, vielleicht mehr Power Cores im PPE, vierfaches Multithreading für diese Cores und so weiter. Diese CPU-Architektur wurde so aufgebaut, dass sie extrem leicht und effektiv erweiterbar ist. In ein paar Jahren wird jeder Sony Fernseher eine Cell BE als Rechenherz nutzen. Microsoft und Nintendo haben diesen Vorteil nicht.

Aus was für einer "Spielebranche" du kommst *hust*, zeigt ja dein Enthusiasmus für ARM Chips: Das kann eigentlich nur irgend so ein billiger Yamba-Mist sein, der den Kids für 20€ pro Monat auf Viva angeboten wird. Sowas als "Spielebranche" zu bezeichnen ist einfach nur lächerlich: So was haben wir damals im Informatikunterricht programmiert, wenn uns langweilig war. ARM ist ganz sicher nicht der Gral für Consumerelectronic in den nächsten Jahren: Diese Architektur ist auf maximale Effizienz getrimmt, lässt sich mit der Rechenleistung von PowerPC nicht mal im Ansatz vergleichen. Die Anforderungen in Sachen Rechenleistung werden konstant höher und bleiben nicht einfach stehen. ARM wird sich weiterhin auf den Mobilmarkt beschränken. PowerPC (Rechenleistung) und X86 (Multi-Verwendungszweck) werden auch weiterhin ihre Stellung halten, denn das was sie machen sollen, machen sie nach wie vor deutlich besser als ARM (Effizienz). Zum Einkaufen im Supermarkt nimmst du ja auch lieber den Kombi als den Ferrari, oder?
 
nanoworks schrieb:
Du kapierst es einfach nicht. Du kommst hier her, zitierst die Leute und verstehst gar nicht wovon sie reden. Es ist einfach unfassbar...
Und du wirfst mir Unwissen und Widersprüchlichkeiten vor und kannst sie nicht belegen. Richtig, ich versteh nichts von Architekturen. Ich hab erst recht keine Ahnung davon aus erster Hand, wie nervig es ist für eben Unterschiede bei genau denen zu entwickeln. Über sich mit frameworks der Hersteller rumklagen weiß ich auch nichts. Der einzige, der hier mit Unwissen glänzt bist du. Du liest hier deine Specs aus dem Marketinghandbuch ab und siehst darin das Allheilmittel. Du hast von semantischer Problemlösung offensichtlich keine Ahnung und denkst, dass höhere Specs automatisch besser seien. Und wenn man dir dann auch noch Denkanstöße gibt, wieso das vielleicht nicht so ist, kommt immer wieder der gleiche Unsinn.

Dieser Architektur war von Anfang an zu "groß" für die PlayStation 3, sie war 2006 Next-NextGen, aber das mit Absicht.
Richtig. Genau das habe ich in meinem ersten Post geschrieben. Sony hat nicht im Rahmen des Wohnzimmers, sondern darüber hinaus gedacht und genau das ist einfach komplett falsch. Die Verbreitung von Cell belegt das nur eindeutig und Trends wie IBMs Reduktion des PowerPC Portfolios untermauern das nur. Auch wenn dir das nicht passt. Im Endeffekt hat Sony bei Cell nichts anderes gemacht als zuvor bei Emotion Engine. Wie erfolgreich das Konzept war, sehen wir ja. Es hat sich nirgendswohin entwickelt. Einfach mal die nächsten Jahre abwarten und du wirst erkennen, dass es eben so ist, dass Sonys Cell nur in der PS wirklich Verbreitung erfährt.

Das PSGL ist ausgereift, die Entwickler kennen die Hardware mitlerweile und selbst die derzeitige Cell BE in der PlayStation 3 wäre stark genug für NextGen.
Ausgereifte Frameworks? So etwas gibt es nicht. Zu deiner Nextgen These:
Man schaue sich einfach mal Battlefield 3 auf der PS3 an. Damit ist deine These unhaltbar. Und bevor du jetzt mit so einem Unsinn wie "da sind noch genug Ressourcen" kommst, nein sind dort nicht. Bei einer multimillionen Unterhaltungssoftware-Entwicklung wird weder der Hersteller noch der Publisher sich mit "nur 90%" zufrieden geben.

Diese Architektur hat einfach unfassbar viel Power. Ein Shrink auf 32nm erlaubt höhere Taktraten, mehr SPEs, vielleicht mehr Power Cores im PPE, vierfaches Multithreading für diese Cores und so weiter.
Und genau das können MS und Nintendo auch. In der Wii werkelt ein in 90nm gefertigter mit 730 mhz. Was glaubst du was passiert, wenn die gleiche Architektur in einem neuen Werk mit kleinerer Strukturbreite gebaut wird? Richtig, die Taktraten können erhöht werden. Nintendo hat es nun ziemlich leicht einen deutlichen Leistungssprung zu schaffen, während die Konkurrenz durch den sowieso schon höheren Takt näher an der Grenze des möglichen ist.
Bitte verschone uns mit deinen Spekulationen, insbesondere über Multithreading. Hättest du ein wenig Ahnung, wüsstest du, dass sich nicht alles parallelisieren lässt und dementsprechend mehr Threads / Kerne / Tasks nicht automatisch besser sind.

Diese CPU-Architektur wurde so aufgebaut, dass sie extrem leicht und effektiv erweiterbar ist.
Das hat man ja gesehen, wie einfach die Entwicklung auf der Architektur ist im Vergleich zur Konkurrenz. Wenn ich anfange mir als kleiner Entwickler Gedanken über Memory Allocation machen zu müssen (anstatt zu können), ist es einfach nicht leicht. Ohne Leichtigkeit keine Effizienz.

In ein paar Jahren wird jeder Sony Fernseher eine Cell BE als Rechenherz nutzen. Microsoft und Nintendo haben diesen Vorteil nicht.
Weil MS und Nintendo ja auch soviele andere Homeentertainment-Geräte bauen. MS und Nintendo müssen nicht eine Architektur erschaffen, damit sie sie überall verwenden können. Sie können semantisch an neue Produkte rangehen, anstatt mit dem Leistungshammer zu schwingen. Ich seh ehrlich gesagt auch überhaupt keinen Sinn darin in einem Fernseher PowerPC zu verbauen, wenn ARM für die typischen Applikationen effizienter ist.

Aus was für einer "Spielebranche" du kommst *hust*, zeigt ja dein Enthusiasmus für ARM Chips: Das kann eigentlich nur irgend so ein billiger Yamba-Mist sein, der den Kids für 20€ pro Monat auf Viva angeboten wird.
Falsch. Ich arbeite nicht für Rupert Murdoch, sondern für einen Publisher mit über 200 Millionen Kunden mit über 70 Titeln im Portfolio. Würdest du auch nicht einfach dumm rumraten, wüsstest du es auch. Du wirst mit Sicherheit nicht zum Zielpublikum meines Arbeitgebers gehören und du magst von seinen Methoden halten was du willst, trotzdem bleibt es Spielebranche und hat exakt die gleichen Schritte in der Entwicklung wie z.B. Ubisoft.

Sowas als "Spielebranche" zu bezeichnen ist einfach nur lächerlich: So was haben wir damals im Informatikunterricht programmiert, wenn uns langweilig war.
Richtig, nur Hardcore Zeugs kann Spielebranche sein. Komisch, dass ausgerechnet die großen Publisher jetzt auf den Trip kommen, Casual als Marktlücke zu akzeptieren und den Vorreitern dieses Segments hinterherrennen. Kannst ja mal nen Termin mit der Pressestelle von EA beantragen und fragen, wie sie zu einem Publisher wie Zynga stehen.
Deine Ansichten sind anscheinend bei "damals im Informatikunterricht" stehen geblieben.

ARM ist ganz sicher nicht der Gral für Consumerelectronic in den nächsten Jahren: Diese Architektur ist auf maximale Effizienz getrimmt, lässt sich mit der Rechenleistung von PowerPC nicht mal im Ansatz vergleichen.
ARM wird mehr und mehr Bereiche des Homecomputings ersetzen. x86 ist am Ende der Fahnenstange angelangt und ist für das meiste zu stark. Kein Mensch braucht einen 102ps Motor in einem Smart, wenn 84ps auch für den sinnhaften Nutzen reichen. Das erkennen halbwegs intelligente Käufer der Produkte. Exakt das gleiche passiert mit PCs momentan. PowerPC macht aus dem Grund noch weniger Sinn als x86.
Natürlich kannst du mit ARM noch nicht alles abdecken, das Wachstum der Plattform an Leistung ist jedoch ein vielfaches größer als andere Architekturen momentan.

Die Anforderungen in Sachen Rechenleistung werden konstant höher und bleiben nicht einfach stehen.
Bei sowas stellt sich jeder Entwickler die Frage, ob die höheren Anforderungen dem Mehrwert gerecht werden. So mancher sagt dann nein und liefert lieber Software, die sich mit weniger zufrieden gibt (z.B. der Entwickler, der vor Frostbite2 die Standards gesetzt hat).

ARM wird sich weiterhin auf den Mobilmarkt beschränken.
Sieht man ja. Server, Fernseher, Nettops, embedded. Apropos embedded: Du sagtest ja, dass Sony die einzigen seien, die Cells herstellen (wobei das auch schon falsch ist, aber lassen wir das). Fahr ins Chariete, oder Uniklinikum Münster oder nach Heidelberg und zieh dir rein, womit MRTs von Toshiba arbeiten. Wer die nun herstellt ist weniger von Belangen, irgendwie vermute ich, dass Toshiba dafür bezahlt hat, dass darin ein aktueller PowerPC werkelt. Aber ja, natürlich, PowerPC setzt sich auch dort durch.. So eine Architektur die stets aktive Kühlung benötigt, wird sich bestimmt in Systemen in Operations-Säälen durchsetzen. Nur so als Tipp: In diesen Bereichen eingesetzte embedded-Systeme dürfen keine Lüfter besitzen.

Du verkennst bei all deinen "Specs sind so wichtig und der ach so große Cell", das wichtigste an den momentanen Trends in der Industrie:
1. Casual wächst stärker als klassische Segmente.
2. Egal um was es sich in der Anwendungsentwicklung dreht: Für ein System zu entwickeln steht besser da als für mehrere Systeme. Das ist der Grund, wieso DirectXbox höhere Akzeptanz hat. Das ist der Grund, wieso immer mehr in Richtung Javascript und serverseitigs Javascript geht (node.js). Das ist der Grund, wieso XNA populär ist. Eine Sprache/Framework zu verwenden ist immer besser als zwei vermischen zu müssen. Jetzt frag dich mal, was die Entwickler davon halten, wenn sie in Zukunft ihre Projekte für Desktop PCs nicht mehr elementar anfassen müssen, weil dort die gleichen Frameworks laufen wie auf mobil-devices, Homeentertainment-Geräten und was es dann sonst noch so gibt...
 
Es ist einfach unfassbar wie besessen du von deinen kleinen Casual-Games und den ARM Chips bist...

Wenn ARM Chips in Heimkonsolen (keine Handhelds) zum Einsatz kommen, dann höchstens in den neuen Gamepads! Moderne PowerPC oder x86 Prozessoren haben hundert mal soviel Rechenleistung wie moderne ARM Prozessoren. Du kannst einen derartig abnormal hohen Leistungsunterschied nicht kompensieren, das geht mit dieser Architektur einfach nicht.

Nintendos Gewinn ist in den letzten Quartalen eingebrochen, als stünde der Weltuntergang bevor. Ohne Core-Gaming kannst du so ein System nicht lange genug am Leben halten. Die WiiU wird sowohl den Casual-, als auch den Core-Gaming Markt abdecken und das ist unmöglich schaffbar mit einem ARM Chip als Hauptprozessor. Auch wenn du es nicht verstehen willst:

Diese Technologie besitzt nicht die Rechenleistung, um Core-Gaming tauglich zu sein. Sie ist hundertfach langsamer als Prozessoren wie der Cell BE!

Und deine Casual-Games kannst du dir sonst wohin schieben: Für mich ist das kein Gaming, sondern eine kurzweilige Beschäftigung. Natürlich wächst dieser Markt schnell, denn er ist gerade erst entstanden. Wo soll der Core-Gaming Markt denn noch wachsen? Die setzen seit Jahren Milliarden und noch mehr Milliarden um. Was du da als Gaming bezeichnest ist in meinen Augen Abzocke und Beschäftigung für ADS-Kids die keine Sekunde ohne Flimmern und Dröhnen zurechtkommen.
 
nanoworks schrieb:
Es ist einfach unfassbar wie besessen du von deinen kleinen Casual-Games und den ARM Chips bist...
Ich bin weder besessen, noch sonst irgendwas, was du mir bis jetzt an den Kopf geworfen hast. Ich akzeptiere nur die simple Tatsache, dass diese beiden Elemente momentan rapide Zugewinn erfahren. Man muss ja Dinge nicht mögen, aber tolerieren und akzeptieren kann man es schon.

Wenn ARM Chips in Heimkonsolen (keine Handhelds) zum Einsatz kommen, dann höchstens in den neuen Gamepads! Moderne PowerPC oder x86 Prozessoren haben hundert mal soviel Rechenleistung wie moderne ARM Prozessoren. Du kannst einen derartig abnormal hohen Leistungsunterschied nicht kompensieren, das geht mit dieser Architektur einfach nicht.
Rechenleistung ist nicht alles und das willst du offensichtlich nicht akzeptieren. PowerPC kann noch so viel Maximalleistung bieten, wenn zunehmend ARM in dem Belangen wächst und gleichzeitig pro Fläche effektiver ist. Richtig, nicht alles lässt sich ersetzen, aber wie schon mehrfach erläutert, gibt es genügend Gründe wieso PowerPC im Heimsegment bald nichts mehr zu suchen hat und es eine simple Fehlentwicklung ist für diesen Markt möglichst viel Geld zu investieren.

Nintendos Gewinn ist in den letzten Quartalen eingebrochen, als stünde der Weltuntergang bevor. Ohne Core-Gaming kannst du so ein System nicht lange genug am Leben halten.
Bitte fang doch endlich mal an über den Tellerrand hinwegzuschauen. Der Mangel an third-party-Software mit Konzepten, wie wir sie auf der 360 und ps3 finden, ist weder der einzige, noch der Hauptgrund für Nintendos schlechtere Quartalszahlen. Ist ja nicht so, als wäre letztes Jahr in Japan nichts passiert und der Industrie würde es dort besonders gut gehen. Auch Sony verliert in vergleichbaren Segmenten.

Diese Technologie besitzt nicht die Rechenleistung, um Core-Gaming tauglich zu sein. Sie ist hundertfach langsamer als Prozessoren wie der Cell BE!
Es ist erstaunlich, wie angeblich CPUs besonders viel über Leistung aussagen. Bei dem Segment, über das wir sprechen, sind GPUs deutlich entscheidender. Natürlich ist es total abwegig, wenn einer der beiden Großen in dem Bereich schon jetzt massiv in GPUs in Verbindung mit ARM CPUs investiert. Die machen natürlich alles falsch und werden niemals an bisheriges anknüpfen können...

Und deine Casual-Games kannst du dir sonst wohin schieben: Für mich ist das kein Gaming, sondern eine kurzweilige Beschäftigung.
Du glaubst nicht, dass das deinen Weitblick vllt irgendwie einschränken könnte? Wo wir schon dabei sind: Ich finds immer amüsant, wenn irgendwelche Konsolen-Fans über Nintendos schwache Leistung der Wii herziehen und damit kommen, dass core-Gaming nicht möglich sei. Das ist kein core-Gaming. core-Gamer sind z.B. Speedrunner oder Leute, die mit Titeln wie quake/doom/noch früher aufgewachsen sind. Solche Leute verprügeln diese cod/bf-Zielgruppe ohne Probleme.
Aber behalt ruhig diese Ansicht. Macht Sony auch und fährt mit der PS Vita 1a gegen die Wand was Absatz betrifft.

Natürlich wächst dieser Markt schnell, denn er ist gerade erst entstanden.
Du hast schon recht. Die Idee hinter Casual-Titeln, die eher was für Leute sind, die nicht technophil sind, ist ganz neu. Liegt auch mit Sicherheit nicht am Paradigmenwechsel in unserer Gesellschaft, wenn es um Videospiele geht.

Die setzen seit Jahren Milliarden und noch mehr Milliarden um.
Und der Gewinn bei solch Titeln sinkt und sinkt, da die Produktionskosten stetig steigen. Würdest du in der Branche arbeiten, wüsstest du wie es da vor sich geht. Mit diesem "Erwachsenwerden" geht übrigens einher, dass immer weniger Bereitschaft für Investitionen für neue Technologien vorhanden ist. Immer weniger Hersteller nutzen die Hardware-Vorteile und entwickeln basierend darauf. Immer mehr nutzen Frameworks immer und immer wieder, damit eben der Gewinn bei steigendem Umsatz konstant bleibt. Das hat schon seinen Grund, wenn EA anfängt Frostbite2 für NFS zu nutzen, wo sie genau wissen, dass die Absatzzahlen der NFS Reihe kaum vorrangehen.

Was du da als Gaming bezeichnest ist in meinen Augen Abzocke und Beschäftigung für ADS-Kids die keine Sekunde ohne Flimmern und Dröhnen zurechtkommen.
Schonmal auf die Idee gekommen, dass du einfach mit deiner Ansicht falsch liegen könntest? Das ist genauso erwachsen, wie die Leute, die sich über f2p und Micropayment aufregen. Wer Produkte nicht auf seine Ansprüche prüft, sollte sich im Nachhinein nicht beschweren, wenn es ihm nicht gefällt.

Und um Himmels Willen: Hör bitte auf polemische, unpassende Kommentare zu verfassen, die jeder Grundlage entbehren. Ein Aufmerksamkeitsdefizit-Syndrom wird sich wohl kaum durch Beschäftigung mit casual-Titeln kurieren lassen. Casual-Gamer mit Kranken zu vergleichen, ist im Umkehrschluss auch nicht die feine englische Art.
Aber wem sag ich das überhaupt? Ich halte dich für jugendlich und ignorant. Ich denke, dass du besserwisserisch bist, weil du Specsheets gelesen hast und 1:1 daraus schlussfolgerst, dass das DIE Lösung ist. Das Verhalten zeigst du auch in anderen Threads und dementsprechend wird es mir jetzt zu blöd, dir deine Fehleinschätzungen weiter aufzuzeigen.

Hauste rein und sag bescheid, wenn dein Name mal in den Credits eines Titels auftaucht.
 
Ok, das reicht jetzt oder ?

Das Thema war: "Nintendo kündigt Start der Wii U für Ende 2012 an."

Ihr könnt euch doch per PN weiter schreiben.


MfG Blueeye_x
 
Also ich könnte mir vorstellen, dass die WiiU im Bereich 299-399€ sein wird. Die Hardware an sich ist ja eher besseres Xbox 360/PS3 Niveau, allerdings ist der Controller mit dem eingebetteten Display hier der springende Punkt beim Preisaufschlag.
Die Wii hat 349€ gekostet als sie neu war oder?
 
Zurück
Oben