• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Verfügt die nächste Xbox über eine 16-Core-CPU?

Selbst wenn so eine IBM CPU mit 16 in-order Kernen seinen Weg in die nächste XBox fände, wäre sie in puncto Rechenleistung einer APU-Lösung von Sony immer noch unterlegen.

Ein paar hundert Shader haben mehr Dampf als 16 simpel aufgebaute in-order Kerne. 16 out-of-order Kerne sind ausgeschlossen, dazu ist sogar IBM nicht in der Lage.

Und eine GCN GPU auf Basis der HD 7000er Reihe kann von HD7750 bis HD 7970 alles bedeuten.

Hört sich auf dem Papier nach "viel" an, ist bei genauer Überlegung aber eher fragwürdig. Ich halte dieses Gerücht für Quatsch.
 
Zuletzt bearbeitet:
Das klingt nach endlich wieder mehr Exklusivtiteln. Stichwort Kojima, "die neue XBox ermöglicht es mir endlich, 2000 individuell aussehende und autonom handelnde Soldaten gleichzeitig darzustellen" (leicht abgewandeltes Zitat von ihm zur PS2 damals;))
 
Wenn man sich die CPU Kerne der 360 CPU ansieht, die zu Anfang im 90nm Prozess gefertigt worden sind und die auf das 28 nm Verfahren umlegen würde, wären die auf dem Dice so winzig, das die prognostizierten 16 Kerne noch nicht einmal etwas besonderes wären.Da würde auf ein 28nm Dice ein Vielfaches der Transistoren drauf passen, die im 90 nm Fertigungs Prozess der 360 CPU verwendet worden sind.Da bleibt immer noch genug Platz für breite Vector Einheiten, die die eigentliche Leistung bringen.
 
Zuletzt bearbeitet: (Interpunktion hinzugefügt)
Es wäre klasse wenn CB nicht immer auf der Waschweibergerüchteküchenwelle anderer Magazine mitschwimmen würde. Reicht es nicht einml echte Fakten zu nennen als jeden Tag neue Halbwahrheiten?
 
Ausgezeichnet, da kommt IBM´s 18Kerner leicht beschnitten zum Einsatz.
Also ihr 18Kerner auf dem 1 Kern immer deaktiviert wird und normalerweise 1 für Ho0laH0Ops zuständig ist. Eine ganz Nette Rohleistung.

Der Vorteil liegt klar darin das Games deutlich besser auf Multithreadig programmiert werden wollen, auch wenn es oft schwierig ist, wenn es sein muss wird man sich bemühen.
Es ist einfach Zeit, sonst brauch ich meinen q9450 ja nie rauswerfen ...

Viel Interessanter find ich aber das Packet runherrum um die GPU herrum, in welcher Form man das GCN Design zurecht bastelt, Speicherinterface und Taktung.
Ich glaube hier nämlich nicht das einfach eine 7850 aufs Board gelötet wird.


Es ist aufjedenfall der richtige weg, und ich denke ich werde mir mit den neuen Generationen auch mal in der Konsolenwelt umschauen. Auch wenn man bei der Ausstattung wohl keinen Startpreis unter 500€ sehen wird. Ich brauch noch einen Grund meinen Röhrenfernsehr in Rente zu schicken, der hat mich immerhin 400DM als Jugendlicher gekostet :D
Auch wenn ich mir für Egoshooter und so trotzdem wieder einen guten PC daneben stelle ...
 
@nanoworks

Wie kommst du nur auf die Idee Shader mit CPU-Kernen zu vergleichen? Die GPU ist auf Durchsatz optimiert und erreicht nur unter bestimmten Bedingungen eine hohe Rechenleistung... zumal in dem Gerücht hier die Rede davon ist, dass auch in der Xbox eine HD 7xxx eingesetzt wird.
 
Yuuri schrieb:
... Die Übersetzung in Maschinencode übernimmt dann die Runtime zur Laufzeit.
Jaa, genau. Das hat ja auch so "toll" funktioniert.

Fakt ist, dass die Architektur des Cell-Prozessors mehr Aufwand zur Performanceoptimierung benötigt. Mir fällt dazu das Beispiel "Devil may cry" ein. Kannst ja selbst suchen und fündig werden.

Yuuri schrieb:
Und nur x86 Systeme willst du weiß Gott nirgendwo haben. Ein Handy mit einer 4 W Atom CPU... Dann werden die Geräte wieder so groß wie in den 90ern, weil der Akku so riesig ist.
Hab ich nirgends geschrieben. Mobile Spielegeräte sollten (und werden) auf die ARM-Architektur setzen, die drei großen Spieleplattformen (Nintendo zähle ich bewusst nicht dazu, weil deren Spielephilosophie und Zielgruppe beinahe gänzlich "casual" ist) sollte meiner Meinung nach auf die x86-Plattform setzen. Der Optmierungsaufwand würde sich jedenfalls reduzieren und somit wohl auch die Kosten.

Alle drei Plattformen für "Spiele zuhause" könnten so "gemeinsam" Smartphones und Tablets mit "ernsthaften Spielen" Paroli bieten.
 
Zuletzt bearbeitet von einem Moderator:
Tjell schrieb:
Jaa, genau. Das hat ja auch so "toll" funktioniert.
Es wird mit Sicherheit nicht bei der PS3 so sein, das Beispiel diente bei Java (aber schön wenn man den Quote zusammenhanglos auseinandernimmt). Für die PS3 wird mit Sicherheit direkt kompiliert, ohne Bytecode zu erzeugen. Warum auch? Ist doch eh immer die gleiche Hardware.
Tjell schrieb:
Fakt ist, dass die Architektur des Cell-Prozessors mehr Aufwand zur Performanceoptimierung benötigt.
Für halbherzige Ports kann der Hersteller, die Hardware oder die Software nichts. Wenn man sich ein wenig damit beschäftigt und ein gutes Produkt erzeugen will, dann kann man es auch ohne Probleme optimieren. Manche Leute stellen sich Programmieren wie ein Zuckerschlecken à la Buttons zusammenschubsen vor. Sorry, das ist verdammt nochmal deren Arbeit. Wer schlechte Arbeit abliefert, bekommt kein Geld von mir, ganz einfach.

Zumal man so oder so optimierte Algorithmen verwenden sollte und nichts Halbgares im Code stehen lassen muss. Der gleiche Algorithmus sollte sich aber ziemlich 1:1 übertragen lassen, wenn denn die gleiche Programmiersprache verwendet wird. Die letzte Hürde ist dann nur noch der Compiler, der evtl. nicht so guten Code auf der einen Plattform produziert. Dabei wird aber weniger noch von Hand in Assembler umgeschrieben (allerhöchstens zeitkritische Teile), von daher...

Naughty Dog schafft es doch auch, auch wenn sie nur für eine Plattform entwickeln. Sie wollen halt ein gutes Produkt abliefern und machen es auch. Genauso kann man sich ein GT 5 ansehen. Die Hardware wird maximal ausgereizt, an jeder möglichen Stelle optimiert und irgendwann kommt das finale Produkt auf den Markt. Betaware von EA kann man sich getrost in den Hintern schieben.
Tjell schrieb:
Mir fällt dazu das Beispiel "Devil may cry" ein. Kannst ja selbst suchen und fündig werden.
Hab es auf PC und PS3 vorrätig. Läuft auf beiden Plattformen ohne Probleme und ohne was zu beanstanden. Ich muss mich da nicht informieren, ich weiß dass es gut läuft.
Tjell schrieb:
Der Optmierungsaufwand würde sich jedenfalls reduzieren und somit wohl auch die Kosten.
Reduzieren ja. Aber du glaubst nicht wirklich daran, dass dann noch optimiert wird, wenn der Compiler schon halbwegs "guten" Code ausspuckt?! Das wäre nichts Anderes, als es momentan schon ist.
 
Nur weil die xbox 16 cores hat, heißt das nicht dass alle cores nur das games beschleunigt.
Wer weiß vllt, ist schlussendlich die Grafik etwas besser als die der ps3, und es werden nur 8 cores für die games verwendet.
Denke die 16 cores sind hauptsächlich der Steuerung/Koordinierung geschuldet.
Hoffe der Spaß wird dem Preis gerecht werden ^^
 
Man wird abwarten müssen und nochmal zum Prozessor. Man kann nicht davon ausgehen, dass jedes Spiel mit der Unreal 3 Frameworkengine oder ähnlichen erstellt wird. Sprich Portierungen kosten Geld. Ansonsten müsste es nach deiner Logik ja massenweise Spiele für Linux geben.

Ist doch nur 1x den Code in den Compiler jagen und fertig. :rolleyes:
 
Ich gehe mal stark davon aus, dass abstrahiert wird. Insofern ist es ein Mal durch den Compiler jagen. Ich bezweifel sehr stark, dass es zwei unterschiedliche Codebasen geben wird, für solch riesigen Projekte.

Dein Vergleich ist aber auch an den Haaren herbei gezogen. Haben Windows und Linux auch ausgeglichene Markanteile? Wenn nicht, ist das Thema schon gelöst. Komischerweise entwickelt Valve nun auch für den Mac und ich vage zu bezweifeln, dass es zu den ganzen HL2-Games verschiedene Codebasen gibt.

Deswegen hat man Abstraktion ja eingeführt. Windows würde sonst auch nicht auf 10.000 verschiedenen Konstellationen laufen.
 
Von der PS4 ist heute auf mehreren Seiten zu lesen, dass sie im Gegensatz zur PS3 "natives OpenGL" nutzen wird, was wohl die entwicklerfreundlichste Lösung sein soll (?). Sorry, kenne mich damit nicht aus. Ist das besser als DirectX, gerade wenn ne Multicore-CPU in den Konsolen werkelt?
 
Das sind beides Grafikschnittstellen. Hat mit der CPU also nichts zu tun.
 
calluna schrieb:
Wie kommst du nur auf die Idee Shader mit CPU-Kernen zu vergleichen? Die GPU ist auf Durchsatz optimiert und erreicht nur unter bestimmten Bedingungen eine hohe Rechenleistung... zumal in dem Gerücht hier die Rede davon ist, dass auch in der Xbox eine HD 7xxx eingesetzt wird.

Schon mal was von GPGPU gehört?

Unter DirectX11 findet es unter den Bezeichnungen DirectCompute beziehungsweise Compute Shaders Verwendung in Videospielen.

Mittels GPU-Computing kann im Vergleich zu Berechnungen auf herkömmlichen CPUs eine extrem hohe Leistung abgerufen werden, gerade bei rechenintensiven Aufgaben wie Animationen, Physik oder künstliche Intelligenz ist diese Vorgehensweise ein großer Vorteil.

AMD selber sieht die Zukunft des Gaming bei einer Mischung aus APU, die ausschließlich für GPGPU eingesetzt wird und einer zusätzlichen, dedizierten Grafik, die sich um das Grafikrendering kümmert. Siehe AMD-Blog. Deswegen werden die APUs mit jeder neuen Generation für GPGPU optimiert. Das ist auch verständlich, denn schon heute besitzen Desktops APUs das vielfache an Rechenleistung einer schnellen Sandy Bridge CPU.

GPGPU ist heute schon auf Grafikkarten möglich, Beispiele sind CUDA oder PhysX, aber auch das oben genannte DirectCompute unter Windows. Allerdings haben dedizierte Grafikchips einen riesigen Nachteil in dieser Beziehung: Die Bandbreite ist ein unüberwindbarer Flaschenhals, da CPU und GPU auf unterschiedliche Speicherpools zugreifen müssen.

Ab 2013 werden die AMD "Kaveri" APUs einen gemeinsamen Speicherpool für die IGP und die CPU haben und diese Bandbreitenprobleme somit auch beseitigen. Zudem erhöhen die in der APU verbauten x86-Kerne den Funktionsumfang gegenüber einer Grafikkarte drastisch. Auf lange sicht führt bei GPGPU Anwendungen also kein Weg an den APUs vorbei, Nvidias CUDA und PhysX sind Sackgassen, solange sie nur auf dedizierten Grafikkarten zum Einsatz kommen.

2013 ist auch das Jahr, in dem der Release der PlayStation 4 vermutet wird. Da sich alle Experten ziemlich einig sind, dass die neue Sony Konsole einen AMD Prozessor beherbergen wird, liegt die Vermutung nahe, dass Sony in Sachen Hauptprozessor voll auf AMDs GPGPU-optimierte APU setzen wird. Ein riesiger Vorteil wären die Chippreise, da APUs trotz hoher Rechenleistung deutlich günstiger sind als hochgezüchtete CPUs. Zudem wäre die sehr gute Kernskalierung (bzw in diesem Fall Skalierung der Streamprozessoren) ein enormer Vorteil.

Wenn man sich ansieht, wohin sich DirectX und OpenCL entwickeln, dann ist der Schritt in Richtung GPGPU absolut zu erwarten und auch richtig.
 
Zuletzt bearbeitet:
ich weiß nicht was das ganze geredet soll....fakt ist eines ...microsoft oder sony sollten konsolen auf den markt bringen die grafik state of the art sind und noch viel mehr drüber hinaus , für die nächsten jahre ...das wird erwartet und alles andere wäre eine enttäuschung und würde bei der käuferschicht der core gamer nicht ankommen...denn mit zappel kinect oder rüttel move überzeugen sie keine core'er
 
nanoworks schrieb:
16 in-order Kerne sind ausgeschlossen, dazu ist sogar IBM nicht in der Lage.
Wieso nicht, meinst du, das wäre denen zu primitiv?

Wenn die Xbox 360 über 16 CPU-Kerne verfügt, dann ist das imo hauptsächlich Marketing.
 
epospecht schrieb:
Als wenn Pc`s in nächster Zeit die Power hätten aktuelle Konsolen zu emulieren.

Wenns die selbe architektur ist, warum bräuchten die dann unmengen an Power? Die PS2 z.b braucht doch nur unmengen an CPU leistung weil die Architektur so verschieden ist. Und erst mal alles übersetzt werden muss. Die PS2 CPU hat z.b nur 300MHz, und braucht ne viel höhere CPU leistung um emuliert zu werden.
 
Was für mich nur 1 bedeutet, dass der Platzhirsch Sony (oder besser: ehemaliger) hierbei einfach zu früh mit dem Cell an den Start gegangen ist. In Zukunft wird es um Multi.... gar nichts drum herumführen.
Insofern ist es ein Fehler schon wieder die Grundarchitektur zu wechseln. MS ist da besonnener und belibt bei PowerPC (der Cell ist das ja auch). Damit bleibt das Know How der Programmierer erhalten und die Spiele können weiterverwendet werden.
Wenn Sony mit der PS4 den nächsten Bock schießt ist es vorbei mit der Herrlichkeit.

Also warum nicht auf Cell2 oder Cell3 setzen. Und davon 2-4 verbauen.
Das Hauptproblem der PS3 ist doch der verbaute nVidia-Rotz und nicht der Cell.
 
Yuuri schrieb:
Trotzdem waren Spiele aber auf dem PC immer technisch besser, einfach weil das Komplettpaket aus CPU, GPU und RAM einfach ausgewogener war/ist. Zwischendrin kam bspw. ein 3dfx, was dem Spielemarkt auf dem PC einen ordentlichen Schwung gegeben hat. Auch hat man mehr Speicherplatz zur Verfügung und der PC hat genauso heute noch immer noch den Vorteil von riesigen Patches (wenn es diese heute überhaupt noch gibt, Konsolen zwar auch aber nicht in solchem Umfang), Mods, Tweaking, Injections, ...

Das stimmt einfach nicht. Aber ist natürlich treffend für jemand der nur PC kennt und sonst nichts.

Die Spiele bei Neuerscheinen einer Konsole (PS und XBox) waren grafisch dem PC immer vorraus, trotz der vermeintlich überlegenen Hardware des PCs. Die XBox 360 erschien Ende 2005 und hatte in Spielen die deutlich bessere Grafik. Erst Crysis setzte dem Ganzen ein Ende, allerdings erst 2 Jahre später!

Außerdem muss auch berücksichtigt werden, was mit der Hardware einer Konsole alles über die Zeit herauszuholen ist. Da kann kein PC mithalten. Oder wie würden wohl die heutigen PC-Spiele auf Hardware von Ende 2005 aussehen?
 
Zurück
Oben