• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Viele neue Gerüchte zur Xbox 720

dcobra schrieb:
Nimmst deine Spielekonsole sicherlich oft mit ins Flugzeug und in den Zug.

Äpfel mit Birnen vergleichen?
Der hat Steam angegriffen, ich habe nur dagegen argumentiert. Ich habe in dem Post absolut nichts von einer Konsole gesagt, aber troll du auch weiter ;)

Außerdem ist es eben der Vorteil eines geschloßenen Systems (aus der Sicht des Herstellers)
Man muss sowas nicht einführen, man kann auch anderweitig Kopierschutz realisieren.
Ein Always On System ist in jeder Hinsicht ein Nachteil, es kostet viel Geld die Infrastruktur dafür zu betreiben und die Kunden akzeptieren das nicht wirklich. Man hats ja erst vor einigen Tagen gesehen, dass selbst Ubisoft jetzt davon langsam abkehren möchte.
 
Die Xbox 720 mit Blu-Ray-Laufwerk? Dann wird es irgendwann echt egal sein, welche Konsole man nun kauft. AMD-Hardware + Blu-Ray-Laufwerke. :)

Die Spiele-Angebote sind jetzt schon nahezu identisch und für die paar Exklusiv-Spiele kann man sich günstig die jeweils andere Konsole von Bekannten oder aus der Videothek ausleihen.
 
Zuletzt bearbeitet:
Turican76 schrieb:
Und falls sie wieder AA ignorieren...

Oh, jemand ohne Ahnung, wie schön :)

Sony hatte damit nichts zu tun, da darf man sich bei Nvida bedanken die im Vergleich zu ATI und der Xbox360-GPU einfach nur Rotz abgeliefert haben.
Im Übrigen beherrscht die GPU der PS3 sehr wohl AA du Schlauberger ... es gibt "nur" Einschränkungen wenn man gleichzeitig HDR nutzen will.
 
Mortaro schrieb:
Sony hatte damit nichts zu tun, da darf man sich bei Nvida bedanken die im Vergleich zu ATI und der Xbox360-GPU einfach nur Rotz abgeliefert haben.

Ich vertrete ja immer noch die Auffassung, dass der RSX Grafikchip in der PlayStation 3 eine Notlösung war, weil Nvidia die GeForce-8000er Serie nicht rechtzeitig fertig bekommen hat. Mit einem GF8K Chip hätte man ein extrem leistungsstarke Konsole gehabt.

Wirklich alles in der Konsole ist Ultra-High-End gewesen: Der XDR-Speicher, Die CellBE, das BluRay Laufwerk und dann ist da auf einmal ein Grafikchip, der das Gesamtbild runterzieht.

Sony hat zu hoch gepokert und Nvidia war nicht schnell genug und dann mussten sie mit diesem Rechenkrüppel vorlieb nehmen.
 
Hackedicht schrieb:
Was die Power der GPU angeht. Macht euch da mal keine Sorgen, wenn AMD beide Konzerne beliefert dann werden die schon vertraglich regeln, dass der Leistungsunterschied sehr gering sein wird. Ich meine, wenn ICH Sony oder MS wäre und bei AMD klingle und genau weiß, dass die auch meinen direkten Konkurrenten beliefern werden, dann unterschreibe ich nichts ohne mir vorher schriftlich bestätigen zu lassen, dass MEIN Paket "state of the art" ist, d.h. entweder leistungsstärker ist als das, was der Konkurrent bestellt hat oder der Leistungsunterschied im niedrigen einstelligen Bereich liegt (letztlich ne Preisfrage).

Hört sich vernünftig an! Die frage ist nur was Sony als CPU macht. Sofern die auch von AMD kommt..... Dann haben wir sehr ähnlich, wenn nicht identische Hardware. Dann hätten wir also 2 betriebssysteme die auf eigenen wegen auf die gleiche Hardware zugreiffen. Für uns Pc spieler wäre es natürlich ein Traun wenn sie dx11 nutzen würden! Somit wäre auch eine Portierung auf ein anderes system ein klacks. Aber wird wohl nicht passieren :(
 
Haldi schrieb:
Die frage ist nur was Sony als CPU macht. Sofern die auch von AMD kommt.....

Anstelle einer CPU tritt dann eine AMD Fusion APU.

Dann werden Dinge wie Animationen, Physik oder KI nicht mehr mit den x86-Kernen berechnet, sondern mithilfe der Streamprozessoren (GPGPU).

2013 soll AMD Kaveri mit 28nm GCN und 28nm Steamroller kommen. Dank gemeinsamen Speicherpool für Grafikpart und CPU (=hohe Bandbreite) wird die Rechenleistung dieses Chips die Rechenleistung eines herkömmlichen x86-Mehrkernprozessors um den Faktor 4 bis 5 übersteigen.
 
Zuletzt bearbeitet:
nanoworks schrieb:
Ich vertrete ja immer noch die Auffassung, dass der RSX Grafikchip in der PlayStation 3 eine Notlösung war, weil Nvidia die GeForce-8000er Serie nicht rechtzeitig fertig bekommen hat.
Sony hat zu hoch gepokert und Nvidia war nicht schnell genug und dann mussten sie mit diesem Rechenkrüppel vorlieb nehmen.

Naja was heißt zu hoch gepokert, man hatte sich an Nvidia gebunden - die wer weiß was versprochen haben müssen - und dann hat Nvida einfach nur den letzten Dreck abgeliefert !

Man muss sich das auf der Zunge zergehen lassen, der ATI Xenos in der 360 ist eine ganze Generation vor dem RSX - und das obwohl die 360 ein Jahr früher raus kam !
Nicht wegen der Anzahl der Shader, nein, bei ATI sind es bereits Unified Shader, bei Nvidia sind diese noch "fest verdrahtet" und nach Pixel- und Vertex-Shader aufgeteilt.

Sorry, aber allein dafür würde ich als Sony-Manager Nvidia meiden wie die Pest - die haben die PS3 technisch kastriert, mit ATI wäre mehr möglich gewesen damals - deswegen bin ich auch sehr froh dass Nvidia anscheinend draußen ist diesmal, die haben es sich verdient bei deren "Leistung" in der Vergangenheit.
 
Zuletzt bearbeitet:
Ich vertrete ja immer noch die Auffassung, dass der RSX Grafikchip in der PlayStation 3 eine Notlösung war, weil Nvidia die GeForce-8000er Serie nicht rechtzeitig fertig bekommen hat. Mit einem GF8K Chip hätte man ein extrem leistungsstarke Konsole gehabt.
Sehe ich auch so, da ist Sony knapp an der "Ueber" Konsole vorbei geschrammt. War schon extrem damals, sehe den GF7 als schlechteste GPU ever und den GF 8 als besten ever. 2 Extreme
 
Kasmopaya, was ja auch und besonders auffällt: ATI entwickelt eine extra GPU (den Xenos gibt es ja nicht für den PC und war die erste GPU mit unified Shadern - noch bevor es sowas beim PC gab), und Nvidia liefert einfach das Standard-PC-Design für die PS3 ab.

Versteht mich nicht falsch, ich bin kein ATI-Fan - bin auch wegen meinem (uralt) 3D-Monitor gezwungen Nvidia zu verwenden und nur Rotz stellen sie nicht her - aber was sie sich damals geleistet haben reicht damit Sony nie wieder mit ihnen zusammen arbeitet, das war eine glatte 6 in Schulnoten (im Vergleich zu ATI und der 360).
 
spannend & interessant ... auch für AMD ... dicker kann man dann wohl nicht mehr im speck liegen. ^^
bin auch über die aussage gepannt ... ~spielbare Avatar-Grafik :o


@ Kasmo
GF5 war der rohrkrepierer ... düse, hot u. keine DX(9)8-Leistung. ;)
 
Zuletzt bearbeitet:
Internet Verbindung = wird für meinen Bruder nicht angeschafft.

Dabei wollte ich eine PS4 unbedingt vermeiden... :(
Ergänzung ()

black1711 schrieb:
6 Kerner... ( hoffentlich kein bulldozer :evillol: )
Der Bulldozer ist, wenn die Softwareprogrammierer programmieren könnten, fast so schnell wie ein i7-2600k. Das Problem ist bloß, dass die meisten Games nur 1 oder maximal 2 Kerne nutzen...
Das wäre aber bei der Xbox dann anders (zwangsweise ;) ) und würde MultiCore vielleicht endlich auch mal einen Schub geben...


dcobra schrieb:
Nimmst deine Spielekonsole sicherlich oft mit ins Flugzeug und in den Zug.

Mein Bruder wohnt im betreuten wohnen
=> Kein Internet.
Noch dazu ist es immer schlecht auf eine Infrastruktur zu setzen die auch ausfallen kann.
=> Gängelung des Kunden

Haldi schrieb:
Für uns Pc spieler wäre es natürlich ein Traun wenn sie dx11 nutzen würden! Somit wäre auch eine Portierung auf ein anderes system ein klacks. Aber wird wohl nicht passieren :(

Nein, es wäre ein Traum, dass die OpenGL nutzen, was aber dank Microsoft wohl nicht passieren wird.
Ich hoffe Sony setzt anders als die Gerüchte aussagen, weiter auf OpenGL...
 
ATI entwickelt eine extra GPU (den Xenos gibt es ja nicht für den PC und war die erste GPU mit unified Shadern - noch bevor es sowas beim PC gab), und Nvidia liefert einfach das Standard-PC-Design für die PS3 ab.
Daran war aber Sony schuld, der Boss wollte vorher entweder gar keine GPU oder irgend ein Modell eines eher unbekannten Herstellers haben.(wohl Vetternwirtschaft) Das floppte in letzter Minute und NV musste gezwungener maßen kurz mal eine Konsolen GPU herbei zaubern. Hätte Sony NV mehr Zeit gegeben wäre es wohl auch ein unified Shader Hybrid GF7/8 geworden. Sony war eben auf dem völlig falschen Tripp grafische Sachen mit einer CPU machen zu wollen, der Cell floppte eben, genau so wie Larrabee eine GPU aus vielen CPU Kernen floppte. Aber irgend wann lernen die es schon noch wie man gute GPUs baut, nur AMD und NV wissen wie es richtig geht.
GF5 war der rohrkrepierer ... düse, hot u. keine DX(9)8-Leistung.
Laut landläufiger Meinung, meine 5900 FX hat aber über Jahre super Leistung gezeigt(dank fehlendem DX 9c, einer der besten GPUs die ich je hatte), kombiniert mit perfekten Treibern, der Performance Unterschied zu ATI war nicht so groß wie alle denken. Eine GF 7 war innerhalb kürzester Zeit ein Shader Krüppel mit 0 Leistung und das Top Modell war auch noch viel teurer, noch dazu war die ATI 1900 innerhalb kürzester Zeit viel viel schneller, genau das was zu FX Zeiten nicht der Fall war.
 
Zuletzt bearbeitet:
Auf einigen Seiten ist zu lesen, dass mittleriweile auch die ersten XBOX720 Dev Kits verteilt wurden.

Demnach basiert die nächste Konsole auf einer 16 Kern IBM PowerPC CPU und einer Grafikkarte auf Basis der AMD 7000er Reihe. Zudem bestätigt die Quelle, dass sie über ein Blu-Ray Laufwerk verfügen wird.

Ok, "Grafik auf Basis der AMD 7000er Reihe" ist jetzt nicht so wirklich aussagekräftig, gibt es doch auf dieser Basis für den PC Grafikkarten von 50 bis 500€...

Ne Hausmarke wäre allerdings in der Tat eine 16 Kern CPU, verglichen mit der Ankündigung einer 4 Kern CPU für die PS4....
 
Zurück
Oben