• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News PlayStation 5: Mit AMD Zen+ und Navi zum Leidwesen von Vega

rob- schrieb:
Und die GTX970 genauso wie der 8700K werden bevorzugt, weil sie selbst mit fehlendem Beim schneller sind als die "bessere" Konkurrenz die es "richtig" macht. Was bringen 5 Räder am Auto, wenn die Kiste langsamer fährt als mit 4....

Die 970 war verglichen mit ihrer Konkurrenz, der R9 290/390 nicht besser und innerhalb kurzer Zeit war da auch die Puste raus und die AMD-Karten haben ihren Vorsprung ausgebaut. Die waren schlechter zu kühlen, aber leistungstechnisch haben sie die 970 eingeholt und konnten DX12 was Pascal nur emulierte. Bis auf die Effizienz war AMD hier haushoch überlegen.
 
Chillaholic schrieb:
Die waren schlechter zu kühlen, aber leistungstechnisch haben sie die 970 eingeholt und konnten DX12 was Pascal Maxwell nur emulierte. Bis auf die Effizienz war AMD hier haushoch überlegen.
Man sollte bei Gamer-Navi mit etwas derartigem rechnen. Vermutlich hat man damit Nvidia Mainstream im Griff.
 
  • Gefällt mir
Reaktionen: Chillaholic
Ich hab vor 2 Wochen schon geschrieben, von High End hat sich AMD verabschiedet. AMD war nur dazu da um die Preise zu drücken um am Ende doch wieder grün zu kaufen. Der Markt wollte AMD nicht, nun sollte man hier nicht jammern, ihr habt es so gewollt. Alles was wir bekommen sind Abfallprodukte die fürs zocken nur fürs Mittelfeld reichen,
 
  • Gefällt mir
Reaktionen: Leaked und Rockstar85
mal abwarten was-wie kommt - ist ja noch weit bis dahin...
 
Wang wird wohl die dGPU Entwicklungsabteilung auf Vordermann bringen (kann nur auf Wunsch von Su so sein), gleiches tat er bei Synaptics . Rayfield leitet Semi Consumer, was man als klaren Fokus auf Konsolen deuten kann. Beide unterstehen in ihren letztendlichen Entscheidungen Su. Daher kann man nun Highend+ tatsächlich vergessen...

Wirklich schlimm ist, Koduri mit dem Kopf voller Ideen, die er bei AMD nicht ausleben konnte zu Intel gehen zu lassen, der war und ist ein genialer Entwickler, kein Leiter irgendeiner AMD Sparte die seit Jahren vor sich hindümpelt.
 
stoneeh schrieb:
Sowas auf die Art denke ich mir auch schon länger. Das traurige ist, dass AMD dort keine besseren Margen, und noch schlechtere Verkaufszahlen verzeichnet. Hätte man sich 100% auf den Gaming Markt konzentriert, hätte man vermutlich derzeit das beste Produkt, oder zmd das beste P/L Verhältnis, und würde dort Milliardengewinne geniessen. RIESEN Fehlentscheidung.

Wann war ATI/AMD denn das letzte mal Marktführer, im Gamingbereich?
 
Mr_Tee schrieb:
Ich hab vor 2 Wochen schon geschrieben, von High End hat sich AMD verabschiedet.

Habe ein deja vu. Hat man sowas nicht pre Ryzen auch gelesen?

Erinnere mich noch an Ausagen, Zen sei ein Puma+ Nachfolger.
Am Ende hat AMD eh schon gesagt, dass nach Navi eine neue Architektur kommt und sogar Leute vom Zen Projekt dort in die Entwicklung gebunden haben.

Dass AMD Navi Richtung PS5 optimiert hat, ist doch klar. Sichere Einnahmen. Geld statt in großes Line Up mit vielen Masken, lieber in den Bereiche, wo AMD am ehsten Lunden hat. Das ist Mainstream und was Ei steiger angeht, APUs.
 
  • Gefällt mir
Reaktionen: rg88 und yummycandy
Naja dass Navi für den PS5 optimiert ist muss ja erst mal nichts schlechtes heißen.
In Hinblick darauf dass die meisten AAA-Titel Konsolenports sind vielleicht sogar eher was gutes, wenn auch richtige Grafikkarten mit diesem Chip im Vollausbau erscheinen.
 
Könnt ihr mal Aufhören mit MCM bei Gpus? Ist ja Schrecklich. Selbst wenn Amd Es technisch gut hinbekommt ist die Software ( Bei games auf jedenfall ) das Problem.

en größten Störstein zu dieser These bildet aber immer noch, das diesbezüglich der technologische Durchbruch fehlt: Noch ist keine Möglichkeit gefunden, heute übliche Rasterizer-Grafik mit annehmbarer Effizienz auf mehrere Grafikchips zu verteilen. Die früher für SLI & CrossFire eingesetzten Methoden sind zumeist ineffizient oder beißen sich mit neuartigen Grafikeffekten, sind also heuer nicht mehr geeignet. Wirklich einsetzbar wäre ein MultiChip-Ansatz aus heutiger Sicht nur, sofern die Grafikchips für das Spiel vollkommen unsichtbar als virtuell nur ein Grafikchip zusammenarbeiten könnten. Auf Treiber-Ebene ist dies sicherlich realisierbar – aber um das ganze performant hinzubekommen, sind höchstwahrscheinlich große Interfaces der einzelnen Grafikchips untereinander vonnöten, was dann deren Kostenfaktor nach oben


PCGamesN können im Gespräch mit AMDs David Wang der These, AMDs Navi-Generation würde eventuell einem MultiChip-Konzept ("multi-chip module", MCM) folgen, eine klare Absage erteilen. AMD arbeitet generell an solchen Dingen, aber man sieht MCM derzeit noch einigermaßen weit in der Zukunft liegend – und damit sicherlich nicht für Navi in Betracht kommend. Die Gründe hierfür wurden auch genannt – was wichtig ist, da in Diskussionsrunden oftmals das Argument gilt, das mittels "Infinity Fabric" ja nun alles problemlos im MultiChip-Verbund herstellbar sei. Die eigentliche Problematik liegt laut AMD jedoch auf Software-Ebene und dort dem Punkt, das man irgendetwas wie CrossFire oder SLI braucht, um einen MultiChip-Grafikchip sinnvoll auszunutzen. Da SLI & CrossFire jedoch faktisch Geschichte sind, müsste AMD das Thema entweder neu beleben – oder aber besser so etwas wie "CrossFire auf Hardware-Ebene" realisieren, wonach die eigentliche Anwendungssoftware die mehreren Grafikchips nur als einen Chip wahrnimmt. Das die reine Verbindungstechnologie existiert, dürfte da die kleinste Sorge sein – mehrere Chips auf ein Package pappen konnte man schon früher, die ersten Core 2 Quad Prozessoren basieren bekannterweise auf zwei Core-2-Duo-Dies nebeneinander auf einem Package.
 
  • Gefällt mir
Reaktionen: .fF und rg88
oldi46 schrieb:
Könnt ihr mal Aufhören mit MCM bei Gpus? Ist ja Schrecklich. Selbst wenn Amd Es technisch gut hinbekommt ist die Software ( Bei games auf jedenfall ) das Problem.

quoted for truth. mit den marktanteilen von amd kann man MCM im gaming so oder so abhaken. nvidia hätte genug einfluss um entwicklern sowas aufs auge zu drücken.
 
  • Gefällt mir
Reaktionen: oldi46
Ich finde es gut. Das ganze scheint ja dann in Richtung Effizienz zu gehen.
Also werden davon auch in erster Linie Mobile Geräte von profitieren und dann eben auch die Desktop Karten, Teile des Designs werden ja garantiert weiter verwendet.
 
TZUI1111 schrieb:
Also ich habe mir gerade mal die aktuelle Roadmap angeschaut und es wird auf jeden fall mindest Zen2 werden, da ja jetzt schon die 7nm massenfertigung Läuft.
Nein, das wird überhaupt nicht "auf jeden Fall" dies oder jenes werden.

Das ist ein CUSTOM-Chip. Das hat überhaupt nichts mit AMDs Roadmap zu tun. Da wird lange wohl der Vorstellung der PS5 das Chipdesign festgelegt und entwickelt und dann Prototypen an die Spieleentwickler bereitgestellt. Konsolen funktionieren nur mit eingeschränkter Hardware, deshalb braucht es bei den Spielen eine sehr optimierte Entwicklung. Ansonsten wären die Preise für eine Konsole nicht annähernd finanzierbar. Üblicherweise zahlt Sony bei der Einführung einer neuen Generation sogar bei jeder Konsole erstmal drauf, weil die Hardware teurer ist als der Marktpreis.

Zudem ist Zen+ aktuell in 12nm gefertigt, Architektur und Fertigung haben aber nur bedingt etwas miteinander zu tun. Man kann genauso Zen+ Kerne in 7nm fertigen. Das teuerste dabei sind die Masken, nicht der Shrink.
Es kann auch eine Mischung aus Zen und Zen2 sein mit zusätzlichen Anpassungen hier und da. zB 12 Kerne, dafür die Caches verkleinern. Die Kerne sind ja eh nicht groß, der Speicher bläht den Die auf.

Abgesehen davon: 7nm sind noch nicht in der Massenfertigung. AMD produziert gerade mal die ersten Nischenprodukte bei den Grafikchips für den Profi-Bereich in 7nm bei TSMC.
7nm Zen2 werden aber bei GF vom Band laufen.

Welches Verfahren für einen Sony-Chip dann später eingesetzt wird, ist auch überhaupt noch nicht klar. TSMC und GF sind unterschiedliche Prozesse und da kann man nicht einfach mal von hier nach da wechseln.
 
Bärenmarke schrieb:
Ja was du da schreibst ist mir relativ egal, weil es einfach nicht stimmt. Dass man das aus den Erlösen nicht ablesen kann ist mir klar. Aber ich erwähne es gerne noch ein drittes mal, auf den Pressekonferenzen zu den Quartalszahlen gab es dazu bezüglich Mining aussagen von Nvidia und AMD und wenn man die Zahlen die dort vorgelegt wurden nimmt, dann hat Nvidia damit deutlich mehr Kohle gemacht.
Ah ja, man kann die Verkäufe zwar nicht unterscheiden (wäre wohl nur anhand der Mining Versionen möglich die vermutlich einen Wiederverkaufswert gegen 0 hätten und nicht allso beliebt sein dürften) aber was ich schreibe stimmt nicht weil is so.
Na das ist doch mal ein Wort! :D
Dann kann ich das Thema mal wieder unter sinnlose Diskussionen verbuchen und mir jede weitere Beiträge dazu sparen. :daumen:
 
Wadenbeisser schrieb:
Mal ehrlich, hat er damit so falsch gelegen?
Der große Boom in der GPU Sparte kam schließlich nicht vom Daddel sondern vom Mining Sektor und so hat sich diese Chip Ausrichtung dann doch wieder bezahlt gemacht.
Wer sagt denn das, dass diese Koduri-Produkte gut für Mining sind?
Die GCN-Architektur ist gut dafür geeignet, das hat nichts mit Vega zu tun. Die Koduri-Produkte sind die für den wissenschaftlichen Bereich ausgelegten Karten auf Vega-Basis. Ich hab nicht mitbekommen, dass bisher auch nur ein Großrechner damit ausgestattet wurde, geschweige denn, dass es eine Breite Unterstützung von der Softwareseite her gibt, welche Tesla-Karten auch nur im Geringsten gefährlich wären. Eher ist es so, dass wenn man Vega als Flop bezeichnen kann, es genau dort ein Flop ist in dem Bereich für den es entwickelt wurde. Man sollte nicht vergessen, dass dort 5 Jahre Entwicklungszeit dran hingen laut Koduris eigener Aussage. Zu dieser Zeit wurde sicherlich noch nichts für die PS5 entwickelt. Das Konzept war von Anfang an schlicht falsch. Das Produkt ist nicht unfertig, sondern das Konzept taugt einfach nichts. GCN mit 4096 Kernen skaliert nicht brauchbar. Das hätte man viel früher kapieren müssen und die Ressourcen lieber in eine neue Architektur stecken sollen. Dass daran nur die Endphase der Entwicklung schuld ist, in der die Kapazitäten zu gering waren, glaubt doch kein Mensch. Man hat bei Fiji schon gesehen, dass die Architektur nicht brauchbar hochskaliert bei dieser Shaderanzahl, deshalb ist man dann rein in den Takt bei der Entwicklung gegangen. Natürlich zu Lasten der Effizienz und ohne einen angemessenen Mehrwert bei der Leistung rauszuholen. Da hätten auch 3/3 der Entwickler nichts mehr gerettet.

Im Gamingbereich wird so zumindest etwas angenommen. Die Preise von 499Euro für das 64CU-Modell ist aber bis heute nicht erreicht worden.
 
Köf3 schrieb:
Ich muss ja sagen, mir dauerte die Durststrecke mit Intel nicht lange genug, da hätte sich AMD mit Zen ruhig noch ein paar Jahre Zeit lassen können (wenn sie finanziell dazu in der Lage gewesen wären). Zu teuer waren Intel-CPUs vor Zen offenbar noch nicht, genauso wie es bei Nvidia mit ihren GPUs wohl noch nicht der Fall ist. )
Nö...die kamen nur zu billig auf den Markt. ;)
Die 8 Kerner für 500 - 600€ und den 16 Kerner für sagen wir mal 2500€ um sich dem Preisgefüge von Intel anzupassen aber ich will ja nicht meckern denn ich habe schließlich ebenfalls von den dumping Preisen profitiert. ;)
 
Weby schrieb:
Open Source ist zwar interessant, aber hat im Unternehmen nichts zu suchen. Am Ende ist es bei Problemen teurer als direkt die richtige starke Lösung zu wählen.
:lol::lol::lol::lol::lol:
Du hast offensichtlich nicht den Geringsten Schimmer von Unternehmen und was dort eingesetzt wird.
 
  • Gefällt mir
Reaktionen: .fF und yummycandy
@rg88
Laut einhelliger den Berichten war doch Vega sein Steckenpferd oder nicht? ;)
Der hat eine deutliche Ausrichtung zum Compute Sektor und darauf fußt schließlich auch der Mining Kram.
Dieser giert offensichtlich nach Speicherbandbreite und geringen Latenzen und schon sind wir beim HBM(2) Speicher den erneut nur der Vega Chip hat. Nvidias Karten mit dem GV100 und GP100 Chip nutzen ihn zwar ebenfalls, haben eine ähnliche Ausrichtung und sind ebenfalls beim Mining recht performant, sind aber unverhältnismäßig teurer.
 
@Wadenbeisser: Nur, dass die Miner die Vegas nur gekauft haben, wenn wieder nirgendwo eine Polaris aufzutreiben war. Und dabei problemlos 400 Euro für ne 580 hingeblättert haben. Würde die Vega skalieren, dann wäre diese der Favorit gewesen, tut sie aber nicht
Ergänzung ()

oldi46 schrieb:
Könnt ihr mal Aufhören mit MCM bei Gpus? Ist ja Schrecklich. Selbst wenn Amd Es technisch gut hinbekommt ist die Software ( Bei games auf jedenfall ) das Problem.

Danke!
Das ist halt wirklich faszinierend. Da wurde irgendwann mal am Rande einer Roadmap gesagt, dass Navi besser skalierbar sein soll und sofort wurde das in Gerüchte zu Multi-Chip-Design umgewandelt. Dabei kann das alles lediglich heißen, dass man aus der doppelten Shaderzahl nicht nur 50% mehr rausholt.
 
Wieso haben so viele ein Problem mit Multi-Chip-Design? Lasst doch die Firmen kreativ sein, die Leistungssteigerung durch Shrink wird eh bald ein Ende finden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Hayda Ministral schrieb:
Ist in meinen Augen vor allem heftiger Blödsinn. Navi ist die Architektur, die GPU der PS5 wird maximal von ihr abgeleitet und die Anforderungen an diese Inkarnation werden maximal Rückwirkungen auf Designentscheidungen von Navi haben.
So ähnlich denke ich auch, ich bin zudem der Meinung, dass die PS5 nicht ZEN+ bekommt, wie gewisse Forengerüchte einen vermitteln möchten. Die PS5 und die kommende Xbox werden aus technischen Standpunkten sehr ähnlich sein, beide werden wohl über eine Architektur, der auf der NAVI aufbaut und zudem ZEN 2 CPU Kernen verfügen. So wie die zukünftigen APU von AMD. Denn bis 2021 ist es noch weit her und zudem ist ZEN 2 fertig, weshalb sollten SONY und Microsft noch auf ZEN+ setzen wollen. Außer wenn die PS5 2019 auf dem Markt kommt, ansonsten würde es bis zum Releases der Beiden Konsolen keinen Sinn ergeben.

Daher wird es 2020/21 eher in Richtung ZEN 2 + NAVI+ gehen!!
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben