News Vega 20: AMD Radeon VII ohne volle FP64-Unterstützung der MI50

Ich mein schon Vega20 als Ganzes. Rentabel ist es Profisegment, Consumer ist Salvage. Da ist es dann auch weniger kritisch wenn es keinen Profit abwirft.

Navi wird kein Profiableger haben, hier muss der Profit rein über die Marge und Stückzahl im "Mainstream" kommen.
 
Faust2011 schrieb:
Auf welche fps zielst Du denn ab? Wenn ein i7-8700k den "Renderthread" in Deinen Spielen bereits komplett auslastet, dann wird es auch mit dem Ryzen 3000 vermutlich nicht besser.

Vermutlich hast du Recht, dass es nicht besser wird.
Aber die Hoffnung stirbt zuletzt.

Spiele die in WQHD - Highest Presets - begrenzen sind z.B. Warhammer Vermintide 2, Assassin's Creed: Origin oder auch BF V.

Alle drei Games skalieren einwandfrei mit CPU und RAM, aber irgendwann gibt das Silizium nichts mehr her.
 
Navi wird auch deutlich kleiner sein und sicher kein 300+mm-Die.

Also, wo soll Nvidia da jetzt noch was draufsetzen, bei deren aktuellen Portfolio, ohne sich selbst zu kanibalisieren? Ein rießiger unbezahlbarer 7nm-Chip? Oder eine kleiner 7nm-Chip, der in der Herstellung teuer ist und die aktuellen 16/12nm Chips in der Leistung erreicht?
Ich weiß ehrlich gesagt nicht, auf was du raus willst
 
Ich weiß nicht was du meinst. Man kannibalisiert sich doch auch mit Turing, wieso sollte das mit einem 7nm Shrink nicht nochmal passieren?
Selbe Leistung, weniger Verbrauch, teurer. Sehe da kein Problem.
 
Flare schrieb:
trotzdem sind die Einheiten im Chip vorhanden und kosten Effizienz durch ihr bloßes Vorhandensein, ähnlich wie es bei den Hawaii Chips der Fall war.
Das FP64 was nicht für Ausnahmefälle im Gaming im Chip zu hat ist in den Fury Chips Fiji nicht drin gewesen.
Es müssen auch keine vielen Prozent sein aber ein Bisschen ist es gewiss mindestens, auch wenn gegatet wurde usw.

Ich will auch nich schlecht reden ABER, RTX 2080 Niveau mit über 100W Mehrverbrauch ist jetzt nicht das was ich von 7nm erwartet habe.
Eine 2080 FE mit OC benötigt bei CB 282 Watt so sind das 100 Watt? Welche Partnerkarte läuft auch ohne OC?
 
r4yn3 schrieb:
Man kannibalisiert sich doch auch mit Turing, wieso sollte das mit einem 7nm Shrink nicht nochmal passieren?
Inwiefern kanibalisiert man sich mit Turing? Die alten Produkte werden durch neue ersetzt, mit einer verbesserten, aber weiterhin günstigen Fertigung. Die Preise sind dabei nicht gefallen bei ähnlicher Leistung. Man zahlt wohl jetzt eher weniger für die Herstellung, aber hat höhere Margen. Wo du jetzt genau das 7nm-Produkt einsortieren willst und zu welchem Preis, versteht ich nicht
 
Uff, ja mag sein dass der mm2 gleich viel kostet bei 12nm. Die Chips wurden aber auch deutlich größer, was man wohl mit dem höheren Preis kompensiert, zumindest bei der Ti.
Da aber GP102 und TU104 ähnlich groß sind (aus dem Kopf heraus) wird die Marge hier ähnlich bleiben.

Seis drum, ich gehe dennoch davon aus dass man 2019 noch eine 7nm Nvidia sehen wird.

Wir können uns hier gern über PN unterhalten.
 
Wenn der Chip so erheblich beschnitten wurde dass am Ende nur noch die 16 GB und und die Leistungssteigerung durch den höheren Takt als Pluspunkt übrig bleiben dann verliert die Karte für mich gleich deutlich an Attraktivität.
Auf PCIe 4.0 kann ich verzichten, selbst die ROPs wären für mich verschmerzbar (hatte der Chip jemals 128?) aber dass die DP Leistung auf das schluffige Daddler Niveau runter geschnitten wird sehe ich als dicken Minuspunkt. Da wäre eine leichte Stutzung wie seinerzeit beim Hawaii Chip sinnvoller gewesen.

Toprallog schrieb:
Stand heute ist beides nicht wirklich nützlich. In Zukunft ist sicher beides notwendig um flüssig zu zocken. Nimmt sich also nix. Aber die Rasterizer-Leistung soll bei NV höher sein. Warten wir den CB Test ab. ^^


Bei Nvidia ist der VRAM der limitierende Faktor, bei AMD ist es die GPU an sich.
Nvidia hat mit der Einführung der 2000er Karten gezeigt, dass sie daran nichts ändern möchten. Bleibt zu hoffen, dass AMD seine Hausaufgaben macht und Navi was großes wird.

Eher weniger, der Nutzen ist bei beiden heute ca. gleich hoch. Es gibt recht wenig Situationen wo die 16 GB erforderlich wären und die RTX Anwendungen kann man noch beim Nase bohren mit der gleichen Hand abzählen.
Eines ist aber sicher, die Anforderungen an den Speicher werden mit der Zeit steigen, die an das Raytracing aber ganz sicher nicht fallen, wodurch eine Grafikkarte mit einer heute bereits grenzwertige Leistung auch keine längere Lebenserwartung haben wird und angesichts der Anforderungen wird es auf absehbarer Zeit auch bei einem optionalen Feature bleiben. Damit hat man dann am Ende eher eine Grafikkarte die dann für die RTX Spiele zu langsam wäre aber mit der Hälfte an Grafikspeicher auskommen muss, wodurch sie am Ende doch eher gewechselt weerden muss und genau dann zahlt der Sparfuchs beim Stromverbrauch doch wieder drauf.

Chillaholic schrieb:
Ihr scheint alle nicht verstehen zu wollen. Es geht darum, nach einer kürzlich gemachten Anschaffung für einen Einsteiger-PC direkt ein neues Netzteil für ne größere GPU kaufen zu müssen. Das ist bei Nvidia nicht zwingend notwendig, bei AMD schon. Üblicherweise steigen die wenigsten mit 600W ein.
Das ist Jacke wie Hose.
Wer vorher eine deutlich sparsamere und langsamere Grafikkarte hatte dürfte auhc ein entsprechendes Netzteil drin haben und selbst wenn es seinerzeit überdimensioniert angeschafft wurde aber schon ein paar Jahre auf dem Buckel hat dann heißt es noch lange nicht dass es diese Karten auch stemmen kann. Sind die Dinger alt genug können sie aufgrund der Alterung der Komponenten ganz einfach ihre Leistung nicht mehr erbringen. Will man es dann mit der neuen Karte in den oberen Auslastungsbereich treiben ist ganz schnell Sicht im Schacht.
Hatte man hingegen vorher schon eine Grafikkarte in der TDP Klasse dann ist auch das Netzteil darauf ausgelegt und man kann das Netzteil von der Einkaufsliste streichen.

Am Ende kommt es beim Aufrüsten also lediglich darauf an was vorher drin war und wie alt es ist.
War das alte Netzteil schon relativ knapp bemessen und die neue Karte verballert mehr Strom als die alte dann ist auch ein neues Netzteil fällig. Vebrät die neue Karte ca. gleich viel oder gar weniger dann kann das alte Netzteil idR. bleiben.

So nebenbei, meine Vega64 konnte ich anfans nur im Stromspar Profil betreiben weil sich das Netzteil im Standard Profil abschaltete. Als ich dann mal wieder an der Kiste rumbastelte fiel mir auf das nur ein 350W Netzteil verbaut war. :D
Ergänzung ()

rg88 schrieb:
Inwiefern kanibalisiert man sich mit Turing? Die alten Produkte werden durch neue ersetzt, mit einer verbesserten, aber weiterhin günstigen Fertigung. Die Preise sind dabei nicht gefallen bei ähnlicher Leistung. Man zahlt wohl jetzt eher weniger für die Herstellung, aber hat höhere Margen.
Nicht zu vergessen dass nvidia die alten Produkte gegen neue mit weniger Grafikspeicher austauscht.
 
300W TDP mit HBM ist für eine neue Fertigungsnode echt nicht berauschend. Tolle theoretische Bandbreite des Speichers die von keinem Spiel genutzt wird.
Hier HBM zu verwenden ist aus Sicht von AMD günstiger, da sie kein GDDR6 Layout für ihre beschnittene Workstationkarte entwickeln müssen, als spielender Endkunde aber eine preisliche Katastrophe.

Auch kein Wort über HBBC und primitive shader verloren, die Features die Vega eigentlich mit sich bringen sollte ...
 
Das hat nix mit dem Kartenlayout zu tuen, die GPU kann nur HBM und ist auch darauf ausgelegt. Für GDDR6 müsste also eine neue GPU entwickelt werden und dann reden wir erst über das Layout der Karte.

Bei der Radeon VII scheint aber mehr Resteverwertung drin zu stecken als mir lieb ist denn die GPU wurde um alles beschnitten was sie für den professionellen Markt interessant gemacht hätte.

In meinen Augen nur ein Lückenfüller der erst durch nvidias Preistreiberei möglich geworden ist.
 
Weswegen man wohl eine Consumer Karte daraus machte. Hätte man ne 2000€ Prosumer Karte gemacht, hätte man gemeckert. Würde man die Karte mit 8GB bringen, mecker. Bringt man gar nix, mecker.

Aus Gamersicht, ist die präsentierte Lösung das Beste, was AMD aus dem Chip machen hat können.
 
  • Gefällt mir
Reaktionen: GHad
r4yn3 schrieb:
Weswegen man wohl eine Consumer Karte daraus machte. Hätte man ne 2000€ Prosumer Karte gemacht, hätte man gemeckert. Würde man die Karte mit 8GB bringen, mecker. Bringt man gar nix, mecker.

Aus Gamersicht, ist die präsentierte Lösung das Beste, was AMD aus dem Chip machen hat können.

Genau. Ich kann es auch nur immer wieder sagen. Vega ist eine Top-Architektur, welche noch eine Menge Reserven und Spielraum für Optimierungen für den User hat. Wenn die Vega VII wieder wie gewohnt @stock mit 1.2V läuft, dann kann man das bestimmt bei gleichem Takt um geschmeidige 0.1-0.2V senken und wenn man dies tut, dann ist man auf augehöhe, oder sogar deutlich vorran im Vergleich zur RTX2080 und das in jeder Hinsicht, auch beim Verbrauch.

Klar, viele stößt das ab aber genau dieses Optimieren und Basteln reizt mich an Vega und ist der Grund, dass ich die Karte zu Release haben werde. Mal gucken ob 30k Graphics score im FS möglich sind :D Laut Prognose sollte das locker gehen.
 
Chillaholic schrieb:
Bleibt der Verbrauch so hoch , wird auch Radeon VII nur ne Randerscheinung.
Die wenigstens haben hochwertige 600W-Netzteile verbaut die das auf Dauer mitmachen.
Gleicher Verbrauch, 35% mehr Leistung, schade.
16GB HBM2 sind echt geil, aber der Preis ist auch happig, nicht zuletzt weil 16GB HMB einen Großteil der Kosten verschlingen. Angeblich wird Radeon VII ja fast zum Herstellungspreis verkauft, da ist halt wie bei Vega 56/64 kein Spielraum für den Preis da.

In meinen zweit pc läuft eine vega 56 red devil oc/uv mit ein 450 watt corsair vs Netzteil ohne Probleme, es ist günstig aber gut.

Bei Netzteile sollte man sowieso nicht zuviel sparen.
 
Mir ist unverständlich wieso so viele auf der TDP rum reiten.
Das hat Sue gesagt. Die Leistung (elektrisch/thermisch) bleibt gleich bei 30% mehr Grafikleistung (FPS)... und das in realistischen! Szenarien und nicht im 1080P Schrott...
Das ist sehr beachtlich. (Ich weiß wollen manche nicht wahrhaben)
Mir stellt sich nur eine Frage immer mehr... wenn keine 128 ROPS woher holt Vega VII dann die Leistung. Der Takt ist jetzt nicht so stark gestiegen... Alle anderen Vermutungen sind es nicht...
Entweder wurde an Vega 20 mehr optimiert als bisher bekannt - oder bei Vega I lief was nicht/oder nur seh bescheiden... [wie CB ja auch in einer News schon in den Ring geworfen hat].
 
  • Gefällt mir
Reaktionen: Colindo
AMD Radeon VII: Vorerst keine Custom-Designs der Boardpartner
http://www.pcgameshardware.de/Radeo...News/AMD-Custom-Designs-Boardpartner-1273184/

sieht für mich auch immer mehr nach Restverwertung aus.
Wadenbeisser schrieb:
In meinen Augen nur ein Lückenfüller der erst durch nvidias Preistreiberei möglich geworden ist.
genau das sehe ich auch so. Ich habe nicht das gefühl, dass die Radeon VII von langer Hand geplant war. Soweit ich das einschätze, hat AMD mit deutlich mehr Rohleistung bei ähnlichen Preisen für Turing gerechnet. Beides ist nicht eingetreten, womit die Karte erst möglich wurde.
 
Die TDP der Radeon VII soll derweil bei 300 Watt liegen - 5 Watt mehr als bei dem Air-Referenzdesign der Radeon RX Vega 64. AMD nannte dabei einen zu erwartenden typischen Boost von 1.750 MHz gegenüber pcgamer.com (via 3DCenter) mit Peak-Werten von 1.800 MHz. Die hohe Leistungsaufnahme war in Anbetracht der Kühllösung und den Taktraten bereits absehbar. Auf den ersten Blick könnte man TSMCs 7-nm-Prozess anhand der Radeon VII als enttäuschend wahrnehmen. Man sollte jedoch bedenken, dass die Features von Vega 20, wenn auch beschnitten, Strom benötigen. Auch bei einer künstlich beschnittenen FP64-Leistung müssen die Shader breiter ausgelegt werden, arbeiten bei FP32-Berechnungen also weniger effizient (anders als bei Nvidia, der getrennte FP32- und FP64-Shader einsetzt, was seine eigenen Nachteile mit sich bringt). Vor allem die schnellen Interconnects und Links sind Energiefresser. Das doppelt so breite Speicher-Interface mit zwei zusätzlichen HBM2-Stacks läuft ebenfalls nicht nur mit Luft und Liebe. Spannend könnten bei der 7-nm-GPU wieder Undervolting- und Untertaktungsversuche werden, um die Effizienz zu steigern.

pcgh trifft den nagel auf den kopf! für all diejenigen die jammern das die radeon 7 "schrott,Mist,resteverwertung" ist/wäre. (bei amd ist ja laut vieler hier alles nur großer rotz!) Traurig
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fresh-D und Acedia23
Toprallog schrieb:
Stand heute ist beides nicht wirklich nützlich. In Zukunft ist sicher beides notwendig um flüssig zu zocken. Nimmt sich also nix. Aber die Rasterizer-Leistung soll bei NV höher sein. Warten wir den CB Test ab. ^^

Nein, ich bekomme ohne weiters mehr wie 8GB Voll, sei es durch modbare Spiele oder BS Texturen wie bei FF.
HBCC war mein zweiter Grund neben vorhanden FreeSync Monitor wieso ich ne V64 habe und keine 1080.
Und RT wird nichts bis es in allen Preisklassen genug Leistung liefert, das sind noch imho. 4-6 Jahre bis dahin.

Cool Master schrieb:
Ja gut das ist ein Fall. Aber auch hier gilt was bringt das? Ab einem gewissen Punkt sieht man einfach kein echten Unterschied mehr.

Bringt schon was, z.b. packen Sykrim und vor allem KSP alle Texturen in VRAM rein die gehen von Mods.
Einige AAA Games reservieren sich auch nicht umsonst mehr wie 8GB, die Chance auf lagspikes ist geringer.
Ob das jetzt einem ne 750€ karte wert ist, nähhh. :S
Für SuperResolution Anwendungen kann man auch nicht genug VRAM haben.
 
Zuletzt bearbeitet von einem Moderator:
r4yn3 schrieb:
Seis drum, ich gehe dennoch davon aus dass man 2019 noch eine 7nm Nvidia sehen wird.

Ich denke 2019 sehen wir noch eine Profi 7nm Karte von nvidia, sprich einen Volta Nachfolger. Wahrscheinlich mit 32GB HBM2.

Für die Endkunden sehe ich 2019 nicht unbedingt noch einen 7nm Chips, solange genug Leute 12nm kaufen und gut bezahlen. Für NV wird 7nm auch nur günstiger, wenn sie mit den Massenprodukten noch etwas warten. Wie es aussieht, kann man mit 12nm ja noch mit AMD Konkurrieren
 
  • Gefällt mir
Reaktionen: r4yn3
thepusher90 schrieb:
Ja ich hatte mir das so gedacht, dass jeder sich das anguckt der interessiert ist, oder zumindest mal durchzappt

Ich habs mir angeguckt und fand es sehr interessant und bereichernd. Danke dafür.
Die geäußerten Gedanken sind sehr gut belegt und zeigen im Grunde wie egal AMD die Gamer sein müssen die sich leistungsstarke Karten mit für sie passender Technik wünschen.
Im Grunde läuft es auf eine Bankrotterklärung in Sachen High-End Gaming hinaus.

Shoryuken94 schrieb:
Ich denke 2019 sehen wir noch eine Profi 7nm Karte von nvidia, sprich einen Volta Nachfolger. Wahrscheinlich mit 32GB HBM2.

Ich denke dass wir von nVidia noch etwas mit "Ampere" sehen werden. Diesen Codenamen scheinen viele schon wieder vergessen zu haben.
 
Zuletzt bearbeitet:
Zurück
Oben