News Radeon VII: PowerColor reagiert auf Berichte zu Custom-Designs

Casillas schrieb:
Du hast geschrieben, dass Vega nur 50%, also nur eine halb so gute Effizienz hat, wie Pascal Turing. Wo siehst du die denn in den Werten?
Wählt man die Asus Geforce 2070 als Basis hat die Vega 64 51%

LG
 
DocWindows schrieb:
Das kann sein, weil du anscheinend keine Ahnung hast was Effizienz bedeutet. Oder warum hast du die Leistung die auf dem Bildschirm ankommt nicht mit berücksichtigt?

https://www.computerbase.de/2019-01...st/4/#diagramm-performance-pro-watt-1920-1080


Wenn das so ist, dann frage ich mich warum man nicht von vornherein "sehr sehr viel" mehr rausholt, sondern das dem Kunden überlässt und on Top auch noch mit voller Absicht schlechte Testergebnisse in Kauf nimmt.

Mir ist klar was Effizenz ist. Aber dass eine Vega 64 +- bei der Leistung einer GTX 1080 liegt, bei neuen Spielen meist davor ist, dir wohl nicht?
Also +- gleich schnell und bei unangetasteten Custom Karten 190-230W NV und 260-300W AMD.
Gemessen bei THG im Gamingschnit, welcher das kann.
Ja das sind mindestens 51.256% ausseinander, oder auch nicht.

CB testet die erste Referenzkarte und belässt die Werte 100 Jahre drin.
Der Kühler ist nun nicht der Kracher, dass mit der Hitze die Leistungsaufnahme steigt sollte auch klar sein?
Dass der Chip evtl 1.5 Jahre später nicht mehr der gleiche ist, weil die Fertigung nicht mehr dieselbe
ist sollte klar sein?


Wieso wird mal wohl die Spezifikationen in der Fertigung eines relativ grossen und teuer zu fertigenden
Chips so setzen, dass man mehr funktionierende Chips raus bekommt? Hat vielleicht wirtschaftliche und fertigungstechnische Gründe. Durch die Masse geringerer Preis und durch niedrige Voraussetzungen
mehr funktionierende Chips, besserer Yield.
Und natürlich muss der Chip bei -20 Grad in Arktis genauso funktionieren wie bei +40 Grad in der Wüste.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Dieser Zusammenhang lautet: Perfomance/Watt

Nur wie wurde dieser Zusammenhang ermittelt. Im verlinkten Test gibt es ein paar Ungereimtheiten. Zum Beispiel sind die Leistungsratings in 1080p und 1440p und beim Verbrauch ist plötzlich von 2160p die Rede. Also so ganz zu trauen ist der Perf/W-Graph nicht.

Genau wie der Test der Leistungsaufnahme stark schwankt. Im verlinkten Test die V64 44% über der V56, im damaligen Test der Vega zum Release sind es "nur" 29%

Trotzdem steht die V64 bei der Effizienzwertung gegenüber der 1080FE im neueren Test besser da, als bei den damaligen (beim Verbrauch aber so ziemlich gleich hoch geblieben)
Da hat also auch die Spieleauswahl viel Einfluss drauf und die genaue Ermittlung ist trotzdem unklar.

Was bei diesen Effizienzwertungen raus kommt, ist auch irgendwie völlig egal. Die RX580 ist in ihrer Klasse auch keine schlechte Karte hat trotzdem eine sehr schlechte Bewertung bei der Effizienz. Bei der Vega wird da ein Fass aufgemacht, dass sie so ineffizient ist, obwohl sie effizienter als Polaris ist. Das geht bei den meisten auch irgendwie unter, obwohl es im Test damals so geschrieben wurde, das Vega die bisher effizienteste GCN-Geberation ist.

Natürlich ist Nvidia da besser, was Spiele angeht. Aber man sieht ja auch schon, was an Rohleistung bei den Spielen verpufft. GCN ist ziemlich am Ende und wohl nicht mehr allzuviel rauszuholen. Dazu kommt noch, dass Vega weit jenseits des Sweet-Spots läuft, es geht ja nicht wirklich viel Takt und läuft schon am Limit. Da muss dann auch der Prozess seine Einflüsse einbringen.

Mit Radeon VII gibt's ein neuen Prozess, obwohl so hohe Taktraten sind scheinbar auch nicht drin (welcher 7nm ist es denn?). Aber GCN bleibt.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
KuroSamurai117 schrieb:
Frage ist ob die Sache nicht auch auf die R7 zutrifft. Die Leistung gibt es in 1080 Ti Form schon fast 2 Jahre zum gleichen Preis.
Wenn der 1080 Ti die Puste ausgeht dann auch langsam der R7. Also theoretisch hast mit der Pascal-Karte dann länger was von der Leistung gehabt.

Klar wenn du die 1080TI von Anfang an hattest, hast du evtl. die Karte länger gehabt.
Andererseits hat die RVII massiv mehr Rohleistung und Speicherdurchsatz und
Vega ist im Gegensatz zu Pascal kein DX12 und Vulkan Krüppel.
Also ich glaube nicht, dass die Pascal Karte auf mittlere und lange Sicht so lange halten wird.
 
Zuletzt bearbeitet:
Stimmt wenn DX12 und Vulkan endlich mal durchstarten könnte es besser werden. Nur wanken die API auch recht häufig.
Pascal verliert zumindest nicht groß Performance wie Maxwell noch. Allerdings muss ein DX12 auch schon massiv schneller sein als Nvidia unter DX11. Wie es ja Shadow of the Tomb Raider zeigt.

Wobei auch in 2-3 Jahren DX13 kommen könnte und dann brauchst wieder einen neuen Chip für alle Funktionen.

Raytracing, DX12/Vulkan ist alles noch in der Verbreitung ungewiss.
Mancher zählt halt doe Leistung in den nächsten 2-3 Jahren und nicht ob die dann im 4 Jahr anfängt langsamer zu werden.

Bin gespannt woe sich die R7 hält. Gerade wie AMD dann Raytracing supportet.
 
LoRDxRaVeN schrieb:
Wählt man die Asus Geforce 2070 als Basis hat die Vega 64 51%

LG

Macht ja auch Sinn, auf der einen Seite ein Referenz Model und auf der anderen Seite ein Custom Model zu wählen.

In dem Test steht es im besten Fall bei reiner Effizienz Betrachtung dann 100 zu 79.
Pascal zu Vega.

Solche Pauschalaussagen mit 50% Effektivität sind dann einfach Quatsch.

In nem anderen Thread hat auch wer behauptet, dass sich die Vega 56 Karten preislich im „freien Fall“ befinden, seit die 2060 auf dem markt ist.

Als man denjenigen nach Belegen gefragt hat, war er still.

manche Pauschalausagen sind hier einfach Blödsinn.
 
Casillas schrieb:
Du schreibst doch selbst "Mein Interesse als Kunde ist, das beste Produkt für mein erarbeitetes Geld zu bekommen.".
Daher sollte man als Kunde an einem gesunden Konkurrenzkampf interessiert sein. Nichts anderes haben Wadenbeisser und ich geschrieben.

Natürlich sollte man als Kunde an einem Konkurrenzkampf interessiert sein. Diesen herbeizuführen ist aber nicht die Aufgabe des Kunden, sondern die der beteiligten Unternehmen. Das ist der Unterschied zwischen dem was ihr beide sagt und dem was ich sage. Das Ziel ist gleich, der Weg nicht.

Ich hsb es schonmal ähnlich geschrieben: Hätte AMD eine Motivation gehabt Zen zu entwickeln wenn sich Bulldozer und die Nachfolger in Modulbauweise wie geschnitten Brot verkauft hätten, auch wenn sie unterlegen waren? Hätte der Kunde sich mit einer Unterstützung in dieser Form einen Gefallen getan?

Casillas schrieb:
Du hast geschrieben, dass Vega nur 50%, also nur eine halb so gute Effizienz hat, wie Pascal Turing.

Ich habe "rund 50%" geschrieben. "rund" steht aus einem ganz bestimmten Grund da und nicht zufällig

Casillas schrieb:
.
In nem anderen Thread hat auch wer behauptet, dass sich die Vega 56 Karten preislich im „freien Fall“ befinden, seit die 2060 auf dem markt ist.

Als man denjenigen nach Belegen gefragt hat, war er still.

Die Behauptung war dass sie bis zu 100 Euro nachgegeben haben und zwar seit Anfang Januar.
Und weil du nach 3 maliger Quellenangabe immer noch nicht bereit warst auf diese Quelle zu gehen und nachzuschauen, war er dann still.

modena.ch schrieb:
Aber dass eine Vega 64 +- bei der Leistung einer GTX 1080 liegt, bei neuen Spielen meist davor ist, dir wohl nicht?

Doch, durchaus. Bestreitet ja keiner. Nach dem was in dem Chip an Hardware und Technik steckt, müsste sie aber auf 1080Ti-Level sein. Dann wäre aucb die Effizienz ok. Ist sie aber nicht.

modena.ch schrieb:
Der Kühler ist nun nicht der Kracher, dass mit der Hitze die Leistungsaufnahme steigt sollte auch klar sein?
Dass der Chip evtl 1.5 Jahre später nicht mehr der gleiche ist, weil die Fertigung nicht mehr dieselbe
ist sollte klar sein?
.

Die gsnzen Erklärungen warum die Dinge so sind wie sie sind kenne ich auch. Dies zu wissen macht die Karte aber nicht attraktiver oder besser. Und es stellt auch nicht wirklich einen Kaufanreiz dar.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Erster Satz: Ja
Zweiter Satz: Bezweifel ich. Denn eigentlich müsste hier die hinterherhängende Firma an einem Konkurrenzkampf interessiert sein, denn die möchte mit ihren Produkten schließlich Geld verdienen. Das ist ihr Intreresse. Mein Interesse als Kunde ist, das beste Produkt für mein erarbeitetes Geld zu bekommen.
Was das Beste für mich ist, definiere ich natürlich immer noch selber. Was dem Großteil der Kunden wichtig ist, kann man dann aber an der Marktsituation ablesen.
Dann scheint es deiner Meinung nach also keine mündigen Kunden mehr zu geben die mit ihrem Geld auch umgehen können und eine Vorstellung vom Warenwert zu haben sondern nur noch dafür zu arbeiten den Firmen das Geld in den Rachen zu werfen, Konsum Zombis eben. Den letzten Punkt mit dem selbst definieren kauf ich dir nicht ab denn genau das sprichst du Leuten ja ab die deine Vorstellungen nicht teilen.

Ich sehe das recht locker, diejenigen die wegen der Preise rumheulen, für die aber Produkte der Konkurrenz ohnehin nicht in frage kommen bekommen letztendlich das was sie sich mit ihrem Kaufverhalten so hart und teuer "erarbeitet" haben. wegen dem Speicher der Radeon wird vom Großteil doch ohnehin nur rumgemeckert weil sich damit die Preise der Geforce nicht drücken lassen.

Euch passen nvidias Preise nicht? Dann beklagt euch bei denen.
 
  • Gefällt mir
Reaktionen: Rockstar85
DocWindows schrieb:
Ich habe "rund 50%" geschrieben. "rund" steht aus einem ganz bestimmten Grund da und nicht zufällig

Rund 50% würde heißen, dass die Effektivität von Vega ja teilweise noch schlechter wäre, also in einigen Szenarien Vega mehr als das doppelte verbrauchen würde.
Dann erhelle uns mal.

DocWindows schrieb:
Die Behauptung war dass sie bis zu 100 Euro nachgegeben haben und zwar seit Anfang Januar.
Und weil du nach 3 maliger Quellenangabe immer noch nicht bereit warst auf diese Quelle zu gehen und nachzuschauen, war er dann still.

Wie ich gesehen habe, hast du sogar die Behauptung aufgestellt. Siehe hier.

Von den vier preislich relevanten Customs der Vega 56 (gigabyte, Powercolor, Asus, Sapphire), hat ein einzig die Powercolor einen Satz von 100€ nach unten hingelegt. Die Sapphire ist gleich geblieben und schwankt immer mal ein wenig im preis. Bei den anderen beiden sind es 20 und 30€.

Damit ist deine Aussage falsch. Punkt. Es lässt sich schlicht und ergreifend bei Vega 56 kein Einfluss auf den Preis durch den Release der 2060 erkennen.

Gerne kannst du uns/mich eines besseren belehren, indem du deine Behauptungen belegst. Ich würde es sogar zugeben, wenn ich mich irren sollte.
 
modena.ch schrieb:
Mir ist klar was Effizenz ist. Aber dass eine Vega 64 +- bei der Leistung einer GTX 1080 liegt, bei neuen Spielen meist davor ist, dir wohl nicht?
Also +- gleich schnell und bei unangetasteten Custom Karten 190-230W NV und 260-300W AMD.
Gemessen bei THG im Gamingschnit, welcher das kann.
Ja das sind mindestens 51.256% ausseinander, oder auch nicht.
Ähm, 50% der Effizienz der anderen Karte würde bedeuten das sie doppelt so viel Strom bei gleicher Leistung frisst oder in dem Fall die Geforce nur halb so viel Strom benötigen würde aber beides ist nicht der Fall.
 
Die Radeon VII ist ja, wie hier im Thread schon erwähnt wurde, ziemlich exakt die Radeon MI50 von Ende Oktober 2018 mit Videoausgabe und abgeschalteten DP (FP64)-Recheneinheiten: 6,7 TF -> 1,68 TF.
https://www.amd.com/en/products/professional-graphics/instinct-mi50
Man kann sich ja mal die Tests dazu durchlesen. 300W (6+8 PCIe) bei etwas niedrigerem Takt als die R VII (8+8 PCIe).
Gibt es schon Hinweise oder leaks, ob die FP32/FP64-Konfiguration über z.B. EEPROM o.ä. zurückmodifizierbar sein könnte?

https://en.m.wikipedia.org/wiki/Radeon_Instinct#Chipset_Table
https://www.techpowerup.com/gpu-specs/radeon-vii.c3358
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wadenbeisser und fox40phil
@ blöderidiot
Deaktiviert wurde der DP Support definitiv nicht sondern nach bisherigen Infos lediglich auf 1:8 beschnitten. Bei der sonst üblichen Reduzierung auf 1:16 (AMD) oder gar 1:32 (nvidia) wäre das immernoch ein guter Fortschritt.
Der PCIe Support wurde offenbar ebenfalls auf 3.0 reduziert und die Infinity Fabric Links, mit denen man mehrere Karten verbinden kann, ganz gestrichen. Man grenzt die Karte also schon deutlich von ihren großen Geschwistern ab.
Ergänzung ()

Ach jetzt kann ich mir auch vorstellen wo die Platzhalter Länge von 268 mm her kommt, die
Instinct MI50 ist mit 267 mm angegeben, es ist aber offensichtlich dass es sich weder um das gleiche Kühlsystem, noch um das gleiche PCB handelt.
 
Zuletzt bearbeitet von einem Moderator:
Redirion schrieb:
Soweit ich weiß, ist das ist schon ein paar Jahre nicht mehr so. Nvidia und AMD liefern beide GPUs mit RAM im Bundle an ihre Boardpartner aus.

Sonst hätte doch bestimmt mal ein Partner den Schritt gewagt und eine RX480/RX580/RX590 mit 9Gbps RAM gebracht.
Kann gut sein, dass mir das entgangen ist. Als Beweis reicht der untere Satz aber nicht aus, denn das macht man nur, wenn es sich lohnt. Und die Boardpartner haben sowieso ueber die ganzen Jahre alle Polaris verkauft, die sie bekommen konnten. Dabei war es auch egal, dass sie deutlich ueber UVP lagen. Auch mit 8 Gbps (und mitunter weniger).
 
Wadenbeisser schrieb:
Instinct MI50 ist mit 267 mm angegeben, es ist aber offensichtlich dass es sich weder um das gleiche Kühlsystem, noch um das gleiche PCB handelt.
Inwiefern kann das offensichtlich sein, wenn es weder von der einen noch von der anderen Bilder des PCB gibt? Anderes Kühlsystem, gut, das ist offensichtlich.

Edit: Mein Fehler, natürlich ist es auch ein anderes PCB. Dennoch, wenn ich mich primitiv mit Paint spiele und die beiden Karten von der Länge her vergleiche, komme ich auf ziemlich die selbe Länge.
 
Zuletzt bearbeitet:
@r4yn3
Die offensichtlichsten Unterschieden beim Kühler ist dass auf der Instinct ein passives Kühlsystem sitzt das vom Luftstrom des Gehäuses Zwangsbelüftet wird. Des weiteren kann man bei der Top Aufnahme bei techpowerup erkennen dass der Anschluss für die Infinity Fabric Links fehlt, welcher Teil des PCBs ist. Zwischen dem Kühler und der Backplate kann man das PCB erkennen das komplett durch geht und bei dem die Sollbruchstellen der Bestückhilfen erkennbar sind. (diese geriffelten Stellen)
Schaut man sich das Bild der Instinct bei AMD an dann prangt dort allerdings der Krater des Infinity Fabric Link Anschlusses. Ein weiterer sehr offensichtlicher Punkt sind die fehlenden Display Anschlüsse bei der Instinct, sowie die andere Platzierung der Stromanschlüsse.
https://tpucdn.com/gpu-specs/images/c/3358-top.jpg
https://www.amd.com/system/files/st...inct-MI60-straight-1260x709.png?itok=bcQrtgYZ
https://heise.cloudimg.io/width/700...60_Infinity_Fabric_Link-d1282c7e930782a2.jpeg
Eine Weiterverwertung der MII50 kann also ausgeschliossen werden, lediglich die GPU wird offenbar verwendet.
 
  • Gefällt mir
Reaktionen: blöderidiot
@Rock Lee

Bisher kann ich noch kein Limit erkennen. Das Kontingent welches wir geordert haben, soll am Montag eintreffen.

Es lässt sich jetzt natürlich schwer sagen, ob bei Nachbestellungen dann längere Wartezeiten auf uns zukommen würden, aber zumindest das Release-Kontingent ist schon auf dem Weg. Unsere Ansprechpartner sprechen zumindest davon, dass die zu erwartende Nachfrage abgedeckt werden könnte. (was aber fast immer gesagt wird :D ).

Ich denke die nächsten 2 Wochen werden es zeigen. Die erste Charge wird vermutlich recht schnell vergriffen sein und dann werden wir sehen wie lang die Lieferzeiten sind bei der nächsten Bestellung.
 
  • Gefällt mir
Reaktionen: mieze123, Chaos Theory und Rock Lee
Zurück
Oben