News Überblick: Gerüchte zur Radeon RX Vega drehen sich im Kreis

Taxxor schrieb:
Der Unterschied bei den Monitorpreisen soll sich wohl eher auf 200-300€ belaufen.

Man müsste in 3 Jahren jeden einzelnen Tag ca 4 Stunden Vollastbetrieb haben bis man mit Vega 150€(555kWh) mehr an Stromkosten bezahlt, bleiben immer noch 100€ Ersparnis vom Monitor übrig.

Seh ich genau so, wenn eine Vega 150 € günstiger wäre bei der Leistung der konkurrierenden Nvidia Karte kommt noch die Ersparnis zum Monitor dazu. Und nach 3/4 Jahren wird die GPU sowieso wieder ersetzt wenn man noch auf dem aktuellen Stand bleiben möchte. Also werden die Stromkosten die du schon auf ca. 3 Jahre geschätzt hast, niemals einen einholen können. Es sei man zockt 3 Jahre lang 8 Stunden am Tag. Habe jetzt meine GTX 670 viel zu lange im Rechner, da muss einfach was neues hin ich warte und warte und warte. Vega bitte flopp nicht.



Schrank schrieb:
Rein Optisch ähneln sich die verwendeten Monitore ja nicht gerade, der eine ist ein Gaming-Monitor, der andere ein Design-Monitor.
Anhang anzeigen 635147Anhang anzeigen 635148
https://www.computerbase.de/preisvergleich/asus-rog-swift-pg348q-90lm02a0-b01370-a1276261.html
https://www.computerbase.de/preisvergleich/asus-designo-curve-mx34vq-90lm02m0-b01170-a1565011.html
Alleine schon dass sie unterschiedliche Panel-Technologien verwenden. Aber man hat sich wohl einfach den teuersten G-Sync Monitor ausgesucht den es von Asus gab, um 1100 €!
https://www.computerbase.de/preisvergleich/?cat=monlcd19wide&v=e&hloc=at&hloc=de&sort=-p&xf=11938_ASUS~11992_NVIDIA+G-Sync

Man hätte den Vergleich auch mit diesen beiden Monitoren machen können, exakt gleiches Panel.
Anhang anzeigen 635149Anhang anzeigen 635150
https://www.computerbase.de/preisvergleich/asus-mg279q-90lm0103-b01170-a1215454.html?hloc=at&hloc=de
https://www.computerbase.de/preisvergleich/asus-rog-swift-pg279q-90lm0230-b01370-a1275089.html?hloc=at&hloc=de
Ergänzung ()

Das witzige ist, derselbe der die Karte schon hat und auf Twitter gepostet hat, hat gestern in einem Livestream noch Gerüchte zum Vega-Design diskutiert und sich natürlich vollkommen überrascht gegeben, obwohl er die Karte da schon sicher selbst in Händen hatte. :D

Er sagt auch ganz zufällig, dass ihm das günstigere Referenzseign besser gefällt, weil gebürstetes Alu auch billig aussehen kann, wohl weil er die Karten schon selbst in Person gesehen hat.
https://youtu.be/m1-tHs1VamE?t=11m48s

Die Karte hat übrigens 2 x 8 Pin.

Ich wäre sehr an einem 27" WQHD Monitor interessiert sofern Vega was wird. Habe mein Auge schon auf den von dir genannten ASUS MG279Q geworfen gehabt vor paar Wochen. Ist das Panel denn gut? Und die FreeSync Range denn angemessen? Habe noch einen alten Monitor kann da net großartig mitreden. Der Preis wäre halt unschlagbar.
 
Ezio A. schrieb:
Hier ein Unboxing der RX Vega von EMINEM.

Ja wow....
Das Ding wird wohl wirklich um die 1000€ Kosten, da kauf ich lieber die FE mit 16GB die soll ja auch die RX Treiber bekommen....
 
Glaubst du doch selber nicht bei der Box und dem Cube.
Ich rechne mit mind. 900€ incl. mwst.
Wenn das Teil wirlich hardcore limitiert ist wie linus meinte, sowieso.
Auch wenn das die luftgekühlte Version war, die Limitierte AiO wird kaum für 700-750€ zu haben sein.
Wenn dann kuck ich blöde und order selber eine....:evillol:
 
Zuletzt bearbeitet von einem Moderator:
Bei den limitierten Karten werden die Straßenpreise im Vergleich zu den Standardversionen sehr wahrscheinlich stärker steigen, aber das ist ja trotzdem kein Grund gleich zur noch teureren FE zu greifen. ;)
 
Kann mir jemand erklären, warum die Leistungsaufnahme der AMD-Karten generell so hoch ausfällt? Das scheinen sie ja seit der R-Serie nicht in den Griff zu bekommen. Bei HD 5XXX bis 7XXXX hat das ja noch gut ausgesehen....
 
Weil AMD die Gamingkarten nicht beschneidet, dadurch sind sie für einige Berechnungen außerhalb von Spielen zwar deutlich schneller als die Nvidia Gaming Karten (abgesehen von der UrTitan), aber brauchen eben auch in Games deutlich mehr Strom weil diese Parts nicht abgeschaltet werden können.
 
Zuletzt bearbeitet:
Es sind angebliche Preise aufgetaucht, wie erwartet ab dem Niveau einer GTX 1080, ist aber noch unbestätigt.
Es ist zu beachten dass es sich um die amerikanische MSRP handelt, also ohne Mehrwertsteuer.
  • AMD Radeon RX Vega: $499
  • AMD Radeon RX Vega Limited Edition Model: $549
  • AMD Radeon RX Vega Liquid Cooler Model: $599
  • AMD Radeon RX Vega Liquid Cooler Limited Edition Model: $649
https://videocardz.com/71393/amd-radeon-rx-vega-64-rumored-pricing-and-clocks
 
Zuletzt bearbeitet:
immortuos schrieb:
Weil AMD die Gamingkarten nicht beschneidet, dadurch sind sie für einige Berechnungen außerhalb von Spielen zwar deutlich schneller als die Nvidia Gaming Karten (abgesehen von der UrTitan), aber brauchen eben auch in Games deutlich mehr Strom weil diese Parts nicht abgeschaltet werden können.

Aber woher kommt dann überhaupt der Performance Verlust von RX 480 gegenüber GTX 1080?

Was ich auch nie verstanden habe: Wie schafft es Nvidia einen derart hohen Takt anzulegen?
Warum setzt AMD auf HBM2 und nicht auf GDDR5?
Wo nimmt dann eine R9 nano ihre Leistung her, wo sie doch halbwegs Verbrauchsarm bleibt?
 
zandermax schrieb:
Aber woher kommt dann überhaupt der Performance Verlust von RX 480 gegenüber GTX 1080?
Die TFlops werden eben nicht so effizient in Spieleleistung umgesetzt wie bei Nvidia, aus oben genannten Gründen

zandermax schrieb:
Was ich auch nie verstanden habe: Wie schafft es Nvidia einen derart hohen Takt anzulegen?
Andere Architektur, andere Taktraten, ein Bulldozer erreicht ja auch 5Ghz, während ein Ryzen nur 4 schafft.

zandermax schrieb:
Warum setzt AMD auf HBM2 und nicht auf GDDR5?
Wenn dann hätte man auf GDDR5X setzen müssen, aber HBM ist AMDs Strategie, alles möglichst gleich zu machen. Für die APUs wäre später HBM z.B. sehr gut, und weil AMD nur begrenzte Mittel hat fokusiert man sich auf einen Speichertyp.

zandermax schrieb:
Wo nimmt dann eine R9 nano ihre Leistung her, wo sie doch halbwegs Verbrauchsarm bleibt?
Nennt sich Sweet Spot. Gib der Nano 50Mhz mehr Takt und sie schluckt dir 50W mehr.
 
Darkseth88 schrieb:
Das, was AMD bisher gezeigt hat, war jedesmal nix anderes als betrug/verarsche/täuschung.

Aber nein, das was NVIDIA mit der GTX970 abgezogen hat, das war Betrug, Verarsche und Täuschung. AMD begnügt sich mit Andeutungen, was in der Vergangenheit ein sicheres Zeichen für ein mißglücktes Produkt war.

Ich bin von NVIDIA mit der GTX970 einmal betrogen worden, eine zweite Gelegenheit erhält NVIDIA jedenfalls nicht.
 
Zuletzt bearbeitet:
@Taxxor: Ist da der Treiber das Problem der fehlenden Leistung?
Die Vega FE ist ja in einigen Profi-Anwendungen ordentlich und in Anbetracht des Preises gar nicht mal so weit weg von der P6000...
 
Kenn sich jemand denn genauer aus und kann schätzen wie bestenfalls die Leistung der Vega ausfallen könnte? Ich meine eine 1070 hat "nur" 1920 Shader und eine Vega soll 4096 Shader besitzen wie auch die Fury X. Wobei halt die FuryX auch kein Wunderwerk war. Was ist den anhand der bisherigen Spekulationen überhaupt drin? Ist es überhaupt möglich eine 1080 Ti zu schlagen?
 
@zandermax: Das kann ich dir leider nicht sagen, so viel technisches Verständnis in Sachen GPUs habe ich dann auch nicht.
@Lybor: Anhand der Rohdaten ist es theoretisch möglich, es kommt jetzt einzig und allein auf den Treiber an.
 
Ist einfach nur Schade.

Damals als die HD 5XXX Reihe rausgekommen ist, dachte ich wirklich AMD hat es jetzt endlich geschafft. Das war ja wirklich ein Paukenschlag.
Die 7XXX Reihe soll ja auch sehr gut gewesen sein, aber seither ist es echt schlecht um AMD Graphics geworden.

Dass es Bezeichnungen wie XT und XTX geben soll weckt bei mir ganz ganz böse Erinnerungen an FX. Dass sie den Name FX so verunglimpft haben, hat mich echt herbe enttäuscht. Ich hoffe ja nicht, dass sich Geschichte wiederholt...
 
Kenneth Coldy schrieb:
Aber nein, das was NVIDIA mit der GTX970 abgezogen hat, das war Betrug, Verarsche und Täuschung.

Das stimmt schon, diese Aktion hat mich auch dazu gebracht, eine rx 480 zu kaufen, obwohl ich mit Nvidia zuvor zufrieden war. Trotzdem muss man auch sehen, dass die alte GTX 970 mit der neuen RX 480 mithalten konnte.. Ich denke, viele werden immer noch mit der Karte unterwegs sein und aktuelle Spiele gut spielen können.
 
tidus1979 schrieb:
Das stimmt schon, diese Aktion hat mich auch dazu gebracht, eine rx 480 zu kaufen, obwohl ich mit Nvidia zuvor zufrieden war. Trotzdem muss man auch sehen, dass die alte GTX 970 mit der neuen RX 480 mithalten konnte.. Ich denke, viele werden immer noch mit der Karte unterwegs sein und aktuelle Spiele gut spielen können.

da bin ich aber andere meining ich hatte auch eine rx 480 und 970
ich vielen spielen ja da kann sie mithalten da ist sie nur paar prozent langsamer
aber dann gibt es wieder welche wo man die texturen nicht mal mehr auf mittel stellen kann
bei der rx 480 zumindest mit der 8gb kannst du immer die höchsten texturen einstellen
 
Taxxor schrieb:
Nennt sich Sweet Spot. Gib der Nano 50Mhz mehr Takt und sie schluckt dir 50W mehr.
Japp wenn ich meine R390X leicht runtertakte und undervolte brauchen die gleich mal min. 70W weniger bei kaum merkbaren Unterschied
 
Taxxor schrieb:
Nennt sich Sweet Spot. Gib der Nano 50Mhz mehr Takt und sie schluckt dir 50W mehr.

Gar so extrem ist es nicht, aber man braucht schon gut 50W mehr wenn man die 1 GHz stabil haben will, meine dümpelt gerne mal bei 920-940 MHz rum, trotz undervolting.
Wenn man dann die Taktrate der Fury X haben will muss man schon das Powertarget auf +50% stellen und dennoch hält sie den Takt nicht immer.
Aber das war bei den früheren Generationen auch schon so, meine R9 290 hat mit Undervolting und 900 MHz grade mal 170W geschluckt, bei 1 GHz waren es dann über 250W.
 
Lybor schrieb:
... schätzen wie bestenfalls die Leistung der Vega ausfallen könnte? Ich meine eine 1070 hat "nur" 1920 Shader und eine Vega soll 4096 Shader besitzen wie auch die Fury X. Wobei halt die FuryX auch kein Wunderwerk war. Was ist den anhand der bisherigen Spekulationen überhaupt drin? Ist es überhaupt möglich eine 1080 Ti zu schlagen?

Naja, verallgemeinern wirst Du das sowieso nicht können, da die Leistung sich über einen gewissen Rahmen erstreckt, in Abhängigkeit der Umsetzung einzelner Spieletitel (ob Spielentwickler für einen der beiden GPU-Entwickler bevorzugt ein Spiel entwickelt haben, etwa im Rahmen eines Partner- oder Spieleprogramms oder als Vorzeige-Bundle-Titel) oder der genutzten APIs (ob schon Low oder immer noch High Level), somit spielt der Testparcours schon eine gewichtige Rolle und sollte nach Möglichkeit ausgewogen sein.

Du kannst davon ausgehen, dass Du mit der beschnittenen RX Vega XL bzw. 56 keine GTX 1080Ti Leistung erreichen wirst, diese Karte aber insgesamt am meisten Umsatz generieren dürfte, da sie preislich relativ gemäßigt ausfallen dürfte.

Realistisch ist für die kleinste RX Vega Karte (für die eine 8 GB Standardausführung gesetzt sein dürfte, womöglich aber auch eine deutlich günstigere 4 GB Einstiegs-Variante denkbar wäre, wenn HBCC den HBM2 Speicher wirklich effizienter nutzen wird können, so dass man equivalent zu 6 GB GDDR5(x) bei durchschnittlichen fps und 8GB GGR5(X) bei minimalen fps sein würde) im schlechtesten Fall ein Leistungsbereich leicht oberhalb einer GTX 1070 (Stock) und im besten Fall auf Niveau einer übertakteten GTX 1080.

Eine luftgekühlte RX Vega XT bzw. 64 dürfte wegen des Vollausbaus des Chips darüber liegen und da wird man schlechtestenfalls wohl eine übertaktete GTX 1070 erreichen und bestenfalls wohl von einer Rohleistung auf GTX 1080Ti (Stock) Niveau ausgehen dürfen.

Die wassergekühlte RX Vega XTX bzw. 64 dürfte durch die vorselektierten Chips, bessere Übertaktbarkeit und Kühlung im "worst case" Szenario wohl auch dem Niveau einer GTX 1080 (Stock) liegen und im Idealfall schneller als eine wassergekühlte, übertaktete GTX Titan Xp sein.

Da der Vega11 wohl auch in Entwicklung ist um Anfang kommenden Jahres mutmßlich die RX 500er Serie (Einstiegs- und Mittelklasse) als RX 600er Serie zu ersetzen dürfte man dort schon von Leistung auf GTX 1070 (Stock) Niveau mindestens ausgehen können, um es dann uch mit einer nVidia Volta GTX 1160/2060 aufnehmen zu können.

Aus dem Grund ist die RX Vega XL bzw. 56 oberhalb einer GTX 1070 (Stock) anzusiedeln und außerdem, weil zwischen einer R9 Fury und R9 Fury X auch kein sehr großer Leistungsschied lag/liegt, was hoffen lässt, dass analog die kleinste RX Vega mindestens auf GTX 1080 (Stock) Niveau landen könnte.

Das ist was momentan so drin sein dürfte in Sachen RX Vega ;) ...

Was die auf Wccftech gelisteten Preisvorstellungen von Newegg USA zu den RX Vega GPUs angeht, sähe das (auch in Anbetracht des Mining-Booms und damit einhergehender Bedarfs- und Preisverlagerung) gar nicht so übel aus :).

Die späteren Custom-Designs von RX Vega dürften aber allesamt deutlich teurer ausfallen (+30-50 Euro?), ähnlich wie das bei der Polaris GPU-Halbgeneration und dessen Refresh schon der Fall war, ergo rechne ich anfänglich auch locker mit ca. 600 Euro für ein gut ausgestattete, luftgekühlte RX Vega XT/64 Karte.
 
Zuletzt bearbeitet:
Zurück
Oben