News AMD Radeon Vega: Frontier Edition fotografiert und ab heute erhältlich

Ich denke eine Wasserkühlung wäre eher kontraproduktiv was den Verkauf betrifft, viele wollen kein Wasserkühlung im PC, hat man ja schon bei der FuryX gesehen, ein Erfolg, was die Verkaufszahlen betrifft, war die Karte nicht, auch eben wegen der WaKü.
 
gecan schrieb:
am besten eine wakü wie beim furyx und vega rockt den takt von sagenhafte 1,6ghz bei unter 60 grad und dazu nahe zu totenstille !

Wir reden hier schon über die Schrott AIO von Cooler Master die auf der Fury X zum Einsatz kam und in der ersten Revision die Nutzer mit ihrem penetranten Fiepen zur Weißglut gebracht hat?
Das Ding war einfach Müll und nur dazu da um das kleine Format der Karte einzuhalten, mit Totenstelle hatte das Teil nicht das geringste zu tun.

Abgesehen davon ginge so eine AIO mir persönlich enorm auf den Keks, zahlt man für den Schrott extra obwohl man ihn nachher eh nicht nutzt, nee die sollen ruhig einen normalen Radialkühler verbauen und die Karte dafür 30-50€ günstiger anbieten, dann ist der halbe Block schon wieder finanziert :D
 
sofern tbr vernünftig integriert wird, sollte es auch mit dem Kühler der FE locker möglich sein den Takt von 1600Mhz zu halten.

bin ich irgendwie blind, oder wo finde ich die Größe des L2 caches der Vega GPU? Schließlich war der 8-fache cache zusammen mit tbr der Erfolgsgarant für Maxwell
 
Sapphire hat ja mit der Fury Tri-X OC eine gute Lösung präsentiert gehabt und bei der RX580 dazugelernt. ich hoffe, dass sie sich die nötige Zeit nehmen und es wieder gut machen.
 
Es gibt doch bereits Render Bilder der RX Vega, die optisch wie die FE ist nur eben Rot/Schwarz. Wie kommt man nun plötzlich auf Wakü bei Referenzkarte? Persönliche sehe ich aber auch die TDP nicht unter 250W, wenn nicht sogar eher 275W.

Rock Lee schrieb:
sofern tbr vernünftig integriert wird, sollte es auch mit dem Kühler der FE locker möglich sein den Takt von 1600Mhz zu halten.

Was sollte TBR damit zu tun haben ob der Takt gehalten wird? Mit TBR spart man sich Rechenarbeit, und das erhöht die Performance. Sparsamer wird der Chip deswegn nicht bei 1600MHz. Wenn dann vielleicht wegen den noch nicht optimierten Powergating:

http://www.3dcenter.org/news/weitere-deaktivierte-features-im-aktuellen-vega-treiber
 
r4yn3 schrieb:
Es gibt doch bereits Render Bilder der RX Vega, die optisch wie die FE ist nur eben Rot/Schwarz. Wie kommt man nun plötzlich auf Wakü bei Referenzkarte? Persönliche sehe ich aber auch die TDP nicht unter 250W, wenn nicht sogar eher 275W.



Was sollte TBR damit zu tun haben ob der Takt gehalten wird? Mit TBR spart man sich Rechenarbeit, und das erhöht die Performance. Sparsamer wird der Chip deswegn nicht bei 1600MHz. Wenn dann vielleicht wegen den noch nicht optimierten Powergating:

http://www.3dcenter.org/news/weitere-deaktivierte-features-im-aktuellen-vega-treiber

Sorry. Leider hast du nicht verstanden, was tbr im Gesamtkontext bedeutet. Mit TBR arbeitet der Chip aufgrund der gesparten Rechenarbeit um einiges effizienter. Somit wird auch weniger Strom verbraucht bzw. wird auch weniger Abwärme generiert. Bei einem festen treiberdefinierten Powertarget = X kann somit bei aktiviertem TBR ein höherer Takt angesetzt werden.

Würden Grafikchips so funktionieren wie vor 5 Jahren hättest du natürlich Recht. Allerdings wäre selbst dann jedes Unternehmen auf die Idee gekommen nochmal den Grundtakt per BIOS anzuheben.

Dein Link bestätigt meine Aussage im Grunde nur.
 
Soso Gesamtkontext. Deiner Rechnung nach wird Vega sparsamer, dabei aber nicht schneller. Das will niemand. Jeder will mehr Performance.

Oder glaubst du echt, TBR reduziert die Leistungsaufnahme signifikant und gleichzeitig wird die Leistung massiv gesteigert?

Würde mir das von dir geschriebene nochmal überlegen.
 
@Rock Lee
Dir ist aber schon klar das mehr Effizienz auch einfach nur mehr Performance bei gleichem Strombedarf bedeuten kann?
 
Auf den Microsoft-Servern ist ein Catalyst 17.7 aufgetaucht, der basiert aber leider noch auf dem 17.10er Branch und ist somit für Vega ungeeignet. Hab mir die .inf Dateien angesehen, keine Vega Device ID vorhanden. :(
 
Ich hätte das jetzt mal versucht, die Dateien aus dem 17.7 Ordner in den entpackten Frontier Treiber kopieren, Treiber entfernen und dann so neu zu installieren. Kann man zwar installieren, der Treiber kann dann aber nicht mehr mit der Karte umgehen, wenig verwunderlich.

Aber vielleicht haben die Jungs im guru3d Forum mehr aufn Kasten was Treiberhacks angeht. Aber die Software Versionen scheinen ohnehin alle gleich älter oder gleich zu sein mit denen der FE.
 
Wadenbeisser schrieb:
@Rock Lee
Dir ist aber schon klar das mehr Effizienz auch einfach nur mehr Performance bei gleichem Strombedarf bedeuten kann?

Klar kann es das. "Effizienz" ist ja ein dehnbarer Begriff. Da nur die Strukturbreite gleich ist, wenn ich Maxwell und Kepler vergleiche.
https://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/

Dennoch hat man ist geschafft bei gleicher Strukturbreite 33% mehr Leistung zu zaubern. Allerdings muss man natürlich die anderen Parameter mit in Betracht ziehen. Die 750ti Maxwell taktet ca. 13% höher als die 650ti Kepler. Dafür verbraucht die 750Ti, aber trotzdem 12% weniger Strom. Also ein weiterer Effizienzvorteil. Man könnte sich jetzt noch die 660 als GK106-Kepler Vollausbau hinzuziehen. Da sind wir bei 70% des Stromverbrauchs der 660 bei 83% der Leistung. Jetzt könnte man noch die Chipgröße bzw. Transistorenanzahl hinzuziehen, wo der GK106 nochmal 35% größer ist als der GM107. Alles in allem bleibt man natürlich bei einer Milchmädchenrechnung.
Aber: Wenn man von einem theoretischen Fiji ausgeht, der TBR genauso gut nutzt wie Nvidia. Bei gleichem Takt und bei gleicher Chipgröße(Transistorenanzahl), sind weitaus mehr drin als die kolportierten 30%. Dazu dann eben der Shrink mit der einhergehenden Takterhöhung....Fazit:

Ich kann mir durchaus vorstellen, dass man mit diesem Chip auch eine Geforce 1080ti übertrumpfen kann. Jedoch weiss ich nicht, wie gut AMD die Features hardware- aber auch softwareseitig integriert hat.
Abwarten....es sind nur noch 3 Woche :)
 
Gibt es bei den AMD Karten auch Hersteller, der Garantie anbietet, wenn man den Kühler tauscht? Ich will in absehbarer Zeit ein WaKü System bauen, und da käme mir eine Vega ganz gelegen.
 
immortuos schrieb:
Kühlertausch ist doch bei fast allen Herstellern erlaubt? ...

Ah ok, das ist mir neu, ich dachte bisher, dass nur sehr kulante Hersteller wie z.B. EVGA das mitmachen und beim Rest die Garantie flöten geht.
 
Rock Lee schrieb:
Klar kann es das. "Effizienz" ist ja ein dehnbarer Begriff.

Nicht wirklich da es das Verhältnis zwischen dem was man raus bekommt und dem was man reinsteckt ist.
Bekommst du bei Produkt B verhältnismäßig mehr raus als reingesteckt wird ist es effizienter.
Ob man dafür bei gleichen Ergebnis weniger rein steckt, bei gleichem Einsatz mehr raus bekommt oder eine Mischform davon hat ist dafür egal.
 
Wadenbeisser schrieb:
Nicht wirklich da es das Verhältnis zwischen dem was man raus bekommt und dem was man reinsteckt ist.
Bekommst du bei Produkt B verhältnismäßig mehr raus als reingesteckt wird ist es effizienter.
Ob man dafür bei gleichen Ergebnis weniger rein steckt, bei gleichem Einsatz mehr raus bekommt oder eine Mischform davon hat ist dafür egal.

ach? Im Rest meines Beitrags gehe ich genau auf das ein. Die Anführungszeichen waren ja nicht umsonst gewählt. Du hast 2 Bezugsgrößen gewählt für dein Effizienzbeispiel(Performance & Stromverbrauch). Ich habe dir zugestimmt und lediglich gesagt, dass es mehrere gibt.
 
We Ich das richtig sehe hat Sie nur 2 Stacks a 8 GB HBM2 .........
Die Frage bleibt wieso nicht einfach 4 4er Stacks damit die Bandbreite gnadenlos wird :(
 
@Faultier
Aus dem selben Grund wie normale Grafikkarten nicht immer eine unnötige grosse 512bit Anbindung haben.

Ausserdem fände ich 4x 8GB Stacks deutlich interessanter. ;)
 
32 GB HBM2 müste 700 Euro kosten .........
Aber ja damit währen die 1200 deutlich gerechtfertigter letzlich grad wenn die Bandbreite dann 900-1000 Gb/s beträgt.
 
Zurück
Oben