News Radeon RX Vega: Varianten XTX, XT und XL bei AMD in der Entwicklung

@Panzerhase
Ich schrieb ja schon, dass ich die XT als Zwischenlösung sehe. KAuft sich doch keiner ne AiO um auf Wäku umzurüsten. Man würde damit einen Teil des Marktes kein Produkt bieten. Aber man kann ne Karte schlecht verkaufen, die in dem Zustand kaum lauffähig ist. Ergo scrhränkt man sie per Takt/PT auf ein erträgliches Maß. Wer auf Wakü umbaut, wird die Karte schon auf das XTX Niveau bringen können. Daher sehe ich die XT auch nicht als Topmodell und die XTX "auf Steroide", wie sich das mancher hier zusammenbastelt.

Hier dürfte AMD von Fiji gelernt haben.
 
Ap2000 schrieb:
Der Artikel ist durchsetzt mit "scheint" und "soll".

Was sollte deiner Meinung nach denn sonst dort stehen, "ist" und "wird"? Natürlich werden solche News im Konjunktiv geschrieben. Auch die Glaskugel bei Hardwareluxx dürfte nicht besser als die aller anderen Hardwareseiten sein.

@Topic:

Mal schauen ob die "Tour" mehr als nur subjektive Empfindungen ans Tageslicht fördert. Find ich eine gute Idee.
 
panopticum schrieb:
Generation Galileo... Achtung noch greifbarer: 1x 300W Lampe

Wieviel ist das in Fußballfeldern oder Gläsern mit Murmeln? ;-)

@News: Amd betreibt in letzter Zeit die Karten abseits des Sweet Spots, und zwar weit. Sieht man schön wenn man eine 580 mal runtertaktet und undervolted, zusammen mit diesem Feature im Treiber was den Fps Limiter abhängig vom Spielgeschehen auf dem Bildschirm setzt kann man da drölftausend Watt sparen. Da hat man für ein wenig weniger Leistung plötzlich viel weniger Verbrauch.

Für die Karten würde ich mir lieber 5% weniger Leistung und dafür humanen Verbrauch wünschen, shietegal ob man jetzt die 10xx schlägt oder nicht, übertakten können die Customs immer noch im Nachhinein.
 
na ich bin gespannt...
dieses getöse um die stromhungrigkeit hier ist ja furchtbar :/
aber jeder wie er glaubt. für mich ist zocken eben ein hobby und ich bin eben auch bereit dafür geld in die hand zu nehmen.

ich lege eher weniger wert auf den verbrauch, da ich meine grafikkarten >4 jahre verwende und die leistung das interessante ist. solang sie nicht im idle auch unmengen verbraucht, wird das sehr interessant. der kühler würde bei mir sowieso runterfliegen, sofern er nicht zu einer bestehenden wakü kompatibel ist. der mora kümmert sich dann schon um angenehme temperaturen/lautstärke :evillol:

ob jetzt eben xt oder xtx wird sich noch zeigen. wenn man die xt leicht auf xtx bringen kann, gibts sogar sparpotential. ^^

mein wunschzettel:
>60 fps @ 4k @ high mit 16GB HBM2
ziel:
60fps am 50'' 4k fernseher daddeln :freaky:
 
Zuletzt bearbeitet:
DocWindows schrieb:
Es beginnt allmählich nach Pferd zu riechen (-> Fury)

Wieder ne Wakü-Only Variante, in Sachen Leistungsaufnahme bis zur absouten Schmerzgrenze aufgerissen. Dann die "Normale", wenn man das so sagen möchte, und eine beschnittene dazu.

War schon 1 Tag nach Release der Vega FE (gleicher Chip) klar - bei 1650 MHz, und maximiertem Power Target (damit der Takt auch gehalten werden kann) 450w Leistungsaufnahme.

Und man sollte bei Fury auch nicht vergessen, dass bei 45% gesteigerter Rohleistung zum Vorgänger nur 25% mehr Spieleperformance rausgeschaut haben. Mich würde es überhaupt nicht wundern, wenn Vega ein ähnlicher Reinfall ist - derzeit deutet alles darauf hin.
 
naja zum stromhunger kann ich nur sagen, dass das gut ist, ist ja quasi schon ne art selbstverteidigung der karten, nicht in ein mining-rig gesteckt zu werden, die nächste kryptowährung kommt (leider) bestimmt bald aus dem netz gekrochen.

als GPU würde ich auch lieber spiele rendern, als kryptogeld schürfen.

gegen jede freiheit unternimmt die unisono-weltregierung was, aber kryptowährungen haben sie noch nicht verboten -.-
 
Bin gespannt wann Nvidia's nächste Generation, als Antwort kommt.
Die 1080 is ja auch schon 1 Jahr draußen.

Aber langsam stört es mich, einen G-sync Monitor gekauft zu haben, denn selbst wenn AMD tolle Karten bringt, die ich gern testen würde(Vega), haben diese kein G-sync. :( So gesehen funktioniert die Taktik mit dem Festlegen bei mir schon. Leider.
 
Wenn die XTX nicht selektionierte chips verwendet (was angesichts der TDP erstaunlich wäre), gibt's für mich eine XT.
Diese wird 150-200€ billiger sein und mit einem heatkiller unter Wasser locker die xtx übertreffen. (Wie das auch bei der 5850 vs 5870 und R9 290 vs R9 290x der Fall war.)


Warte aber die Tests ab um das oc Potential einschätzen zu können.
 
Das sind exakt 3,3278462 Fußballfelder bei denen die Linien aus weißen Murmeln bestehen.
Die einzige Frage die dann noch bleibt ist: Was haben die Illuminati damit zu tun ?
 
Aua... die Stromaufnahme is jenseits von gut und böse. Im Topmodell okay, aber selbst die kleinste Variante zieht Strom wie Sau. Das bekommt man in nem ITX Case wohl eher nicht gekühlt. Naja, mal abwarten, sonst wohl doch ne 10xx oder mal auf Volta warten.
 
Bin schon gespannt auf die Modelle mal sehen was dann wirklich verbraucht wird in Relation zur Performance der Karte nebst Preis.
 
Tilidin schrieb:
Die TI OC frisst auch soviel ~300W: https://www.hardwareluxx.de/index.p...rce-gtx-1080-ti-strix-oc-im-test.html?start=5 - man ist also im Grunde schon seit März 17 bereit soviel raus zu blasen, neu ist das also nicht :D

Alle Highend-GPUs fressen so viel. Egal ob jetzt GK100, GM200, Hawaii, Fiji... wenn man sie lässt, pendeln sie sich in etwa bei 300W ein.

@Artikel: AMD hat die Zusätze seiner Chips doch schon lange mit XT/XTX geführt. Auf einer R9 280X werkelt ein Tahiti XTL, der große Hawaii nennt sich Hawaii XT, der große Fiji trägt auch XT im Namen...
 
Ich bin und bleibe gespannt wie Vega wird. Immerhin gibt es immer wieder ein paar (sehr) kleine neue Informationshappen.

Was ich bei AMD nicht verstehe, ist warum die Chips bereits an der oberen Taktgrenze, und damit sehr ineffizient, verkauft werden.
5-10% weniger Leistung und man ist in der Effizienz mit Nvidia auf Augenhöhe. Das lies sich super verkaufen, auch wenn die AMD Graka in den Benchmarks dann leicht langsamer wären.
Gleichzeitig würden die Leute sich freuen dass mehr OC geht. (Beim OC schreit dann nämlich keiner mehr nach dem exorbitanten Verbrauch -> siehe Nvidia).
Marketingtechnisch mal wieder sehr fragwürdig von AMD. Aber was verstehe ich schon von Marketing... (ernst gemeint. Hab keine Ahnung davon)
 
Mustis schrieb:
@Tilidin

Hier handelt es sich aber um Referenzboards. Und Referenz ist bei der TI 250Watt. Also mal Locker 50% weniger. Vergleich OC/custom mit Referenz ist Äpfel mit Birnen. Zudem sind die 300 Watt nur mit OC erreichbar. Selbst mit Wakü limitiert in der Regel Boost 3.0 bevor 300 Watt erreicht werden. Es ist also sehr wohl ein (nicht grade erfreuliches) Novum, sollte die XTX bereits in der Referenz 375 Watt verbrauchen.

Im übrigen war sicher nicht gemeint, dass man sich ne XT umbaut, sondern die XTX wenn als Custom wohl nur AiO und als Wakü kommt, wenn überhaupt. Schon Fiji gab es nicht als Custom direkt zu kaufen. Davon abgesehen wird selbst ein Morpheus mit 375 Watt an die Grenze kommen.

Morpheus mit 375W an der Grenze? Ernsthaft? Der kann eine Titan (egal welche) mit ihren über 300W flüsterleise kühlen. Bei 375W würde er im schlimmsten Falle hörbar werden. Aber immer noch leise. Das größte Problem sehe ich eher, wie die SpaWas gekühlt werden, die Montage der Kühlkörper lässt ja Raum für suboptimales Arbeiten...

Und selbst das Referenboard der TI verbraucht mehr als 250W wenn man das powertarget verschiebt. Dann sieht man zwar keine riesigen Sprünge im Takt mehr, der Stromverbrauch steigt aber enorm weil nVidia-Karten schon in der Referenz jenseits des sweetspots agieren.
Dafür hängen nVidia-Referenzkarten dann immer im beschissenen Kühlerdesign. Falls AMD also eine Karte als Referenz anbietet welche hinsichtlich der Board-Topologie und des Kühlers darauf ausgelegt ist dass lediglich der Chip die Grenze darstellt, kann ich das nur begrüßen.
Ergänzung ()

stoneeh schrieb:
Und man sollte bei Fury auch nicht vergessen, dass bei 45% gesteigerter Rohleistung zum Vorgänger nur 25% mehr Spieleperformance rausgeschaut haben. Mich würde es überhaupt nicht wundern, wenn Vega ein ähnlicher Reinfall ist - derzeit deutet alles darauf hin.

Nur wenn Du die Karte in 1080p testest. Da limitiert der rasterizer. Und das ist exakt die große Neuerung bei Vega, da wird ja eine theoretisch bis zu vierfache Leistung versprochen.

In hohen Auflösungen - und vor allem wenn das Dx11-Geklüngel von nVidia umgangen werden kann durch nicht-veraltete Schnittstellen - kann Fiji zeigen was es kann. Und nur dafür wurde Fiji gebaut. Anders würde es nämlich keinen Sinn ergeben einen Tonga um ein zweites backend (+HBM) zu erweitern. Fiji war einfach seiner Zeit voraus, sei es mit HBM oder dem Fokus darauf, 4k zu ermöglichen. Hätten sie ein halbes Jahr gewartet und Fiji für 14nm aufgelegt, das hätte eine interessante Karte werden können. Allein dass sie nur mit ~1000MHz lief hat sie arg eingeschränkt. Wobei die spannendste Fiji ohnehin die Nano war.
 
Die Titan Xp kann über 300 Watt Tdp erreichen? Wie das? Du bist nen echter Experte auf dem Gebiet oder?

Zudem sagte ich, der Morpheus kommt an die Grenzen. Wenn ein Morpheus hörbar wird, ist das ne GRenze, den son Ding schnall ich mir auf ne Karte, Um sie nicht zu hören! Ne hörbare aber ertragbare KArte bekomme ich mit jeder Custom auch.
 
Zuletzt bearbeitet von einem Moderator:
D0m1n4t0r schrieb:
... XT klingt interessant. Vielleicht gibts davon ja sogar eine Nano Version.

Sehe ich auch so, aber eine Nano Version wird vermutlich leistungstechnisch wieder leicht unterhalb einer XL Version rangieren. Notfalls muss man halt auf einen guten Chip hoffen und selber anpassen ;).

Ob man mit 400 Euro für eine XL Version derzeit hinkommen wird - wie hier z.T. erhofft - bleibt allerdings abzuwarten, ich habe da so meine Zweifel, insbesondere, wenn man sich an vorherigen Fury(X) und Nano Preisen orientiert, da erscheinen mindestens 500 Euro schon als wahrscheinlicher (hoffentlich bekommt man dann aber schon bei der RX Vega XL wenigstens GTX 1080 Stock Leistung dafür).
 
Bin mal auf die Leistung gespannt - und den Preis.
 
net-terminator schrieb:
Warum nicht einfach RX 670 / RX 680 ... wie schon geschrieben wurde, sollten doch die Generationen und Leistungsklassen gut erkennbar sein. Nvidia macht es doch vor.

N feuchten Kehricht macht Nvidia in der Oberklasse vor, denk dran es gibt eine GTX Titan, GTX Titan Black, GTX Titan Z, GTX Titan X, Titan X und Titan Xp.

Schlimmer ist da AMD mit Vega XT, XTX und XL auch nicht :p
 
im 3DCenter wurde auch noch von einem Kommentator Folgendes geschrieben:

Mal so nebenbei eingestreut:
AMD hat für Memory und GPU-Takt noch keine Werte rausgegeben, die Boardpartner rätseln also noch. Der Forecast sagt z.B. von XL bis XTX (OC) ca. 15-20K Einheiten pro nicht-exklusivem Boardpartner und Monat. Das liegt in etwa auf dem Niveau der 1080 Ti. Klingt also nicht mal schlecht, was die Verfügbarkeit anbelangt, ist aber nichts für die ganz breite Masse (normalerweise gehen 800K Karten pro Monat raus, von 1030 bis Ti). Es ist aber eben nur ein Forecast. Was am Schluss geliefert wird, weiß keiner. Das sehen wir in KW 29 und 34....

Also da muss man echt bis zu den richtigen Benchmarks auf den bekannten Seiten abwarten, aber wenn das soweit stimmen sollte, wäre der Launch nicht so mies, wie ich vermute.

Zum Glück habe ich in der Zeit Urlaub und kann ruhig beobachten. Sobald die XL preislich okay ist, werde ich endlich entscheiden können.
 
Zurück
Oben