Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

Immer schön auf die fertigen ausgiebigen Tests warten.
Die Spekulationen jetzt bringen nicht allzuviel. Hoffentlich hat AMD Treiber bis dahin optimiert.
Die Limited Edition sieht schon schick aus. Schade das das Kühlkonzept an sich nicht wirklich leise aussieht.

MTPCKH schrieb:
ihr Nvidea fanboys seid neben Intel und Iphone fanboys der dümmste abschaum auf der Erde:stock::stock::stock:
Wenn du schon beleidigen willst, schreib wenigstens vernünftig und halbwegs fehlerfrei.
Ist ja grausam.
 
Cuxnase schrieb:
Keine Ahnung ob AMD von ihrer Technik nicht mehr überzeugt ist, oder nicht weiß was LFC ist.
Aber mit Framedoubling liegt weder die GTX 1080 noch die GTX 980Ti außerhalb der "Freesync-Range". Oder eben G-sync Range je nach Sichtweise eben.
Was für ein peinlicher Täuschungsversuch.

Und mit Framequadruple ist die Vega schneller als 1080Ti SLI. Man stapeln die tief...

Hier gehts erstmal nur um die Rohleistung der Karte. Dass man da Softwareseitig noch Frames zwischenberechnen kann (siehe ASW bei der Rift) oder eben über Framedoubling ein Bild einfach zweimal ausgibt, ist eine andere Geschichte.
 
Moriendor schrieb:
Warten wir mal auf unabhängige Benchmarks, aber außer für Hardcore-AMD-Fans, die nVidia nicht mal mit der Kneifzange anfassen würden, sehe ich da erst mal keine große Konkurrenz für die sehr guten, ausgereiften, kühlen, leisen und effizienten 1070/1080 kommen.

die kleinere vega für 399€ könnte doch schon ein ziemlich gutes konkurenz produkt zur 1070 werden
angeblich nur 165watt verbrauch und wenn die große vega schon etwas schneller ist als eine 1080 dann wird die kleine erst recht schneller sein als eien 1070

Cuxnase schrieb:
Keine Ahnung ob AMD von ihrer Technik nicht mehr überzeugt ist, oder nicht weiß was LFC ist.
Aber mit Framedoubling liegt weder die GTX 1080 noch die GTX 980Ti außerhalb der "Freesync-Range". Oder eben G-sync Range je nach Sichtweise eben.

lol
 
MTPCKH schrieb:
AMD kann unmöglich soviel durch treiber rausholen nicht wahr??:D
AMD vega fe hat bewiesen dass die 1080 viel schneller ist !!!1:D:D
ihr Nvidea fanboys seid neben Intel und Iphone fanboys der dümmste abschaum auf der Erde:stock::stock::stock:

Als jemand der seit Jahren keine neue Grafikkarte/CPU gekauft hat, kann ich dir zusichern dass ihr AMD Fanboys ebenfalls in diese Hitliste reinkommt, keine Sorge!
 
Cuxnase schrieb:
GTX 1080 sowie Vega 64 kosten beide 499 Dollar und die Performance ist nach allem was AMD da so zeigt wohl nicht ganz auf demselben Niveau.




Wenn du 1 Jahr später kommst, die modernere und sparsamere HBM2 Speichertechnik nutzt und dan verbrauchstechnisch so weit von der Konkurrenz entfernt bist. (105 Watt drüber was die Boardpower angeht) ist das nicht gerade eine Meisterleistung.

Das habe ich mir auch gedacht, ist stell mir die ganze Zeit die Frage, warum AMD es nichtmal schafft die 12Tflops Rohleistung vernünftig umzusetzen, weil so währe sie halt auch nen 1080 TI Killer, aber irgendwie klappt das nicht so wirklich bei AMD.
 
Oh man auf was genau soll man dann noch zwei Wochen warten? Was genau soll denn bitte kommen? Der Bogen ist doch überspannt. Wenn sie bei der Siggraph, wo alle Lleute drauf schauen, nur komische Adapative Sync Vergleiche ziehen wollen und ihr Produkt von Haus aus direkt mal mit 300€ Hardwarerabatt anbieten, sagt der gesunde Menschenverstand, das nichts mehr kommen wird. Das ist wirklich bitter und erstaunt gleichzeitig aber sehr. Gefühlt handelt es sich tatsächlich nur um einen bessere taktenden Fiji. Was genau wurde denn da jetzt die ganze Zeit dran entwickelt?

Man blöd ich hab nen Freesync Monitor, aber wenn die 1080Ti die Tage in einem schönen Angebot ist, kommt die halt rein. Das ist doch absurd.
 
Zuletzt bearbeitet:
Moriendor schrieb:
Aus dem Artikel...



Nun ja... das kommt auf die Definition von "groß" an :D . Gemäß einer der Folien wird es ein 30mm Lüfter werden mit dem dann die 295W abgeführt werden müssen. Das dürfte -vapor chamber hin oder her- nicht gerade ohrenfreundlich enden oder die Temperaturen werden am Limit kleben.

Insgesamt haut einen das nicht gerade um. Seit GP-104 sind rund 15 Monate vergangen und jetzt kommt AMD mit einem Top-Modell, das plus/minus auf GTX 1080 FE Niveau liegt, dafür aber einen Wasserkühler braucht, um die 350W zu bändigen.

Trotz der langen Verzögerung sind wichtige Features standardmäßig deaktiviert (HBCC) und man gibt durch die Blume schon zu verstehen, dass es mit den Treibern anfangs etwas holprig werden könnte bzw. man kann noch nicht mal konkret sagen, wann die magischen Killertreiber kommen werden, die Vega dann jenseits von Volta katapultieren werden (so wurde Vega schließlich mal beworben).
Das ist nach der langen Wartezeit etwas mau. Man sollte denken, wenn AMD schon so lange brauchen, dass sie es dann auch zum Launch alles richtig am Start haben.

Warten wir mal auf unabhängige Benchmarks, aber außer für Hardcore-AMD-Fans, die nVidia nicht mal mit der Kneifzange anfassen würden, sehe ich da erst mal keine große Konkurrenz für die sehr guten, ausgereiften, kühlen, leisen und effizienten 1070/1080 kommen.

Das lustige ist, NV könnte sich jetzt entspannt Zeit lassen mit Volta und erst einmal ein Pascal Refresh rausbringen, womit sie AMD nochmal ein reinhauen und Volta dann auf spätere 2018 Katapultieren, weil Druck haben sie ja garnicht...
 
frkazid schrieb:
Hier gehts erstmal nur um die Rohleistung der Karte. Dass man da Softwareseitig noch Frames zwischenberechnen kann (siehe ASW bei der Rift) oder eben über Framedoubling ein Bild einfach zweimal ausgibt, ist eine andere Geschichte.

Nein, da gehts um die Freesync-Range siehe Text.

"Bei sechs getesteten Spielen schafft es nur die Radeon RX Vega 64, durchweg in der FreeSync-Range zu liegen. Die GeForce GTX 1080 schafft dies ein Mal nicht, die Radeon R9 Fury X drei Mal und die GeForce GTX 980 Ti fünf Mal."

Hier soll eine Freesync-Range suggeriert werden, die mit Framedoubling was der AMD Treiber kann und bei G-sync sowieso angewand wird, sowieso Makulatur ist. AMD versucht zu behaupten diese und jene Grafikkarte schaffe es nicht in die Freesync-Range, obwohl de Range durch LFC weit nach unten reicht.

motul300 schrieb:
angeblich nur 165watt verbrauch und wenn die große vega schon etwas schneller ist als eine 1080 dann wird die kleine erst recht schneller sein als eien 1070

Zuerst einmal benötigt die Vega 56 alleine für die GPU 165 Watt. Da ist der Rest wie RAM und Board noch nicht dabei.
Insgesamt sind es 210 Watt Boardpower. Also wird die Karte leicht über 200 Watt benötigen.
 
Zuletzt bearbeitet:
Kräht ab Frühjahr kein Hahn mehr danach, Volta wird es richten. :)

Alles richtig mit der 1070 im Juli 2016 gemacht. :)
 
frkazid schrieb:
Wenn der HBCC RAM nutzt kann es also sein, das Teile davon als Auslagerungsdatei auf dem Massenspeicher landen können?

Oder kann man Daten im RAM als "nicht auslagerbar" kennzeichnen?!.

Das kann man bei jedem OS, ja.
 
Galatian schrieb:
Oh man auf was genau soll man dann noch zwei Wochen warten? Was genau soll denn bitte kommen? Der Bogen ist doch überspannt. Wenn sie bei der Siggraph, wo alle Lleute drauf schauen, nur komische Adapative Sync Vergleiche ziehen wollen und ihr Produkt von Haus aus direkt mal mit 300€ Hardwarerabatt anbieten, sagt der gesunde Menschenverstand, das nichts mehr kommen wird. Das ist wirklich bitter und erstaunt gleichzeitig aber sehr. Gefühlt handelt es sich tatsächlich nur um einen bessere taktenden Fiji. Was genau wurde denn da jetzt die ganze Zeit dran entwickelt?

Man blöd ich hab nen Freesync Monitor, aber wenn die 1080Ti die Tage in einem schönen Angebot ist, kommt die halt rein. Das ist doch absurd.

Asus Aorus 1080 Ti für 725€ bei Amazon.fr. Musst mit Kreditkarte bezahlen, aber kommt trotzdem aus einem deutschen Warenhaus :D
 
@Cuxnase

Weil die FE Frontier Edition nicht zum spielen da ist.

Srry, aber es gibt doch kaum ein Argument, was mehr "fanboi biased" ist als der Verbrauch. Vor allem, da es komischerweise erst übermäßig genutzt wird, seit NV die Nase in diesem Bereich vorne hat. Kaum einer misst wirklich mal den Verbrauch seines Systems. Auch bei den besten Tests sind es immer nur Momentaufnahmen, die ohne individuelle Anpassungen an sein eigenes Nutzerverhalten, kaum was Wert sind. Dabei helfen auch die typischen Milchmädchen Rechnungen nichts, die man immer wieder sieht, wo natürlich immer mit Maximalwerten jongliert wird.

"Ich spiele 365 Tage im Jahr ca 5h Battlefield 1 auf Ultra und meine GPU hat eine maximale TDP von xy, aufs Jahr gerechnet sind das dann xy Euro."

Das ist Augenwischerei und dient meistens nur als Argumentationsgrundlage, warum man Komponente xy vorzieht. Die waren Stromfresser im Haushalt interessieren dann kaum jemanden, aber wehe ein GPU verbraucht 100 Watt mehr...
Die Performance von Vega ist imho gut, nicht herausragend und auf 1080ti Niveau, wie von manchen erhofft, aber trotzdem solide. Wem das zu wenig ist, der hat ja weiterhin die Wahl zur 1080ti zu greifen. Erinnert mich irgendwie ein wenig an den launch der 480...

Ein gutes Referenzdesign kühlt die 100 Watt mehr, die eh selten anliegen, locker weg. Die Mehrkosten sind vernachlässigbar und leise werden wohl beide Karten sein, also die 1080 sowie Vega. Ein neues Netzteil wegen 100 Watt unterschied sind ebenfalls eher unrealistisch.
 
AMD schafft es also mit deutlicher Verspätung etwas aufzuschließen...
Der große Wurf ist das noch nicht.
Mit Glück drückt es ein bisschen die nVidia Preise, dann hätte Vega seine Schuldigkeit getan...
 
Mein Gefühl verdeutigt mir, das Vega einfach Polaris ist mit nem 4096 Shader Chip wobei der Boost nochmal paar Mhz hochgeschraubt wurde... Dafür haben sie dann mehr als ein Jahr gebraucht.
 
Bei mir werkelt auch eine MSI 1070 gemütlich vor sich hin. Bin aber auch bereit bei Bedarf zu AMD-Produkte zu greifen. Fanatische Markentreue ist mir fremd.
 
es ist also genau das eingetreten was amd schon vor monaten auf einer präsentation gezeigt/gesagt hat
und zwar das vega am anfang noch nicht ganz oben im enthusiasten bereich mithalten kann
soll sich angeblich 2018 ändern
 
E1nweg schrieb:
Die Performance von Vega ist imho gut, nicht herausragend und auf 1080ti Niveau, wie von manchen erhofft, aber trotzdem solide.

Die Performance ist beschissen, sorry.
60% mehr Takt als Fiji (Nano), 40% mehr Transistoren, doppelte TDP aber grade so 55% mehr Leistung. Das ist schon nvidia Dustbuster und Thermi Niveau was AMD hier abliefert.
Klar, wenns billig ist kann man es trotzdem kaufen, aber eine gute Karte ist es eben in keinem Fall. Ein Bulldozer der AMD Grafiksparte?
 
Ein Jahr später und nachdem man die Leute Monate lang mit nichtssagenden Mini Präsentationen hergehalten hat, kommt jetzt also eine Karte die mit Glück gerade so die 1080 schlägt und dabei deutlich mehr verbraucht. Na wenn das mal nichts ist....

Da braucht man sich auch nicht wundern, dass die mit Radeon Packs angetanzt kommen. Die scheinen noch das interessanteste hier zu sein. Aber insgesamt scheint dies auf eine größere Enttäuschung herauszulaufen. Naja abwarten, die Hoffnung stirbt bekanntlich zuletzt.
 
HominiLupus schrieb:
Die Performance ist beschissen, sorry.
60% mehr Takt als Fiji (Nano), 40% mehr Transistoren, doppelte TDP aber grade so 55% mehr Leistung. Das ist schon nvidia Dustbuster und Thermi Niveau was AMD hier abliefert.
Klar, wenns billig ist kann man es trotzdem kaufen, aber eine gute Karte ist es eben in keinem Fall. Ein Bulldozer der AMD Grafiksparte?

Richtig, Vega ist der Bulldozer der Grafiksparte und könnte safe Thermi nachahmen :D
 
Bei der TDP Abgabe sollte doch, glaube ich, differenziert werden ob typische TDP oder Maximal Richtwert TDP.
Denn ich glaube, dass die vom Hersteller angegebenen Werte, stets dem maximalen Entsprechen wofür das Hardwareprodukt technisch spezifiert und konstruiert wurde.
Sicher bin ich mir da jedoch nicht.

Die hier wiedergegeben (Datenblatt) Leistungswerte überraschen mich nicht, liegen sie absolut in dem von vielen bereits im Vorfeld geschätzten Werten und Erwartungen zwischen 1070 und 1080(oc).

Ich finde, dass Unternehmen AMD hat soweit das beste für sich rausgehauen, was mit Hinblick auf die wirtschaftliche Gesamtlage, machbar war.

Die Software wurde besser, der Prozessormarkt wieder konkurrenzfähig und bei der GPU startet man im gehobenen Performance Segment.
Das klingt doch schonmal alles andere als Schlecht!

Benötigt der User stehts bei jedem Produktlaunch stehts die höchste Leistung?
Machen da +- ca. 10% den Braten wirklich so richtig Fett?
Ich weiß es nicht sicher, doch würden mehrere Rechner mit Hardware der ungefähren identischen Leistungseinstufung ausgestattet genutzt werden, ohne zu wissen, was wo verbaut ist, denke ich, dass ein erheblicher Anteil, nur unzureichend in der Lage sein wird, sicher begründen zu können, warum es genau auf das ein mehr oder weniger Prozent ankommt.
Ich denke, dass ist weniger die in den Raum gestellte und implimenzierte Einschränkung, sonndern eher einfach Kopf und Geldbeutel Sache.
 
Zurück
Oben