Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

@Cru_N_cher

Musst nicht kotzen, hab erst dieses Jahr meinen Stromanbieter gewechselt, Prämie kassiert und auf Ökostrom umgestellt. Zahle nun weniger und könnte mir theoretisch einen Mehrverbrauch von 100 Watt locker leisten. Atomkraftwerk im Kleiderschrank konnte ich auch abbauen.

Manche Leute. ^^
 
Zuletzt bearbeitet:
Cru_N_cher schrieb:
Ihr seht einfach immer nur die Balken (Penislänge) aber weniger die Möglichkeiten der Umsetzung besserer Grafik mit stabilierem output Ergebnis.

Wenn i unverschämt rate, dann ist sowas eine Marketingkampagne.
Also der Schmatz über Frametimes Sync und so Zeug.
Zählen tut doch trotzdem am meisten immer noch die Balkenlänge.
Nur wenns andere natürlich auch passt! Also microruckler und so Späße!

E1nweg schrieb:
Zahle nun weniger und könnte mir theoretisch eine Mehrverbrauch von 100 Watt locker leisten.

Bei mir kommt der Strom vom Dach, ich hab genug. Frage is nur ob ich die Wakü auf meiner 7970 auch auf die Vega draufbekomme.:D
 
Gschwenni schrieb:
Wenn i unverschämt rate, dann ist sowas eine Marketingkampagne.
Also der Schmatz über Frametimes Sync und so Zeug.
Zählen tut doch trotzdem am meisten immer noch die Balkenlänge.
Nur wenns andere natürlich auch passt! Also microruckler und so Späße!



Bei mir kommt der Strom vom Dach, ich hab genug. Frage is nur ob ich die Wakü auf meiner 7970 auch auf die Vega draufbekomme.:D

Und das ist eben total abstruß für Pro Gamer sollte Balkenlänge kein Gewicht tragen sondern Stabilität und Latenz nur das verleit ihnen gegenüber ihrem Competitor einen wirtschaftlichen Vorteil und da ist VEGA bestens für gerüstet.

Psyhchovisual Blind tests machen absolut sinn das ganze hat auch nicht irgend jemand bei AMD gepusht sondern eine sehr bekannte persönlichkeit und zwar dieser nette Mensch https://twitter.com/scottwasson

Auch sollten Pro Gamer von OC soweit wie möglich abstand nehmen.

Und FreeSync vs G-sync vergleich ist auch legitim immerhin brauch Nvidia einen extra FPGA und zusätzlichen Framebuffer um es zu managen und der nutzen dessen ist immernoch nicht 100% bekannt da Properitäre IP.

Freesync ist günstiger und nicht Properitär und für jeden Implementer verständlich Nvidias ist eine Lizenz black box desen Kosten dem Endnutzer aufgedrückt werden und dessen wirklicher nutzen und Aufwand fragwürdig erscheint in relation zu dessen kosten.

Blind tests sind dann ideal um tiefer zu schauen allerdings sind das alles bis jetzt sehr kleine testgruppen von denen wir sprechen.

Bis jetzt nicht wirklich Scientific das ganze wobei es mal an der Zeit wäre da eine richtige Studie zu machen.
 
Zuletzt bearbeitet:
Ein Großteil der Kommentare hier sind mal wieder wie fast immer komplett nutzlos, sinnbefreit, ohne jegliches Nachdenken verfasst oder auch nur der übliche lächerliche Fanboy Krieg gepaart mit ignoranten Menschen die einfach unfähig oder schlich nicht Willens sind eine produktive Diskussion zu führen, geschweige denn andere Meinungen auch mal Sinnvoll zu hinterfragen und sich mit der gegenseitigen Kritik auseinanderzusetzten.

Aber hier ist ja leider bei gefühlt 90% der Leute nicht mal das primitivste Grundverständnis für Sinn und Zweck einer produktiven Diskussion vorhanden. Alle kacken sich gegenseitig an, setzten sich nicht wirklich mit den Argumenten auseinander und beharren stur auf ihren positionen.

Aber was will man schon auf einem Internetforum erwarten, wo es bei vielen mit Selbstverständlichkeit gang und gebe ist anderen die eigene Meinung aufzudrücken, bzw ihnen keine eigene zuzugestehen und anders Denkende einfach zu beleidigen und als bekloppt hinzustellen. Dazu noch die ganzen Fanboys und Trolle und es macht leider immer weniger Spaß hier überhaupt noch zu lesen oder gar mal was zu schreiben.

Wenn man sich dann allerdings mal die wenigen, aber durchaus vorhandenen, guten Posts durchliest, dann kommt man ganz schnell drauf das es durchaus möglich ist sich darüber zu unterhalten ohne sich in die Haare zu kriegen.
Und dann sieht man das bei denen die sich wirklich primär nur für die Technik, P/L usw. interessieren, dann die meisten davon eigentlich durchgängig der Meinung sind, das gerade aufgrund der aktuellen Faktenlage von einem Flop bis zur Knaller GPU noch so zeinlich alles drin ist.

Es ist momentan halt noch ein riesen Lottospiel um Verbesserungen durch Treiber, noch nicht aktivierte Features, Optimierung der Treiber auf Spiele und die Optimierung der Spiele durch die Programmierer auf die neue Technik. Und ob es dann alles überhaupt wirklich funktionieren wird, wenn ja was da reel an Zuwachs noch zu erwarten ist und vor allem wie lange man dann noch darauf warten muss, steht halt alles noch in den Sternen.

Und bei den vernüftigen Leuten hier gibt es eigentlich nur den Unterschied das eine Seite die kommenden Zuwächse und das fertige (gereifte) Produkt eher positiv sehen / drauf hoffen. Und dann halt die da mit flauem Bauchgefühl eher negative Erwartungen haben und drauf hoffen das sie sich irren, da ein Effekt wie Ryzen ihn auf Intel hatte halt im GPU Bereich auch sehr schön wäre.

Wie dann jeder im Eneffekt für sich das fertige Produkt bewertet, aufgrund des eigenen persönlichen Anforderungsprofils, der eigenen Präferenzen und Ansprüchen an P/L usw. und wie stark dann die einzelnen Punkte persönlich gewertet sind und ob dann ein Kauf für einen Sinn macht, sollte dann doch auch bitte jedem selber überlassen werden.

Ein gutes Beispiel ist da ja z.B der Stromverbrauch. Das ist ein so subjektiver Punkt bei der persönlichen Bewertung der halt eben extrem von dem eigenen Nutzungsverhalten usw. abhängt das es halt für den einen total unwichtig ist für den anderen dann aber einen entscheidenen Punkt darstellt. Anstelle dann aber einfach die andere Position zu akzeptieren geht dann das übliche Spiel hier los.

Das dann auch den wenigen Usern, die hier fundiert und immer möglichst objektiv ihre Sichtweisen darlegen, regelmäßig vorgeworfen wird sie wären Fanboys, würden XY schlecht machen, oder ihen lächerlicherweise angekreidet wird sie schrieben zu viel und zu lange Beiträge, sagt doch schon einiges über die Forengemeinschaft. Dabei bringen sie die wenigen gehaltvollen Posts die es überhaupt noch lohneswert machen hier zu lesen.

Daher lohnt es einfach nicht den entsprechenden Leuten die hier nur Mist posten überhaupt auch nur Beachtung zu schenken, da ist meistens eh schon alles zu spät.
 
Zuletzt bearbeitet:
So jetzt werfe ich mal in den Raum so lange der Minig wahn weiter geht so lange gibt es sowieso keine GPUs egal welche. Des wegen werde ich dieses ja nix kaufen egal von wem und nächstes jahr nicht gleich. Ich meine ihr könnt gerne die übertriebenen Mondpreise zahlen.

Also warte lieber auf die Vega Nano und schlage dann nächstes Jahr zu.
 
Ich bin sehr auf die frametimes gespannt.
NVIDIA hat direkt mit dem ersten treiber Top-Ergebnisse abgeliefert (GTX1070)
http://www.guru3d.com/articles-pages/geforce-gtx-1070-fcat-frametime-anaysis-review,1.html

FURY die zu damaligen Zeitpunkt deutlich länger auf dem markt war, katastrophal.
Die reinste ruckelorgie, oftmals 50ms oder mehr !
Ruckler nimmt man ab ca 20-25ms wahr.

Ich bin auch sehr gespannt wie sich die Architektur im Overhead-limit verhält.

Beispiel (GTA5)

https://www.youtube.com/watch?v=C9QhOOGm_2k
GTX1060 dreht kreise um RX480 obwohl die karte besser ausgelastet wird als r9 390 unter DX11!
Das ist zu wenig, viel zu wenig.


LINK
https://www.hardwareluxx.de/communi...ne-performance-im-dx11-cpu-limit-1089150.html
LINK
http://forums.guru3d.com/showthread.php?t=398858

Die Geometrie-leistung ist hoffentlich enorm verbessert worden, sonst drohen ähnliche ergebnisse:

https://www.youtube.com/watch?v=FRClciMJNZ4

(Hitman AMD Evolved)



Für mich macht Vega momentan keinen konstanten eindruck. KEINE KONSTANZ , KEIN KAUF !
Die Architektur ist neu und wurde "laut AMD" stark überarbeitet , daher hoffe ich das es zu solchen extremen ausreissern bzw. FPS-schwankungen nicht mehr kommt. Ich kenne die Architekturschwächen von AMD leider sehr gut und bleibe daher skeptisch. :(

Ich wünsche AMD jedenfalls viel erfolg mit der neuen Generation!


PS: Es sind "blöde" Grafikkarten, hört bitte auf zu streiten. Leute, leute
 
Zuletzt bearbeitet:
Etwas, was mir bei der hilfreichen tabellarischen Gegenüberstellung der Leistungsdaten von aktuellen und alten AMD und nVidia Oberklasse GPUs des PC Per Artikels noch einmal aufgefallen ist und hier noch nicht wirklich diskutiert wurde, ist der Speichertakt ("memory clock") und wieso die 64er Vega RX da um 290 MHz ab Werk höher getaktet ist als die 56er?

Hoffentlich kann man da selber Hand anlegen und wird die 56er durch Speicher- und GPU Übertaktung idealerweise irgendwie auf 1890 MHz Niveau bei Bedarf bringen können oder - noch besser - setzen hoffentlich da einige Custom-Modelle an diese künstliche/nicht nachvollziehbare Beschneidung aufzuheben und bringen - ähnlich wie etwa bei der vorbildlichen RX 470 8GB Sapphire Ausgabe - den gleichen Speichertakt wie beim 64er Vega RX Vollausbau.

So gesehen herrscht nicht nur beim GPU Boost Takt Nachholbedarf/größeres OC-Potential bei der 56er Vega RX, die wegen 8 NCUs weniger eigentlich auch taktfreudiger als der Vollausbau ausfallen könnte.

Naja, ich bin jedenfalls auf die 56er Custom Modelle (insbesondere von Sapphire, XFX und HIS, evt. noch Powercolor, die oft versuchen das maximale aus den GPUs an Rohleistung heraus zu kitzeln, hoffentlich aber nicht mit unterdimensionierter oder zu lauter Kühlleistung) mächtig gespannt, auch wenn man darauf wohl noch bis Anfang/Mitte September warten dürfte, bis sich da ein Gesamtbild ergibt.

Bitte @ Wolfgang/ComputerBase:

Es wäre super, wenn neben den üblichen drei großen Mainstream-GPU-Boardpartnern (ASUS, MSI und Gigabyte), die AMD und nVidia bedienen, auch alle kleinen, AMD-exklusiven GPU-Boardpartner (also Sapphire, XFX, HIS und Powercolor) von Euch angeschrieben werden könnten mit Bitte um Zusendung von einem oder mehreren RX Vega-Testexemplaren :)!

Leider sind HIS Karten bei Euch schon lange nicht mehr getestet worden (analog zu PNY und KFA2 etwa im nVidia Boardpartner Lager) und gerade den kleineren, evt. um die Existenz kämpfenden Boardpartnern täte es gut, falls diese mehr Aufmerksamkeit bekämen für u.U. sehr stimmige Custom-Modelle.
 
Zuletzt bearbeitet:
Cru_N_cher schrieb:
Und FreeSync vs G-sync vergleich ist auch legitim immerhin brauch Nvidia einen extra FPGA und zusätzlichen Framebuffer um es zu managen und der nutzen dessen ist immernoch nicht 100% bekannt da Properitäre IP.

Freesync ist günstiger und nicht Properitär und für jeden Implementer verständlich Nvidias ist eine Lizenz black box desen Kosten dem Endnutzer aufgedrückt werden und dessen wirklicher nutzen und Aufwand fragwürdig erscheint in relation zu dessen kosten.
Scheinbar macht NVIDIA solche Sachen, um damit Geld zu verdienen, was dann beispielsweise wieder in R&D fließen kann.
 
klöbner schrieb:
"Confirmed by Gamer's Nexus Vega FE, and RX (as of now,) DO NOT have Tile Based Rasterization enabled. This was the single biggest advancement in Maxwell/Pascal. So Performance of RX Vega could jump up A LOT. According to GN AMD confirmed TBR will be operational by the time RX Vega is released. SO... at this point ignore all performance numbers as they will be different at launch."

DonL_ schrieb:
Wenn es kein Potential hat, warum hat es Nvidia und warum versucht sich jetzt AMD daran?

Da es bis jetzt noch gar nicht aktiviert ist, scheint es damit wohl die größten Implementierungsschwierigkeiten zu geben und man ist bei AMD wohl noch weit weg von optimaler Implementierung.

TBR != TBR. Die Implementation bei AMD und Nvidia wird sich wahrscheinlich nicht insignifikant unterscheiden. Die Geschwindigkeitsvorteile kommen stark auf die zugrunde liegende Architektur an. Ist der Chip durch die Bandbreite und Füllrate begrenzt kann TBR viel bringen. Liegen die Schwächen des Chips woanders, wird der Vorteil durch TBR Richtung Null tendieren.

AMD gibt wie gesagt selbst je nach Game 5-30% Einsparung an gerenderten Daten an. NICHT 5-30% mehr Leistung. Wie sich die Einsparungen auf die Gamingperformance auswirken, wird man sehn - wird aber sicher nicht 1:1 in Mehrleistung münden.

HBCC haben auch alle als den Leistungsbringer gehyped. Dann sind die Leute draufgekommen, dass das Feature eh schon bei der Vega FE aktiv ist, und dort offensichtlich nicht viel hilft. Eh klar - wenn Speicherbandbreite aufgrund HBM en masse vorhanden ist, was soll ein Feature, das den Speicherdurchsatz verringert, viel bringen?


Schon vergessen, dass AMD wiederholt, u.a. via dem Preis, die 1080 anpeilt? Spezifischer spricht man bei der höher taktenden wassergekühlten Variante von Leistung auf Niveau der 1080. Die luftgekühlte müsste sich wohl irgendwo auf 1070-1080er Niveau einpendeln. Was exakt den Benchmarks der luftgekühlten FE entspricht.

Wie schon so oft gesagt - da kommt nix mehr.
 
Mcr-King schrieb:
... werfe ich mal in den Raum so lange der Minig wahn weiter geht so lange gibt es sowieso keine GPUs egal welche. Des wegen werde ich dieses ja nix kaufen egal von wem und nächstes jahr nicht gleich. Ich meine ihr könnt gerne die übertriebenen Mondpreise zahlen.
Also warte lieber auf die Vega Nano und schlage dann nächstes Jahr zu.

Naja, wenn Du Dir eine Vega RX Nano anschaffen wollen würdest, wäre die beste Option direkt nach ersten unabhängigen Test (am gleichen Tag) zu bestellen, denn wer weiss wie lange der Mining-Boom und die damit verbundenen exorbitant angestiegenen GPU Preise noch anhalten werden?

Falls die RX Vega Karten gut zum Mining taugen sollten und man ein für sich passendes RX Vega Modell im Visier hat, sollte man schnellstmöglich zugreifen/bestellen bevor die 1.Charge vergriffen ist und sich deswegen und wegen Nachfrage durch Krypto-Miner die Preise dann rasend schnell nach oben schrauben könnten, zumindest wäre das wohl meine Vorgehensweise.

Somit gilt das auch für die anderen RX Vega GPUs, nicht nur die Nano Ausgabe, denn die Krypto-Miner wissen vorher auch nicht wie geeignet die RX Vega GPUs für das Mining sind und AMD wird jedenfalls (im Gegenteil wohl zu einigen Hardwareseiten/-magazinen, die mehr Clicks generieren wollen und denen Gamer eher egal sind) einen Teufel tun, da irgendwelche Daten vor oder zum Marktstart heraus zu geben.

Natürlich kann man ausharren, aber dass sich dann die Lage verbessern wird und AMD/SK Hynix mit der Produktion/Fertigung nachkommen bei dauerhaft hoher Nachfrage durch Mining-Unternehmen ist sehr fraglich.

Sicherlich keine einfache Entscheidung, zumal ich eigentlich auch plane bis Februar oder März/Erscheinen der nVidia Volta GPUs und erhofftem weiteren Preisrutsch bei den AMD/RTG Karten mit dem Kauf zu warten.

Angeblich soll die Paket-Strategie ja auch gegen anfängliche Großeinkäufe von Mining-Firmen abzielen, auch wenn ich - mit Ausnahme des Paketaufpreises für die wassergekühlte Version - das nicht wirklich so erkenne/einschätze.
 
Zuletzt bearbeitet:
Paar mythen aufräumen

1 komplett umgebaute shader arch
amd hat nichts an den shader clustern verändert
Es sind immer noch 64 shadercluster mit anderen Namen und 64 shader
heißt das amd hardwareseitig 64 threads mit 64shader aufgaben verarbeiten kann, ich verweise auf api limit
2. tiled base rendering?
Das bringt quasi keine Leistung reduziert aber den Speicherbedarf
3. HBCC Technik
Die es möglich macht das Daten von ram vram nicht mehr unnötig hin her kopiert wird reduziert CPu last muss aber vom Game explizit unterstützt werden
4. vukan/dx12 wird richten
Mit welcher engine??? derzeit ist main api in allen engine dx11 Warum?
Es gibt aufgrund der Masse an shadern weniger Auslastung der gpu bei zu geringen CPu Takt ich vermute bei 1080p etwa min 4,4ghz 1,8-2,0 ipc auf einen Kern. Was einen intel ci7 7700k bedeutet und dann ist nicht gesichert das die vollen shader 4096 genutzt werden oft sind es die Hälfte, lediglich hbm Speicher verdanken wir bessere Performance als die polaris gpu (band-breite ist höher)
5.Der Treiber wird 30% bringen
AMD Treiber werden gut etwa 5-10% bringen das reicht aber kaum aus um eine gtx 1080 zu überflügeln
Lösung ist takt rauf. Was dann zu den problem führt das die GPu am limit läuft
4096 shaderauf 1,6ghz scheinen recht Strom-hungrig zu sein.


Zur Erklärung warum nvidia shader Anzahl kaum eine rolle spielen und sogar die Leistung erhöhen und bei amd das Gegenteil ist
nvidia Ansatz ist ein software renderer

nvidia unterstützt optional (pascal fermi und älter) hard und software rendere der die drawcalls last auf alle cpu Kerne in einen PC verteilt
Der Hardware rendere funktioniert nach dx11 Vorgabe wo Entwickler bis zu 192 threads auf die shader einzeln verarbeiten kann weil aber dx11 abwärtskompatible ist gibt es einen fallback modus wo ein Thread die drawcalls verarbeitet
Und hier ist das limit die ein Kern CPu takt Leistung neben der ipc
Unter dx9 ist max clockspeed und hoher ipc Trumpf sieht man an Krücken wie starcraft 2 und co
nvidia kann diese last wahlweise auf auf alle Kerne verteilen schlechte CPu ipc oder eben auf einen thread Pinnen hohe IPC amd kann das nicht.

amd ein hardware renderer.
Hier ist amd limitiert an der api benutzt der Entwickler klar dx11 singlethread hilft nur Takt der CPu hoch damit die gpu ausgelastet wird
Und da sind grenzen, klar man könnte Effekte dazutun (aa af und post prozessing) aber die reine renderleistung wird dadurch limitiert
Das ändert sich rapide wenn der Entwickler dx12 /vulkan verwendet dann kann auch eine Monster mit 4096 shader voll ausgelastet werden wo dann nur noch Takt der gpu das limit ist.

quasi ist amd in der Zwickmühle die bessere zukunftsorientierte Technik hängt den Software renderer von Nvidia hinterher.
Weil eben viel noch als main api dx11 verwenden.
Dabei mache ich den Entwicklern keinen Vorwurf sie orientieren sich am Markt
nvidia dx11 gpu ~80% amd dx12 gpu 20%
Nvidia kann bisher kein echtes dx12 das liegt aber an MS selber weil diese die specs so schwammig Festgelegt haben das fast alle dx11 gpu dx12 können.
bei amd gcn stimmt das bei nvidia gpu ab fermi gf100 stimmt das nicht
Werbewirksam dx12 auf der Packung aber funktioniert nur in feature lvl dx11 was quasi keine CPu Entlastung bedeutet
pascal gp10x kann fast alle features
Vulkan indessen reduziert wirklich die cpu last und wäre die perfekte api für die Zukunft. Nachteil diese wird kaum in anderen engines genutz außer unity source und idtech
also wo die Unterstützung von den anderen
cryengine
snodrop engine
frostbyte engine (obwohl da es möglich wäre weil mantle der Vorgänger war)
dunia engine
unreal engine 4 (möglich wird derzeit implementiert)
dawn engine
usw
alle haben als main api dx11

Wenn die Entwicklerbasis nicht auf die Technik ausgerichtet ist muss eben amd ihre gpu danach designen.

Fazit vega ist fiji mit 1,6ghz GPU clock und man merkt an knapp 400w verbrauch das der chip am limit getaktet ist.
Und das ist die mit wakü, die luftkü kommt auf die 1,2-1,5ghz je nach Kühlung
Fertigungsvorteile wirds kaum geben vielleicht reduziert das mal den verbrauch von 300w auf 250w

vega ist sehr schlechte news für gamer jetzt kann nvidia gv106 (2016 gp106 =gtx1060 260€ oder 2010 gf106 gts450~80-100€) als gtx 1180 ab 500€ verkaufen
​Wenn die Leistungssteigerung von nvidia auf volta stimmen.

nvidia hat extrem die preise angezogen das konnten die nur weil amd mit gcn völlig falsch orientiert haben.
Sie habe auf multithread games gehofft was die CPu mit mehr Kernen voll auslastet, geworden ist main thread 1 limitiert folge ist amd gpu hadern an cpu limit.
nvidia hat drauf reagiert mit einen software renderer. also ist nvidia Treiber das gelungen was amd seit Jahren nicht kann.
 
Zuletzt bearbeitet:
Was mich eher interessieren würde ist warum die Vega mit 12,7TFLOPs nicht die 1080TI mit max 11.5 TFLOPs schlägt, haben Sie bei der Entwicklung von VEGA die Auslastungsoptimierung von Polaris nicht mit einflließen lassen? das ganze klingt wieder so als wenn die Architektur das seit Anbeginn herrschenden Problem der schlechten Auslastung der Shader nicht lösen konnte.

Wenn das nicht schaffbar ist dann gibt es nur zwei Möglichkeiten entweder man Kickt den Chefdesigner raus und lässt mal einen Ran der wirklich Ahnung davon hat ala Jim Keller (siehe CPU) oder man fängt von 0 an und Entwickelt eine Effizientere GPU Architektur (man hat ja bei den CPUs Intels Core i Architektur als Vorbild genommen hätte man vielleicht auch bei den GPUs Nvidia als Vorbild nehmen sollen ...)

Der Spruch ein Totes Pferd reitet man nicht trifft es hier wohl ganz gut, mehr Stromverbrauch bei bescheidener Leistung im Prinzip hat man eine Karte mit knapp 13TFLOPs die die Effizienz einer 8,8TFLOPs Karte hat und das bei einer deutlich höheren Leistungsaufnahme der Karte bei Stock.

Bei aller Liebe da kann man einfach nichts schön reden, mag sein das die Karte noch nicht optimiert ist aber man kann stark bezweifeln das die Karte jemals eine 1080Ti (im Vollausbau) schlagen wird, für mich ist NCU in der jetzigen Form ein rohrkrepierer da er die stärkste Schwäche (Auslastung der Shader) nicht beheben konnte (aus meiner Sicht wäre dies das wichtigste Augenmerk gewesen bei einer Weiter/neu Entwicklung).
 
Zuletzt bearbeitet:
Ohne sich jetzt durch die tausenden Kommentare gewühlt zu haben, hier mal meinen Senf dazu:

Ich bin schon etwas enttäuscht und habe mir mehr erwartet, die ganzen Architekturverbesserungen und die "Pionierarbeit" bei neuen Technologien wie dem HBCC haben sich anscheinend nicht ausgezahlt. Bei der (anscheinenden) Leistung und dem Stromverbrauch hätte sich ein doppelter Polaris / Fiji-Shrink fast eher angeboten wie mir scheint. Mit Vega muss ich also meinen Ausflug in grüne Gefilde nicht vorzeitig beenden, meine 980 Ti ist mit 1500MHz etwa so schnell / leicht schneller wie eine 1070 und damit wohl mehr oder weniger zwischen RX Vega 56 und 64, dafür muss ich dann kein Geld hinlegen.

Aber mir reicht die 980 Ti auch, da ich nur in 1080p spiele und ein neuer Monitor erst mit einer neuen GPU geplant war (da ich das freie FreeSync unterstützen möchte, wäre hier natürlich Vega die Karte geworden).

Eventuell muss AMD die GCN Architektur endgültig über Bord werfen und statt neuer Iterationen mal einen Cut machen, Raja hat in anderen Unternehmen gezeigt, dass er ein fähiger GPU-Designer ist und hat gerade im Mobil-Bereich viel Erfahrung mit Optimierungen im Verbrauchsbereich und Techniken wie TBR sammeln können. Hoffe er kann die GCN-Architektur mit Navi grundsanieren oder man hat ihm größeren Spielraum gegeben als bei Vega. Ich werde das Gefühl nicht los, Polaris und Vega haben noch mit den Management-Altlasten der Pre-Lisa-Su/Bulldozer-Zeit zu kämpfen. Aber wie sagt man so schön, entscheidend ist auf'm Platz und wenn AMD grad nicht mit absolutem High End konkurrieren kann, dafür aber Preis/Leistung die GTX 1080 in die Schranken weist, stört mich das als Kunde sicherlich auch nicht. Man hat nur mehr erwartet und nach dem Poor Volta bashing den Mund wohl etwas zu voll genommen....
 
Zuletzt bearbeitet:
@Benji18

VEGA ist ein aufgebohrter Fiji.
AMD hat die bessere Hardware, welche aber zu sehr von der Software abhängig ist und nur sehr wenige Spieleschmieden als Unterstützer hat. Hier ist Nvidia einfach viel zu stark vertreten, da muss AMD ansetzen, denn es bringt die beste Hardware nix, wenn die Software damit nicht umgehen kann.

Und genau DA liegt der Wurm begraben.
AMD hat gute und interessante Ansätze, es scheitert halt an der Unterstützung. Hier würde eine Kooperation mit Nvidia was bringen, wenn beide am gleichen Strang ziehen, geht da was voran aber das wird nicht passieren.
 
Wird nicht passieren weil amd Ansatz designt ist was was bringen würde wenn alle engine auf natives dx12 umstellen
oder eben vulkan
Was sich durchsetz hängt stark von der Software umgebung ab
Aktuell
wird dx11 als Standard verwendet
und solange die großen 5 das nicht tun ubisoft activision EA bethesda 2k
wird sich an DX12 status nichts ändern
​mir wäre vulkan als standard am liebsten.
 
dafür aber Preis/Leistung die GTX 1080 in die Schranken weist, stört mich das als Kunde sicherlich auch nicht.
....wie schon so oft in diesem Thread erwähnt, sollte das aber die Kunden stören, denn
a) GP104 ist eben nur die Mittelklasse
b) GP104 konnte von nVidia zu High-End Preisen verkauft werden durch fehlende Konkurrenz
c) GP104 ist die die Grafikkarte aus der letzten Saison

was bleibt also?

nVidia kann entweder die Preise von GTX10X0 auf das ursprüngliche Niveau senken und nimmt damit AMD jeden Wind aus dem Segel bei gleichzeitig immer noch besserer Effizienz und höherer Gewinn-Marge.
Oder, nVidias neue Generation kommt und wird wieder preislich eine Stufe heraufgesetzt und AMD kann wieder nicht mehr mithalten - der Abverkauf von Pascal wäre dann verheerend für AMD da diese dann günstiger, effizienter und vermutlich sogar noch leistungsfähiger wären.
Alles in allem keine gute Situation für Kunden oder AMD.

Für AMD bleibt die Hoffnung das der Mining-Hype bleibt und deshalb alles gekauft wird was raus kommt.

AMD hat die bessere Hardware, welche aber zu sehr von der Software abhängig ist und nur sehr wenige Spieleschmieden als Unterstützer hat.
...bessere Hardware zeichnet sich dadurch aus, dass die weniger angepasst werden muss und so gut ist, dass die Softwareschmieden sich gern daran anpassen.
Denkst Du einer von den beiden Gründen stimmt mit der derzeitigen AMD Situation überein?
Warum war denn AMD in der Vergangenheit erfolgreich, weil sie nicht unbedingt die schnellste Grafikkarte hatten, aber eine wettbewerbsfähige zur rechten Zeit, verfügbar und das zu einem guten Preis.
 
Zuletzt bearbeitet:
Mist..

Jetzt hatte ich schon so lange auf Vega gewartet und dann liegt sie eigtl "nur" auf 1080 Niveau. Wäre für meine Zwecke war mehr als völlig ausreichend weil ich nur WoW/Diablo in 3440x1440 spiele aber iwie hatte ich doch mehr erwartet, vor allem der höhere Stromverbrauch und die damit verbundene Abwärme stört mich doch ordentlich.

Dann noch diese "Pakete"..ich zahle 100€ mehr und bekomme dann auf eine Ryzen CPU/Mobo Kombi, 100€ Rabatt und 2 Spiele ich nicht anfassen würde?!

Öhm...Nee..

Ausserdem war der Release ja wohl der Witz schlechthin, wieder 14 Tage vertröstet und noch nicht mal wirklich aussagekräftige Daten/Tests in der Hand.

Was mach ich jetzt...noch mal 2-3 Wochen auf Vega warten oder einfach mit ner 1080 bestellen?!Man AMD,das geht doch alles besser!!
 
rico007 schrieb:
@Benji18

VEGA ist ein aufgebohrter Fiji.

das befürchte ich auch, da Polaris eine weiterentwicklung war, merkt man auch daran das die Polaris mit ~ 5,8TFlops die selbe Leistung hat wie die 1060 mit knapp 5TFLOPS >> hier konnten Sie die Shader endlich wesentlich besser Auslasten was die Gameingperformance bzw. die pro Watt Performance stark erhöht hat. Hier ist der Unterschied deutlich kleiner als bei bei den älteren GNC Chips und daher kann ich dir hier nur zustimmen das Vega ein Fiji refresh mit einigen neuen Features ist und leider nichts weiter :( ...

schade darum denn 12,7TFLOPs die grad mal 8,8TFLOPS schlagen ist eine echt schwache Vorstellung, wäre für AMD besser gewesen Sie hätte VEGA mit Polaris Architektur gemacht dann hätte die Performance wahrscheinlich besser gepasst aber das ist nur Spekulation ich weiß nicht ob die Optimierungen bei der großen Anzahl an Shadern überhaupt so gegriffen hätten.
 
Zuletzt bearbeitet:
syfsyn schrieb:
Paar mythen aufräumen
quasi ist amd in der Zwickmühle die bessere zukunftsorientierte Technik hängt den Software renderer von Nvidia hinterher.
Weil eben viel noch als main api dx11 verwenden.
Dabei mache ich den Entwicklern keinen Vorwurf sie orientieren sich am Markt

Nein die Entwickler haben damit ja nix zu tun sondern die Agile Schlipsträger sind das Problem.

Und hier kann ich Microsofts Entscheidung nicht verstehen RPM aus der Xbox One X quasi zu verbanen das geht mir nicht in den Kopf, was diese Entscheidung beim Design sollte.

Wenn die Entwicklerbasis nicht auf die Technik ausgerichtet ist muss eben amd ihre gpu danach designen.

Das ist seit dem Konsolen Win eben absolut nicht mehr der Fall das haben auch die Agile Schlipsträger begriffen.

Aber du hast schon recht es fehlt hinten und vorne an Killer APPs.

cleric.de schrieb:
Scheinbar macht NVIDIA solche Sachen, um damit Geld zu verdienen, was dann beispielsweise wieder in R&D fließen kann.

Oder einer Exclusiv neu Designten Lederjacke für Jensen.

nvidia hat extrem die preise angezogen das konnten die nur weil amd mit gcn völlig falsch orientiert haben.

Die Hauptschuld liegt bei den Schlipsträgern die haben sich ihr eigenes Grab gebudelt durch ihre Gier.
 
Zuletzt bearbeitet:
Nette Karten. Für dx12 und 4k sind die bestimmt pervers schnell, wie Furys damals schon gezeigt haben.
 
Zurück
Oben