Test Radeon RX Vega 64 Strix im Test: Asus Vorserie schlägt das Referenzdesign deutlich

Leli196 schrieb:
Du scheinst nicht wirklich Ahnung zu haben. Nvidia sorgt für massenweise und vor allem unnötige Tessellation in Spielen:

ist die Welt so einfach? Was wenn jetzt AMDs Karten 100% mehr Tessellationsleistung hätten? Wären die dann in diesen ganzen Gameworks Titeln eben 50% schneller? Ich frag mich warum das AMD nicht macht ...

Ich mein klar, irgend einen Sinn wirds schon haben Nvidia Effekte für Nvidia Hardware zu bringen, gerade um seine Marktanteile und Dominanz zu sichern. Das würde AMD genauso tun hätten se den Markt auf ihrer Seite.
Ergänzung ()

rg88 schrieb:
Das ist keine Frage des Geldes, sondern der Zeit die man dafür brauchen würde. An Vega wurde 5 Jahre gearbeitet. Was man aus der überarbeiteten Architektur rausholen kann sieht man wahrscheinlich erst bei 7nm

hm ob sich das wirklich so viel gib?. Bei selbem Takt gibt sichs ja herzlich wenig Stand jetzt. Und die Vega Architektur ist seit >1 Jahr fertig und auch seit da wird intensivst am Treiber gearbeitet. Die Hardware kam halt spät auf den Markt da zu teuer, aber am Treiber bastelt man sicher schon vergleichsweise lang.

Auch sagte ja AMD dass ein Großteil der zusätzlichen Transistoren für den höheren Takt draufgehen.
http://www.pcgameshardware.de/Vega-...n-RX-Vega-GPU-Takt-Transistoren-DSBR-1234572/

Das sind 3,6 Mrd. beziehungsweise 40 Prozent Transistoren mehr als beim letzten High-End-Ableger Fiji, der im älteren 28-nm-Fertigungsverfahren 8,9 Mrd. Transistoren auf 596 mm² untergebracht hat. Auf seinem Tech Day verriet AMD, dass die meisten der zusätzlichen Transistoren nicht etwa für die architektonischen Änderungen benötigt wurden, sondern zum Erreichen der höheren Taktraten.

Vega macht sicher einiges anders, aber hat so derbe Flaschenhälse dass die Mehrleistung durch Architektur meistens verpufft. Und das auch mit einem nicht mehr so taufrischen Treiber wie viele meinen. Klar kann man von Zuwächsen durch diesen ausgehen, auch weit mehr als bei der Konkurrenz, aber das zieht sich schnell so lang dass man direkt ne neue GPU kaufen kann.

Bei Fiji hat auch jeder wunder weiß was erwartet und nach >2 Jahren muss ich sagen dass sich das kaum was gibt. Die Karte unwesentlich zugelegt hat.

Die frage ist ob AMD die Ressourcen hat den Chip in optimierter 14nm neu aufzulegen. Also nicht nur de Fertigung sondern auch den Chip selbst überarbeiten. Vermutlich muss man aber auf Navi warten und das ist so lang hin dass ne ganze GPU Gen in den Zeitraum rein passt.
 
Zuletzt bearbeitet:
rg88 schrieb:
Das kannst du noch so oft wiederholen, es bleibt weiterhin falsch.
Die mögliche Range ist bei Freesync weitaus größer, sowohl nach oben als auch nach unten. Mann sollte halt nicht blind kaufen und einen Monitor raussuchen, der auch eine große Freesync-Range hat, wenn man das haben will.
Die "größere" Range würde mich da doch interessieren, bei welchen Monitoren dies geboten wird.
 
Krautmaster schrieb:
Auch sagte ja AMD dass ein Großteil der zusätzlichen Transistoren für den höheren Takt draufgehen.

Es sind auch noch viele andere Detailverbesserungen gekommen, die ja wegen fehlenden Treibern immer noch nicht genutzt werden. Vll ist auch in der Hardware der Hund drin und deshalb läufts nicht. Man weiß es nicht.
Diese "extra Transistoren" kann man aber auch nicht per CopyPaste einfach mal irgendwo hinkopieren und schon läuft das Ding 500MHz schneller. Da steckt sicher mehr dahinter ;)

Ich verteidige die Entscheidung zu HBM(2) auch nicht. War meiner Meinung nach auch ein Eigentor. In der Theorie Spitze, in der Praxis eben nur solala.
Das ist wohl eher dem geschuldet, dass man versucht mit einer Archiktektur alles abzudecken von Spielen bis zu HPC.
In der professionellen Ausführung sind die Vega-Chips ja super, also, wenn man sie nicht für Bild sondern Berechnungen benutzt.
Ergänzung ()

SyntaX schrieb:
Die "größere" Range würde mich da doch interessieren, bei welchen Monitoren dies geboten wird.

Die englische Wiki hat da eine tolle Auflistung:
https://en.wikipedia.org/wiki/FreeSync
Die größte Range ist: 48 Hz-240 Hz
Die Untergrenze bei anderen ist gerade mal bei 30Hz.

Das maximal mögliche wäre: 9–240 Hz, aber mal ehrlich, wer will schon unter 30Hz noch diese Dia-Show anschauen.
 
Zuletzt bearbeitet:
Sie haben anscheinend vor 6 Monaten nach Jahren doch fast eingelenkt... Jetzt steht nur noch ne riesen EULA davor, es wirklich zu öffnen. Aber immerhin ein Schritt in die richtige Richtung imo.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ist die Welt so einfach? Was wenn jetzt AMDs Karten 100% mehr Tessellationsleistung hätten? Wären die dann in diesen ganzen Gameworks Titeln eben 50% schneller? Ich frag mich warum das AMD nicht macht ...
AMD weigert sich glaube ich diese eindeutig sinnfreien Tessellationlevels zu unterstützen und daran Leistung zu verschwenden. Natürlich würden ihre GPUs schneller, wenn diese besser Tessellation berechnen könnten - aber nichtsdestotrotz wären alle GPUs schneller, wenn Nvidia nicht den Markt manipulieren würde.
Und ja, man kann da durchaus von Manipulation sprechen, alles andere wäre euphemistisch.
 
Krautmaster schrieb:
ist die Welt so einfach? Was wenn jetzt AMDs Karten 100% mehr Tessellationsleistung hätten? Wären die dann in diesen ganzen Gameworks Titeln eben 50% schneller? Ich frag mich warum das AMD nicht macht ...
50% wohl nicht, aber sicherlich um einige %.
Zudem stellt man bei AMD idR den Tressellationfaktor auf 8X oder16X und gut ist. Zeigt mir mal ein Spiel bei dem dies wirklich einen unterschied macht(!)

rg88 schrieb:
...Die englische Wiki hat da eine tolle Auflistung:
https://en.wikipedia.org/wiki/FreeSync
Die größte Range ist: 48 Hz-240 Hz
Die Untergrenze bei anderen ist gerade mal bei 30Hz.

Das maximal mögliche wäre: 9–240 Hz, aber mal ehrlich, wer will schon unter 30Hz noch diese Dia-Show anschauen.
Nicht vergessen: FreeSync ist die wirkliche Display refresh rate! Die Angabe bei GSync Monitoren hat damit aber nichts zu tun.
Um überhaupt vergleichen zu können müsste man bei FreeSync eigentlich immer den LFC Wert angeben.
 
Colindo schrieb:
Wie gut funktioniert eigentlich die Einstellung "AMD Optimiert"? Fährt die die Tesselationsstufe immer soweit herunter, dass man noch keine Verschlechterung sieht? Oder ist die sehr konservativ?

Tesselation musst du in den meisten Fällen mit der Lupe suchen.
 
janeeisklar schrieb:
Nicht vergessen: FreeSync ist die wirkliche Display refresh rate! Die Angabe bei GSync Monitoren hat damit aber nichts zu tun.
Um überhaupt vergleichen zu können müsste man bei FreeSync eigentlich immer den LFC Wert angeben.

Das lässt Freesync eigentlich nur noch besser da stehen, oder?
 
rg88 schrieb:
Das kannst du noch so oft wiederholen, es bleibt weiterhin falsch.
Die mögliche Range ist bei Freesync weitaus größer, sowohl nach oben als auch nach unten. Mann sollte halt nicht blind kaufen und einen Monitor raussuchen, der auch eine große Freesync-Range hat, wenn man das haben will.

Zeigen, nicht behaupten...

https://geizhals.de/?cat=monlcd19wi...z=&dist=&mail=&fcols=11992&sort=t&bl1_id=1000
[Edit]
Nebenbei muss man ebenfalls darauf achten, dass der Monitor LFC kann. Und wenn man aus Versehen, weil jemand schreibt: "Freesync ist viel besser als G-Sync" einen Monitor ohne LFC kauft, der dann die übliche Miniumrange von 48Hz oder sogar mehr besitzt, hat man überhaupt keine Freude mehr.
Bei G-Sync ist LFC und ULMB (wers braucht) IMMER mit an Board.

Ich bin kein Freund proprietärer Soft- und Hardware, aber Freesync 1 ist definitiv nicht generell besser als G-Sync nur weil es "frei" ist.
 
Zuletzt bearbeitet: (Nachtrag)
Leli196 schrieb:
Du scheinst nicht wirklich Ahnung zu haben. Nvidia sorgt für massenweise und vor allem unnötige Tessellation in Spielen:
https://www.youtube.com/watch?v=O7fA_JC_R5s
https://www.youtube.com/watch?v=IYL07c74Jr4

Das ist echt übel - Leute die Nvidia kritisieren weil diese dreckige Methoden anwenden mit der AFD zu vergleichen.

Da werden Beweise genannt; kennst du den Unterschied zwischen einer Meinung und Beweisen?

Schon klar das NVidia enorm viel Tesselation reinballert und AMD so viel Performance verliert. Dennoch bleibt meine (berechtigte) Frage: Was kann NVidia dafür das AMD Tesselation nicht so gut kann wie NVidia?
 
Pisaro schrieb:
Schon klar das NVidia enorm viel Tesselation reinballert und AMD so viel Performance verliert. Dennoch bleibt meine (berechtigte) Frage: Was kann NVidia dafür das AMD Tesselation nicht so gut kann wie NVidia?

Berechtigt?
Das ist doch eine absolut überflüssige Frage und das weißt du auch selber.
 
Pisaro, nvidia kann vor allem etwas dafür, dass die 780ti das nicht so gut kann wie die 9x0 Serie. Und sie haben es trotzdem gemacht und erst nach dem shitstorm nen treiber fix für das ehemalige teure Flaggschiff gebracht...
Und da es keinen nennenswerten, d.h. SICHTBAREN Unterschied macht, aber ALLE Karten, auch die 9x0, dadurch weniger fps generieren, ist das scheiße für die Kunden. Denn man muss teurere Produkte unnötigerweise und früher kaufen, als wenn es dieses Unfug damals nicht gegeben hätte...
 
Zuletzt bearbeitet:
Oh man... gut, ich versuche es nochmal: Natürlich ist es eine Frechheit was NVidia da abzieht, da gibt es kein wenn und aber! Dennoch kann NVidia nichts dafür das die AMD Karten das nicht packen. Sie können was dafür das so hohe Tesselation eingestellt ist, aber sie können nichts dafür das die AMD Karten da so extrem einbrechen, denn das liegt an den AMD Karten selbst.
 
Du solltest erstmal die von dir zitierten Videos anschauen und drüber nachdenken was damit gemeint ist bevor du hier weiter schreibst.
 
rg88 schrieb:
das meinte ich ja: Normal Sapphire, aber bei den 480ern warens die MSI die besser waren, da hats Sapphire mal verbockt. Das ist aber eher die Ausnahme als die Regel. Dass ASUS mal eine gute AMD-Karte ab Werk gebracht hätte wäre mir neu ;)

Ab Werk nicht. Aber die RX480 von Asus mit einer angepassten Lüfterkurve war quasi perfekt und ich meine mich zu erinnern dass sie dafür ein Tool mitgeben.

Pisaro schrieb:
Oh man... gut, ich versuche es nochmal: Natürlich ist es eine Frechheit was NVidia da abzieht, da gibt es kein wenn und aber! Dennoch kann NVidia nichts dafür das die AMD Karten das nicht packen. Sie können was dafür das so hohe Tesselation eingestellt ist, aber sie können nichts dafür das die AMD Karten da so extrem einbrechen, denn das liegt an den AMD Karten selbst.

Natürlich kann NV nichts für AMDs Tesselation"schwäche".
Wobei die (berechtigte) Frage ist, ob eine Schwäche in einer nicht mehr sichtbaren Tesselationstufe wirklich eine Schwäche ist? ;)

Im Endeffekt ist es so, als ob Ferrari anfangen würde, sich von Pirelli Reifen zu besorgen, die mit den Standardreifen identisch sind, nur gegen Nagelstiche extra sicher sind und dann vor dem Rennen Nägel auf der Strecke verteilt und sich am Ende auf die Pressekonferenz stellt und mit voller Überzeugung sagt: "Wir können ja nichts dafür, dass die anderen so eine Schwäche bezüglich Nagelstichen haben".
Ist es wirklich eine Schwäche des Gegners oder ist es ein unfaires Vor-/Nachteil-Verhältnis?
 
Zuletzt bearbeitet:
Vor allem sollte man bedenken, dass sogar die nagelstich sicheren Reifen an der Menge der Nagel leiden.
 
psYcho-edgE schrieb:
Im Endeffekt ist es so, als ob Ferrari anfangen würde, sich von Pirelli Reifen zu besorgen, die mit den Standardreifen identisch sind, nur gegen Nagelstiche extra sicher sind und dann vor dem Rennen Nägel auf der Strecke verteilt und sich am Ende auf die Pressekonferenz stellt und mit voller Überzeugung sagt: "Wir können ja nichts dafür, dass die anderen so eine Schwäche bezüglich Nagelstichen haben".
Ist es wirklich eine Schwäche des Gegners oder ist es ein unfaires Vor-/Nachteil-Verhältnis?
Es ist zwar nur ein Vergleich, aber wie ich finde ein ziemlich guter. Ferrari würde natürlich disqualifiziert werden und die Fans wären von so einer unlauteren Methode enttäuscht. Ferrari hätte das Rennen manipuliert. Sie haben ihre Reifen quasi auf ein bestimmtes Problem abgestimmt und manipulieren dann die Strecke so, dass nur Reifen die gegen dieses Problem resistent sind fahren können.

Genauso macht es Nvidia auch. Es ist eigentlich völlig überflüssig so viel Tessellation zu haben, aber da die eigenen aktuellen GPUs so gut damit umgehen können (was möglicherweise noch nicht einmal Zufall sondern pure Absicht ist) im Vergleich zu alten GPUs und denen von AMD, sorgt man mithilfe von Gameworks dafür, dass in den Spielen überflüssig viel Tessellation steckt. Der Spieler hat dadurch keinen Vorteil, denn es werden alle GPUs langsamer - die von AMD aber stärker, weshalb Nvidia erfolgreich manipuliert hat. Leider machen die Kunden das auch noch mit und freuen sich darüber, dass ihre Nvidia-GPU besser ist.
 
Achim_Anders schrieb:
Pisaro, nvidia kann vor allem etwas dafür, dass die 780ti das nicht so gut kann wie die 9x0 Serie. Und sie haben es trotzdem gemacht und erst nach dem shitstorm nen treiber fix für das ehemalige teure Flaggschiff gebracht...
Und da es keinen nennenswerten, d.h. SICHTBAREN Unterschied macht, aber ALLE Karten, auch die 9x0, dadurch weniger fps generieren, ist das scheiße für die Kunden. Denn man muss teurere Produkte unnötigerweise und früher kaufen, als wenn es dieses Unfug damals nicht gegeben hätte...


Bingo so funktioniert GameWorks aber man kann es auch als natürliche Evolution sehen immerhin versuchen sie die Hardware auf ihr Maximum in Software zu optimieren die Ansätze sind halt verschieden darüber wird man allerdings immer streiten können ;)

Z.b ist schon abzusehen das Nvidia in der Zukunft sehr viel Machine Learned infering in die Engines pushen wird wollen ;)

Das nächste Ziel ist aber erstmal Final Fantasy 15 bis zum überkochen vollzuknallen und so weit weg von den Konsolen zu reoptimieren ;)
 
Zuletzt bearbeitet:
Zurück
Oben