News AMD Fiji mit HBM: Hawaii profitiert nur wenig von mehr Bandbreite

Vor allem weil ja die FCAT Messungen und Frametimemessungen die letzten Jahre und Monate das genaue Gegenteil von tnoay´s Behauptungen zeigen.
Aber er wirds schon wissen.

a wirklich alle OpenGL spiele bei der GTX 560TI besser laufen

Dem kann ich nicht zustimmen, es war damals eher ausgeglichen.

http://ht4u.net/reviews/2012/never_settle_amd_radeon-7000-serie_mit_neuen_spielen_und_treiber/index6.php

In Brink, dem letzten OpenGL Spiel das ich hatte, war AMD schneller.
Jedenfalls gibt es fast keine OpenGL Spiele mehr.
 
Zuletzt bearbeitet:
smilefaker schrieb:
Ach komm, langsam wird es albern. Ich habe mit keiner GPU reproduzierbar jemals Nachladeruckler gehabt, vielleicht solltest du mal prüfen, ob dein System oder die Karte selbst defekt ist, oder nicht richtig funktionieren.

Es könnte tatsächlich an etwas anderem liegen. Ich habe mit meinem ASROCK Board bei meinem i5 2400 und HD 7950 immer wieder kleinere Ruckler gehabt, egal ob es im Spiel war oder bei Youtube-Videos, abseits von dem ganzen aber lief alles super. Nach dem wechsel auf ein ASUS Board (das ASROCK wird für meine Freundin in Zukunft genutzt) sind diese Nachlade-Ruckler verschwunden (war verdammt nervig in World of Tanks).
Weder überhitzte die CPU vorher, noch Überhitzte die Grafikkarte. RAM, Kühler, HDD saßen auch alle einwandfrei.
Ich nahm daher an, dass entweder die Grafikkarte nicht richtig mit dem Board harmonierte, der PCI-e Slot Probleme machte (da die gleichen Probleme auch mit anderen Karten auftraten) oder die CPU nicht ordentlich im Sockel saß, wobei ich das 4x überprüft habe.
Ergänzung ()

smilefaker schrieb:
Dem kann ich nicht zustimmen, es war damals eher ausgeglichen.
In Brink, dem letzten OpenGL Spiel das ich hatte, war AMD schneller.
Jedenfalls gibt es fast keine OpenGL Spiele mehr.

Keine Ahnung, ich nutze keine OpenGL Spiele mehr, kann nur berichten von meinen Erfahrungen mit meinem alten System. Gibt ja kaum bis gar keine OpenGL spiele mehr, wie du sagtest. Die alten OpenGL Spiele, die meine Freundin auf dem Rechner spielt, laufen alle mit der GTX 560TI besser, warum, kann ich aber nicht sagen, Einstellungen sind jeweils gleich, Treiberseitig ebenso, die HD 6950 tut sich da einfach schwer. Kann natürlich auch an den älteren Spielen liegen, MDK2 ist ja jetzt kein neuerer Titel mehr :D
 
Hui, hier brennt ja die Hütte :D

Nai schrieb:
Deshalb wäre es m.E. sinnvoller gewesen den Speicher zu untertakten um zu untersuchen, wie stark man den Speichertakt und damit die DRAM-Bandbreite reduzieren muss, bevor die Performance deutlich abfällt, also die Speicherbandbreite stark limitiert.
Hab' ich mir beim Lesen auch gedacht.
@CB
Könntet ihr das vielleicht nachholen? Wurde ja schon von mehreren Seiten angemerkt.

Daedal schrieb:
Hohe Bandbreite ist nur das Sahnehäubchen bei HBM - die Kernfeatures und Verwendung hat mal Nvidia zusammengefasst, siehe hier:
http://www.planet3dnow.de/vbulletin...-mit-Zukunft?p=5009947&viewfull=1#post5009947
Sehr interessante Infos, danke! Hatte HBM vorher auch nur hauptsächlich mit Einsparungen bei Chipfläche, Controller und Energieverbrauch sowie höherer Bandbreite dank breiterem SI im Kopf. Das mit den Latenzen wusste ich z.B. gar nicht.

Spike78 schrieb:
Also Spiele sind das Eine, nur, wie sieht es mit anderen Disziplinen aus? Es soll Leute geben, die mit ihrer Karte nicht nur daddeln, sondern z.B. damit Speck braten und/oder GPGPU-Anwendungen fahren.. Wie sähe denn die Performance aus bei BOINC, BTC-Mining mit SHA-256/Scrypt usw? Ich hatte mal einen Miner mit diversen 280x in Betrieb, und da hat das Rumschrauben am Speichertakt massiv (!) die Hashraten nach oben gepusht.
Das finde ich ebenfalls eine berechtigte Kritik. Vor allem weiß ich nicht, was das "Fiji mit HBM" im Titel soll. Im Prinzip sagt der Test doch nur aus, dass bei einer Hawaii-Karte eine erhöhte Bandbreite nur in Spielen(!) unter 1440p und mit quasi nichtexistenter Kantenglättung nur wenig bringt.

GPGPU fehlt also komplett und am GPU-Limit ist "1440p mit FXAA" sicher nicht. Mit der Meinung bin ich scheinbar auch nicht alleine:
HamHeRo schrieb:
Was habt ihr denn bei den Settings erwartet ?

Testet doch mal in 4K mit reduzierten Grafikdetails oder mit etwas älteren Spielen in 4K und trefft dann mal eine Aussage bzgl. Skalierung der Speicherbandbreite und ob HBM was bringen würde.

Zu guter letzt semi-OT:
Wolfsrabe schrieb:
So oder so wären die größten Gewinner von HBM die APUs, wenn sie denn überhaupt zukünftig HBM bekommen sollten.
Ja, APUs dürften mit der verringerten Latenz und der deutlich gesteigerten Bandbreite durch HBM richtig abgehen - das interessiert mich auch ziemlich brennend :)
 
Naja, so einen Äpfel-mit-Birnen-Vergleich ohne überhaupt auf die technischen Hintergründe einzugehen hätte man sich sparen können.
 
AMD hat sich seit langer Zeit darauf festgelegt, die Frametimes zu verbessern, dafür die Absoluten Fps nicht sonderlich zu beachten, das genaue Gegenteil macht Nvidia mit den Treibern.
Seit dem Umschwung bzw. seit Lisa Su CEO ist, geht AMD wieder den weg, die Absoluten Fps zu pushen, da es wichtiger erscheint, als bessere Frametimes. Was man bei den ganzen Tests ja entsprechend sieht... eben nur kurz, wegen der 970 gab es mal einige Benches mit Frametimes, aber das ebbt auch wieder ab, wie man ebenfalls sieht. ( Ausnahmen PCGH wie mir scheint... und die zeigen das genaue Gegenteil, im Durchschnitt durchweg die besseren Frametimes bei AMD, jüngst Attila von PCGH, was im Zusammenhang mit dem 970 Debakel entstand. Zwischen 980, 970, 290x wo die 290x die besseren hat ) Auch gewisse Kommentare von Testern, gerade mit FCAT, lassen erkenntlich werden, dass es nicht gern gemacht wird.

Und @Krautmaster
Mich würde das Spielgefühl des "anderen Ufers" mal wieder interessieren, seit meiner letzten Nvidia Karte (8800GTS) sind schon paar Jährchen + AMD Karten vergangen.

Das Thema hatten wir im Dez/Jan schon gehabt... wie oft willst du es noch hören :-) ?
Gibt keinerlei Unterschied zwischen beiden, außer wenn der Speicher halt vollläuft, was aber normal ist.
 
Zuletzt bearbeitet:
Ist heute nix los in der Welt sodass die Redaktionen sich Geschwafel aus den Fingern saugen müssen? Die Süddeutsche beschwert sich dass man in einer Werbung bayrischer sein könnte ("Senft" statt "Senf") und CB orakelt über HBM anhand althergebrachtem.

Warum solllte eine neue Generation eine Technik gleich voll ausschöpfen? Das halte ich für einen übertriebenen Anspruch.
 
eruanno schrieb:
Woher hast du das? Ich glaube nicht, dass die Latenz merklich besser wird, schon gar nicht um 40%

Sie wird auch nicht besser.
Die einzige sinnvolle Einheit zum Messen von Latenzen ist die Zeit und da sind alle DRAM mehr oder minder gleich, weil die DRAM-Zellen technisch einfach nicht schneller werden können.
 
BlauX schrieb:
AMD hat sich seit langer Zeit darauf festgelegt, die Frametimes zu verbessern, dafür die Absoluten Fps nicht sonderlich zu beachten, das genaue Gegenteil macht Nvidia mit den Treibern.
.

Dazu hätte ich aber gerne mal einen Beleg, mir ist davon nichts bekannt.
 
ONH schrieb:
Daher wäre ich anderst vorgegengen.
285 genommen, diese im Verhältnis zur erwartete, Leistung der 390x im ram und shadertakt beschnitten und dann das ganze an einem 1k Monitor getestet, dann könnte man Aussagen machen, aber so ne denke nicht dass ihr da die verhältnisse einer 390x nachstellen könnt.

Dem schließe ich mich vollkommen an. Bei der Modellierung bzw. Miniaturisierung kommt es nämlich darauf an, möglichst gleiche Verhältnisse zu schaffen. Und dann kann man die Resultate entsprechend hochskalieren.
 
@smilefaker

wie gesagt, ich weiß es nicht, ich weiß nur dass mein System iO ist und manches Spiel schlimmer ist als ein anderes. ZB FC4 is extrem. ;) ich hatte die Karte schon in 3 Systemen drin und ja, gut möglich dass es bei NV keinen Deut besser oder schlechter ist ^^ deswegen schrieb ich ja dass es mich interessiert.
Frametimes usw in allen Ehren (gibst von so alten Karten eh quasi nicht), ich seh sowas gern lieber selbst am Schirm und mache Vsync meist aus. Das ist vollkommen unabhängig von deinen AMD Präferenzen - wenn die R9 390X rockt greif ich gern wieder zu AMD wie die letzten zwei mal auch. Kann ja sein, dass GCN derweil deutlich runder laufen als die alten 4D Shader bei meiner AMD.
 
ragnarok666 schrieb:
Im Netz sind Folien von Hynix dazu. Hab noch mal nachgelesen: Von DDR4 zu HBM2 soll sich die Latenz um 60% verringern.

Siehe Seite 13: http://www.memcon.com/pdfs/proceedings2014/NET104.pdf
Der Vergleich DDR4 zu HBM2 ist sehr interessant. Besonderen Dank für diesen Link, den kannte ich noch nicht.

Auf Seite 25 und 26 wird wunderbar gezeigt woduch die Latenz so enorm verringert werden kann. Und auch wie die Auslastung enorm effizienter wird.

HBM_Latenz_Legacy.JPG HBM_Latenz_PseudoMode.JPG

Auch durch das unabhängige Addressieren der Rows und Colums reduziert sich die Latenz deutlich, ebenso wie dadurch, das HBM priorisieren kann, sprich Teile des Spiechers direkt unabhängig refreshen kann.
 
BlauX schrieb:
Das Thema hatten wir im Dez/Jan schon gehabt... wie oft willst du es noch hören :-) ?
Gibt keinerlei Unterschied zwischen beiden, außer wenn der Speicher halt vollläuft, was aber normal ist.

vielleicht leg ich mir ja ne GTX 980 TI und R9 390(X) zu und geb dir dann Bescheid welche runder läuft ^^
P.S.: Persönlich wäre mir die R9 390X 8Gb lieber + kleiner Waküblock (oder auch zwei just 4 fun, ich dreh da nicht jeden € um....) . Im Zweifel für mehr VRam
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Wo ist überhaupt VRAM-Bandbreite wichtig? Beim Antialiasing, wo für die Berechnung eines (finalen) einzelnen Pixels die umliegenden einbezogen werden.

Nein, das AA braucht kaum zusätzliche Bandbreite. Das Beschreiben/Lesen der zusätzlichen Backbuffer fällt nicht so sehr ins Gewicht, wie die Leistung der ROPs.
 
smilefaker schrieb:
Dazu hätte ich aber gerne mal einen Beleg, mir ist davon nichts bekannt.

Weniger ein Statement, als die Erkenntnis seit der 5850/6970 - siehe dir zu dieser Zeit mal alle Benches an, und vergleiche diese dann von Treiber zu Treiber bei jeder Grafikkarte bis eben Heute Hawaii. Da reichen die FCAT Video Benches, bzw. jene die Frametimes verwenden. Um nicht Tage durchzulesen. Solltest du aber kennen (bist ja nen alter Hase ;-) ), daher sollte das schnell gehen.

Da sieht man sofort, ganz deutlich sogar bei all den Games, die Heute die selbe Engine verwenden, wie stark sich das dort verbessert hat, die FPS zugewinne je Treiber waren aber stets immer recht moderat, nicht sonderlich hoch, aber das Spielgefühl selbst, trotz weniger fps mit dem jeweiligen Kontrahenten in der Klasse ähnlich.
Hier ein kleiner Sammler zum Vergleichen ( damals wo das anfing ) und natürlich die Sache mit Frame Pacing spielt auch eine Rolle dabei. (Zeitpunkt )
 
Zuletzt bearbeitet:
Hito schrieb:
Was HBM bringt, außer in Spielen:
a) Kostenvorteile = billigere Grafikkarten

Zu Beginn ganz sicher nicht. Neue, aufwändige Technologien in geringer Produktionszahl sind immer sehr teuer.
 
Bezüglich Nachladeruckler:

Kann ich nicht bestätigen.
Aber eine kleine Geschichte dazu hab ich:
Meinen PC hatte ich Ende 2012 zusammengebaut, zu der Zeit werkelte noch eine HD7870 Ghz Edition von Gigabyte in meinem Rechner.
In den darauffolgenden Wochen ist mir bei Spec Ops: The Line aufgefallen, dass mein Bild in Abständen von ungefähr 2 Sekunden immer kurz hängenblieb, Freunde dachten schon ich spinne.
Lösung des Problems war das Gigabyte Tool Easy Tune 5, nachdem ich dieses beendet hatte, war der Bildfluss gleichmäßig und weich.
Ich denke mal die Ruckler kamen dadurch zustande, dass das Tool die Daten der Sensoren refresht hatte, Temperaturen z.B.
 
@Krautmaster du vergleichst also eine sehr stark übertaktete Titanx mit einer 290X @default und behauptest allen Ernstes "ja siehste die Titan ist 50-80% schneller". Sorry aber dich kann ich echt nicht mehr ernst nehmen. Nur "vorsichtiges" AMD Bashing und Faktenverzerrung von dir, während so ein Scheissdreck wie Gameworks in pCars schön geredet wird, egal wie absurd es ist. Fällt es dir wirklich so schwer neutral zu sein?
 
Hito schrieb:
a) Kostenvorteile = billigere Grafikkarten
b) Stromersparnisse - wobei das vernachlässigt werden kann

Da muss ich Dich wohl ein bisschen Enttäuschen.
a) Billiger wird es keinesfalls:
-Jeder DRAM Die wird grösser wegen der makroskopischen TSV Kanäle für die 1024 IO‘s
-Jeder DRAM Die enthält ECC, 8+1 bit
-für 4 Dram Die gibt es noch einen 5 Interface Die dazu
-TSV Prozess Kosten und Ausbeuteverluste durchs Stapeln
-Extra Silicon-Interposer-Kosten
-es gibt weniger Anbieter
b) Stromersparnisse sind aus Marketinggründen überschätzt, tatsächlich gehen ca. 1/3 des Strom fürs Interface drauf.
An dem kann ich sparen, aber Silicon Interposer sind zwar kurz aber leider hoch kapazitiv. Den Rest verbraucht
eigentliche Speichercore - pro genutzter Bandbreite wird gleich viel Strom verbraucht wie DDR4 o. GDDR5.
Evtl. steigt der Core-Energieverbrauch leicht durch das ECC bit.
Warum soll wohl die 390X eine Water Cooled Edition haben?
 
Anstatt eines Ausblicks auf die künftige 390(X) soll der Artikel imho eher zeigen, was von der 380(X) zu erwarten ist. Da es garantiert ein NDA gibt, wurde ein Weg gesucht die bereits vorliegende/bekannte Testergebnisse zu veröffnentlich ohne das NDA zu verletzen. Daher ist der Artikel auch leicht "komisch". Zumindest nach meinem Kenntnisstand soll auch die 380er HBM bekommen, siehe: http://www.kitguru.net/components/g...opers-confirm-radeon-r9-380x-with-hbm-memory/ - oder wurde das bisher widerlegt?
 
Bei über 30 PC mit AMD-GPU, welche ich 'betreue', treten keine 'Nachladeruckler' oder dergleichen auf. Fünf der besagten Rechner gehören mir und werden regelmäßig genutzt. Ohne belastbare Quellen kann man das Geschwurbel mancher Foristen hier somit wohl als Nonsense abtun.

Zum Thema: Ähnlich der 'Partnerkartensimulation' in einem der letzten Tests fraglich, ob die CB-Methode hier so praktikabel ist.
 
Zurück
Oben