News AMD Fiji mit HBM: Hawaii profitiert nur wenig von mehr Bandbreite

zeedy schrieb:
Naja 50-60%... damit müsste sie ja ca. 40-45% schneller sein als GTX980, ist sie aber nicht.

Es ist eher so, dass die Titan X (sogar @1190MHz) in 1440p etwa 40% schneller ist als 290X.
http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index50.php

Sollte die 390X tatsählich über 50% schneller sein als 290X, dann müsste man eine Titan X schon eher Richtung 1,4GHz prügeln um da mitzuhalten. Die 390X WCE (1050MHz) soll 2x8 Pin haben und wird sich sicher auch etwas übertakten lassen. Von daher macht AMDs Marketingname "King of the hill" für die 390X schon Sinn irgendwie.

ka was HT4U testet aber da limitiert wohl zunehmend nicht die CPU. Da sind die CB Werte realistischer und passen auch zu PCGH. Bei so GPU muss man heute wohl eher 1440p + anschauen.

Siehe:
http://www.pcgameshardware.de/Gefor...60203/News/Arctic-Xtreme-IV-Mod-BIOS-1154063/

Hat man auch schön alle Frequenzen bei.

:) das gilt es zu schlagen. Ich hoffe AMD packt das - bei möglichst viel OC Headroom.

Problem wird eher die Marge sein. Denke in der Herstellung kostet die Karte mehr als die GTX 980 TI, eher sogar mehr als die GTX 980.

Edit:
Ich kann den Test so in der Form auch nicht besonders gut heißen und den muss man eher etwas belächeln, außer der Redakteur weiß wirklich schon mehr - aber auch dann muss man die Luft nicht so "rausnehmen". Eine Kombination mit einem ausführlichen Technikartikel wie sie damals zu GF100 kamen wäre gut, nur lässt da AMD vermutlich selbst kaum was raus.
 
Zuletzt bearbeitet:
Also, gaaanz viel mit meiner Glaskugel zwischen den Zeilen gelesen: knapp 100% (+/-10%) mehr Leistung als die 280X.
Damit würde die Karte im Bereich bzw. über der Titan X stehen. Würde mir schonmal sehr gefallen.

So genug Konjunktiv für heute. 😁
 
HardRockDude schrieb:
Genau deswegen ist der ganze Bericht zwecklos, er nützt einfach nichts. Schlimmer noch, er entschleunigt die Erwartungen und hinterlässt dem Laien das Gefühl, die nächste Radeon-Generation wird lahm. Er nimmt das Interesse an der Technik, anstatt welches zu geben. Die Technik bietet vielmehr als nur das Argument der Bandbreite. Deswegen ist das hier meiner Meinung nach kein guter Ansatz für eine Seite, die von sich eine gewisse Technikaffinität behauptet.

Eben! Schaut euch doch nur die Überschrift an
"AMD Fiji mit HBM: Hawaii profitiert nur wenig von mehr Bandbreite"
Was hat denn bitte Fiji damit zu tun? Der Artikel hätte heißen müssen "Hawaii profitiert wenig von höherem Speichertakt", denn das ist die einzige Aussage dieses Artikels.

Anstatt das nächste AMD Bashing von Computerbase zu provozieren, wie wäre es mit einem sinnvollen Artikel? Eben über HBM? 99% der CB Leser verstehen doch darunter nur "mehr GB/s", und CB bestätigt das auch noch "Jo, bringt fast nix". Ich wette, sogar die Redakteure kennen sich mit der Thematik nicht wirklich gut aus.
 
Zeit für sinnvolles ist ja nicht da wurde uns erklärt wenn sachliche Kritik geäussert wird. Und dann sowas - wenigstens die Überschrift würde ich ändern um es weniger peinlich zu machen und Fiji und HBM raus nehmen.
 
Verstehe nicht was dieser Test uns sagen soll.

Die Hawaii Architektur hat einen GDDR5 Speicher der sich übertakten lässt und in einem Parcour der offenbar nicht den Speicher ins Bandbreiten limit treibt bringt diese Übertaktung sogut wie nichts.

Das sagt nichts über HBM noch über die 390(X) Architektur o.ä. aus....
Eigentlich hätte man es sich komplett sparen können, ich dachte bei der Überschrift irgendwie das AMD sich diesbezüglich geäußert hätte.

Ich vermisse Artikel über HBM, kritische Artikel über Themen wie Gameworks und nicht so ein Ding wo AMD nach 4 Wochen die Gameworks Geschichte optimieren konnte.
Die Artikel mutieren immer mehr zu Computerbild oder PC Welt Niveau.
 
Zuletzt bearbeitet:
Mysterion schrieb:
Das Hawaii von der enormen Speicherbandbreite nicht wirklich profitiert, sieht man schon bei der Sapphire R9 290X Tri-X OC 8GB. Die Karte hat sogar mehr Bandbreite als die Titan X.

Die eigentlichen Probleme waren und sind die ineffiziente DX11 API und beschissene AMD-Treiber.

Ja so extrem beschissen, ich kann gar nicht spielen.:rolleyes:
Dieser angebliche Directx11 Overhead den AMD in den Treibern bisher nur teils angepackt hat, ist eher eine absolute Ausnahme in ein paar Spielen. ( 5 oder 6 Spiele) und dort auch nur in Settings die die Grafikkarte kaum fordern.

Nebenbei mal gesagt:

Der Testaufbau mit der Überschrift ist ja mal völlig daneben und wieso testet man keine 4K Settings? Dafür wird Fijii sicherlich prädestiniert sein.
Clickbait?
 
Zuletzt bearbeitet:
HamHeRo schrieb:
Dass die AMD Karten bei höheren Auflösungen aufholen. Woran das wohl liegt ? Richtig, an der Speicherbandbreite.

Nein.... dazu müsstest du dir die Architektur näher betrachten... Bandbreite alleine ist es nicht und auch nicht so stark darin beteiligt wie einige meinen.

Frontend/Backend *Tipp
 
Krautmaster schrieb:
ka was HT4U testet aber da limitiert wohl zunehmend nicht die CPU. Da sind die CB Werte realistischer und passen auch zu PCGH. Bei so GPU muss man heute wohl eher 1440p + anschauen.

Siehe:
http://www.pcgameshardware.de/Gefor...60203/News/Arctic-Xtreme-IV-Mod-BIOS-1154063/
nicht dein Ernst...was hat mehr Aussagekraft über die Leistungsfähigkeit von GPUs, ein Performancerating aus 26 Spielen oder ein 4K Crysis 3 Benchmark @unspielbar?
Oh geil, mit ner 1550MHz Titan X habe ich in Crysis 3 10 fps mehr als mit einer 1250MHz 290X, also 28 statt 18 fps? Hm ja dann ist die Titanx wohl generell 55% schneller... :lol:
 
@zeedy

wieso? besser als bei HT4U... immerhin Benchmarks bei denen die GPU Limitiert, aber nicht durch VRam, ausgebremst wird (siehe R9 290X 4Gb / 8GB). Spiegelt genau die GPU Leistung wieder und deckt sich mit den CB Ergebnissen auch bei kleineren Auflösungen.
Ist doch auch kein Problem wenn die TITAn X OC mit 1200€ oft ~60-80% schneller ist als eine R9 290X auf 1000 Mhz.

Da doch genau dasselbe bei HT4U:
http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index20.php

Soll ja kein R9 290X vs TITAN X Vergleich sein sondern eher aufzeigen wo eine R9 390X OC hin muss.

Ändert ja nichts an der eher dürftigen Qualität des Tests heute hier ;)
 
Zuletzt bearbeitet:
Mysterion schrieb:
Das Hawaii von der enormen Speicherbandbreite nicht wirklich profitiert, sieht man schon bei der Sapphire R9 290X Tri-X OC 8GB. Die Karte hat sogar mehr Bandbreite als die Titan X.

Die eigentlichen Probleme waren und sind die ineffiziente DX11 API und beschissene AMD-Treiber.

DirectX 11 hat damit garnix zu tun. Es sind die grotten schlechten Treiber von AMD.
 
Makso schrieb:
So ein Schwachsinn was CB hier produziert!
Ihr hab null Ahnung wie HBM Speicher an Fiji angebunden ist und vergleicht Äpfel mit Birnen!
Das ist wiedermal typisch AMD Bashing, nicht mehr nicht weniger!

Das muss CB auch nicht. Die 3 wichtigsten Parameter von Speicher welche die Performance maßgeblich bestimmen sind 1. Größe, 2. Bandbreite und 3. Latenz(en). Um die Performance beurteilen zu können spielt es keine Rolle, wie diese technisch realisiert werden, es reicht aus die Performance die dabei rauskommt einfach zu messen. Es ist ausdauerndem schon einiges über HBM bekannt, so arbeiten die 1024 Datenleitungen z.B. nach dem DDR-Prinzip, aber mit deutlich verringerten Takt zur Energieeinsparung. Damit ist die Anbindung (Layer 1 und 2 nach OSI) von HBM und DDR mit dem gleichen Prinzip realisiert.
Sogar über die Optimierungen im Speicherkontoroller sind schon Infos bekannt, mit denen z.B. die Latenz verbessert werden soll. Diese überschreiten aber meinen technischen Horizont.

Siehe einfach hier: http://www.memcon.com/pdfs/proceedings2014/NET104.pdf
 
yui schrieb:
DirectX 11 hat damit garnix zu tun. Es sind die grotten schlechten Treiber von AMD.

Ach so ein Unsinn. Nur weil die Grüne Gurkentruppe es geschafft hat, dass sich kaum ein Spieleentwickler mehr Mühe gibt irgendwas zu optimieren, und die hintenrum jeden Fehler mit extra Treibern ausmerzen. Oder noch besser: Gleich zur Sabotage greifen, wie bei Project Cars mit ihrem NVidia Turf Effects.
 
Schatten123 schrieb:
Es ist immer wieder witzig wie die AMD Kinder hier trollen, haten und Cb Flamen. Immer wieder ne super Abendlektüre X)

Also entschuldigung, aber selbst Hobbytestern dürfte klar sein, dass 2560x1600+ FXAA nicht die Vorteile einer höheren Bandbreite herausstreicht.
Zumal die R9 290x in viele Games auch in 4K @ max flüssige Frameraten zaubert.
Es wäre das mindeste gewesen die Settings mal ordentlich anzuziehen und MSAA drauzuklatschen.

2560x1600 mit MSAA und 2160x3840 dann evtl. ohne MSAA.

yui schrieb:
DirectX 11 hat damit garnix zu tun. Es sind die grotten schlechten Treiber von AMD.

Sagt jemand mit Nvidia Logo im Avatar, uiyuiyui.
 
nun, ich habe nur noch nvidia grafikkarten, weil ich gern die 50€ mehr ausgebe für ein wesentlich besseres spielgefühl.

aber vielleicht ist das ja genau der ansatz von HBM: endlich diese elenden nachladeruckler von AMD zu beseitigen. vielleicht wird es was großes, gemessen am spielgefühl und nicht den fps
 
Magnus Hildir schrieb:
...wollte diesen monat eine neue graka kaufen. ich denke ich warte noch ab.

Geht mir genau so, ich fürchte am Ende wirds dann doch eine 3,5GB GTX970, wobei mehr als 300 Euro für so ein beschnittenes Produkt nicht angemessen sind.

Würde schon längst ne R9 290 im Tower haben, die wird bereits ab 260 Euro verkauft, leider schluckt die für mein Netzteil zuviel Strom und tauschen will ich das auch nicht extra...
 
promashup schrieb:
Wenn 1/4 mehr Speicherbandbreite 2-4% mehr Leistung bringt, bringt optimistisch gerechnet eine Verdopplung durch HBM 8-16% mehr Leistung, was für meine Begriffe ein gutes Stück ist, wohl gemerkt nur durch das Mehr an Speicherbandbreite.

Leider kann man das so nicht behaupten, denn die Erhöhung der Speicherbandbreite bringt nur solange etwas bis die GPU an ihre Grenze ist. Wenn der Speicher nicht mehr limitiert steigt auch die Leistung nicht weiter.
 
ragnarok666 schrieb:
Damit ist die Anbindung (Layer 1 und 2 nach OSI) von HBM und DDR mit dem gleichen Prinzip realisiert.
Dies sollte man wirklich nur im Kontext mit Netzwerkprotokolen verwenden. Speicheranbindungen werden anders beschrieben. Die Anbindung ist völlig anders realisiert, doch die Adressierung erfolgt fast identisch. HBM ist mit TSV angebunden und jeder 128-bit Controller kann separat refresht werden und unterschiedlicih takten. HBM hat Dual Command und jeweils separate Kanäle für den Column und Row Zugriff. Es gibt noch andere Unterschiede.
 
kisser schrieb:
An der API liegt es nicht, wie man an Nvidia oder auch AMDs Leistung unter OpenGL sieht.

Wo ist überhaupt VRAM-Bandbreite wichtig? Beim Antialiasing, wo für die Berechnung eines (finalen) einzelnen Pixels die umliegenden einbezogen werden. Nicht umsonst war schon immer das Anti-Aliasing die Domäne der High-End-Karten. Dort ist die Bandbreitenlimitierung! Die Berechnung erfolgt auf der GPU in den ROPs, das könnte dann die nächste Limitierung darstellen, womit man dann nicht beim VRAM oder der Bandbreite wären, sondern in der GPU. Kurzum: ein Test mit hohem Antialiasing würde zeigen, ob HBM das hält, was es verspricht. Alle anderen Tests sind doch für die Katz...
 
Zurück
Oben