News Radeon R9 390X: Weitere Bilder und Spezifikationen zur Hawaii-Neuauflage

Weiß nicht mehr in welchem Artikel das war, aber "unterstützen" ist hierbei extrem dehnbar. Wenn es einen DX12 Treiber, für Windows 10 gibt, mit dem z.B. eine HD 7970 läuft, so wird sie theoretisch ja bereits unterstützt.

Alles darüber hinaus, sind Sachen die sich Leute hineininterpretieren.
 
Was man hier schon wieder gegen AMD liest da stellen sich einem die Nackenhaare hoch!!!
Nur mal so am Rande:
- AMD GPUS waren schon vor 2 Jahren dx12 fähig. Nvidia kann nicht mal da 11.1
- Die 290 Serie und auch 280er sind ihren damaligen Konkurrenten Voraus. So viel zur zukunftsfähigkeit seitens NVIDIA
- AMD hat tolle Feature die noch nicht mal Maxwell hat wie asynchron Shader wodurch die Leistung in dx12 nochmal ansteigen wird
- Maxwell fehlt komplett Dp Leistung. Da ist es ein Kindrspiel den Verbrauch zu senken.
- Bei voller Auslastung in z.b GPGPU von Maxwell saugt das Teil genau so viel wie eine 290xunf hat dabei nur einen Bruchteil der Rechenleistungen!
- der Abstand zur gtx 980 ist gerade mal 10%
 
Zuletzt bearbeitet:
padd schrieb:
Kaufdatum 24. Apr. 2013 ASUS HD 7970 DCII für 318,66€. Die ist fast genauso gut wie die bald erscheinende 390X :rolleyes:. Da habe ich n guten Kauf gemacht würde ich sagen.

Ich mit meiner HD 7870 aus dem Jahre 2012 auch. Hätte nicht gedacht, dass diese 4 Jahre im Rechner bleibt.
 
@ampre: Meiner Meinung nach ist die fehlende DP-Leistung bzw. Tests mit GPGPU bei einer Gaming-Grafikkarte vollkommen irrelevant, wenn nicht gar ein Fehler von AMD, darauf geachtet zu haben und die Effizienz dafür geopfert zu haben. Denn bei einer Gaming-Grafikkarte wird das überhaupt nicht benötigt!

Mag sein, dass sich das noch ändern wird, im Jahr 2016 mit den ersten vollwertigen DX12-Spielen, aber diese DP-Leistungs-Thematik gibt es bei Gaming-Grafikkarten schon seit Ewigkeiten, und noch heute verstehe ich nicht, warum. Ich würde mal behaupten, dass es für über 95% aller Besitzer einer Gaming-Grafikkarte irrelevant ist.

Und ich hab auch keine Ahnung, was du damit sagen willst:
ampre schrieb:
- der Abstand zur gtx 980 ist gerade mal 10%
Der Abstand von was? Einer R9 290X? In welchem Spiel? Im CPU-Limit? Im Durschnitt nicht, denn da sagt das Internet etwas anderes...

Ich hoffe so, dass AMD mit ihrer R9 300er Reihe + Fury ordentlich was raushaut, damit man nicht ewig die alten Karten bis auf's Blut verteidigen muss. Ich habe selbst eine R9 290X, und ihre Nachteile sind deutlich spürbar, trotz einer Leistung knapp auf Niveau der GTX 980, ohne ein sehr gutes Tausch-Angebot wäre ich wohl bei Nvidia gelandet. Da bringen mir auch keine DX12 Vorteile etwas, die nicht nicht mal ansatzweise erwiesen wurden.
 
Zuletzt bearbeitet:
etoo schrieb:
Es geht ja auch nicht um die PCIe Schnittstelle sondern um den Bus GPU-HBM.
Wenn der Speichertakt nichts ausmacht wieso taktest du dann deine Karte nicht einfach ein bisschen runter?:rolleyes: :)

Es geht um Flaschenhälse. Wenn du 300, 500 oder 800 GB/sek zwischen GPU und GPU-Speicher hast, nützt dir das nichts wenn die von der GPU benötigten Daten in diesem Speicher nicht vorhanden sind, weil er schon mit anderen Daten vollgestopft ist. Dann musst du erstmal alte Daten rauswerfen und neue nachladen, und da ist eben der PCI-Express Bus der Flaschenhals.

Die Frage war ja ob es besser ist viel Speicher zu haben der eventuell 100-200 GB/sek langsamer ist, oder 4GB die dafür schneller sind.

Sephiroth51 schrieb:
Die PCIE Schnittstelle hat bei GDDR5 auch kein starken Einfluss bzw wird es nicht bemerkbar ausgebremst warum sollte sich das beim HBM gleich soviel mehr bemerkbar machen

Solange noch freier Grafikspeicher vorhanden ist nicht. Davon spreche ich aber auch nicht.
 
Zuletzt bearbeitet:
Necareor schrieb:
@ampre: Meiner Meinung nach ist die fehlende DP-Leistung bzw. Tests mit GPGPU bei einer Gaming-Grafikkarte vollkommen irrelevant, wenn nicht gar ein Fehler von AMD, darauf geachtet zu haben und die Effizienz dafür geopfert zu haben. Denn bei einer Gaming-Grafikkarte wird das überhaupt nicht benötigt!

Nun deine Meinung schön und gut. Dabei belasse es aber auch und versuch es nicht auf die Allgemeinheit zu pauschalisieren.
Es soll Leute geben, die ihren Rechner neben Gaming auch für andere sinnvolle Aufgaben einsetzen.
Für mich ist das ziemlich einfach mittlerweile. Ähnliche Leistung beim Gaming zwischen z.B. GTX970 und 290X-> klare entscheidung für 290X, da sie eben nicht nur geamen kann, sonder noch vieles mehr.
 
Zuletzt bearbeitet: (Ergänzung)
issenia schrieb:
Nun deine Meinung schön und gut. Dabei belasse es aber auch und versuch es nicht auf die Allgemeinheit zu pauschalisieren.
Ich pauschalisiere deshalb auf die Allgemeinheit, weil du, ich und andere, welche die DP-Leistung nutzen, bei nur 5% der Besitzer einer Gaming-Grafikkarte sind, und damit die absolute Minderheit. Damit will ich dich nicht kritisieren oder ähnliches, ich gehöre bei meinem Zweit-Rechner ebenfalls dazu. Aber ich finde, sowohl AMD als auch Nvidia sollten vielleicht einfach eine 3. Sparte an Grafikkarten einführen, neben Gaming und Professional, oder bestimmte auserwählte Modelle releasen und dementsprechend kennzeichnen, wie es Nvidia mit der Titan gemacht hat, allerdings ja wieder mit der Titan X verworfen hat.
Denn eine R9 290X, konzipiert ohne jegliche DP-Leistung und optimiert auf die dadurch gewonnenen Vorteile, hätte eine wirklich tolle Karte werden können.
 
Zuletzt bearbeitet:
Schon "lustig" das hier mitzulesen. Wie manche jetzt so "enttäuscht" sind von der Leistung der 390x
und sich jetzt überlegen (am besten sofort) eine GTX970 oder 980 zu kaufen obwohl die 390x
noch gar nicht rausgekommen ist und keine Preise feststehen...

Aber eigentlich ist es gar nicht lustig sondern eher ziemlich "erschreckend" wie sich gleich "Fakten"
verbreiten obwohl noch gar nichts richtig feststeht...
 
Der Hoffnungsschimmer ist weg, die Titanic beginnt zu sinken. Hauptsache die Fans geil gemacht und jetzt ist die Seifenblase geplatzt :)

Das wird wohl die Krönung der Heiß & Laut-Serie werden :)
 
andr_gin schrieb:
Bei Witcher 3 wurden nur die Systemanforderungen etwas zu hoch angesetzt. Das Spiel läuft mit meiner GTX 670 wunderbar. Überhaupt kein Anzeichen von Ruckeln. Hab ganz normale Default Settings mit 1920x1080 laufen also nicht künstlich runter gedrosselt.

Hi,

dem kann ich nur zustimmen, ich hab ne GTX 960 und spiele mit fast überall MAX Settings auf einem 1920x1080 Monitor, auf dem 4k Monitor muss man schon ganz ordentlich runterschrauben, würde zwar megamäßig aussehen, aber da steckt man lieber den Full HD Monitor zusätzlich an und fertig :) , lieber 3 Jahre warten bis "normale" Karten auf 980TI/ Titan Level sind und dann nochmal auf 4k genießen :D ( luxusprobleme)

pit
 
psYcho-edgE schrieb:
2013. Als ob es so schwer wäre die allgemeinen Features die hardwareseitig von den Chipherstellern entwickelt werden (seien es die ACEs bei AMD oder wasweißich) im Nachhinein Teil einer API zu machen
Das wäre wie ein Haus zu bauen und erst anschließend, wenn es fertig ist, den Bauplan dazu zu entwerfen. Erst wenn die Spezifikationen fertig sind, kann man den Chip und die API dazu entwerfen. Und das dauert nun einmal, ich schätze deutlich mehr als zwei Jahre.

wenn viele Dinge die bereits in Hardware gegossen wurden dann für APIs genutzt werden

Was da in Hardware gegossen wurde, musste vorher spezifiziert werden, und zwar vollständig. Und diese Spezifikation ist Teil von DX12 und darauf baut dann die DX12-API auf, und wahrscheinlich auch die Mantle-API, AMD ist ja an der Entwicklung von DX12 beteiligt und kannte diese Spezifikation frühzeitig.

Aber auch ich behaupte nicht dass Mantle Stein des Anstoßes war für die Entwicklung von D3D12, sondern nur MS unter Zugzwang gebracht hat, sich damit zu beeilen.
Das kann natürlich sein, aber es gibt hier im Forum genug Leute, die behaupten, dass es ohne AMD Mantle kein DX12 gegeben hätte. Und das ist schlicht falsch.
 
Necareor schrieb:
Ich pauschalisiere deshalb auf die Allgemeinheit, weil du, ich und andere, welche die DP-Leistung nutzen, bei nur 5% der Besitzer einer Gaming-Grafikkarte sind, und damit die absolute Minderheit.

Aha und wie kommst Du nun auf die 5%? Pi mal Daumen oder einfach aus der Luft gegriffen? Vielleicht sind es auch 7% oder doch 17%?
Wie auch immer seit Big Kepler ist nVidia für mich persönlich gestorben. Wenn ich das sehe, dass der Big Maxwel mit seiner Riesenfläche nicht mal schafft DP unterzubringen, ist das für mich ein Armutszeugnis und die Architektur bei nVidia einfach am Ende. Das wird sich bis 2017 auch nicht mehr ändern.
 
Zuletzt bearbeitet:
padd schrieb:
Kaufdatum 24. Apr. 2013 ASUS HD 7970 DCII für 318,66€. Die ist fast genauso gut wie die bald erscheinende 390X :rolleyes:.

Ja genau, fast genauso gut, nur gut 30% langsamer als 290X :rolleyes:

@Proxy sorry, was für ein dummer Kommentar das doch ist...
 
Zuletzt bearbeitet:
issenia schrieb:
Wenn ich das sehe, dass der Big Maxwel mit seiner Riesenfläche nicht mal schafft DP unterzubringen, ist das für mich ein Armutszeugnis und die Architektur bei nVidia einfach am Ende. Das wird sich bis 2017 auch nicht mehr ändern.

Maxwell wurde als reiner Gaming-Chip entwickelt. Darum hat er keine separaten DP-Einheiten bekommen. Folgerichtig wirst du auch keine Teslakarten mit Maxwell finden.
Die AMD-Karten haben die DP-Leistung auch nur weils ein Abfallprodukt der GCN-Architektur ist.

Die Frage ist also nicht ob nVidia es schafft DP-Einheiten zu verbauen, sondern ob sie es wollen. Da es für Spiele auf absehbare Zeit keine Rolle spielt, hat man eben drauf verzichtet.

Der nächste Chip Pascal soll dann wieder für Gaming und den professionellen Bereich eingesetzt werden. Er wird also auch wieder ordentlich DP-Leistung haben. Siehe hier -> http://www.pcgameshardware.de/Nvidi...idia-GP100-Tape-Out-des-Pascal-Chips-1161013/
 
Zuletzt bearbeitet:
Mich wundert es ein bisschen, dass noch immer kaum was handfestes geleaked wurde. Noch nicht mal irgendwelche Balken-Diagramme oder ähnliches (mal von den Uralt-Fake-Diagrammen von HBM-Grafikkarten abgesehen). Und das eine Woche vor der Vorstellung. So gut kann AMDs Geheimhaltung doch nicht sein. Ich befürchte, am 16. wird wirklich nur irgendwas vorgestellt, und das wirkliche Release dauert noch...

DocWindows schrieb:
Die Frage ist also nicht ob nVidia es schafft DP-Einheiten zu verbauen, sondern ob sie es wollen. Da es für Spiele auf absehbare Zeit keine Rolle spielt, hat man eben drauf verzichtet.
Ganz genau, da kann man Nvidia auch keinen Vorwurf machen...
 
Zuletzt bearbeitet:
Nureinnickname! schrieb:
Glaub nicht dass die jemals wieder Intel und Nvidia von der Leistung her einholen werden. Das rennen ist schon lange verloren. .

Seit wann ? Seit der 8800 GTX. Da sah es deutlich "schlimmer" aus und AMD würde es nie wieder schaffen mit NV "mitzuhalten". Genauso dass es keine kaufbare AMD CPU mehr geben sollte, aber Athlon II und Phenom II oft verbaut wurden.

Es ist wie bei Nintendo, die sind auch seit Gründung doomed, aber man wartet immer noch auf die Pleite und dass Nintendo den Sega macht. Solche Beitrage langweilen einfach nur mehr.
Ergänzung ()

psYcho-edgE schrieb:
Aber auch ich behaupte nicht dass Mantle Stein des Anstoßes war für die Entwicklung von D3D12, sondern nur MS unter Zugzwang gebracht hat, sich damit zu beeilen.

Die meisten User vergessen einfach dass MS insbesondere was Gaming angeht ein Monopol ist. Gerade mal Steam versucht Linux für User interessant zu machen. Dann gibt es nur mehr Konsolen, worauf man auch Games zocken kann. MS hätte weit aus früher DX12 bringen müssen, gäbe es Konkurrenz. AMD war mit DX11 Features immer weit vorne, doch anstatt DX12 kam dann nur eine Herzlose Erweiterung von DX11, die zwar Features wie Compute Shader und Co unterstützen aber so gut wie nicht von Entwickler umgesetzt wurde.

AMD hat mit Mantle folgendes bewirkt. Konkurrenz, ohne je die Absicht gehabt zu haben in die Softwarebranche einzusteigen. Die Konkurrenz war aber nicht nur für MS zu spühren sondern auch unter den Spieleentwicklern. Plötzlich konnte EA mit deren Engine und Mantle mehr rausholen und neue Effekte zeigen. Andere sind dann auch darauf angesprungen. Obwohl DX11 viele Features bereits hat und deshalb wahrscheinlich DX12 auch kompatibel, werden jetzt diese Features eventuell endlich in Games genützt. Das ist eigentlich die erfreudlichste Entwicklung der letzten Jahre. Da werden Grafikkarten aktuell viel zu viel Aufmerksamkeit geschenkt, da meist eigentlich die API, nämlich DX11 die Bremse war.
Ergänzung ()

DocWindows schrieb:
1. Der Datendurchsatz berechnet sich aus Busbreite und Takt. HBM hat eine große Busbreite, aber wie schnell taktet er?

2. Wenn die 4GB voll sind, müssen alte Daten aus dem Speicher raus und neue rein. Diese Daten kommen vom PC-Arbeitsspeicher über den PCI-Express Bus in die Grafikkarte. Der Datendurchsatz von PCI-Express 3.0 x16 liegt bei 16GB/sek.

Jaja. HBM ist kein Vorteil, aber der große L2 Cache und Kompression von Maxwell ist wichtiger ! Weil da ist Bandbreite und Takt nicht mehr so bedeutend !

PCIE3.0. Interessant, besonders in AMD CPU Threads dann immer von Skylake geschwärmt wird besonders auch neue Standards sowie PCIE 4.0, der übrigens mit 31508 MB/s die doppelte Übertragung hat. Aber bis dahin ist Fijii für Enthusiasten bestimmt schon zu alt ^^
 
Zuletzt bearbeitet:
pipip schrieb:
Gerade mal Steam versucht Linux für User interessant zu machen. Dann gibt es nur mehr Konsolen, worauf man auch Games zocken kann.

Du vergisst GOG und auch Humble ist ziemlich gut darin, Games für Linux zu verbreiten. Gerade die Indies zeigen wie einfach es doch sein kann und große Engines sind schon kompatibel wie Unreal 4, CryEngine oder Unity.
 
DocWindows schrieb:
Maxwell wurde als reiner Gaming-Chip entwickelt. Darum hat er keine separaten DP-Einheiten bekommen. Folgerichtig wirst du auch keine Quadro- oder Teslakarten mit Maxwell finden.
Die AMD-Karten haben die DP-Leistung auch nur weils ein Abfallprodukt der GCN-Architektur ist.

Abfallprodukt der GCN Architektur? Blöder hättest du es nicht formulieren können oder :freak:
So ein Käse... Und doch, es gibt Quadros auf Maxwell Basis. Du bist generell scheinbar richtig gut informiert, danke für deine informativen Beiträge!
 
Zurück
Oben