News Erste Lebenszeichen von AMDs Fiji-Grafikkarte

Pisaro schrieb:
Hab dazu mal ne Frage: ist das eventuell möglich, das der vram effizienter arbeitet und so nur z.b. 2gb vram braucht wo andere gpus mit 3gb kotzen?

Nein, das ist nicht möglich und hat auch nichts mit der Bandbreite zu tun. Speicher ist in erster Linie Speicher.
Um mal eine Brücke zu schlagen: auch eine SSD, die über PCI-E läuft, verringert nicht den Speicherbedarf von Programmen gegenüber einer uralten IDE-Platte. Das funktioniert so einfach nicht.
Die Bandbreite entscheidet darüber, ob angeforderte Daten auch schnell genug im Grafikkartenram vorliegen. Bis dato ist mir noch kein Spiel untergekommen, das dadurch begrenzt wurde. Auch eine 770@4GB kann - trotz ihres 256bit SI - ihren Speicher effektiv nutzen.
Solche Probleme sind eher Sache des Low-ends und da begrenzen andere Dinge noch viel früher.
 
MikelMolto schrieb:
Wenn AMD 20nm braucht um mit dem Stromverbrauch von NVidias 28nm gleichzuziehen, dann wäre das ein Armutszeugnis. Ich hoffe Du stimmst mir da zu!

Wieso ich 20nm als realistisch empfunden hatte, war die Tatsache, dass man für HBM bei GF fertigen müsste, da die Technik bei TSMC wohl vor 2016 nicht geben wird. Doch ich habe versäumt zu lesen, dass der Prozess bereits ab 32/22nm Prozess bei GF verfügbar ist.
Somit könnte Fijii auch in 28nm mit HBM kommen.

Also ich denke, die eigentliche neue "Architektur" wird man bei AMD eventuell mit Fijii erst sehen. Die ganzen Neuerungen die wir bei Tonga gesehen haben, bringt doch in erster Linie dann etwas, wenn HBM integriert wird.
Bei Tonga hat sich der L2 Cache nur minimal vergrößert. Aber da stellt sich auch die Frage wozu ?
Falls die nächsten kommenden AMD Karten wirklich HBM haben, hält man doch die GPU eher klein und hat den HBM Speicher doch sowieso dann als schnellen L3 Cache.

Klar könnte man dann sagen, ja NV kann dann HBM auch integrieren ect und wäre dann wieder "effizienter". Aber da stell ich dann die Frage, wenn das so wäre, wieso hat NV dann den L2 Cache so aufgepumpt. Man dürfte dann die Frage stellen, ob das bei NV ein Zwischenschritt war bis HBM auch bei TSMC verfügbar ist und der große L2 Cache vllt wieder bei Pascal entfällt.

Somit würde ich jetzt einfach abwarten. So unterschiedlich sind die "Erneuerungen" beider Firmen nicht. Die arbeiten beide offensichtlich Richtung HBM Speicher, nur dass AMD eventuell als erster davon Gebrauch machen könnte.

Natürlich kann ich mich irren, aber ich bin nicht der Meinung dass beide Firmen keinen so ein großen Technologischen Abstand haben, sondern beide ihre Schwächen und Stärken.
Eventuell kann aber GF als Fertiger AMD auch mal einen Vorteil bringen.

Beim Release sind wir dann sowieso wieder schlauer und sehen, wie sehr wir uns getäuscht haben ^^
Aber man sollte da nicht soviel reininterpretieren. Es ist doch nicht mal bestätigt dass überhaupt HBM eingesetzt wird.


Weiteres sehe ich das übrigens nicht so und du sicherlich auch nicht. Denn wenn AMD nur durch den 20nm Prozess stromsparender ist als NV, kann das egal sein. Wichtiger ist, wie viel AMD in die Technologie investieren musste und was herausgekommen ist (Gewinn). Sobald NV selbst mit 20nm-16 nm Fertigung auf den Markt kommt, kann AMD eine weitere Revision mit Optimierungen auf den Markt bringen.

Wieso ich übrigens sicher bin, dass du meine Meinung teilst ^^
Naja weil es zwischen AMD und Intel doch nicht anders ist, da profitiert Intel auch stark von der optimierten Fertigung. Da stört es offensichtlich auch niemanden, denn würde Intel und AMD (bei GF oder TSMC) den selben Chip fertigen lassen, wäre der Intel höchstwahrscheinlich trotzdem stromsparender (dank Finfet).
Wobei das natürlich nur eine Vermutung ist.

http://www.fudzilla.com/home/item/36284-20nm-node-broken-for-gpus
20nm wird es wahrscheinlich nicht mehr werden.
 
Zuletzt bearbeitet:
kisser schrieb:
Auch nicht mehr, weil das Power Target nicht überschritten wird. Es ist also völliger Blödsinn, dass der Maxwell Chip nur in Spielen effizient ist.

Folgendes Zitat gibt "nur ein Mensch" jedoch Recht:

If the load is held constant, then the lower power consumption measurements vanish immediately. There’s nothing for GPU Boost to adjust, since the highest possible voltage is needed continuously. Nvidia's stated TDP becomes a distant dream. In fact, if you compare the GeForce GTX 980’s power consumption to an overclocked GeForce GTX Titan Black, there really aren’t any differences between them. This is further evidence supporting our assertion that the new graphics card’s increased efficiency is largely attributable to better load adjustment and matching.

Quelle (Abschnitt "Stress Test Power Consumption")

Da ich mich aber kaum mit Maxwell beschäftigt habe, kann ich da persönlich wenig zu sagen.

Edit: Und im gleichen Abschnitt wird auch die Annahme von dir kisser bestätigt :D:

Note that the GeForce GTX 980's stress test power consumption is actually a few watts lower than the gaming result. This is likely due to throttling that kicks in when we hit the thermal ceiling.
 
Zuletzt bearbeitet:
dfgdfg schrieb:
Edit: Und im gleichen Abschnitt wird auch die Annahme von dir kisser bestätigt :D:
Was sich aber nur auf Refernzmodelle bezieht. Das ist der kleine aber feine Unterschied.
 
Also ich denke, die eigentliche neue "Architektur" wird man bei AMD eventuell mit Fijii erst sehen. Die ganzen Neuerungen die wir bei Tonga gesehen haben, bringt doch in erster Linie dann etwas, wenn HBM integriert wird.
Bei Tonga hat sich der L2 Cache nur minimal vergrößert. Aber da stellt sich auch die Frage wozu ?
Falls die nächsten kommenden AMD Karten wirklich HBM haben, hält man doch die GPU eher klein und hat den HBM Speicher doch sowieso dann als schnellen L3 Cache.

L2 ist noch einmal deutlich schneller. Habe die Werte von Maxwell nicht im Kopf, aber sowohl bei dem GK110 als auch von der R290x beträgt die L2-Cache-Bandbreite bereits 1 TB/s. Neuere Generationen werden tendentiell noch wesentlich mehr benötigen.
 
Nai
Dafür ist aber ein HBM L3 Cache deutlich größer (sprechen hier von GB) und eDRAM ist bei gleicher Speichermenge bereits kleiner als eSRAM. Sie XOne APU vs WiiU MCM Chip.

IBM hat damals auch eDRAM statt SRAM in seinen CPUs bevorzugt.
Intern verwendet IBMs Power4-Prozessor eDRAM als L3-Cache. Derzeit wird noch überlegt, ob und - wenn ja - wann eDRAM im Chipsatz als L2-Cache integriert werden soll. Dieser Schritt ist laut Iyer eher fraglich: "Wir müssen abwägen: Wollen wir mehr Speicher, der dafür ein wenig langsamer ist? Oder doch lieber weniger Speicher mit ein bisschen mehr Geschwindigkeit?"

"Das wird ganz von der Rechner-Architektur abhängen. Braucht die Architektur nicht viel, aber schnellen Speicher, werden wir diesen Weg einschlagen. Wenn wir jedoch eine Leistungsverbesserung von fünf oder sogar zehn Prozent mit der doppelten L2-Cache-Größe erzielen können - selbst wenn dieser etwas langsamer ist - , wird eDRAM die Lösung sein." Iyer hat eine Faustregel parat: "Besteht ein Chip zu rund einem Drittel aus SRAM, macht es Sinn, auf eDRAM umzusteigen."
http://www.eetimes.com/document.asp?doc_id=1231672

Außerdem sage ich ja bereits, der HBM Speicher wäre etwas wie ein L3 Cache. Ob dann noch ein großer l2 Cache gebraucht wird ? Das ist die Frage die ich gestellt habe.

Gespannt bin ich, falls HBM wirklich eine Rolle spielt, ob dieser ein eigenes Package bekommt oder bereits in der GPU integriert ist.
Doch weit aus mehr interessiert mich die Integration in APUs, denn dessen IGP dann nicht mehr so stark durch DDR3 oder DDR4 ausgebremst werden würde und die "Mehrkosten" für schnelle RAM entfallen würden.
 
Zuletzt bearbeitet:
Lahatiel: okay danke dafür! Bin aber der Meinung das es mal eine Zeit gab wo eine AMD Karte bei den selben Spielen weniger vram brauchte als nvidia.. oder war es umgekehrt?
 
Du erinnerst dich wahrscheinlich an die 8800-Serie (gt und gts), von denen es auch Varianten mit wenig Speicher gab. Die damaligen ATI-Karten mit gleicher Speicherausstattung sind im Schnitt weniger stark eingebrochen als die Karten von nvidia. Teilweise ist sogar je nach Spiel die nominell schnellere Karte von nvidia hinter die eigentlich langsamere Karte von ATI trotz gleicher Speicherausstattung zurückgefallen.
 
r4yn3 schrieb:
@kisser: Das Power Target, das bei den meisten Custommodellen weit über der TDP der Referenz liegt? Was eine Gigabyte 980 OC in einem Torture Benchmark zieht, ist weit weg von jeglicher TDP Angabe. Und das mit "nur" 2048 Shader.
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Was irgendwelche Hersteller an Unfug mit dem Power Target treiben ist doch nicht Nvidia anzulasten.
Ich beziehe mich auf die Referenzkarte. Die hat ein gesetztes PT von 165W (?) und das wird nicht überschritten, egal bei welcher Anwendung.
 
@Seppuku: Stimmt, war die 8800er Serie. Vielleicht passiert sowas ja bald nochmal ;).
 
pipip schrieb:
Wieso ich 20nm als realistisch empfunden hatte, war die Tatsache, dass man für HBM bei GF fertigen müsste, da die Technik bei TSMC wohl vor 2016 nicht geben wird.

HBM ist aber ein erstmal nur ein Die-Stapel. AMD kann GPU und HBM in unterschiedlichen Prozessen fertigen lassen und hinterher auf einem Träger (Platine bzw. "Interposer" - Raider heißt ja jetzt auch Twix) verheiraten.
 
stoneeh schrieb:
Nach den Vorsprüngen bei von der HD3870 bis zur 5870 hat AMD nun deutlich nachgelassen, und ist bei dieser Generation erstmals seit langem sowohl zeitmässig als auch leistungsmässig hinter Nvidia.
AMD war mit der letzten generation vor nvidia...
Ergänzung ()

kann man den HBM nicht auch bei GF in 28nm und die GPU bei TSMC in 20nm fertigen lassen?
der HBM ist doch eh nicht auf der Die der GPU.
 
AngelDust 32 schrieb:
@Kisser

dann schau dir mal den Cuda/OpenCl Verbrauch an

Brauch ich mir nicht anzuschauen. Habe selber ein Leistungsmessgerät. Zwar nur eine GTX 750ti, die läuft aber 24/7 unter Cuda im Cryptocoin Mining. Das Power Target (hier 65W) wird nicht überschritten, das ist doch nicht so schwer zu verstehen , oder? Karte ist sogar noch um 200 MHz übertaktet (Boost = 1376 MHz, wird zu 99% der Laufzeit auch gehalten).
 
kisser schrieb:
Brauch ich mir nicht anzuschauen. Habe selber ein Leistungsmessgerät. Zwar nur eine GTX 750ti, die läuft aber 24/7 unter Cuda im Cryptocoin Mining. Das Power Target (hier 65W) wird nicht überschritten, das ist doch nicht so schwer zu verstehen , oder? Karte ist sogar noch um 200 MHz übertaktet (Boost = 1376 MHz, wird zu 99% der Laufzeit auch gehalten).

Oh man, da fällt mir nur ein: Widewidewi .. Ich mach mir die Welt wie sie mir gefällt..
Ein Leistungsmessgerät ist schlichtweg zu träge um einen Momentanzustand abzubilden. Er gibt einen Relativen Messwert an, und wenn man die Betrachtung von THG ansieht, die absolut angesichts des TestEQ Fundiert ist, dann muss man sagen, dass die 165W eine Lüge sind. NVs Maxwell ist nur dann Effizient, wenn man ihm Harte Zügel anlegt, nichts anderes als bei der 750ti. Und ja Die Hersteller sind an dem verpfuschten Powertarget schuld. Dann sehe ich aber 165W TDW als Lüge an.
http://geizhals.de/gigabyte-geforce-gtx-980-windforce-3x-gv-n980wf3oc-4gd-a1191768.html
Leistungsaufnahme: >165W (TDP), 11W
Extra für dich das wichtige Hervorgehoben. Sorry aber mit deiner Argumentation gibts für mich nur zwei annahmen: Fanboy oder keine Ahnung von Technik und einfach mal mitreden wollen

Thema Fiji:
HBM und 28nm dürfte intressant werden.. Eine 980 sollte selbst mit einer Hawaii + HBM Schlagbar sein, was sie ja teilweise ist (Normale 290x in Normalen Spielen) AMD muss am Stromverbrauch was machen und vor allem an den Grottigen Custom Coolern.. Wenn also eine Fiji 390x kommt, die mit 8GB HBM auf GM200 Niveau liegt, dann passt das soweit auch. AMD Muss gar keinen GameChanger bringen, und auch NV wird mit GM100/200 keine Verdoppellung zur Gk100 bringen. Jeder, der den Schmaarn glaubt, sollte sich in BWL mal Nachhilfe geben lassen
 
Alles kacke. Mir waers lieber die Spieleprogrammierer wuerden nicht programmieren wie die letzten Affen, und (ueberspitzt formuliert) 2010er Spielegrafik mit grad mal 30-50fps auf aktuellen Highendgrafikkarten zum laufen bekommen. Aber das ist halt der Fortschritt in den letzten 10 Jahren. Programmierkenntnisse und Koennen werden nicht mehr gebraucht, die ganzen Effizienzdefizite werden mit Hardware erschlagen. -> Fortschritt stagniert.

Jedes Handy hat 2GB Ram, wofuer noch optimieren wenn mans einfach hinrotzen und releasen kann. Soferns nicht schon beim starten abkackt isses ready to release.

Ist fast so schlimm wie ein Javaprogramm. :lol::
 
Alles kacke. Mir waers lieber die Spieleprogrammierer wuerden nicht programmieren wie die letzten Affen, und (ueberspitzt formuliert) 2010er Spielegrafik mit grad mal 30-50fps auf aktuellen Highendgrafikkarten zum laufen bekommen. Aber das ist halt der Fortschritt in den letzten 10 Jahren. Programmierkenntnisse und Koennen werden nicht mehr gebraucht, die ganzen Effizienzdefizite werden mit Hardware erschlagen. -> Fortschritt stagniert.

Jemineh; dein Post stößt mir relativ sauer auf, da du den Programmierern unrecht tust. Denn das Optimieren ist selbst für gute Programmierer hauptsächlich eine zeitfrage, gerade da GPU Programmierung und Optimierung sowieso ein Gefriggel für sich ist. Will man ein GPU-Programm performant haben, so kostet das hauptsächlich viel Zeit und damit Geld. Und wieso sollte man das aufwenden, wenn das Programm bereits schnell genug auf moderner Hardware läuft? Die Entwicklungskosten holt man nimmer rein. Zudem skaliert Graphik langsam extrem schlecht mit zunehmender Rechenleistung. Dadurch benötigt man momentan um noch etwas bessere Graphik zu haben deutlich mehr Rechenleistung. Das führt wiederum dazu, dass moderne Spiele kaum besser aussehen aber viel bessere GPUs benötigen.
 
Muss ich dir zustimmen Nai. Aber ich finde es nicht sinvoll, das so wenig Zeit in die Optimierung gesetzt wird. Wenn man sieht wieviel oft im Nachhinein noch mit Patches rausgeholt werden kann und optimiert wird, kann man zumindest bei den Tripple A Titeln erwarten, dass das ganze schon im Vorfeld passiert. Besonders da diese leider heute meistens nur im gefühlten BETA Stadium Released werden und erst später wirklich fertig gestellt werden. Zeigt aber auch unter welchem Zeitdruck die Programmierer stehen. ----> Schweres Thema

Mal abwarten was die Fiji Karten nun dann tatsächlich bringen werden. Mit den geleaketen Info`s + gut Informierten Spekulanten, macht die Karte bereits jetzt Hoffnung drauf, dass ich meine Tripple Monitore nun endlich zufriedenstellend mit einer Karte befeuern kann.
 
Nai schrieb:
gerade da GPU Programmierung und Optimierung sowieso ein Gefriggel für sich ist. Will man ein GPU-Programm performant haben, so kostet das hauptsächlich viel Zeit und damit Geld.
in zeiten von HSA nicht mehr nötig!
 
@ Krethi & Plethi

Und warum sollte für diese Architektur seitens der Programmierer nicht mehr optimiert werden müssen...?
 
Zurück
Oben