News Erste Lebenszeichen von AMDs Fiji-Grafikkarte

Stimmt, die Tabelle hab ich schon mal wo gsehen. Wofür steht das PHY? Ich denke mal es sind halt Laborwerte. Aber ja, umso mehr, umso besser.

Edit: Geil. Also wenn "(6CU 384SP SM5.0 1GHz, 1GB 1.25GHz 2048-bit, PCIe 3.00 x16)" zutrifft, sollte das bereits HBM Gen2 sein. Da HBM Gen1 1Gbps pro 1GB Slice hat, und Gen2 die Bandbreite verdoppelt. Irritierend wäre hier nur, dass scheinbar HBM Gen2 mit 4-8 Slices per Stack "angekündigt" ist. Sollte hier dann halt nur 1 Slice sein.
 
Zuletzt bearbeitet:
Danke. Hätte ehrlich gesagt nicht vermutet dass der Speichercontroller mehr zieht als der Speicher selbst.
 
@dexplus,

ist halt der Aktuelle davon ( siehe Datum )

Bin mal gespannt, was noch so kommt...
 
Moriendor schrieb:
Also wenn das aus der News stimmt, dass hier bereits jede Menge Kühlsysteme von Luft bis Wasser und einer Mischung aus beidem getestet werden (müssen), dann braucht man sich glaube ich jetzt schon hinsichtlich Effizienz, Lautstärke und Temperaturen keinen Illusionen hinzugeben.

Ehrlich jetzt, Du schließt von Wasserkühlung auf Effizienz? Das ist ja süß..

Auf Lautstärke und Temperatur Rückschlüsse zu ziehen ist zwar auch gewagt, aber zumindest ansatzweise möglich. Die 295x2 zeigt ja das beides sehr von einer sauberen Hybridkühlung profitieren kann während die TitanZ wohl absichtlich brüllend laute Lüfter erhielt um die krampfhaften Lachanfälle der Presse zu übertönen.
 
Seppuku schrieb:
Wenn der Chip 2 GHz benötigt und eine so hohe Verlustleistung um etwas schneller als die Konkurrenz und die Vorgängerversion zu sein

und wenn der Chip nun nur 1,6 GHz benötigt um fast doppelt so schnell wie die Konkurrenz und die Vorgängerversion zu sein? Und wenn er dabei dank Wasserkühlung und 250W TDP flüsterleise ist? Und wenn sie dann auch noch im Preisbereich der GTX980 liegt? Und wenn AMD auch noch eine X2 in der Hinterhand hat für den Fall das NVIDIA Selbstmöderisch genug ist einen Konter zu versuchen statt einfach aufzugeben? Und wenn AMD bereits Labormuster besitzt in denen die Speicherbandbreite nochmals verdoppelt wird?

NVIDIA IST SOWAS VON TOT, DIE HABEN KEINE CHANCE!

<scnr>
 
deathscythemk2 schrieb:
@Krautmaster
Naja. Bei einem neuen Fertigungsprozess (20nm) kann es durchaus aus sein, dass der alte (28nm) besser da steht, weil es den alten ja schon Jahre gibt und er optimiert werden konnte. Das passiert soweit ich weiß immer wieder.
Des weiteren kommt jetzt das Problem was auch Intel hat hinzu. Man kann zwar auf gleicher Fläche mehr Transistoren verbauen, aber die Kühlung wird nicht einfacher, weshalb man den Takt nicht erhöhen kann.
Im Endeffekt heißt es, es wird Effizienter, aber nicht schneller.

Bemerkenswert finde ich, dass du überall immer sagst wie besser nVidia doch wegen der Effizienz™ ist und hier wo AMD nun evtl. aufholen könnte, es auf ein mal nicht mehr so wichtig ist.

ja mit 20nm bezüglich Effizienz aufzuholen wäre ja was grundlegend anderes wie über die Architektur aufzuholen. Gern seh ich AMD da aufholen, keine Sorge.... Stand heute ist aber bezogen auf 28nm und der Leistung pro Transistor und mm² Nvidia etwas in Vorsprung. Wenn es bei AMD eine 20nm Karte braucht um da gleichzuziehen wäre das eher schade...

Gut, Hawaii ist etwas älter, zudem mit größerem Fokus auf Memory Bandbreite und Computing ausgelegt als zb die GTX 980, Dinge die bezüglich der Effizienz eher kontraproduktiv sind.
Ergänzung ()

ONH schrieb:
Interessant die Intel CPU sind auch eher schlecht zu kühlen und den noch ist die Effizienz hoch. Das mit den verschiedenen Kühlsystemen kann man auf 3 möglichkeiten reduzieren AMD will endlich eine "leise " Referenzkühlung, der Chip ist Relativ klein für die Leistungsaufnahme (besitzt hohe W/mm^2 und ist klein für ein performence/high end chip 3. 300W GPU wObei je nach leistung selbst das kein Problem ist.

schlecht zu Kühlen is relativ. Mit schlechten WLP Pads zw. IHS und Silizium auch irgendwie logisch. Haswell E hat im Prinzip auch keine höhere Kerntemperatur als die Vorgänger da verlötet.

AMD Hawaii hat einfach eine sehr hohe Aufnahme auf kleiner Flache da extrem dicht gepackte Transistoren (für 28nm). Nvidia fähr ein smarteres Powershema , eine intelligentere Implementierung diverser C-States und des Turbos auf dem Kern was für ein effizienteres Ergebnis reicht. Sie liefern die schlankere Karte, kleines SI, gute Farb-Kompression. AMDs Hawaii ist nun mal der Computing Chip, was bei Nvidia der GK110 ist...

AMD muss einige Dinge optimieren. Dual Head Verbrauch und eben die generelle Stromspar Policy. Ähnlich wie Intel im Desktop Segment hat Nvidia bei Maxwell da offensichtlich vieles richtig gemacht (man vergleiche Haswell 22nm vs IB 22nm) - nicht die Architektur oder Fertigung hat die Effizienz bei Haswell gesteigert, viel eher die Optimierung von C-States und die Wechselgeschwindigkeit dieser. Die CPU "schnauft" besser durch, kann intelligenter agieren. Im Falle von Haswell sorgt das für mindestens 30% mehr Effizienz zum Vorgänger.

Dass die GPU dabei durchweg den Turbo Takt hält ist gar nicht vorgesehen.
 
deathscythemk2 schrieb:
Ich bin kein Experte für Microchips, aber was spricht dagegen, dass man HBM und "normalen" GDDR5 RAM auf die Grafikkarte lötet? Den einen als schnellen Speicher und HBM als noch schnelleren. Also vllt. 4GB HBM + 4/8GB RAM.

Das würde keinen Sinn machen weil man dann 2 SpeicherInterface´s brauchen würde. Und ein SI mit klassischem VRAM nimmt in der Regel recht viel Transistoren ein.......
 
Bringt HBM auch etwas in Sachen Geschwindigkeit? Wenn ja wie viel im Gegensatz zu herkömmlichen Speicher? Denn wenn 4 GB HBM deutlich schneller sind, so könnten doch 4 GB vollkommen ausreichend sein, das sich der Speicher dann ja schneller füllt und wieder leert. Oder?

Hat da jemand Ahnung?
 
Das wird sich bei den Games zeigen, die das entsprechend nutzen, anders gesagt: Um zu wissen wie man es nutzen will ...
Bisher wird der Speicher nur voll gemüllt, schneller wird eher mäßig ausgenutzt. Das sind dann so Ausreißer Games, wo ein höher Speed mehr Vorteile bringt.

Zur Zeit ist eher der Platz und den niedrigeren Verbrauc, den man dadurch gewinnt, Kühlung und spätere Kosten ( günstiger ) vorerst, was HBM so interessant macht.

Die Karten können deutlich kleiner werden, Multi-GPU kleiner als Heutige Karten, dort ist die Erspanis am größten, was die obigen Punkte betrifft ^^
 
Zuletzt bearbeitet:
Moriendor schrieb:
Also wenn das aus der News stimmt, dass hier bereits jede Menge Kühlsysteme von Luft bis Wasser und einer Mischung aus beidem getestet werden (müssen), dann braucht man sich glaube ich jetzt schon hinsichtlich Effizienz, Lautstärke und Temperaturen keinen Illusionen hinzugeben

Aja, weil AMD das macht, was NV seit der 500 GTX Serie macht, nämlich einen teuren Referenzkühler einzusetzen, bedeutet das automatisch, dass AMD Karten mit den alten Referenzkühler die neue GPU nicht mehr kühlen kann ?
Laut deiner Logik, hätte NV dann mit Kepler eine noch wärmere GPU als den Fermi auf den Markt bringen müssen.

Ich bin gespannt, ob man dann bei GM200 dann auch kein "Vapor-Chambor" mehr benötigen wird.

Btw, bevor man Sprüche klopft, sollte man lieber abwarten, ob Fijii nun der GM204 oder GM200 Gegenspieler ist, denn das ist bis jetzt noch ungeklärt.

john carmack schrieb:
Das würde keinen Sinn machen weil man dann 2 SpeicherInterface´s brauchen würde. Und ein SI mit klassischem VRAM nimmt in der Regel recht viel Transistoren ein.......

Was sein kann, ist dass der HBM Speicher aber als Cache verwendet wird, das würde dann das sein, was NV mit seinem L2 Cache veranstaltet. Deshalb hat AMD auch den L2 Cache bei Tonga nicht gravierend erhöht.

Ich glaube, dass der HBM Speicher sogar klein ausfallen könnte, vllt 2GB oder ähnliches und für das Speicherinterface zu den 4-8 GB GDDR5 würde ein 256 bit Speicherinterface ausreichen, besonders wenn man die neueren Techniken von Tonga berücksichtigt. Auch hier könnte es im Vergleich zu Hawaii dann eine verdoppelte Raster-Engines geben.

Somit ein größerer Tonga XT Chip mit mehr Shader + HBM. Dann würde AMD mit kleineren Optimierung auch in 28nm die Effizienz deutlich steigern.
Leider gibt es Tonga XT ja nicht auf dem Markt (außer im neuen Apple PC, wo diese in einem AiO verbaut ist), sondern nur eine beschnittene Tonga Pro.

Dual Head Verbrauch und eben die generelle Stromspar Policy.
Wenn du es schon anprangerst, dann solltest du es schon genauer machen. Erstens ist Zero-Core sicherlich etwas, was die Konkurrenz bis heute nicht eingeführt hat und weiteres ist das Dual Head nur ein Problem, wenn man unterschiedliche Monitore benützt.
Außerdem wenn man nur 2 Monitore einsetzt, dann kann man den zweiten sowieso an der IGP des Prozessor anschließen.
Der Mehrverbrauch, ist aber auch meist nur ein Furz im Vergleich zu dem was mehrere Monitore verbrauchen. Der hohe Verbrauch könnte auch mit Eyefinity zusammenhängen, vllt auch der Grund wieso bis heute noch keine so schnelle Lösung gefunden wurde.
Das Meckern ist aber auch wieder nur eines auf hohen Niveau, weil es nun mal auf Papier steht.

Sie liefern die schlankere Karte, kleines SI, gute Farb-Kompression. AMDs Hawaii ist nun mal der Computing Chip, was bei Nvidia der GK110 ist...

GM204 ist eine reine Gaming-Karte und ich bin gespannt, ob der GM200 dann im Vergleich zum GK110 dann auch bei Computing Verbesserungen zeigen wird, denn sonst wird es bald im HPC Markt für NV schwerer, auch wenn man den Großteil des Marktes hat, obwohl man scheinbar ständig an Markt verliert, auch gegen Intel.
Blöd nur dass OpenCL, auch dank HSA und Intel's Bemühungen immer populärer wird.
 
Zuletzt bearbeitet:
Hab dazu mal ne Frage: ist das eventuell möglich, das der vram effizienter arbeitet und so nur z.b. 2gb vram braucht wo andere gpus mit 3gb kotzen?
 
pipip schrieb:
...

GM204 ist eine reine Gaming-Karte und ich bin gespannt, ob der GM200 dann im Vergleich zum GK110 dann auch bei Computing Verbesserungen zeigen wird, ...
Da sagst du was.
GM204 ist ja bezüglich der TDP und des ermittelten Stromverbrauchs bei Spielen nur so gut dabei, da sie die Teillastwechsel sehr gut und schnell hinbekommt.
Bei Berechnungen auf der GPU *Cuda, Physix, Tesselaton(?)...* hingegen wird es kaum zu solchen Teillastwechseln kommen können. Wurde schonmal ermittelt, wieviel die GM204 dann zieht? Und was dürfte der Vollausbau erst dann an Strom ziehen?
 
nur ein Mensch schrieb:
Bei Berechnungen auf der GPU *Cuda, Physix, Tesselaton(?)...* hingegen wird es kaum zu solchen Teillastwechseln kommen können. Wurde schonmal ermittelt, wieviel die GM204 dann zieht?

Auch nicht mehr, weil das Power Target nicht überschritten wird. Es ist also völliger Blödsinn, dass der Maxwell Chip nur in Spielen effizient ist.
 
pipip schrieb:
Aja, weil AMD das macht, was NV seit der 500 GTX Serie macht, nämlich einen teuren Referenzkühler einzusetzen, bedeutet das automatisch, dass AMD Karten mit den alten Referenzkühler die neue GPU nicht mehr kühlen kann ?
AMD hatte Probleme mit den alten Referenzkühler die alten GPU's zu kühlen. Einfach einmal zurück blättern und die Kommentare lesen, wo gesagt wurde das mit Custom Karten alles besser wird. Von daher ist es ja lobenswert wenn AMD hier nachbessert.
Das Fiji mehr leisten wird als sein Vorgänger sollte wohl klar sein. Jetzt ist doch die Frage, wie gut AMD optimieren kann das die Mehrleistung ohne mehr Verbrauch und somit Abwärme realisiert wird. NVidia hat ja vorgemacht, dass so etwas geht und AMD muß hier nachziehen. 2015 reicht es einfach nicht mehr Leistung nur durch mehr Hubraum zu erreichen.
Wenn AMD 20nm braucht um mit dem Stromverbrauch von NVidias 28nm gleichzuziehen, dann wäre das ein Armutszeugnis. Ich hoffe Du stimmst mir da zu!
 
Pisaro schrieb:
Hab dazu mal ne Frage: ist das eventuell möglich, das der vram effizienter arbeitet und so nur z.b. 2gb vram braucht wo andere gpus mit 3gb kotzen?
Schwierig sowas vorab zu sagen. Da HBM Neuland sein wird, würd ich mich mal überraschen lassen. Ich denke aber, dass es auf die programmierung der Spiele ankommen wird, wie sinnvoll diese mit der Bandbreite umgehen.

@kisser: Das Power Target, das bei den meisten Custommodellen weit über der TDP der Referenz liegt? Was eine Gigabyte 980 OC in einem Torture Benchmark zieht, ist weit weg von jeglicher TDP Angabe. Und das mit "nur" 2048 Shader.
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Edit: Achja eben auch noch auf PCGH gelesen, dass noch mehr AMD Grafikkarten bei SiSoftware in der Datenbank sind: http://www.sisoftware.eu/rank2011d/...dbe6deeddaeed6f082bf8fa9cca994a482f1ccf4&l=de
3520 und 3200 Shader.
 
Nach den Vorsprüngen bei von der HD3870 bis zur 5870 hat AMD nun deutlich nachgelassen, und ist bei dieser Generation erstmals seit langem sowohl zeitmässig als auch leistungsmässig hinter Nvidia.

Ich hoffe AMD's derzeitige Architektur war kein One Hit Wonder ala K7.
 
Zurück
Oben