News AMD Hawaii verfügt angeblich über 3.072 Shader

die 290 hat ne die size von 438mm^2 ? und eine TDP von 250 Watt? Also 4x 438=1752mm^2

Was für eine bescheidene Milchmädchenrechnung ist das denn?!
So verfierfachst du auch die UVD, den Speichercontroller (!), den PCIe Controller und das ganze Gedönds. So ein Chip wäre natürlich immer noch gewaltig aber auf die üblichen 750mm^2 von nVidia könnte man den Chip immer noch aufblasen und auf mindestens 5000 Shader kommen.
 
Es geht nicht darum wie oft ein Hersteller sich selbst in der Leistung überbietet, sondern wie.

Dass AMD die GHz gebracht hat war ein ebenso logischer Schritt wie die Titan auf Seiten NVs. Im Vergleich zu früher bleibt die Leistungskrone doch auch sehr lange erhalten und wird nur selten um mehr als 20% übertroffen.

@über mir: GK110 hat 560mm^2, keine 750. B1 soll sogar nur noch auf 533 kommen.

Dennoch würde ein GCN 1.1 es bei dieser Größe sicherlich auf 3,5k+ Shader kommen. Diese müssten zwar niedriger getaktet werden um sie Kühlbar zu machen, doch dadurch steigt die Effizienz massiv an. Der Sweet-Spot beider Chips scheint ungefähr gleich hoch zu liegen, GK110 hat nur die schnelleren Shader, dafür ist Hawaii kompakter. Ein 550mm^2 Chip würde GK110 sicherlich schlagen können ohne exorbitant viel Strom zu brauchen.

Fraglich ist nur der Yield bei einer solchen Chipgröße. Wir wissen nicht ob Hawaii nicht vielleicht schon komplexer ist und die wirtschaftlichste Größe kaum oberhalb von 430mm liegt und ein so großer Chip entsprechend oft Teilaktiviert werden muss.

Dieser Beitrag entstand auf dem Handy, etwaige Fehler bitte ich zu entschuldigen.
 
Diese müssten zwar niedriger getaktet werden um sie Kühlbar zu machen
Die Erkenntnis holst du von woher ?

er Sweet-Spot beider Chips scheint ungefähr gleich hoch zu liegen, GK110 hat nur die schnelleren Shader, dafür ist Hawaii kompakter
Achso, kannst du mal bitte ein Bericht verlinken wo direkt den "shader" Verglich her hast.

Interessant wird es doch, wenn AMD jetzt den 28nm GF Prozess nützt. Blöd wenn dass dann deine Theorie umwirft.
 
Zuletzt bearbeitet:
[F]L4SH schrieb:
Was für eine bescheidene Milchmädchenrechnung ist das denn?!
So verfierfachst du auch die UVD, den Speichercontroller (!), den PCIe Controller und das ganze Gedönds. So ein Chip wäre natürlich immer noch gewaltig aber auf die üblichen 750mm^2 von nVidia könnte man den Chip immer noch aufblasen und auf mindestens 5000 Shader kommen.

Phew.... aus der Luft gegriffene Argumente bitte nicht mit aus der Luft gegriffenen Argumenten Kontern. das führt zu nichts!

Mal angenommen es verhält sich ähnlich wie bei der Tahiti (Gerade keine bessere referenz gefunden.)

674027d1376545125-leak-zur-neuen-grafikkarten-generation-von-amd-hawaii-bild-1.jpg


wären wir also bei knapp 50% Shader auf dem DIE.
Eig. müsste doch auch das Frontend vergrössert werden bei mehr CUs oder? und vermutlich auch mehr L2 ... aber lassen wir das mal.
Haben wir also 438mm^2 + 3x(438/2) = wären wir noch knapp bei 1095mm^2

Vermutlich immer noch nicht herstellbar, und nun haben wir die 1000W auf der Halben Fläche!

Ich gehe bei dieser berechnung einfach davon aus das der Verbrauch propotional mit der Anzahl shader steigt un der Takt gleich bleibt.
 
Kenneth Coldy schrieb:
Dich kenn ich doch noch? Warst Du das nicht der vor wenigen Jahren genöhlt hat wie sehr im das bashing der intelschen Elektroheizung ("Pentium IV") auf den Keks geht? ;-)

ich hatte zu der zeit nen amd 3200+ venice
mich hat die effizienz nie sehr gejuckt, klar ist es wichtig aber was zählt in dem bereich ist die leistung.

der preskopf intel damals wurden spielerisch über 90°C und mehr heiß ohne OC und mit guten kühler....zumindest was damals n guter kühler war.
zu dieser zeit hatte amd sowieso die nase vorn, um dan mit vore2duo komplett raus zu sein

bashing hab ich noch nie so sehr betrieben ich hatte schon komponenten von jedem hersteller. wie manche hier fan einer herstellers sein können der ihnen ja allen das geld aus der tasche zieht hat sich mir noch nie erschlössen. ich bin auch kein fan von rewe oder müllermilch oder aldi oder sonstwem. ich zahle für leistung

du bist seit 2011 angemeldet wie warst du denn damals scchon dabei und wie gut soll denn deine erinnerung sein ;)
 
pipip schrieb:
Die Erkenntnis holst du von woher ?
Ich habe eine Schwarze und ansonsten Ungetönte Brille (aka Sonnenbrille), den Hawaiitest gelesen und ein wenig Ahnung von Mathematik. Da du aber so außerordentlich höflich gefragt hast ohne gleich pampig oder gar angreifend zu werden, erkläre ich dir gerne wie ich auf den Gedanken gekommen bin:
Das Gesamtsystem braucht im CB-Test bei vollem Takt 423W. Da drin enthalten sind natürlich sämtliche andere Komponenten wie MB, HDD, CPU, usw. Als reine Rechengrundlage um das hier vereinfacht dar zu stellen ziehe mal 123W dafür ab, womit wir bei glatten 300W für die Grafikkarte wären. (Guckt man sich den Verbrauch der 7790 an ist das gar nicht mal unrealistisch). Hauptverbraucher, neben Wandlungsverlusten seiten der SpaWas und dem Speicher ist natürlich der Chip und auf dem Chip die eigentlichen Recheneinheiten. Erhöht man nun deren Anzahl um z.B. 33% wie in meinem Beispiel, müssen 33% mehr Recheneinheiten versorgt werden. Ein vergrößerte "Infrastruktur" um diese Shader auszulasten mal außen vor gelassen. Da diese sich nicht von Luft versorgen können, steigt der Verbrauch des Chips um fast diesen Wert an und die aufgenommene Energie wird dann in Wärme umgewandelt. Diese muss irgendwie abgeführt werden.
Das jetzige Referenzdesign würde mit 25-30% mehr Abwärme des Chips auch im Uber-Mode nicht klarkommen, daher meine Hypothese der Taktsenkung bei diesem fiktiven Chip. Da der Sweet-Spot allerdings nicht allzu weit unten liegt, kann man die Leistungsaufnahme wieder deutlich reduzieren in dem der Takt auf z.B. nur noch 850Mhz gesenkt würde(-15%). Dann blieben immer noch 13% Mehrleistung, bei wahrscheinlich gleichem oder gar geringerem Verbrauch aufgrund stark gesenkten Spannungen. Und die 33% mehr Shader sind noch defensiv von meiner Seite aus gerechnet.

pipip schrieb:
Achso, kannst du mal bitte ein Bericht verlinken wo direkt den "shader" Verglich her hast.
Wer mich so freundlich bittet hat doch auch eine Antwort verdient: Testberichte. Laut dem Test der 290X ist diese mit 2.816 Recheneinheiten@1Ghz 6% langsamer als die Titan mit 2.688 Recheneinheiten @993Mhz. Meine Folgerung daraus: Ein Shader auf der Titan kann mehr Leistung bringen als einer auf Hawaii. Ja, da hängt noch einiges mit dran, aber wenn die Shader nicht ausgelastet werden macht sie das ebenfalls weniger effektiv.
Dass ein GK110 gegenüber eine 4k Shader GCN1.1 Karte abstinken würde steht dem nicht entgegen - selbst wenn man extrem Defensiv rechnet wären das immer noch 3,4k Shader von Kepler bei gleichem Takt. Da muss man auch erst einmal herankommen.

pipip schrieb:
Interessant wird es doch, wenn AMD jetzt den 28nm GF Prozess nützt. Blöd wenn dass dann deine Theorie umwirft.
Bei einem hypothetischen 550mm² Hawaii Chip kann ich damit leben wenn meine Theorie diesbzüglich fehlerhaft ist. Da du aber ebenfalls Beweise von mir gefordert hast, bin ich nun an der Reihe dich um Beweise und genaue Zahlen bezüglich der Überlegenheit der GF-Fertigung zu bitten.
 
Zurück
Oben