@Vidy_Z
Nach so vielen Märchen frage ich mich, ob du wirklich etwas von der Materie verstehst oder nur Marketingaussagen, oberflächliches Halbwissen und dergleichen kennst. Wie war das nochmal mit dem "Wunsch der Vater des Gedanken"? Der scheint bei dir extrem ausgeprägt zu sein.
Ok, halten wir uns an die Wahrheit und vergleichen mal alle Fakten. Es ist falsch, dass nVidia weniger Shader hat. nVidia hat 512 CUDA Cores, ATI 320 Stream Cores. Dazu taktet nVidia die Kerne auch noch deutlich höher. Wer hier die leistungsfähigeren Kerne hat, sollte klar sein. Das ist ATI.
Es ist völlig unerheblich, ob du 100, 1000 oder 2000 Shader zur Verfügung hast. Solange die Software entsprechend parallelisierbar ist, werden auch alle Shader genutzt. Die ATI Architektur skaliert hier sogar ziemlich gut. Probleme kann es maximal bei Multi-GPU Setups geben. Das ist aber ein anderes Thema und betrifft nVidia genauso.
Es ist völlig unerheblich, ob auf Fermi ein "spezialisiertes Linux" laufen kann. Eine GPU ist und wird auch in Zukunft kein Chip sein, auf dem Betriebssysteme laufen. Das dokumentiert nur nVidias Hilflosigkeit, dass sie kein CPU Design haben und am Markt vorbei entwickeln.
Die Komplexität ist nicht der Grund für Fermis enorme Hitzeentwicklung. Wie du dir vorstellen kannst, ist auch ATIs Architektur höchst komplex. Fermi ist einfach nur ein ineffizientes Design. Und das liegt vor allem an der veralteten Shader-Architektur, die immer noch G80 als Basis hat.
Bei doppelter Genauigkeit für Gleitkommazahlen (ja, so nennt sich das, und nicht "2x genaue Gleitkommaberechnung"

) muss nVidia die Performance gegenüber einfacher Genauigkeit genauso herunterschrauben. Das betrifft also nicht nur ATI. Das ist trotzdem kein Pluspunkt für nVidia. Sie schaffen es damit lediglich zum ersten Mal, zumindest ansatzweise auf den theoretischen Durchsatz von ATI mit Single-GPU zu kommen. nVidias Chips bleiben dennoch weitaus grösser und stromhungriger. Und bei einfacher Genauigkeit liegen sie weiterhin abgeschlagen zurück.
ECC mag zwar ein Nice-to-have Feature sein, vermutlich wird auch ATI in Zukunft eine Option für professionelle Karten anbieten, es ist momentan aber relativ unbedeutend für zukunftsorientierte GPU-Märkte, wie Cloud-Computing oder Wissenschaft. Beim ersten ist es nicht notwendig und beim zweiten kommen ganz andere Techniken zur Validierung von Daten zum Einsatz.
Richtig, viele reale Vergleiche gibt es bisher noch nicht. Die es gibt, zB
Elcom Passwortentschlüsselung, sprechen aber keinesfalls für nVidia.
CUDA wird mehr und mehr bedeutungslos für den Markt und in Zukunft maximal für Speziallösungen noch genutzt. Der Markt öffnet sich und mit OpenCL und DirectCompute stehen glücklicherweise hardwareunabhängige Lösungen zur Verfügung. nVidia wird es also nicht helfen, weiterhin schlechte Hardware zu bauen und sich dann hinter ihrer Software zu verstecken.
ATI steckt sehr viel Aufwand in Stream und OpenCL/DirectCompute. Und gerade mit den Fusion-Produkten wird das sicherlich nochmal intensiviert. Solcher Mumpitz, ATI würde hier irgendwas vernachlässigen, ist eine dreiste Lüge.
nVidia erfindet mit seiner Hardware überhaupt nichts neu. GPGPU gab es schon lange vorher. Es war eher die Konkurrenz, die Impulse gesetzt hat. So hat ATI zB als erstes doppelte Genauigkeit für Gleitkommazahlen ermöglicht. nVidias Fermi ist einfach nur ein ineffizientes Design, das ein halbes Jahr nach der Konkurrenz kam. nVidia hat Entwicklungsrückstand, braucht zu viele Transistoren für die erreichte Performance, ist enorm stromhungrig und am absatzstarken Markt vorbei entwickelt. Das ist die traurige Wahrheit. Da gibt es überhaupt nichts zu beschönigen.
ATI gibt den Ton an, in allen Bereichen. Daran ändert auch eine GTX 460 nichts, die klar langsamer als eine HD 5850 ist und dabei immer noch mehr Strom und einen grösseren Chip braucht. ATI ist technologisch momentan eindeutig führend. Das muss man sich auch als nVidia Sympathisant eingestehen und kann nur abwarten, ob nVidia in Zukunft wieder bessere Hardware entwickelt.
chendal schrieb:
Und wegen der andern Punkte: eine TDP ist immer nur ein Richtwert der angegeben wird vom Hersteller damit man in etwa abschätzen kann wieviel Kühlung der jeweilige Chip benötigt. Die TDP ist keine physikalische Grenze der max. Leistungsaufnahme. Da haste irgendwo was falsch verstanden falls ich dich richtig verstanden haben sollte
Nein, du hast mich nicht richtig verstanden. Ich sagte nicht, dass TDP bei AMD irgendeine physikalische Grenze angibt. Es ist aber alles andere als ein Mittelwert, wie von dir behauptet. Die TDP bei AMD ORIENTIERT sich an der maximalen Leistungsaufnahme. Du wirst also keine AMD dazu bewegen können, die Leistungsaufnahme über die angegebene TDP hinaus zu treiben. Solange die CPU innerhalb ihrer Spezifikationen arbeitet, also Stromversorgung, Spannungen, Takt, etc.pp. Es gibt noch eine andere Metrik bei AMD, ACP, die einen Mittelwert für typische Server Workloads bei voller Auslastung beschreibt. Diese Metrik liegt deutlich darunter. Da kann man ungefähr abschätzen, in welche Richtung AMD TDP definiert.
chendal schrieb:
Der I5 750 z.b. hat ne TDP von 95 Watt und den kriegste recht leicht auf 135 Watt mit den richtigen Testprogrammen wie z.b. intelBurn
Intel definiert TDP auch anders als AMD. Wobei selbst 135 W noch nichts zu sagen haben. Woher stammt dieser Wert denn? Ist das der Unterschied des Gesamtsystems zwischen Idle und Last? Rechne da mal zB 80% fürs Netzteil und 80% für die Spannungswandler weg, dann bist du bei 86,4 W nur für die CPU. Vielleicht noch 5-10 W fürs Idle, da kommst du mit 95 W relativ knapp hin. Aber das bestätigt zumindest das, was schon länger bekannt ist. AMD setzt die TDP momentan höher an als Intel. Auch wenn es nicht mehr so wie zu P4 Zeiten ist. Da hat Intel wirklich nur einen Durchschnittswert angegeben.