News Grafik der „Fusion“-APUs schneller als aktuelle GPUs?

Vidy_Z schrieb:
I
Amd dagegen sollte seinen zeitlichen Vorsprung dafür nutzen, den Abstand zum Fermi zumindest zu verkürzen, beser ihn zu überholen(was aber sehr schwierig werden dürfte!), einfach um in der Lage zu sein etwas entgegenzusetzen, wenn Intel und Nvidia zum Gegenangriff blasen.

Was willst du? :freak:

Jetzt bitte nochmal so, damit es auch nicht Wahnsinnige verstehen...
 
Es geht bei dem Argument nicht um die Spieleperformance sondern um den Worktation- und Supercomputer Markt. Da wird der Fermi einschlagen, und Amd steht auf dem Gebiet sozusagen nackt da. GPU Rendering ist das Stichwort.
 
Apple TV mit Fusion APU
AMD scheint nach ersten Gerüchten dieses Jahr besonders viel Erfolg mit seinen Produkten zu haben. Zunächst setzt Apple rein auf ATi Radeon HD5000 Grafikkarten und nun soll auch das bisher weniger erfolgreiche Apple TV mit Fusion neuaufgelegt werden.

Nach Gerüchten sei Apple mit den Grafikfähigkeiten der Sandy Bridge vom Konkurrent Intel nicht zu frieden, sodass Apple nun an AMDs Fusion Produkten stark interessiert sei. Dies ist sehr glaubhaft, da in AMDs Fusion APUs Grafikkarten verbaut werden, die auf der Höhe einer HD5500 agieren und somit noch stärker als bisher verbaute interne Grafiklösungen (IGP) ist.

nVIDIA kann dieses Problem durch entsprechende Hardware, wie der GTX400 Serie, nicht mehr ausgleichen, da die Chipsatzproduktion bis auf Weiteres eingestellt wurde, da Intel dem Grafikkarten-Hersteller die notwendige Lizenz verweigert.

Nun soll DigiTimes in Erfahrung gebracht haben, dass die nächste Generation des Apple TVs den Fusion Prozessor von AMD beinhalten könnte. So soll der kleine Kasten ohne jegliche eigene Speichermöglichkeit in Form einer Festplatte noch Dezember diesen Jahres auf den Markt kommen, sodass höchstwahrscheinlich eine Ontario APU verbaut wird, da diese nach vorne und die bessere APU LIano noch hinten terminiert wurde.

Da das Betriebssystem des Apple TVs ähnlich dem iPhone werden soll und OpenCL in den Desktop-Betriebssystem ein fester Bestandteil ist, sodass besonders Apple die Entwicklung des Standards vorantreibt, sollte Mac OS X die Vorteile von GPU und CPU auf einem Die sehr gut nutzen können.

Also wenn sich dies bewahrheitet... In letzter Zeit kommen reichlich postive News im Bezug auf AMD.
 
chendal schrieb:
Man kann doch alles schon recht gut abschätzen. Ne 5670 schluckt unter 3dLast in Benchmarks um die 47 Watt...realer Verbrauch bei 40nm. Peaks von bis zu 60 watt gibts nur wenige und nur sehr kurze zeit.
also sagen wir um die 50 Watt....nun ist Llano 32 NM, also 20% kleinere struktur. Also darf man von diesem Stromverbruach noch gut was abziehn für die Llano GPU.
Dann sagen wir mal dürfte ein 2kern llano vergleichbar sein mit etwa einem core i3 540...der ebenfalls 32nm hat. Dieser Core i3 bewegt sich zwischen 30-60 watt....reale Werte Idle und Last.
nimmt man das zusammen und berücksichtigt dass AMD als TDP immer den Mittelwert angibt von dem was ein Prozessor max. an Leistungsnahem aufweist (siehe TDP Artikel der vorletzten C´t)...dann kommst bei den schnellen Llanos auf ca. eine TDP von 45 Watt....meint Real unter Last ca. 90 Watt in Summe für die APU....
Oh mann, so viele Irrglauben in einem Abschnitt. Das sieht man wirklich sehr selten.
Also erstmal redet niemand von HD 5670 Level, sondern von Redwood Level. Und eine Mobility Radeon auf Redwood Basis hat eine TDP von 15-30 W. Und zwar für die gesamte Karte, also samt Speicher, usw. Für die APUs müssen wir erstmal nur die Leistungsaufnahme des Grafikchips betrachten.
Ausserdem ist 32 nm keine 20% kleinere Struktur. Es ist maximal ein 20% kleinerer Node. Mikroprozessortechnologie lebt in einer 2D Welt (noch), daher betrachten wir die Fläche. Es ist also eine 36% kleinere Struktur.
AMDs TDP ist auch kein Mittelwert. Das trifft eher auf Intel zu. So war es beim P4, und das scheint man auch mit Sandy Bridge wieder angehen zu wollen. AMDs TDP richtet sich nach der maximalen Leistungsaufnahme. Eine AMD CPU wird also niemals bei Spezifikation entsprechend Hersteller die TDP überschreiten. Und jetzt bitte nicht krampfhaft versuchen, mit irgendwelchen Tests das Gegenteil zu behaupten. Da sind immer Verluste durch Netzteil oder Spannungswandler enthalten.

Jocotty schrieb:
Was willst du? :freak:

Jetzt bitte nochmal so, damit es auch nicht Wahnsinnige verstehen...
AMD hat Rückstand auf Fermi? Vidy_Z scheint in einer Parallelwelt zu wohnen. :lol: Und nein Vidy_Z, auch bezüglich GPGPU ist AMDs Hardware Fermi überlegen. nVidia kann hier mit einem >50% grösseren und >50% stromhungrigeren Chip die Konkurrenz nicht überholen. Wer da Abstand auf wen hat, sollte mehr als deutlich sein.
 
@gruffi

Was meinst du? Mir kommt das eher so vor, als sei bei dir der Wunsch der Vater des Gedanken. Vom Fermi scheinst du ja tatsächlich wenig zu wissen. Der Chip hat zwar weniger aber entscheident leistungsfähigere Shader als sein AMD Pedant. Das wirkt sich bei nahezu allen GP-GPU Anwendungen vorteilhaft aus, was auch nachvollziehbar ist. Es gibt halt nur wenige Berechnungen die sich über die mehr als 2000 Schader eines AMD-Streamprozessors parallelisieren lassen. So ist die AMD Cpu vielleicht mal gerade auf dem Papier überlegen. In der Praxis hat das aber keinerlei Bedeutung. Die Fermi Logik kann sogar so selbstständig agieren, dass es Nvidia gelungen ist ein kleines spezialisiertes Linux darauf laufen zu lassen, nur auf der Karte und ohne CPU. Die 512 Fermi Shader sind quasi selber schon kleine CPUs. Das gibt dem Chip die Möglichkeit in noch mehr Bereichen zu wüten, in welchen man bis dato auf teure CPUs angewiesen war, und bevor ich es vergesse, über die Cuda Schnittstelle lässt sich der Chip C++ ähnlich und sehr viel einfacher programieren als es bei bisherigen Schadern der Fall ist.

Die Komplexität des Fermi schaft zwar ganz neue Möglichkeiten, hat auf der anderen Seite aber eine stärkere Erwärmung sprich, die aktuellen Temperaturprobleme des 480/470 zur Folge. Mit der 460 GTX zeichnet sich jedoch ab, dass die Probleme schon mal nicht in Stein gemeißelt sind.

Ein weiterer Pluspunkt des Fermi ist seine 2x genaue Gleitkommaberechnung, was für viele wissenschaftliche Anwendungen unabdingbar ist und vom Ati Karten nur unter Leistungseinbußen simuliert werden kann. Darüber hinaus unterstützt der Fermi ECC-Ram. Wichtig für Rechnercluster in denen durch die schiere Maße an verbautem Ram auch die Fehlerwahrscheinlichkeit steigt.

Unterm Strich gibt es zwar noch nicht viele Benchmarkvergleiche, aber von dem was sich bis jetzt herauslesen lässt, ist der Nvidia Chip doch weit überlegen. Ebenfalls hat Nvidia viel Aufwand in die Promotion seiner Cuda Schnittstelle gesteckt, und war dabei ziemlich erfolgreich. Wenn man momentan etwa GPU-Rendering betreiben will, findet man erst gar keine Software welche Ati Karten unterstützt. Als Anwender hat man also nicht mal eine Wahl, man kann sich nur für eine Nvidia Karte entscheiden. Dazu passt auch, dass AMD seine Stream Schnittstelle nach anfänglichen Bemühen aktuell doch ziemlich vernachlässigt.

Während also Nvidia seinen Graphikchip für GPGPU Anwendungen quasi neu erfindet(und dafür die Schelte von den Leuten in Kauf nimmt, deren Horizont nicht weiter als bis zum nächsten Game reicht), beschränkt sich AMD darauf, die bestehende Architektur mit Hauptaugenmerk auf die Spieleperformance zu optimieren und ohne ein irgendwie vergleichbares Engagement für Berechnungen via GPU.

Ergo: AMD ist auf dem Gebiet sogar gefährlich hinten dran, weder software- noch hardwaretechnisch hat die Firma dem Nvidia Vorstoß irgendetwas entgegen zu setzen.
 
Zuletzt bearbeitet:
Vidy_Z schrieb:
Als Anwender hat man also nicht mal eine Wahl, man kann sich nur für eine Nvidia Karte entscheiden.

Lösungen, die kein OpenCL anbieten sind entweder von Nvidia gekauft oder einfach schlecht.
Und in beiden Fällen würde ich das Programm links liegen lassen...

Vidy_Z schrieb:
Dazu passt auch, dass AMD seine Stream Schnittstelle nach anfänglichen Bemühen aktuell doch ziemlich vernachlässigt.

Falsch, AMD hat nur erkannt, dass das wie Stiere aufeinander loszurennen kontraproduktiv ist. Für die eigene Firma und für die Kunden.
Genau deswegen setzt man voll auf OpenCL, worauf auch Nvidia setzen wird, wenn sie ihre Hörner abgestoßen haben... :freak:

Vidy_Z schrieb:
Während also Nvidia seinen Graphikchip für GPGPU Anwendungen quasi neu erfindet(und dafür die Schelte von den Leuten in Kauf nimmt, deren Horizont nicht weiter als bis zum nächsten Game reicht),

Falsch, sie bekommen die Schelte zurecht.

Beispiel:
Es gibt bei den Autos 2 Herstellerfirmen.

Beide Firmen stellen nur PKWs her.

Nun sieht aber die Firma Nauto, dass LKWs eine Marktnische sind.
Von daher produzieren sie nur noch LKWs, denn schließlich kann ja jeder einfach LKW fahren. ;)



Vidy_Z schrieb:
beschränkt sich AMD darauf, die bestehende Architektur mit Hauptaugenmerk auf die Spieleperformance zu optimieren und ohne ein irgendwie vergleichbares Engagement für Berechnungen via GPU.
Tja, Nvidias Architektur konnte einfach nicht zu DX11 umgerüstet werden, deswegen hat Nvidia ja M$ auch dazugedrängt die Feature von DX11 aus DX10 rauszunehmen...
AMD konnte aber ihre Architektur weiterbenutzen.

Warten wir doch mal auf NI und schauen dann, denn das wird zeigen, was AMD von GPGPU gält.

Vidy_Z schrieb:
Ergo: AMD ist auf dem Gebiet sogar gefährlich hinten dran, weder software- noch hardwaretechnisch hat die Firma dem Nvidia Vorstoß irgendetwas entgegen zu setzen.

Genau das möchte ich gerne mal bewiesen werden.

Wie gerne wird denn Tesla/Quadro statt FirePro genommen.
Und zwar nicht nur, weil man es immer schon so gemacht hat, sondern schlicht aus den neuen GPGPU Features?
 
@gruffi:

Warte einfach mal ab wenn Llano raus ist...dann wirste ja selbst sehn wie Leistungsstark der ist...vergiß nicht...sind schon etliche Llano Chips im Umlauf ;-) Auch eine 5670 ist mit einer 5570 nahezu identisch bis auf den Takt und den DDR5 speicher....
Bereits im Dezember kannst "theoretisch" schon bei Apple die ersten kaufen die im Apple TV sitzen.

Und wegen der andern Punkte: eine TDP ist immer nur ein Richtwert der angegeben wird vom Hersteller damit man in etwa abschätzen kann wieviel Kühlung der jeweilige Chip benötigt. Die TDP ist keine physikalische Grenze der max. Leistungsaufnahme. Da haste irgendwo was falsch verstanden falls ich dich richtig verstanden haben sollte :)

Der I5 750 z.b. hat ne TDP von 95 Watt und den kriegste recht leicht auf 135 Watt mit den richtigen Testprogrammen wie z.b. intelBurn

Da ist physisch nichts abgeregelt. Aus meiner Sicht setzt intel die TDP sogar etwas höher an als AMD.
Aber das ist ja auch nicht schlimm....denn es gibt Tests die ein System immer voll ausreizen und es gibt den realen Alltagsbetrieb. AMD orientiert sich eher am Alltag was ich absolut ok finde denn ein Prozessor ist fast immer im Wartezustand wenn man nicht grade ne SSD drin hat und irgendwas rendert.

Diese Max. Werte die man immer bei Berichten sieht sind für normale User doch eher uninteressant weil du den Prozzi so in dem sinne nicht nutzt im häuslichen Betrieb. mir dient es einfach nur dafür ein Gefühl dafür zu kriegen welche Hardware evtl. etwas effizienter ist als andre....aber jeder sollte die Bälle flach halten.

Das was immr bei extremen tests angegeben wird trifft eh nie auf dein normales Windows Arbeiten oder 3D spiele zu....da liegste in der Regel immer unterhalb der maximal möglichen Leistungsaufnahme deines Systems. Von daher sind die TDP´s immer recht reale Angaben...die aber nichts mit dem max. möglichen Verbrauch zu tun haben sondern viel eher mit dem durchschnittlichen, realistischeren Verbrauch.

Es sei denn man nutzt seinen Rechner nur um permanent irgendwelche Benchmarks laufen zu lassen....

Was gibts noch zu sagen: ich sehe das auch so, dass intel u.a. wegen Llano zukünftig immer mehr Boden verlieren dürfte. Wenn schon so große Anbieter wie apple umschwenken die paar millionen Geräte im Jahr verkaufen dürfte das auch intel spüren.
Naja und bereits jetzt ist abzusehn dass globalfundries mit der 28nm ca. 4-6 Monate schneller dran sein dürfte als TSCM...da dürfte der ATI Vorsprung auf Nvidia ebenfalls eher wachsen als schrumpfen.
Gut für deutsche Arbeitsplätze :)
 
Zuletzt bearbeitet:
Lösungen, die kein OpenCL anbieten sind entweder von Nvidia gekauft oder einfach schlecht.
Und in beiden Fällen würde ich das Programm links liegen lassen...
Ein bisschen arg verschwörungstheoretisch dieses Statment!
Siehe es mal so: während OpenCL noch in der Mache war, hatte AMD an Stream und Nvidia an Cuda gearbeitet. Nvidia ist durchs Land gezogen hat an Universitäten Vorträge gehalten, Forschungsgelder vergeben, sowohl Spieleschmieden wie auch andere Softwarefirmen mit KnowHow und sogar mit Personal unterstützt. Während dieser Zeit hat Amd sein Engagement für Stream zurückgeschraubt und erst dann wurde die OpenCL Spezifikation abgeschlossen. Dass Nvidia nicht plötzlich abgebrochen hat und alle Bemühungen und Investitionen sofort in den Wind geschossen hat, wie bitte willst du das der Firma zum Vorwurf machen?
Immerhin hat Nvidia der GPGPU Schnittstelle zu einer Verbreitung verholfen, die sie sonst noch lange nicht hätte. Du kannst auch davon ausgehen, dass Nvidia schon seit geraumer Zeit die Zukunft in OpenCL sieht. Die Firma ist sich darüber bewust, dass ein proprietärer Standard wie Cuda die Verbreitung der GPGPU auf lange Sicht nur hemmen würde, und das ist ganz und gar nicht im Interesse von Nv. Auf lange Sicht will Nv ja nicht mal Ati die Pfründe stehlen, sondern Intel. Nv will im Intelsegment wildern, will die CPU arbeitslos machen, sie im Idealfall zur reinen BS-Verwaltung verdammen. Der C.O. von Nvidia hat sich in diesem Sinne sogar schon offen mit Intel bekriegt. Diese Ziele sind sehr viel weiter gesteckt als die von Ati, und deshalb fürchtet sich Nv auch kaum vor der, aus ihrer Perspektive, halbherzigen Konkurrenz, im Hinblick auf die Einführung von OpenCL. Aber! Solange es noch keine OpenCL Produkte gibt, solange wirst du natürlich auch keine OpenCL Beschleunigung via GK sehen. Ist doch irgendwie logisch.

Es gibt bei den Autos 2 Herstellerfirmen. Beide Firmen stellen nur PKWs her.
Nun sieht aber die Firma Nauto, dass LKWs eine Marktnische sind.
Von daher produzieren sie nur noch LKWs, denn schließlich kann ja jeder einfach LKW fahren.
Oh nein, ein Autovergleich!
Dir scheint nicht wirklich klar zu sein, dass der FermiChip, dafür, dass er eine völlig neue Architektur besitzt und noch viel mehr für die Anzahl und Qualität der Futures mit denen er bestückt ist, einfach verdammt schnell unterwegs ist! Sry, aber scheinbar geht diese bemerkenswerte Ingenieursleistung bei dir zum einen Ohr rein und kommt am andern wieder raus. Kein Chip dieser Welt wurde bisher so umgekrempelt, ohne das ihn irgendwelche Anfangsprobleme begleitet hätten. Und schon in der zweiten Inkarnation in Form des 460 GTX scheinen die Temperaturprobleme weitgehend behoben.

Was ich noch vergessen habe ist, dass der Fermi sogar einen Befehlscash besitzt. Ansonsten habe ich schon alles im vorhergehenden Kommentar geschrieben was ich über die GPU weis. Da kann ich dir nur empfehlen, dich von der Richtigkeit selber zu überzeugen. Meine Aussagen stützt sich zum größten Teil auf einen außführlichen C´t Bericht, Präsentationsvideos, Technikvideos und Interviews von Rendersoftwarefirmen, so wie unzähligen Infos aus dem Netz.

Außerdem habe ich nicht das geringste Problem mit AMD. Etwa ist die 5000der Serie in meinen Augen eine geniale Spieleserie. Zum perfekten Zeitpunkt ins Geschehen geworfen. Ein Volltreffer. Ich hoffe nicht nur auf den Erfolg von Fusion, mehr noch, ich bin davon überzeugt. Im Bulldozer erkenne ich sogar meine zukünftige CPU. Und Vergess das mal mit Intel- Amd- oder NvBoy, ich respektiere einfach Errungenschaften, die auf bemerkenswerter Technik und mutiger Innovation Fußen. Das ist das, was für mich spannend ist an der Computerentwicklung. Hoffen wir mal, dass bei AMD noch was konkurrenzfähiges geschieht im GPGPU Bereich. Das währe ansonsten doch ziemlich öde. Nach allem was ich bisher gesehen habe, wird das aber noch ein Weilchen dauern. Frühstens ab der übernächsten Generation, also 2011. Der 6000der soll ja nur ein Refresh werden.
 
Zuletzt bearbeitet:
@Vidy_Z

Nach so vielen Märchen frage ich mich, ob du wirklich etwas von der Materie verstehst oder nur Marketingaussagen, oberflächliches Halbwissen und dergleichen kennst. Wie war das nochmal mit dem "Wunsch der Vater des Gedanken"? Der scheint bei dir extrem ausgeprägt zu sein.

Ok, halten wir uns an die Wahrheit und vergleichen mal alle Fakten. Es ist falsch, dass nVidia weniger Shader hat. nVidia hat 512 CUDA Cores, ATI 320 Stream Cores. Dazu taktet nVidia die Kerne auch noch deutlich höher. Wer hier die leistungsfähigeren Kerne hat, sollte klar sein. Das ist ATI.

Es ist völlig unerheblich, ob du 100, 1000 oder 2000 Shader zur Verfügung hast. Solange die Software entsprechend parallelisierbar ist, werden auch alle Shader genutzt. Die ATI Architektur skaliert hier sogar ziemlich gut. Probleme kann es maximal bei Multi-GPU Setups geben. Das ist aber ein anderes Thema und betrifft nVidia genauso.

Es ist völlig unerheblich, ob auf Fermi ein "spezialisiertes Linux" laufen kann. Eine GPU ist und wird auch in Zukunft kein Chip sein, auf dem Betriebssysteme laufen. Das dokumentiert nur nVidias Hilflosigkeit, dass sie kein CPU Design haben und am Markt vorbei entwickeln.

Die Komplexität ist nicht der Grund für Fermis enorme Hitzeentwicklung. Wie du dir vorstellen kannst, ist auch ATIs Architektur höchst komplex. Fermi ist einfach nur ein ineffizientes Design. Und das liegt vor allem an der veralteten Shader-Architektur, die immer noch G80 als Basis hat.

Bei doppelter Genauigkeit für Gleitkommazahlen (ja, so nennt sich das, und nicht "2x genaue Gleitkommaberechnung" :rolleyes: ) muss nVidia die Performance gegenüber einfacher Genauigkeit genauso herunterschrauben. Das betrifft also nicht nur ATI. Das ist trotzdem kein Pluspunkt für nVidia. Sie schaffen es damit lediglich zum ersten Mal, zumindest ansatzweise auf den theoretischen Durchsatz von ATI mit Single-GPU zu kommen. nVidias Chips bleiben dennoch weitaus grösser und stromhungriger. Und bei einfacher Genauigkeit liegen sie weiterhin abgeschlagen zurück.

ECC mag zwar ein Nice-to-have Feature sein, vermutlich wird auch ATI in Zukunft eine Option für professionelle Karten anbieten, es ist momentan aber relativ unbedeutend für zukunftsorientierte GPU-Märkte, wie Cloud-Computing oder Wissenschaft. Beim ersten ist es nicht notwendig und beim zweiten kommen ganz andere Techniken zur Validierung von Daten zum Einsatz.

Richtig, viele reale Vergleiche gibt es bisher noch nicht. Die es gibt, zB Elcom Passwortentschlüsselung, sprechen aber keinesfalls für nVidia.

CUDA wird mehr und mehr bedeutungslos für den Markt und in Zukunft maximal für Speziallösungen noch genutzt. Der Markt öffnet sich und mit OpenCL und DirectCompute stehen glücklicherweise hardwareunabhängige Lösungen zur Verfügung. nVidia wird es also nicht helfen, weiterhin schlechte Hardware zu bauen und sich dann hinter ihrer Software zu verstecken.

ATI steckt sehr viel Aufwand in Stream und OpenCL/DirectCompute. Und gerade mit den Fusion-Produkten wird das sicherlich nochmal intensiviert. Solcher Mumpitz, ATI würde hier irgendwas vernachlässigen, ist eine dreiste Lüge.

nVidia erfindet mit seiner Hardware überhaupt nichts neu. GPGPU gab es schon lange vorher. Es war eher die Konkurrenz, die Impulse gesetzt hat. So hat ATI zB als erstes doppelte Genauigkeit für Gleitkommazahlen ermöglicht. nVidias Fermi ist einfach nur ein ineffizientes Design, das ein halbes Jahr nach der Konkurrenz kam. nVidia hat Entwicklungsrückstand, braucht zu viele Transistoren für die erreichte Performance, ist enorm stromhungrig und am absatzstarken Markt vorbei entwickelt. Das ist die traurige Wahrheit. Da gibt es überhaupt nichts zu beschönigen.

ATI gibt den Ton an, in allen Bereichen. Daran ändert auch eine GTX 460 nichts, die klar langsamer als eine HD 5850 ist und dabei immer noch mehr Strom und einen grösseren Chip braucht. ATI ist technologisch momentan eindeutig führend. Das muss man sich auch als nVidia Sympathisant eingestehen und kann nur abwarten, ob nVidia in Zukunft wieder bessere Hardware entwickelt.



chendal schrieb:
Und wegen der andern Punkte: eine TDP ist immer nur ein Richtwert der angegeben wird vom Hersteller damit man in etwa abschätzen kann wieviel Kühlung der jeweilige Chip benötigt. Die TDP ist keine physikalische Grenze der max. Leistungsaufnahme. Da haste irgendwo was falsch verstanden falls ich dich richtig verstanden haben sollte
Nein, du hast mich nicht richtig verstanden. Ich sagte nicht, dass TDP bei AMD irgendeine physikalische Grenze angibt. Es ist aber alles andere als ein Mittelwert, wie von dir behauptet. Die TDP bei AMD ORIENTIERT sich an der maximalen Leistungsaufnahme. Du wirst also keine AMD dazu bewegen können, die Leistungsaufnahme über die angegebene TDP hinaus zu treiben. Solange die CPU innerhalb ihrer Spezifikationen arbeitet, also Stromversorgung, Spannungen, Takt, etc.pp. Es gibt noch eine andere Metrik bei AMD, ACP, die einen Mittelwert für typische Server Workloads bei voller Auslastung beschreibt. Diese Metrik liegt deutlich darunter. Da kann man ungefähr abschätzen, in welche Richtung AMD TDP definiert.

chendal schrieb:
Der I5 750 z.b. hat ne TDP von 95 Watt und den kriegste recht leicht auf 135 Watt mit den richtigen Testprogrammen wie z.b. intelBurn
Intel definiert TDP auch anders als AMD. Wobei selbst 135 W noch nichts zu sagen haben. Woher stammt dieser Wert denn? Ist das der Unterschied des Gesamtsystems zwischen Idle und Last? Rechne da mal zB 80% fürs Netzteil und 80% für die Spannungswandler weg, dann bist du bei 86,4 W nur für die CPU. Vielleicht noch 5-10 W fürs Idle, da kommst du mit 95 W relativ knapp hin. Aber das bestätigt zumindest das, was schon länger bekannt ist. AMD setzt die TDP momentan höher an als Intel. Auch wenn es nicht mehr so wie zu P4 Zeiten ist. Da hat Intel wirklich nur einen Durchschnittswert angegeben.
 
Vidy_Z schrieb:
Oh nein, ein Autovergleich!
Dir scheint ja überhaupt nicht klar zu sein, dass der FermiChip, dafür dass er eine völlig neue Architektur besitzt und noch viel mehr für die Anzahl und Qualität der Futures mit denen er bestückt ist, einfach verdammt schnell unterwegs ist! Sry, aber scheinbar geht diese bemerkenswerte Ingenieursleistung bei dir zum einen Ohr rein und kommt am andern wieder raus. Kein Chip dieser Welt wurde bisher so umgekrempelt, ohne das ihn irgendwelche Anfangsprobleme begleitet hätten. Und schon in der zweiten Inkarnation in Form des 460 GTX scheinen die Temperaturprobleme weitgehend behoben.

Du scheinst mich nicht zu verstehen.
Überlege mal wie viel Sprit der LKW zieht und wie viel der PKW.
Klar kann man dafür mit dem LKW auch große Hänger ziehen, aber der Normale wird keine Anhänger ziehen.

Die GTX 470/480 sind Gamer Grafikkarten und damit Fails.
Wenn Nvidia sie zu was anderen einordnet, als zum zocken, dann sollte sie denen nen anderen Namen geben.

Und keiner kann mir jetzt sagen, dass nur die guten GTX460 oder kleiner Nvidia für die Gamergemeinde vorgesehen hat.

Solange GPGPU so viel Stromverbrauch bedeutet, sollte er lieber als eigenständiger Grakaserie laufen, aber nicht für die Gamergrakas...

€dit:
Denn für mich hat Nvidia einen wichtigen Trend verschlafen/nicht beachtet/nicht in ihr Chipdesign einbauen können.
Und zwar Green IT. Denn heutsotage schauen doch immer mehr auf den Stromverbrauch...

Du lobst die Fermi für Features die 99% der Leute nicht brauchen und bedeuten, dass die Graka heiß ist und einen hohen Stromverbrauch hat.
 
Zuletzt bearbeitet:
@gruffi: Die Watt Angaben hab ich aus Test der C´t...glaube das war Ausgabe 6 oder 7 aus diesem Jahr. Die haben das gemessen inkl. SSD und Netzteil....also nicht nur die reine CPU. Die reine CPU wird ja imgrunde nie direkt messbar sein können aufgrund der Angaben die du schon gemacht hast. Insofern vergleicht man ja aber dennoch Äpfel mit Äpfel weils ja bei jedem CPU Test das gleiche Verfahren ist.
Hängt z.b. alles auch viel vom Netzteil ab wie effizient das ist und auch von so Faktoren wie den Spannungswandlern.
Mußt mal schaun...die hatten da einen riesen Test mit etlichen AMD und Intel Prozzis...fand die Übersicht total hilfreich und hole die immermal wieder raus.

Aber genau da fängts eigentlich an interessant zu werden...setzt man z.b. Qualität ein wie ultra durable mainboards, langlebige Polymerkondensatoren, ummantelte Ferritkernspulen anstatt der herkömmlichen Eisenkernspulen sehen die Ergebnisse etwas anders aus als wenn man Billigteile verbaut hat wie sie vermutlich 95% der User haben.

Und versuch dir wirklich mal die Zeit zu nehmen (falls du da interesse hast) diesen Ct Bericht über die TDP durchzulesen...ich sehe das seitdem etwas anders :)
 
Zuletzt bearbeitet:
Die Notebook TDP bezieht sich aber nur auf die CPU oder GPU. Nicht kombiniert. Oder irre ich mich da?
Es gibt ja diese schwachsinns-Laptops mit dicker Quadcore-CPU und HD5870 Grafikkarte. Die haben sicher keine 45W TDP ;) Aus diesem Aspekt heraus betrachtet, ist es durch aus möglich das der Bulldozer eine diskrete Grafikeinheit mit 480 Shaderunits schlägt...
 
Die TDP bei den Llano´s gilt immer für die APU komplett...also GPU + CPU :) ne mobility radeon 5870 schluckt ja allein schon bis zu 50 watt...so leistungsstark wirds sicher nicht werden ;)
aktuell gibt z.b. AMD für so prozzis wie dem 250u oder 260u ne TDP von 25 Watt an...wenn man die aber mal beheizt verbrauchen die auch bis zu 50 watt...also bis zum doppelten der TDP..natürlich geht da noch ein bißchen was aufs konto vom netzteil...usw....
Also...hmmm ml subjektiv geschätzt: der Begriff Netbook in Verbindung mit - keine 3d Leistung sollte es zumindest bald nichtmehr geben
So eine kleine 18 Watt TDP APU in einem lüfterlosen, geräuschlosen (bis aufs optische Laufwerk) Netbook mit SSD drin wäre was feines mit dann ca. 6 Stunden Laufzeit...aber Laufzeit in der man zockt und nicht surft :). Die 18 Watt Version sollte schon ca. um das 3-4 fache den ion2 übertreffen können.
Ist einfach kein Atom im Hintergrund der tierisch bremst und ne abgespeckte, beschnittene G218 die als Ion2 nun bezeichnet wird ist klar schwächer.
Llano sollte auch für gelegenheitsspieler wie mir reichen. Ich freu mich auf das was kommt :)
 
Zuletzt bearbeitet:
@ gruffi
Nachdem ich mich mit dem Thema nochmal eingehend beschäftigt habe, muss ich feststellen, dass unser beider Aussagen teilweise massiv neben den Tatsachen liegen. Beispiel:

- Weder hat ATI bei der Entwicklung seiner RD870 GPGPU den Blick auf GPGPU Anwendungen verloren,
- noch ist der GF 100 ein Aufwasch des GT200b Designs.

- AMD hat die Hardware des RD 740 quasi verdoppelt und mit einigen Extras für GPGPU Anwendungen ausgestattet,
- während der GF100 tatsächlich ein komplett neues Design darstellt, dass(wie es ja auch im Vorfeld ankündigt wurde) um so radikaler auf GPGPU optimiert wurde.

- Glaubt man den schon etwas älteren Benches von Planet3dNow!, Ist die GPGPU Leistung einer 5850 gegenüber einer 4870 um 1/3tel gewachsen, während
- Nvidia(bitte mit Vorsicht genießen) beim Sprung vom der verhältnismäßig schwachen GT200b auf den Fermi von einer Leistungsverdreifachung spricht.

- Während sich die Fließkommaauflösungen beider Chips lange nicht so einfach unterscheiden lassen wie von mir beschrieben,
- hast du beim RV870 von ATI die Shadercluster mit den eingentlichen Shadern, den Streamprozessoren verwechselt, von denen der RV870 tatsächlich 1600 Stück besitzt.

Quellen:

GPGPU Computing - ein Überblick für Anfänger und Fortgeschrittene@Planet3dNow!
GPU Computing - Review und Analyse@Planet3dNow!
Nvidia Fermi-Architektur@hardware-infos
ATI Radeon HD 5870@hardwareluxx


Da fast alle Aussagen theoretisch sind, weder praxistaugliche Benchmarks, noch Erfahrungswerte zu existieren scheinen, bringt das auf dieser Diskussionsbasis schon mal gar nichts mehr. Das juckt jetzt zwar noch etwas, aber tatsächlich wird sich erst nach einem glaubhaftem GPGPU Vergleich die Fermi/RV870 Diskussionen sinnvoll zu Ende führen lassen(und bestimmt nicht nur diese Diskussion hier). Hoffentlich geschieht das bald, ich freue mich ebenfalls schon darauf.


@JokerGermany
Na, ich würde sagen, das es auf keinen Fall Nvidias Absicht war, den GamerMarkt zu brüskieren. Andererseits konnte man aber auch schlecht vom GPGPU Design, in dem man die Zukunft sieht, wieder abrücken. Der unreife Chip war schkichtweg die einzigste Alternative zu einer weiteren Verspätung.

Grüße
 
abwarten und tee trinken, das ist alles nur theorie was hier vorgetragen wird. erst wenn es erste test gibt kann man weiter drüber reden.
 
Vidy_Z schrieb:
@JokerGermany
Na, ich würde sagen, das es auf keinen Fall Nvidias Absicht war, den GamerMarkt zu brüskieren. Andererseits konnte man aber auch schlecht vom GPGPU Design, in dem man die Zukunft sieht, wieder abrücken. Der unreife Chip war schkichtweg die einzigste Alternative zu einer weiteren Verspätung.

Klar kann man, indem man 2 verschiedene Chips produziert. ;)
Ist bloß sehr teuer ;)

Aber wir werden sehen ob es richtig ist.
Denn auch AMD schläft nicht und wenn Nvidia in Zukunft immer mehr Stromverbraucht wegen GPGPU Zeugs, was 99% der Leute nicht brauchen, dann begeistert mich die nicht wirklich...
 
Was man sagen kann ist, dass
- OpenCL einfach als weiterer Befehls- oder Compilationslayer auf die unverändert verbleibenden Brooks(Ati) bzw. Cuda(Nv) Einheiten quasi "aufgestüllpt" wird, dass
- die Floting Point Einheit des Fermi mehr Funktionen in DP bereitstellt als RV870(zu den Funktionen gehören außer +, -, x , : etwa auch Sinus, Cosinus, Tangens), dass
- dem Fermi mehr und komplexere Befehle hinzugefügt wurde als dem RV870, immer im Vergleich zum jeweiligen Vorgänger, dass
- Fermi ein Vielfaches an Cache besitzt,
und das diese Extras, welche explizit den GPGPU Berechnungen dienen, ganz bestimmt nicht zur Kühlung des Chips beitragen :-).

Und was ich jetzt, nach dem ich vor allem ausgeschlafen bin, feststelle ist, dass ich mir zwar vorwerfen muss dass ich die GPGPU Entwicklung bei AMD viel zu schwarz gemalt habe, aber die eigentliche Tendenz der Entwicklung sehr wohl richtig begriffen und wiedergegeben habe und dass man das Groh der Aussagen von gruffi nach dem Motto:
ATI gibt den Ton an, in allen Bereichen.
als, sry. aber, reinstes, aus der Luft gegriffenes, und stellenweise schlichtweg falsches Fangelaber abtun kann.

Eigentlich freue ich mich darüber, dass Ati die GPGPU Entwicklung durchaus nicht vernachlässigt hat. Trotzdem hat Ati den Focus viel eher auf Spieleperformance gelegt, wogegen Nv mit dem Fermi das momentane Maß der Dinge in Sachen Programmierung und Flexibilität von GPGPU Anwendungen in der Hand hält. Das kann man anhand der Links, die ich im obigen Post gesetzt habe, jederzeit herauslesen, das ist also keine Theorie mehr sondern belegte Tatsache.

Nur zu dem was hinten rauskommt, sprich: zur eigentlichen Performance, kann man in Ermängellung entsprechender Benchmarks noch überhaupt keine Aussage für Realanwendungen treffen, was natürlich ein bisschen doof ist :-).

Grüße

Edit: @JokerGermany
Also ich könnte das brauchen, hehe. Aber wer weis denn schon was die GPU denn alles unterstützen könnte. Ich denke dass sich da noch ein paar Spielräume auftun würden, wenn man mal kreativ darüber nachdenkt :).
 
Zuletzt bearbeitet:
@Vidy_Z

Meine Aussagen liegen keinesfalls "neben den Tatsachen". Das trifft maximal nur auf deine zu. Also jetzt bitte nicht auch noch versuchen, das eigene Falschwissen anderen in die Schuhe zu schieben.

Was soll denn die Aussage "Weder hat ATI bei der Entwicklung seiner RD870 GPGPU den Blick auf GPGPU Anwendungen verloren" bedeuten? Kannst du das nochmal auf Deutsch formulieren? Und was ist ein RD870? Ist das ein Typo und du meinst damit RV870?

Der GF100 ist zwar ein neues Design, genauso wie RV870, er basiert aber nach wie vor auf der schon beim G80 und G200 verwendeten Architektur. Der grundlegende Unterschied ist, nVidia musste einfach mehr ändern, da sie das auch dringend nötig hatten. ATI hatte eine bessere Basis, wie einheitliche SP/DP Shader oder vorhandene Tessellation Einheiten.

Was soll ein Vergleich mit HD 5850 und HD 4870? Das sagt doch wenig aus. Der Nachfolger der HD 4870 ist die HD 5870. Und dort hat sich die GPGPU Performance praktisch verdoppelt, teils sogar mehr aufgrund von höherem Takt, verbesserter IPC und der Erweiterung der ISA. Ich sehe bei Planet3DNow übrigens keine HD 4870, sondern eine HD 4890. Und diese hat nicht nur über 17% mehr Takt gegenüber einer HD 5850, die HD 5850 ist auch beschnitten bezüglich Shader gegenüber der HD5870. Wenn du also zwischen HD 4890 und HD 5850 doppelte GPGPU Performance erwartest, dann hast du das offensichtlich nicht beachtet. Der Unterschied dürfte eher bei etwa 50% liegen (1440 / 800 * 725 / 850), wie auch Planet3DNow anhand der Übersicht über die theoretische Performance zeigt. Und diese Performance spiegelt sich weitestgehend auch real wieder.

Milkyway@home: +49% (33% im Artikel sind falsch)
Collatz@home: +74% (75% im Artikel aufgerundet?)
distributed net: +43%

Und hier sieht man auch, wie weit abgeschlagen nVidia schon mit dem G200 ist. Die GTX 275 kommt nicht mal auf 50% der Performance einer HD 4890. Von der HD 5000 Serie ganz zu schweigen. Lediglich folding@home tanzt aus der Reihe. Dass man hier unterschiedliche Clients nutzt und der für ATI völlig veraltet ist, sollte aber bekannt sein.

Ich habe beim RV870 auch nichts verwechselt. Anscheinend kennst du nur den Aufbau der Architektur nicht. "1600 Shader" ist nur Marketing, damit Printmedien eine Vergleichsbasis haben. Das Gegenstück zu nVidias CUDA Core ist ATIs Stream Core. Und da steht es 512 zu 320. ATI verfolgt mit VLIW und mehreren PEs pro Kern einfach einen anderen Ansatz, der gerade für hoch parallele Architekturen äusserst vorteilhaft und effizient sein kann. Wie man ja auch sieht.

Und ja, du hast ATIs Entwicklung viel zu schwarz gemalt. Im Gegensatz zu meinen Aussagen war das "Fangelaber" von dir. Und nein, ATI hat seinen Fokus nicht nur auf Spieleperformance. AMD hat seinen Fokus auf eine ganze Reihe von Faktoren. Und dazu gehört auch GPGPU. AMD hat im Gegensatz zu nVidia nur begriffen, dass es keinen Sinn macht, am Markt vorbei zu entwickeln, mit zu grossen, unwirtschaftlichen und ineffizienten Designs, egal wie viel Funktionalität diese im Endeffekt haben. Und deshalb ist Fermi auch nicht das momentane Masz der Dinge in Sachen Programmierung und Flexibilität von GPGPU Anwendungen. Das kann ein Chip, der schlichtweg zu ineffizient und zu verschwenderisch mit Transistoren- und Power-Budget umgeht auch gar nicht sein. Und die von dir verlinkten Artikel zeigen das auch wunderbar, auch wenn Fermi dort noch nicht enthalten ist. Bei GPGPU legt die HD 5000 Serie ebenfalls die Messlatte sehr hoch, die Fermi noch nicht überspringen konnte. Zumindest ist er bisher jegliche Nachweise schuldig geblieben. Da kann nVidia im Vorfeld von mir aus erzählen, was sie wollen.

Ich würde ausserdem auf einen GPGPU-Vergleich von Fermi und Evergreen nicht hoffen. ATI wartet schliesslich nicht solange, nur weil nVidia nicht in die Gänge kommt. Fermi wird sich in den kommenden Monaten und im kommenden Jahr mit Southern/Northern Islands auseinandersetzen müssen. Southern Islands ist ja bereits für Oktober anberaumt, also noch etwa 2 Monate.
 
gruffi schrieb:
ATI würde hier irgendwas vernachlässigen, ist eine dreiste Lüge.

Warum ist dann für die Stream SDK 2.1 immernoch nur OpenGL1.0 und nicht 1.1 verfügbar?
 
@gruffi

Wie du es bezeichnest magst will dir ja keiner vorschreiben, jedenfalls hat der RV870 1600 kleinste Recheneinheiten und muss Aufgaben 1600x parallelisieren um optimal zu arbeiten. Das gelingt bei klassischen Graphikberechnung in Spielen natürlich sehr gut, und auch in folding@home Projekten u.Ä., aber danach wird es bereits eng. Etwa lässt sich eine zu komprimierendes Video schon nicht mehr so optimal streamen, weil ja abhängig vom Bildmaterial und dessen Aufeinanderfolgen, die Datenmenge und die Berechnungsanforderungen ständig wechseln.

Und bevor ich´s vergesse: bei solchen Inhaltsbefreiten Powerphrasen wie "ATI gibt den Ton an, in allen Bereichen.", da musst du dir schon selber an die Nase fassen, wenn du sowas unbedingt in die Welt setzen musst! Das ist dann übrigens ähnlich anstrengend, wie das lehrermäßige Breittreten selbst des kleinsten Begriffsverdrehers.

Ansonsten einfach nochmal die Betonung auf:

- OpenCL ist praktisch nur für den Programmierer relevant, der die Sprache halt erlernen muss. Tatsächlich generiert ein Compiler daraus wiederum Brook-(Ati) bzw. Cuda-(Nv)code.
- die Floting Point Einheit des Fermi stellt mehr Funktionen in DP bereit als die des RV870(zu den Funktionen gehören außer +, -, x , : etwa auch Sinus, Cosinus, Tangens)
- Fermi wurde beim Generationswechsel mit mehr und mit komplexeren Befehle erweitert als der RV870 im Verhältnis zu seinem Vorgänger.
- Fermi besitzt ein Vielfaches der Cachegröße sowohl seines Vorgängers als auch des RV870
- diese Extras dienen ausschließlich der GPGPU Berechnung (etwa ist bei der Berechnung von Spielegraphiken deren Daten sich optimal streamen lassen, ein Cache nahezu überflüssig)
- diese Erweiterungen tragen natürlich dazu bei, dass das Die größer wird und dass sich die GPU mehr strärker erwärmt.

Du weist ja, kannst du schön alles oben nachlesen.

Ati hat das Hauptaugenmerk beim RV 870 auf die Spieleperformance des Chips gelegt, wohingegen Nv mit dem Fermi das momentane Maß der Dinge in Sachen Programmierung und Flexibilität von GPGPU Anwendungen in der Hand hält.
Das kann ein Chip, der schlichtweg zu ineffizient und zu verschwenderisch mit Transistoren- und Power-Budget umgeht auch gar nicht sein.
Oh je! was knotest du den jetzt wieder zurecht? Kingt irgendwie wieder wie so ne Powerphrase.
Bei GPGPU legt die HD 5000 Serie ebenfalls die Messlatte sehr hoch, die Fermi noch nicht überspringen konnte.
Wie denn auch, wenn der Fermi bisher niemals/niergens mit der HD 5000 verglichen wurde???(Kopfschüttel).
Und die von dir verlinkten Artikel zeigen das auch wunderbar, auch wenn Fermi dort noch nicht enthalten ist.
Der Satz spricht glaube ich für sich selber.


Als Benchmark würde ich mich persönlich schon mit der Vray RealtimeTime Performance zufriedengeben :-). RT-Rendering dürfte wohl ohnehin zu einer der wichtigsten GPGPU Aufgaben im Workstationbereich werden. Und Chaos Computer arbeitet ja bereits an einer OpenCL Implementation.
 
Zurück
Oben