News GTX 580: Benchmarks und Infos zu TDP sowie TMUs

Ich finde es wesentlich interessanter das Media-Markt wieder AMD verkauft wer auf der Homepage geht sieht das die AMD Notebooks seit gestern vertreiben :D jetzt muss nur noch Saturn AMD verkaufen und dann ist die Welt inordnung :D ^^
Na ja ich denke mal das Sie da an der News irgendwas nicht stimmt da die Graka bis zu 20-30% mehr Leistung haben soll und dann aber noch weniger strom verbrauch- das ist Nvidia ich denke eher nicht das es so extrem ist, und die daten ZUM TEIL falsch sind , na ja und wenn doch auch nicht so schlimm ich denke das der Cayman 6970 schneller sein wird als die GTX580 dafür mehr verbrauch hat höchstens in Tesselation wird die vielleicht etwas schneller sein als die HD6970 also meine vermutung x) Na ja vielleicht hat Nvidia auch endlich wider ein heißes Eisen. Es bleibt spannend aber mein Favorit ist die HD6970 bis jetzt,
wenn die GtX580 rauskommt rechtzeitig und nicht irwann werde ich evtl.
besser vergleichen müssen was ich doch nehme obwohl ich bei AMD sehr zufrieden bin.
 
Also, das scheint mir alles doch ein wenig unrealistisch... Erstmal sind da die 128 TMUs, die ein Redesign des Chips erforderlich machen und auch die Transistoren-Anzahl nochmals erhöhen würden. Zweitens ist da die angebliche Mehrleistung: Wenn man die Anzahl der Shader-Prozessoren um 6,7% erhöht und den Takt auch nur um 10%, dann können damit kaum 20% mehr Leistung generiert werden. Gut, nehmen wir mal an die Daten stimmen soweit tatsächlich und tun so als könnten eine Menge TMUs die Leistung so signifikant steigern.
Damit kommen wir zu Punkt 2, wo man spätestens ins Grübeln kommt wenn man unter diesen Gesichtspunkten die TDP betrachtet und sich vor Augen führt, dass die GTX580 in gelicher Fertigungsgröße daherkommt wie ihr Vorgänger. Wie soll man mit einem größeren, komplexeren Chip, der auch noch höher getaktet ist eine geringere Verlustleistung erzielen? Das ist IMO nur möglich, wenn es Nvidias Wissenschaftlern tatsächlich gelungen ist die Zauberei zu erfinden... Also ich halte es für praktisch unmöglich diese Karte so auf den Markt zu bringen. Entweder deutlich mehr Leistung und höherer Stromverbrauch, oder geringer Leistungszuwachs und gering erhöhter Stromverbrauch. Überhaupt halte ich es für wahrscheinlicher, dass die GTX580 mit 64 TMUs erscheint. Einfach ein voll ausgebauter Fermi-Chip.
 
Lord Horu$ schrieb:
Meine vermutung zum GF110 sieht folgender Weise aus, dass er dass ist was nVidia ursprünglich geplant hat. Für mich sieht das jetzt so aus, dass der GF 100 damals wirklich nur kam damit nVidia was in der Hand hatte, wie so viele schon vermutet haben.
...
Wenn das wirklich stimmt und ich bin da GAAAAAAAANZ vorsichtig, dann müsste nVidia das Ganze von vornherein geplant haben, mehr oder minder. Sie bringen den GF 100 raus, damit die Fans ihre (entschuldigt die Wortwahl) Schnautze halten ...

Der Beitrag macht keinen Sinn. Der GF100 kam nicht zu früh auf den Markt sondern falsch entwickelt. Der GF110 ist wie schon der GF104 ein massiver Umbau, weil der Fermi anfangs in die falsche Richtung entwickelt wurde

Haudrauff schrieb:
Warum glauben alle, dass die arbeiten am GF110 erst nach release der Fermis begonnen hat?:rolleyes:
Haudrauff schrieb:
Ein Team um dem GF100 endlich in die Serienproduktion übergeben zu können, das andere Team werkelt bereits am GF110.

Und wer hat den vollkommen nötigen GF104 erarbeitet? Dessen Entwicklung hat bestimmt schon vor GF100 Release begonnen weil man ja wusste was dabei rauskommen wird. Egal, ich wundere mich jeden falls, dass der Chip schon fertig sein soll. Wobei 10-15% Mehrleistung (in Spielen) und 6W weniger TDP nicht gerade viel sind. Wenn das aber wieder eine echte TDP ist, dann ists ein großer Schritt nach vorne.
Denke die 5970 wird schneller sein.
 
192.168.1.1 schrieb:
...Das ist IMO nur möglich, wenn es Nvidias Wissenschaftlern tatsächlich gelungen ist die Zauberei zu erfinden....

Die Zauberei wurde schon lange vor dem GF110 erfunden *klicki-di-klick*

Und zum Thema:

Es ist schon erstaunlich. In jedem GraKa-Tread hier wird gefordert, dass Fortschritt nur bedeuten kann und akzeptiert wird, wenn eine höhere Rechenleistung mit einhergehender Leistungsabnahme verbunden ist.
Und dann kommt mal ein GraKa-Hersteller und sagt, wir haben jetzt mehr Leistung bei niedrigeren Stromverbrauch und dann glaubt es doch keiner.
Also wenn ihr es sowieso nicht glaubt, warum wird es immer wieder eingefordert?


PS: Also ich sage nicht, dass das Stimmt was da in der News steht oder glaube es jetzt einfach so. Ich sage, wie schon so oft, her mit den Tests und Benchmarks.
Diese News werde ich dann hinterher Bewerten.
 
Zuletzt bearbeitet:
Haudrauff schrieb:
Warum glauben alle, dass die arbeiten am GF110 erst nach release der Fermis begonnen hat?:rolleyes:

>>>Merkste watt<<<

Du anscheinend nicht! Ich glaube es auchnicht das war Sarkasmus ein Zaun mitm Winkerm ein Wink mitm Zaunpfahl.
Außerdem würde das nicht kommen, wenn du mein post GELESEN hättest. Denn wüsstest du, dass ich geschrieben habe, dass nVidia den GF 100 rausgebracht hat damit sie ersteinmal was haben um im stillen am Vollausbau weiterzuarbeiten.
 
meine bescheidene Vermutung bzgl der 20% weniger Energie und 20% Mehrleistung....

Diese Werte muss man getrennt voneinander sehen.

nvidia hat mitgekriegt das der Idle Verbrauch zu hoch ist, also haben sie diesen um 20% senken können, an Volllast hat sich nicht soviel getan und sie haben die Taktschraube nach oben gedreht. Wahrscheinlich haben sie mitgekriegt das man viel Energie sparen kann durch weniger Spannung wie es in den Foren gezeigt wird das die GTX480 mit weniger Volt klar kommt.
Also einfache Spannungssenkung durch verbesserte Chipproduktion ist dann auch kein toller Wurf.
 
nom3rcy schrieb:
an alle die sich eine gtx480 gekauft haben.. pech gehabt.... nvidia betreibt da ganz große abzocke..
mal sehen ob sie am ende wieder als sieger vorrangehen nach dem 6970 launch
aber so purzln hoffentlich die preise in den keller.. wenn konkurrenz besteht am markt

Naja, das da nach 9 Monaten etwas 15-20% schnelleres auf den Markt kommt ist nun wirklich keine Weltveränderung. Sollten die GF110 wieder erwartend doch 20% weniger Abwärme produzieren, bei gesteigerter Leistung, wäre das eher ein Grund für Erregtheit Meinerseitz !

Ich glaube in den am Markt befindlichen Spielen wird die 6970 die Leistungskrone übernehmen, wenn auch nur knapp und vorrübergehend !

Wenn diese 580 der Grund ist, weshalb ich demnächst hoffentlich eine zweite 480 für unter 300€ kriege, dann immer her damit :)

Lars_SHG schrieb:
Was die Karte angeht, für mich bedeutet diese Karte - so sie denn so kommt - dass nVidia die GTX470/480 sofort nach Release schon begraben hat. Denn diese wurde offensichtlich doch größer überarbeitet, immer vorausgesetzt, dass die Daten stimmen!

Wird hier seitens nVidia gemogelt und die Karte zieht auch wieder ~300 Watt bei rund 10 - 15% Mehrleistung (Cherry-Picking hat nVidia ja schon immer gemacht), käme das einem zweiten Fail gleich und unterstützt die Theorie, dass alles bei nVidia nur noch auf max.

Warum die 470 und 480 vom Markt verschwinden sollten, weil diese 580 rauskommt, erschließt sich mir nicht ganz ?

NV mogelt mit seinen horrenden 250 Watt nicht, Furmark ist Mummfitz und hat mit der Realität nichts zu tun !

Clusted schrieb:
Verstehe die Konzepter nicht, wieder so nichtsaussagende Benches für pubertierende CS Gamer.

Geht ja wieder los wie zur 300 und 400er Reihe, vollmundig wurde versprochen bis zu 100% mehr Leistung etc.

Am Ende wurdens dann doch 10% mit 100 Watt Verlustleistung oben drauf zu einem erneut gestiegenden Preis.

Wer im Produktmanagement so schlechte Entscheidungen fällt, hat in einem Unternehmen dieser Art nichts verloren.

Und ich bin kein Gamer, kein ATI Fanboy oder ähnliches, mir gehts bei meiner Aussage nur um das Konzept.

Dieser Post erhält den goldenen complett-fail Award von mir !

T-DSC schrieb:
Wenn sich das ganze aber dann wieder durch hohe Temperaturen und einen lauten Lüfter erkauft wird - sehr schade

Das ganze wird genau so laut wie bekannt (GTX480)

Lilwheezy0707 schrieb:
Ich hoffe mal das Nvidia aus den 1.5 GB noch 2 macht, dann sind sie gleich auf mit ATI, welche so wie ich gelesen habe mit 2 GB Vram kommen soll.

Ne Version mit 3 GB Ram für 3d Vision Surround und Karten im Tripple wäre sicher sinnvoll.

Ansonsten scheinen doch die 1,5GB Ram selbst bei einen Tripple 480 Gespann gut zu funzen, zumindest in aktuellen Games und großen Auflösungen.
 
Haudrauff schrieb:
Und dann kommt mal ein GraKa-Hersteller und sagt, wir haben jetzt mehr Leistung bei niedrigeren Stromverbrauch und dann glaubt es doch keiner.
Also wenn ihr es sowieso nicht glaubt, warum wird es immer wieder eingefordert? .

In diesem Fall hat es aber nun einmal kein GraKa Hersteller gesagt, sondern irgendeine chinesische Seite ohne Quellenangabe ... da darf man schon mal skeptisch sein, IMHO ;)

Heißt natürlich nicht, daß das zwangsläufig falsch sein muß ... nur hat diese Meldung lediglich den Status eines Gerüchtes.
 
Da keiner weis unter welchen Bedingungen die angeblichen Benchmarks gemacht wurden, warten wir einfach das Duell ab Radeon 6980 VS. GTX 580 ...

Das bekannte Ziel wissen ja alle von N. ... sie wollen 10% über der 6980 liegen. Mal gucken wie gut das klappt und mit welchen Kompromissen bei Preis/Leistung & Verbrauch/Lautstärke.

Abwarten und Tee schlürfen :)
 
Pumpi schrieb:
Warum die 470 und 480 vom Markt verschwinden sollten, weil diese 580 rauskommt, erschließt sich mir nicht ganz ?
NV mogelt mit seinen horrenden 250 Watt nicht, Furmark ist Mummfitz und hat mit der Realität nichts zu tun !

1. Die GTX470 wirf bei dem Preis auf den sie durch die 6870 gedrückt wurde keinen Gewinn für NV ab. Der Chip ist einfach zu groß für das was er leistet. Vergleiche bei Gelegenheit mal die Größe mit jener von AMD GPUs oder gar mit CPUs und deren Preis.
2. Wovon gehst du aus? Du solltest dir die Definition der TDP nochmal ansehen. Da gehts nicht mal ansatzweise um die reale Leistungsaufnahme von Spielen. Die theoretische 100% Vollauslastung müsste durch die TDP auch gedeckt sein, damit es keine Probleme geben kann. (Denk auch mal an GPU-Processing. Da sollten solche Auslastungen über längere Zeit hinweg sogar möglich sein.)
 
Die Karte sofern man den Angaben und Quellen trauen kann wird um die 200W fressen, da zeigt sich doch, das AMD da schon weiter drunter liegt. Bin Gespannt, bisher hat AMD das sagen, Nvidia hinkte die meiste Zeit doch deutlich zurück. Da zeigt doch deutlich das AMD damals mit ATI die richtige Fusion gemacht hat. Intel könnte sich locker Nvida unter den Nagel nehmen, bisher haben sie es nicht gemacht. Was sich spätestens nach dem Release von Bulldozer, Bobcat, Llano rechen könnte.
 
hoffentlich wird hier nicht wieder so ein hype gemacht wie damals bei der 480er karten und dann als sie wirklich getestet wurden war die enttäuschung groß.

also abwarten. jedenfalls trau ich dieser quelle garnicht.
 
Wird interessant. Vor allem dürfte die Karte der SSAA King auf Subsamplingebene werden dank den 128TMUs.
 
"Die Karte sofern man den Angaben und Quellen trauen kann um die 200W fressen, da zeigt sich doch, das AMD da schon weiter drunter liegt."

151 W für die "upper Midrangekarte" 6870 ist im Vergleich zu einer High-End Karte nicht "weit drunter"... die 5870 zieht 188 W und die 5970 294 W. Die Werte liegen doch so ca. im gleichen Bereich... solange die Kühllösung stimmt passt das schon alles.
 
@ sammybj
Was ist denn High-End? Wenn du die letzte Generation nimmst (5870) dann ist auch der Performanceunterschied nicht wirklich sonderlich groß. Wenn du eine GTX480 nimmst, dann liegt sie wirklich weit drunter.

Charlie hat übrigens folgendes verlautbaren lassen:
"A fully working GF100, a first for Nvidia's desktop Fermi/GF1x0 line, would have 512 shaders and get about a 7% speed increase over GTX480. Another 6% comes from the clock speed, a generous assessment would say bug fixes add a little more. All told, 20% net speed increase over GTX480 isn't out of the question, nor is a pretty decent lowering of power."
Darüber hinaus, soll es 2010 nur sehr geringen Zahlen der GTX580 geben. Bin gespannt! Bis auf das Namenchaos mit Northern/Southern Island hat sich der Mann schon lange nicht mehr geirrt.
Überflüssig zu sagen, dass es wieder gut für uns alle wäre, wenn es so knapp zur Sache geht wie im High-Midrange Segment. Da sieht man was durch Konkurrenz möglich ist. Innerhalb weniger Wochen können wir nun deutlich mehr Perfomance durch eindeutig günstigere Preise haben. Ist doch fein *freu*

Nochmal zurück zu den Entwicklungszeiten:
Es beeindruckt mich wirklich wenn NV den GF110 nun fertig und Serienreif hat. Man darf jedoch nicht vergessen, dass hier ständig am GF100 gefeilt wird, der vor 12 Monaten schon fertig sein hätte sollen. AMD ist seit langem voll im Zeitplan (bei GPUs selten unter Zugzwang) und hat nun schon länger Zeit sich um die nächste(n) Generation(en) zu kümmern. Mit der Umstellung auf 4D Shader ist auch schon einiges an Architekturumbau geschehen um SI dann gut auf den Weg zu bringen.
 
Zuletzt bearbeitet:
DvP schrieb:
1. Die GTX470 wirf bei dem Preis auf den sie durch die 6870 gedrückt wurde keinen Gewinn für NV ab. Der Chip ist einfach zu groß für das was er leistet. Vergleiche bei Gelegenheit mal die Größe mit jener von AMD GPUs oder gar mit CPUs und deren Preis.
2. Wovon gehst du aus? Du solltest dir die Definition der TDP nochmal ansehen. Da gehts nicht mal ansatzweise um die reale Leistungsaufnahme von Spielen. Die theoretische 100% Vollauslastung müsste durch die TDP auch gedeckt sein, damit es keine Probleme geben kann. (Denk auch mal an GPU-Processing. Da sollten solche Auslastungen über längere Zeit hinweg sogar möglich sein.)

1.) Sicher sind die 470/480 keine Goldgrube für NV, nur ihr Portfolio ist doch jetzt schon recht dünn und keine weiteren Ergänzungen, so schnell, zu erwarten. Irgendwas müssen sie ja mal verkaufen. Ich glaub NV kann nicht in jedem Jahr nur zu 50% der Zeit verkaufen :)

2.) OK, mag sein. Dann sag doch mal was so eine GTX 480 im GPU processing so verbraucht ? Gern auch ohne Belege oder Links. Ich kann mir nicht vorstellen das das 300 Watt und mehr sind !
 
MichaG schrieb:
Mich stimmen die genannten 128 TMUs sehr nachdenklich. 512 Shadereinheiten, quasi als vollwertiger GF100, sind ja plausibel, aber 128 TMUs würde heißen, dass Nvidia die 64 TMUs eines vollständigen GF100 verdoppelt hat. Dann müsste man am Design ja noch einiges verändert haben. :confused_alt:

Naja, eins muss man Nvidia lassen.
Sie benutzen nicht jedes mal die gleiche "Käufer-davon-abhalten-AMD-Karten-zu-kaufen" Taktik.
Weil soweit ich weiß war letztes Jahr zur selben Zeit noch keine solchen Benchmarks draußen^^

KdaAKzk 2.0 würde ich sagen^^
Ergänzung ()

Sephiroth51 schrieb:
Ich finde es wesentlich interessanter das Media-Markt wieder AMD verkauft wer auf der Homepage geht sieht das die AMD Notebooks seit gestern vertreiben :D jetzt muss nur noch Saturn AMD verkaufen und dann ist die Welt inordnung :D ^^

Wurde auch mal Zeit :)
 
Jocotty schrieb:
Weil soweit ich weiß war letztes Jahr zur selben Zeit noch keine solchen Benchmarks draußen^^
Zu der Zeit hatten sie ja nicht mal was lauffähiges was sie hätten präsentieren können, nur Laborkarten mit zig Kabeln, Sensoren etc dran was man niemals hätte präsentieren können.

Dazu sind diese Benchmarks sonstwoher, das macht man innerhalb von Minuten, dazu braucht es nicht mal Photoshop.

@Pumpi
Es nützt nvidia aber auch rein gar nichts Karten / Chips mit Verlust zu verkaufen. Das macht marktwirtschaftlich 0,0 Sinn, siehe letztes Jahre die GTX200er Karten
 
Zurück
Oben