News Erste Bilder zur Nvidia GeForce GTX 580

Solange ich Strom selbst bezahle und nicht auf Muttis Kosten lebe, wie einige hier, teffe ich
eine intelligente Entscheidung und kaufe diese Graka nicht. Auch wenn sie toll ist;)
Stromfresser und in 4 Jahren ca. 40,- EUR Wert, genaue wie meine jetzige 8800 GTX.
 
@Feuerferkel

mhm ja - da war doch auf die 5970 bezogen - eigentlich leicht verständlich!
MfG
 
Auf 100 gerechnet:

80 Watt statt 100 Watt
120 fps statt 100 fps

120/80=1,5 fps/W
100/100=1 fps/W

Steigerung um 50 % bei der Energieeffizienz

Ich halte die Performance/Watt dieser Karte für eine Ente. Im absoluten High End soll die als Refresh und ohne Shrink 50 % energieeffizienter sein?

Höchst fragwürdig...
 
Warum die Leaks vorwiegend in Asien passieren?
na weil die Karten zu 90+% dort gebaut werden... klingt logishc, oder?

Abgesehen davon... habe bis vor einem Jahr nur nVidia Karten gehabt... aber der Stromverbrauch ist einfach viel zu hoch.... jetzt habe ich eine HD4670, diese ist wunderbar sparsam und wird im passivbetrieb nur handwarm (idle, 19W). Unter Vollast (~60W) schaltet sich ein Gehäuse-Lüfter dabei.

Früher waren die ATI Treiber auch scheisse... der Detonator konnte alles..
Heute ist es anders herum...
 
Warum zum Henker verbaut Nvidia nicht endlich auch mal (Mini)Displayport im Referenzdesign?
 
Dafür bräuchte Nvidia nicht einmal was neu entwickeln.
Einfach ein GF100b mit allen 512 Shadern aktiviert und 100MHz - 150MHz mehr Takt und fertig ist die GTX580.
 
Erstmal warten ich denke der Preis wird sich im aktuellen High end segment wiederfinden. die gtx 480 würde ja auch günstiger werden sowie die amd 6900 karten da sind. und dann wird man weitersehen. ein release der nv und die 69 karten etwa zur gleichen zeit wäre sicher interessant
 
Das geht nicht bazoo, das sind 50% steigerung in der ee. Wie soll das gehen? ohne shrink etc? Und wenn es der vollausbau des fermi ist gehts schonmal gar nicht!
 
mal wieder Marketing wo was völlig neues Suggeriert wird aber garnicht ist...

werde ich wo auch wieder überspringen und warten bis die ersten DX12 Karten kommen die dann auch wirklich neues bieten und an Bord haben!
 
Gerüchte? Wohl eher kontrolliert gestreute Gerüchte um das Interesse der Händler und Endkäuferschaft zu wecken. Das ist präformale Werbung, getarnt als Gerücht gestreut. Funktioniert!
 
Project-X schrieb:
Grundsätzlich hast du recht, aaaber... GTX480 -> GTX580 mit 20% mehr Leistung ist bei weitem gerechtfertiger als;
HD5870 -> HD6870 die knapp bei der HD5850 herum schwirrt :rolleyes:

Unpassender und zugleich falscher Vergleich, in diesem Fall ist schlichtweg der Unterschied, dass bei nvidia ein unmittelbarer Nachfolger 20% mehr leistet quasi high-end zu high-end.
Bei Amd jedoch, kommen die Karten der älteren Generation sehr sehr nahe, und können diese jetzt schon durch das Preis/Leistungsverhältnis ersetzen, die eigentliche Nachfolger-Generation kommt ja November.
Mir ist durchaus bewusst, dass du das weißt, aber trotzdem kann man das nicht vergleichen, gerade da du das Wissen hast.

Das riecht förmlich nach einem Fake, um potenzielle Käufer davon abzhalten 6900 zu kaufen, als wenn nvidia fähig werde in dem Zeitabschnitt der übrigens weitaus geringer ist als der von Amd neue karten z releasen...
nachher wird sowieso wieder ne Packung hochgehalten.
 
+20% Fps bei -20% TDP sollten mit dem über Bord werfen von GGPU-Features und Co. nicht vollkommen abwegig sein, siehe GF104.
 
Nahezu 50% verbesserte Effizienz im gleichen Fertigungsprozess halte ich für übertrieben. Aber wir werden sehen, könnte durchaus eine nette Karte werden.
 
Milchwagen schrieb:
3. 20%mehr leistung riecht schwer nach übertaktet, aber die 20%weniger verbrauch für eine bessere struktur etc.

Naja warten wirs mal ab, ich denke die karte kommt eher nächstes jahr!

Wie kann man den eine Karte im Herstellungsprocess schon übertakten? Der Hersteller legt die Taktraten fest. Übertakten können sie nur die Boardpartner oder die Konsumenten.

-=OCC=-Raptor schrieb:
klingt schön und gut. aber wenn man an die vorab geschätzten leistungen der HD69XX Reihe denkt, ist sie in meinen augen keine große konkurenz.

ATI Soldat schrieb:
das Ding dürfte trotzdem tierisch laut werden und abartig Strom fressen, dann doch lieber die vermutlich schnellere und sparsamere ATI HighEnd Single GPU Version :D

Über beide Karten sind weder genaue Specs bekannt noch gibt es irgendwelche unabhängigen Tests.
Aber vermutlich ist die Eine besser als die andere. Oder ist vermutlich doch die andere besser als die eine? Ich vermute doch ersteres, also die vermutliche eine Karte die vermutlich anders ist als die andere vermutliche Karte...:freak:
 
iceshield schrieb:
Solange ich Strom selbst bezahle und nicht auf Muttis Kosten lebe, wie einige hier, teffe ich
eine intelligente Entscheidung und kaufe diese Graka nicht. Auch wenn sie toll ist;)
Stromfresser und in 4 Jahren ca. 40,- EUR Wert, genaue wie meine jetzige 8800 GTX.

Ja aber das ist ja bei allen sachen so.Du kauft dir heute ein neuwagen in 4 jahren ist das teil nicht mal mehr die helfte wert.Dann dürfte man sich ja nichts mehr kaufen.
 
Einfach ein GF100b mit allen 512 Shadern aktiviert und 100MHz - 150MHz mehr Takt und fertig ist die GTX580.
...das wird es wohl auch sein, aber weniger Energie? Schwer vorstellbar?
 
Ich glaube auch nicht daran, das Nvidia bei höherer Leistung eine geringere Verlustleistung hinbekommt. Da die GTX580 angeblich noch in diesem Jahr kommen soll, muß weiterhin auf 40nm TSMC gesetzt werden und was das bedeutet, das haben wir ja bei der 6850 und er 6870 gesehen.
Die Verlustleistung im Vergleich zu den 5850/5870 ist gesunken aber auch nur weil gut 450Millionen Transistoren weniger verbaut wurden, was sich wiederrum auf die Rechenleistung ausgewirkt hat.
Besonders die Anzahl der Shader fällt viel geringer aus und die so verlorene Rechenleistung konnte zum Teil nur durch einen höheren Shadertakt wett gemacht werden.

Daraus kann ich nur schließen, das die 58x0er schon sehr gut auf den TSMC-Prozess optimiert waren und ich gehe davon aus, das es für Nvidia so gut wie unmöglich ist, mit demselben Prozess mehr Rechenleistung bei geringerer Verlustleistung hinzubekommen, es sei denn, sie sparen ebenfalls an Architekturmerkmalen oder das Fermi-Design bietet doch noch Raum für Optimierungen, wovon ich weniger ausgehe, da ATI und Nvidia sicherlich ähnliche Tools benutzen.
 
Zurück
Oben