News Nvidia GeForce GTX 570 kommt am 7. Dezember

[Glaskugel]

Ich gehe auch davon aus, dass die 1,25GB auf 320 Bit bekommt. Sie wird dann leicht schneller sein als die 480, wenn die Taktraten bei etwa 730 sind. In Situationen, wo viel Speicher gebraucht wird, wird die 480 leicht vorne sein.

[/Glaskugel]

Wenn der Speicher mit mit 950 MHz taktet, zieht die mit meiner Karte auch gleich.

Thanok schrieb:
"Damals" war die Qualität des Kühlkörpers halt auch noch wichtig ;)

Bei meiner Karte wirkt der Kühler auch billig. Wenn man hinten in die Slotblende reinguckt, sieht man, dass diese Aluplatten schief stehen. Hat aber eh keine Wirkung auf die Kühlung.

Canopus schrieb:
Last (Furmark 1.6)
GTX 580 318W, GTX 480 308W.

Zieht die 580 nicht 350 Watt mit Furmark 1.8, nachdem man die Sperre umgangen ist?

In Spielen dürften aber beide nicht über 250 Watt kommen.
 
@all
Danke erstmal für eure Meinungen.
Meine 5770 wird bei 1920 mal 1080 schon ziemlich "geschunden" (Crysis und Mafia 2). Da käme eine etwas schnellere GraKa nicht schlecht, wenn das Preis-Leistungs-Verhältnis stimmt, was bei der 1GB-Version der GTX460 ja definitv der Fall ist (und hoffentlich mit der GTX560 ebenso sein wird).

Eine Frage wurde noch nicht beantwortet: Das Zusammenspiel der aktuellen GTX-Karten mit der Onboard-GraKa des Chipsatzes (Stichwort Hybrid-SLI), wo sich die Hauptkarte komplett abschalten kann, wenn sie nicht gebraucht wird).
Gibt es dieses Feature mittlerweile noch?

Merci!

LG
Martin
 
Banger schrieb:
Bei meiner Karte wirkt der Kühler auch billig. Wenn man hinten in die Slotblende reinguckt, sieht man, dass diese Aluplatten schief stehen. Hat aber eh keine Wirkung auf die Kühlung.

Ich bezog meine Aussage darauf dass bei meiner 4850(Referenzdesign - Gainward) ein Vollkupferkühler verbaut ist, wogegen die meisten neuen Karten viel Aluminium haben und nur einen vergleichsweise kleinen Kupferblock über der GPU.
Allerdings wäre eine High-End Karte mit Dual-Slot Kupferkühler sicherlich extrem teuer, wahrscheinlich wäre dann die Vakuumtechnik der 580 günstiger, von dem enormen Gewicht mal ganz zu schweigen.

Nur da die Karte derartig leise ist (Idle unhöhrbar und erst bei Assassins Creed II auf voller Grafik mit Mühe hörbar) bin ich natürlich etwas versaut.

Edit: Ich weiß dass AC 2 nicht so hungrig ist, sollte nur ein Beispiel sein
 
Zuletzt bearbeitet:
die Karte wird wohl ähnlich viel "gut" machen wie die 580, sprich bessere Lautstärke, Temps und Effizienz zu den Vorgängern. Stromverbrauch ist halt immer noch recht hoch, bleibt abzuwarten wie gut sich die HD69er in dieser Disziplin schlagen. Wird auf jeden Fall ein spannendes Jahresende auf dem Graka- Markt.
 
TNM schrieb:
Mir solls recht sein, auch wenn mich AMD arg enttäuscht, aber wer schläft wird eben unsanft aus dem Schlaf gerissen.

Wo hat denn AMD geschlafen? :freak:
 
Die ganze GF5** Serie ist der größte Marketingwitz seit der GF9er...
 
Zuletzt bearbeitet:
Das wird wohl eine Interessante Karte für mich werden ,
ich hoffe sie wird nicht weit über die 250 Euro Gernze Schiessen ???
weil so viel würde ich nur dafür hinlegen ,
ansonsten wird es nur ne 470 bei mir werden ,
mal ab warten und sehn was da noch alles so spannedes bei NVIDIA passieren wird !!!
;)
 
Weyoun schrieb:
1) "Leistung" => beide Karten haben zusammen gerechnet
2) "Sparsam" => Wenn kein Spiel lief, hat sich die Hauptkarte komplett stromlos geschaltet.

Gibt es das Feature heute noch bei den neuen Nvidias?

LG
Martin

der erste punkt ist absolut schwachsinnig, denn es würd nichts bringen bzw hätten die wirklich zusammen gerechnet hättest du einiges an leistung verloren, weil karte a rechnet ein bild dann kommt karte b und mach das nächste. bedeutet, dass bei deiner konfiguration die 8300 das ganze seeehr stark ausbremsen würde. außerdem ist hybrid-sli soweit ich weis gestorben weil die stormsparmodi der aktuellen grafikkarten sparsam genug sind und sich das ganze dann nich mehr lohnt.
 
Ich warte auch auf die GTX560 :)
Denke das wird leistungs-als auch verbrauchertechnisch die perfekte Karte für mich sein :)
 
Der Fanboy holt sich ohnehin eine Karte aus seinem "Fanshop".
Von daher ist dein Beitrag belanglos.
 
power-ito schrieb:

ich hoffe sie wird nicht weit über die 250 Euro Gernze Schiessen ???
;)

Da kannste locker nochmal n Hunni drauf schlagen.
 
Booby schrieb:
unter 300€ ?
Träum weiter, unter 350€ wird da nichts laufen, die GTX580 kostet 450€.
Höchstens wenn Cayman richtig hart einschlägt, gehts unter 300€

Naja die 580 ist schon bei 420€[alternate], kommen die ATIs wirds auch was mit den unter 400 und dann vllt. auch was mit 570 etwas über 300.

Ich brauch Geld, egal was die verbrauchen, schlimmer als meine 2 alten 8800 GTX kann es ja nicht sein :D
 
Weyoun schrieb:
Mal noch eine Frage: Unterstützen die GTX5xx eingentlich noch das Feature der Abschaltung der Hauptkarte im 2D-Windows-Betrieb bei 2 Grafikkarten?
Habe einen NForce-Chipsatz für den Sockel AM2+ (eine Onboard Nvidia Karte (ich glaube eine 8300-er) auf dem Chipsatz) und konnte früher mit den Modellen der GeForce 9xxx-Serie zwei Modi einstellen:
1) "Leistung" => beide Karten haben zusammen gerechnet
2) "Sparsam" => Wenn kein Spiel lief, hat sich die Hauptkarte komplett stromlos geschaltet.

Gibt es das Feature heute noch bei den neuen Nvidias?

Nein, dieses Feature - "HybridPower" genannt - gibt es nicht mehr. Wenn man den Erfahrungsberichten im Web Glauben schenken darf, soll es eh mehr schlecht als recht funktioniert haben. Die Technik selbst lebt aber in Notebooks als "nVidia Optimus"-Technologie weiter.
Modus 1) Leistung ist eh witzlos gewesen, da es nur mit einer Low-End-Karte zusammen etwas bringt und danach nur noch bremst. Zu GF9-Zeiten, als das noch aktuell war, hat es in Kombination bis ca. 9400er noch Sinn gemacht, bei der 9500er schon fraglich, bei der 9600er (egal ob GSO oder GT) schon definitiv nicht mehr.


feris schrieb:
PhysX wäre eine tolle Sache geworden, wenn NV nicht versucht hätte, ein Alleinstellungsmerkmal draus zu machen. Daher war es ein Rohrkreperier. Es gibt aj nach kurzer Zeit schon mehr Spiele, die auf Tesselation setzen als auf PhysX. Daher spielte und wird PhysX immer nur ein Nischendasein führen und weiter von FB als Killerargument herangezogen.
Naja, es ist ja nicht so, daß man Spiel-Physik nur mit PhysX umsetzen kann... gibt ja auch andere Mittel. Und wenn's unbedingt GPU-beschleunigt sein soll, bietet sich mit DX11 ja auch noch die Möglichkeit, die "Compute Shaders" zu nutzen..


Grüßle,


Spike2
 
Spike2 schrieb:
Nein, dieses Feature - "HybridPower" genannt - gibt es nicht mehr. Wenn man den Erfahrungsberichten im Web Glauben schenken darf, soll es eh mehr schlecht als recht funktioniert haben. Die Technik selbst lebt aber in Notebooks als "nVidia Optimus"-Technologie weiter.
Modus 1) Leistung ist eh witzlos gewesen, da es nur mit einer Low-End-Karte zusammen etwas bringt und danach nur noch bremst. Zu GF9-Zeiten, als das noch aktuell war, hat es in Kombination bis ca. 9400er noch Sinn gemacht, bei der 9500er schon fraglich, bei der 9600er (egal ob GSO oder GT) schon definitiv nicht mehr.
Bei mir lief es vor 2 Jahren bestens mit einer 9600GT zusammen (habe niemals den "Power-Modus" benutzt, da selber klar war, dass das Gespann aus den 2 Karten dann langsamer wäre als die 9600GT allein, ABER: im Energiesparmodus war das Gespann unschlagbar! Nur in 3D-Anwendungen (Spiele oder CAD) wurde die Hauptkarte eingeschaltet, sonst hat sie mit ca. 1 Watt geschlummert (heute GraKas haben im 2D-Betrieb immer noch Verbräuche von 20 bis 30 Watt, also deutlich mehr als eine 8300-er, die im Chipsatz integriert ist.

LG
Martin
 
Ich kauf schon seit der Voodoo 1 Grakas und Nvidia schafft es doch immer wieder zu begeistern.
Sicher war der Start in das Jahr 2010 nicht glücklich, aber das AMD ein Jahr schläft damit war nicht zu rechnen.

Die neue Nvidia Architektur ist voll flexibel und auf den nächst kleineren Fertigungsprozess ausgelegt. Wie sich das in Zukunft rechnet......Da bin ich wirklich gespannt auf alle Fälle Top Arbeit inkl. Top Bildquali lassen den Mehrverbrauch vergessen ;)
 
@Weyoun: Naja, ich meinte es ja auch generell, da soll's wohl häufiger zu Problemen gekommen sein... ich persönlich finde es auch sehr schade, daß das so kurzlebig war und hätte sogar auf einen einheitlichen Standard gehofft (habe eine 9600GT drin und ärgere mich, daß die 785-IGP nutzlos vor sich hin oxidiert....)
 
Maeximum schrieb:
Ich kauf schon seit der Voodoo 1 Grakas und Nvidia schafft es doch immer wieder zu begeistern.
Sicher war der Start in das Jahr 2010 nicht glücklich, aber das AMD ein Jahr schläft damit war nicht zu rechnen.

Die neue Nvidia Architektur ist voll flexibel und auf den nächst kleineren Fertigungsprozess ausgelegt. Wie sich das in Zukunft rechnet......Da bin ich wirklich gespannt auf alle Fälle Top Arbeit inkl. Top Bildquali lassen den Mehrverbrauch vergessen ;)

Bei mir sind es eher durchwachsene Erfahrungen mit unterschiedlichen Produkten.
 
Zuletzt bearbeitet:
Eisenfaust schrieb:
Bei mir sind es eher durchwachsene Erfahrungen mit unterschiedlichen Produkten.

Wo steht das ich damit keine Erfahrungen habe. ATI X800 XT sehr fein, Radeon X 1950XTX auch sehr fein, Ati 4890 so lala ;) Ich probiere gerne alles aus. Aber überrascht wird man meistens von den Grünen
 
Also sollten keine größeren Überraschungen kommen wird es bei mir wohl so eine Karte werden.

Wie ist das eigentlich mit Wasserkühlern zum Release?
Brauchen da die Shops ne Weile oder bekommen die auch Testsamples damit die pünktlich zum Verkaufsstart ihre Produkte anbieten können?
Wie war das bei Release von 580, 480, 470 usw.?
 
Zurück
Oben