Test Test: Nvidia GeForce GTX 650 Ti

hardwarekäufer schrieb:
...
Da geht es vll nicht einfach um die höhere Leistungsklasse sondern auch um die Verbräuche.
Die 7850 verbraucht dann nochmal 30W mehr als die 7770 unter Last. Irgendwo muss man auch mal eingrenzen.
Da es Leistungs- und Geldtechnisch die komplette Bandbreite gibt kann man immer noch 10 € drauflegen und ein anderes Modell nehmen. Dann bist du ruck-zuck wieder bei einem Vergleich aller Grafikkarten.

Warum sind dann alle über einer 7850 1GB im P/L Ranking gelistet? Auch eine GTX 690 die in diesem Bench 256W mehr nimmt.
Du weißt nicht um was es geht. Nimmst den Verbrauch einer 7850 2GB und erklärst damit den Vebrauch der 7850 1GB.

CB misst für die 7850 1GB in Crysis 2 8W weniger als die 7850 2GB und in Anno 2070 15W weniger als die 2GB Version und in Battlefield 3 10W weniger.
 
Für die ganzen Kartoffelköppe die wegen dem Preis der 7850 meinen dass die als Konkurrent der 650ti steht hier die "Konkurrenztabelle":

690 7990
680 7970
670 7950
660ti 7870
660 7850
650ti 7770
650 7750
etc.

Der Hersteller sagt welches Produkt er als Konkurrenten zu einem anderen ins Rennen schickt in dem er versucht in der LEISTUNGSKLASSE ein besseres Paket anzubieten.
 
@GoZx:
Und was bringt einem das jetzt? Ist doch klar, dass der Hersteller genau die Karte als Konkurrent ansieht, welche er in Benchmarks hinter sich lässt.
 
Eben. Wäre NVidia so blöd zu sagen: "Die GTX650 Ti sollte zu Beginn der Entwicklung eigentlich AMDs HD7850 angreifen, scheitert aber um 30% daran"? Die wissen schon wie sie ihre Kunden weiter verblödeln, aber die spielen mit. Das steigert den Umsatz.
 
hardwarekäufer schrieb:
DA ich in meinem ITX-System nur begrenzt platz habe ist die Karte durchaus eine Alternative zur 7770.
Die meisten Karten in diesem Leistungsbereich sind zu lang für mein Gehäuse.
Genau, in mein LianLi Q07 passen auch nur max. 20cm lange Karten, und dann weiß man schon nicht mehr wie man den 6pin Stromstecker dranbekommt.

hardwarekäufer schrieb:
Was mir allerdings bitter aufstößt: Wenn das Referenzdesign doch single-Slot ist, warum finde ich dann bei den Herstellern udn Händlern nur Karten mit Dualslot ? Dabei sind nichtmal mehr Anschlüsse vergeben, sondern die DVI werden einfach übereinander angeordnet, oder der obere Teil der Blende erhält ein Lüftungsgitter...
Die Blende ist Singleslot, aber der Lüfter nicht. Ist also keine echtes Singleslotdesign.

Zumindest sieht für mich Bild 9/10 so aus: https://www.computerbase.de/2012-10/test-nvidia-geforce-gtx-650-ti/2/

Und steht auch so dort:
Trotz der kleinen Ausmaße der Platine setzt Nvidia auf der GeForce GTX 650 Ti einen Dual-Slot-Kühler ein, der aber nur geringe Ausmaße aufweist.


hardwarekäufer schrieb:
Was ist an Single-Slot so schlimm, dass die Hersteller das nicht anbieten wenns doch so einfach möglich ist ?!

Wenn man nicht gerade eine Heatpipekonstruktion in Verbindung mit einem 12mm dicken Scythe Slim Lüfter macht wird Singeslot i.d.R. immer lauter sein.
Laut will heutzutage eigentlich niemand mehr.

Wenn du also unbedingt Singleslot willst, kauf dir doch eine mit Singleslotblende und montieren nen alternativen Kühler. z.b. Grundkühlkörper + 12mm dicker Scythe Lüfter.


Das wäre meine Favoritenkarte denke ich: https://www.computerbase.de/preisvergleich/846244
Und zu übertakten geht das Referenzdesign ja auch gut, also würde ich hoffen das das bei allen Karten mit Standardtakt so ist.

Noch eine Anmerkung zum Test:
Da sich die Karte recht gut übertakten lässt fehlen mir 2 wichtige Informationen:
1.) Musste man das PowerLimit erhöhen bzw. ging das überhaupt
2.) Wieviel haben die jeweiligen Karten mehr an Strom gebraucht mit Übertaktung
3.) Könntet ihr auch noch dioe Leistungsaufnahme mit 3 Monitoren testen ?
Das soll es noch Unterschiede geben:
http://ht4u.net/reviews/2012/nvidia..._gtx660_sc_msi_n660gtx_tf_oc_test/index45.php

Wenn ihr das noch nachtragen könntet wäre es suuuuper.


Ach und an alle Leute die über den Preis meckern:
125€ + Versand für ein vermutlich sehr leises Customdesign und das 1 Tag nach Release:
http://geizhals.de/848444 (kann natürlich auch nur ein Fehler/Ausreißer sein)
 
Zuletzt bearbeitet:
@oliveron:
Ich glaub hardwarekäufer meint, dass er eine Singleslot-Blenden Konstruktion möchte, auch wenn die Höhe samt Kühler und Lüfter Dualslot oder mehr entspricht.
Nicht jedes Gehäuse hat zwei Blenden vorgesehen, da muss man dann unnötig rumschneiden :)
 
*hust*
Seit Juli 2011 liegt die HD6870 unter 140€. Nochmal langsam zum Mitschreiben: Ju-li Zwei-tau-send-elf

average%20perf.png


Die HD6870 ist asbachuralt, bietet jedoch seit über 14 Monaten (!) runde 10-20% mehr Leistung (!) für 10€ weniger (!) als dieser Schuss in den Ofen.

Das ist einfach nur schlapp, Nvidia.
 
Zuletzt bearbeitet:
Na ja,
also mit 142 € vorgestellt , nach 2 !! Tagen für 125 € zu haben .
Da würde einfach mal sagen noch mal 2 Tage warten und ab 120 € kann keiner mehr meckern .

Gruß tomtom
 
An die, die sagen, die 7850 gäbs für unter 150 nur in ausländischen Shops: http://geizhals.at/de/823996
Hier für unter 150 bei Caseking.

Und ich finds ja mal gut, dass CB es mal fertig gebracht hat, eine Referenz Amd auch mit ner Referenz Nvidia zu vergleichen und bei Nvidia nicht shcon immer die mit den besseren Kühlern ins Renner zu schicken, was den Vergleich atürlich zerstört
 
Wer ist für das neue Preis-Leistungs-Verhältnis verantwortlich? Selten etwas unbrauchbareres in Diagrammform gesehen :freak:
 
Warum steht die 670 mit 315€ in der Preisliste? Bei mir gibts die günstigste ab 335€ ...
 
ripa schrieb:
Wer ist für das neue Preis-Leistungs-Verhältnis verantwortlich? Selten etwas unbrauchbareres in Diagrammform gesehen :freak:

Ich find das eigentlich realtiv praktisch und grade deswegen hab ich den Test nochmal per Suche gesucht, aber leider sind die Preise halt nicht für konkrete Modelle und weichen immer mal mehr oder weniger ab. :/

bruteforce9860 schrieb:
@Agratos:
Ist halt nur eine Momentaufnahme gewesen.

Ja, stimmt, aber 20 Euro und vorallem jetzt 20 Euro mehr als früher kamen mir irgendwie spanisch vor ... naja was solls. Ich vergleich dann einfach mal nach Gefühl weiter. :D
 
Finde es erstaunlich, das eine Karte die doppelt soviele Shadereinheiten hatt, von der Architekture vortschrittlicher ist als eine 2 jahre alte GTX460 256bit nicht annähernd 5% schneller ist. Was ist denn da bitte passiert, das sie plötzlich 800 shader benötigen, um genauso schnell zu sein wie karten die nur 400 haben? Irgendwas ist da doch total schief gelaufen, oder bin ich plötzlich Zahlenblind geworden, vielleicht hatt sich ja sogar alles umgekehrt, weniger ist mehr, oder wie erklärt ihr euch das bitte? Bisslang hatt doch eine Erhöhung der Shadereinheiten auch ein beträchtliches mass an Leistungserhöhung gebracht, immo sehe ich da gar nichts von, ganz im gegenteil, je mehr Shader diese Karten haben, desto mehr verpufft da irgendwie die Leistung.
 
Gegenüber den vorherigen Generationen (seit G80) nutzt nVidia keine Hot Clocks für die Shader mehr. Diese wurden früher mit 2,5x bis 2x so hohem Takt betrieben, wie der restliche Chiptakt.

Daher die Verdoppelung der Einheiten ohne großen Vorteil bei der Performance.
 
Kleine Frage:

Bis auf die ASUS haben die anderen beiden Karten doch ein 2 Kabel Lüfter, wie wird denn da die Drehzahl geregelt?
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben