News Club 3D GeForce GTX 560 Ti Green Edition

Die sieht total billig aus , untervolten kann man jede GTX560ti und das nicht zu knapp .
 
Bei sowas bin ich eher skeptisch. die haben sicherlich einfach nur normales UV betrieben und verkaufen dass passend ;(
 
Club 3D + hochwertige Bauteile? Auf ein Test wäre ich wirklich mal gespannt, weil von diesen Hersteller hätte ich sowas als letztes erwartet. :D

Aber die Kosten zu senken ist doch eigentlich normal und sollange die GPUs auch damit laufen und für den Endkunden es auch günstiger wird, find ich es in Ordnung. Günstiger heißt nicht immer auch billiger.

Die Karte für 200€ find ich quatsch, dann kauf ich lieber eine, die günstiger ist oder für 200€ irgendwas besseres hat, wie der Kühler oder OC.

@Kasmopaya

Klar, AMD baut nur schrott und Nvidia das aller feinste? Sag doch direkt, ich bin Nvidia-Fanboy und hasse AMD! ^^

Am Ende kommt es nicht auf Nvidia oder AMD an, die legen ein Referenzmodell an und liefern die Chips. Was dann der Hersteller damit macht eine andere. Es gibt gute Hersteller wie z.B. EVGA, Gainward, ZOTAC, Sapphire und PowerColor und ebend auch paar schlechte, wie eingentlich Club 3D. ^^
 
Was ist denn an dem Verbrauch der Gtx560 auszusetzen? Immer noch niedriger als der vom Konkurrenten von AMD.
 
Die paar Watt die die durch stromsparende Komponenten erreichen wollen sind bestimmt durch sachtes Selektieren von Chips, die sich genügend undervolten lassen problemlos erreichbar.

Ich meine, meine Karte läuft mit 0,95 Volt bei 942MHz... da gibt es sicher Chips, die sich bei 822MHz mit 0,9 Volt betreiben lassen... dann hast du (rein rechnerisch) schon eher in Richtung 20% Stromersparung...
Die Güte der Chips müsste sich mit fortlaufender Produktionszeit ja auch noch bessern, sieht man ja an den Verbesserungen in AMDs 40nm-Phenoms, wie viel das ausmachen kann. Da sind ständig wieder 100MHz draufgelegt worden ohne Mehrverbrauch, soll heissen das aktuelle Chips auch mit weniger Spannung auskommen müssten als sie noch beim Release-Datum brauchten.

gaym0r schrieb:
Was ist denn an dem Verbrauch der Gtx560 auszusetzen? Immer noch niedriger als der vom Konkurrenten von AMD.

nur im Idle, unter Last ist AMD merkbar besser

Insgesamt ist aber bei allen Highend-Karten der Stromverbrauch verdammt hoch und darf gerne geringer sein.
 
Zuletzt bearbeitet:
Ne Grafikkarte muss viel Watt verbrauchen, damit Sie schön heiß wird und laut grunzen kann. Das zeigt dann wie viel Power in ihr steckt und wie männlich die Karte ist ohhh yeahh :D
 
Shaav schrieb:
Bei sowas bin ich eher skeptisch. die haben sicherlich einfach nur normales UV betrieben und verkaufen dass passend ;(

nein, dafür wäre eine aufwändige Chipselektion notwendig. Das ist Club-3D zu teuer. Würden sämtliche Chips mit niedrigerer Spannung laufen, würde Nvidia sie auch mit niedrigerer Spannung spezifizieren. Mit Undervolting und Optimierung der Spannungsversorgung hätten sie bestimmt den Verbrauch auf < 150w senken können. Wie gesagt, das wären nichtmal 17%, die sie hätten einsparen müssen.
Dann hätten sie eine "Sensation" geschafft und hätten ihre 560ti mit nur einem 6-Pin-Anschluß verkaufen können.

Sie machen das ähnlich wie Gigabyte mit ihren Ultra Durable VGA-Karten (das hat Gigabyte auch bei ihren 560ti-Karten) vermutlich.

Es wird Strom durch sogenannte "Lower RDS(on) MOSFETs" gespart. Das ist aber an sich auch eine Mogelpackung. Die Spannungsversorgung bei sehr hochwertigen(und stromfressenden) Karten wird eigentlich optimiert, indem mehrere MOSFET mit geringer Strombelastbarkeit zusammen verwendet werden. Die haben dann dank ihres geringen Drain-Source-Durchlasswiderstands optimale Wirkungsgrade. Inzwischen sind wir jedoch soweit, dass auch aktuelle MOSFETs recht effizient sind. Man spart also effektiv, weil die Spannungsversorgung nicht mehr so aufwändig gestaltet werden muss und verkaufts dann als "Go-Green". Gigabyte geht auch ein wenig darauf ein: Link zu Ultra Durable VGA.
Ich vermute mal durch das Weglassen einer mehrphasigen Spannungsversorgung ist dann eben auch das PCB kürzer geworden. Ist eigentlich ein logischer Zusammenhang.
 
Zuletzt bearbeitet: (Rechtschreibung..)
Rickmer schrieb:
Insgesamt ist aber bei allen Highend-Karten der Stromverbrauch verdammt hoch und darf gerne geringer sein.

Och ich finde da hat sich in den letzten Jahren schon eine Menge getan, den idle Verbrauch haben beide deutlich senken können und daß sich beim Last Verbrauch von Highend-Karten nicht viel ändern wird liegt eigentlich auch auf der Hand. Haben die Hersteller einen Chip, der bei gleicher Leistungsaufnahme nur noch die Hälfte verbraucht, dann wird dieser Effiziensgewinn natürlich für eine höhere Leistung und nicht für einen sparsameren Verbrauch genutzt. Schließlich will man ja die schnellste GraKa präsentieren können ( Highend eben ;) )

Willst du ne sparsamere, dann mußt du halt zu Midrange Karten greifen.
 
@ Redirion

Klingt interessant und auch plausibel. Aber leider schaltet mein Hirn, bei solchen Marketingausdrücken wie "hochwertige Komponenten" auf Vorsicht Kundenverarsche um. Das mag zwar etwas unfair sein, aber ich hab aus meinen Erfahrung gelernt.

Angefangen bei aufgeplatzten Elkos bei alten Gigabyte-Boards bis hin zu den "Military Class" Komponenten auf meiner GTX 470 von MSI, welche bei 700 Mhz ganz leicht anfangen zu fiepen und bei 750 Mhz den gesamten Rechner übertönen^^

Daher erst vor kurzem eine GTX560Ti in Referenz bei einem neuen Rechner verbaut. Das Teil kommt nie über 55% Lüftergeschwindigkeit. Bin echt ein wenig neidisch auf meinen Arbeitskollegen.
 
MRM schrieb:
Och ich finde da hat sich in den letzten Jahren schon eine Menge getan, den idle Verbrauch haben beide deutlich senken können und daß sich beim Last Verbrauch von Highend-Karten nicht viel ändern wird liegt eigentlich auch auf der Hand. Haben die Hersteller einen Chip, der bei gleicher Leistungsaufnahme nur noch die Hälfte verbraucht, dann wird dieser Effiziensgewinn natürlich für eine höhere Leistung und nicht für einen sparsameren Verbrauch genutzt. Schließlich will man ja die schnellste GraKa präsentieren können ( Highend eben ;) )

Willst du ne sparsamere, dann mußt du halt zu Midrange Karten greifen.

Die Geforce 2 Ultra hatte im Jahr 2000 einen maximalen Verbrauch von 9w und war damals das absolute Non-Plus-Ultra und auch schneller als die erste Geforce 3 ;-) Schaut euch nur mal an, was für erbärmlich winzige Kühler damals verbaut wurden.

Seitdem klettert der Verbrauch zusammen mit der Leistungsfähigkeit der Karten.

Heute verbrauchen die schnellsten Singlegpukarten (HD 6970 und GTX 580) 250w. Diese Entwicklung muss hier enden. Wo soll denn das noch hinführen?

edit:
Ich bin jetzt auch noch so der "Mister Green", der sich total freut, wenn seine Komponenten n paar Watt einsparen. Nur wenn der Verbrauch weiter ansteigt, müssen wir ja bald nen 2kg-Kühler an so eine Grafikkarte hängen, um sie kühl zu halten.
Mich nervts jetzt schon, dass leistungsstarke Karten nicht mehr leise im Singleslotdesign kühlbar sind. Ich hab aktuell sogar eine Tripleslotlösung..
 
Zuletzt bearbeitet:
Klar, AMD baut nur schrott und Nvidia das aller feinste?
Wie kommst du darauf? Als ob HD 4000 mit HD 5000 vergleichbar wäre. Seit HD 5000 macht AMD das genaue Gegenteil und baut fast schon perfekte Hardware.(hat sich auch im Preis bemerkbar gemacht, Qualität kostet eben) Müsstest du eigentlich wissen wenn du meinen Standpunkt wirklich kennen würdest. Und ja die HD 4000 war billig. Im warsten sinne des Wortes.

Grad die Strom Drosselung funktioniert zb. bei AMD besser, sodass die Karten nicht so schnell durchbrennen ala GTX 590. Von Wegen AMD baut nur Schrott. Bulldozer Benches stehen ja noch aus...
 
Ich bin mir aber fast sicher, aß man heute deine Geforce 2 Ultra mit weniger Verbrauch bauen könnte - nur daß vermutlich kein Spieler seine solche Karte haben möchte.

Klar - es wurde auch die Kühlung weiterentwickelt und zur weiteren Leistungssteigerung genutzt. Aber wollen wir das Rad wirklich zurückdrehen? Immerhin gibt jetzt Grafikeinheiten in der CPU ( SAndybridge, Llano ) die sind von den Verbrauchswerten auch äußerst günstig und dürften Problemlos mit jedem Spel aus dem Jahr 2000 fertig werden :)

Ich bin jetzt auch noch so der "Mister Green", der sich total freut, wenn seine Komponenten n paar Watt einsparen. Nur wenn der Verbrauch weiter ansteigt, müssen wir ja bald nen 2kg-Kühler an so eine Grafikkarte hängen, um sie kühl zu halten.

Ne Nummer kleiner tuts meist auch, da gibts dann auch Singleslot Lösungen. Es liegt IMO nicht an den Grafikkarten - nur die Ansprüche der Spieler und SPieleentwickler sind nunmal schneller gewachsen, als die Technik voran geschriten ist.
 
Zuletzt bearbeitet:
das meine ich doch gar nicht MRM. Natürlich sind Komponenten im Vergleich zu damals wesentlich effizienter. Dennoch nimmt der Verbrauch langsam "unkühlbare" Dimensionen an.
Genauso wie sich auf dem CPU Kühlermarkt seit Jahren nur noch im Kreise gedreht wird, gibt es auch bei den Grafikkartenkühlungen kaum noch Innovationen. Der Verbrauch darf einfach nicht weiter steigen. Ansonsten wird die zweitteuerste Komponente nach der GPU die Kühllösung.

Sorry, das Ganze ist ein wenig Offtopic. Ich werd die Diskussion an dieser Stelle daher nicht fortführen. Hab nur mal meine Meinung an einer passenden Stelle eingestreut.

edit @MRM:
nur die Ansprüche der Spieler und SPieleentwickler sind nunmal schneller gewachsen, als die Technik voran geschriten ist.

das kann ich so nicht unterstreichen. Eigentlich vollzieht sich seit einiger Zeit ein gegenteiliger Trend. Die Spieleentwickler haben erkannt, dass die reine Entwicklung für den PC-Markt nicht lukrativ ist. Daher werden Spiele für Konsolen entwickelt. Konsolen haben jedoch weniger leistungsstarke GPUs, waren jedoch CPU-technisch ihrer Zeit voraus. Daher proftieren neuere Spiele inzwischen auch gut von Quadcoreprozessoren, während die Anforderungen an Grafikkarten eher stagnieren. Da spielt eher VRAM eine Rolle, da anscheinend nur über die Texturauflösung und Sichtweite eine Differenzierung zwischen Konsolenvariante und der PC-Version vorgenommen wird.
 
Zuletzt bearbeitet: (anstelle sinkender Anforderungen lieber stagnierende.. man editier ich heute wieder viel..)
Das Problem lag daran das neue Karten auch mehr können, im Falle von Geforce 3 T&L fest verdrahtet; DX 8, V-Shader, das dann sehr schnell Standard wurde. Mit einer Geforce 3 kann man immer noch WoW starten und wenn nicht viel los ist spielen. Die Geforce 2 macht da extreme Probleme alias Geforce 4 MX. Also die Aussage das eine Geforce 2 Ultra teilweise schneller war als eine Geforce 3 nicht wirklich richtig. Das gleiche wie Geforce 7950 GX2 v. 8800GTS. Auch klar wer da schon seit Ewigkeiten schneller, besser ist.

Oder heute mit GPGPU, was glaubt ihr was so ein komplexer Chip frisst. Lasst das mal weg und entwerft einen Chip der nur fürs Gaming gedacht ist und ihr habt eure hyper effizienten Chips. Aber da ihr alle ja beim GPU Kauf spart würde sich das für NV nicht rentieren.

Übrigens müsste die GTX 560 über 10% effizienter arbeiten eher 20% um an die HD 6800 ran zu kommen. Im Bereich des möglichen, aber nur weil die GTX 560 das sowieso effizienteste ist was NV zu bieten hat.
http://www.techpowerup.com/reviews/ASUS/Mars_II/28.html
 
Zuletzt bearbeitet:
Dafür muss man warscheinlich dann auch 10 bis 20% Aufpreis zahlen lohnt sich wie bei allen green Modellen bestimmt nicht
 
Wie hier einige einfach nur nach Name, Aussehen und Glaskugel das Produkt bewerten können. Grandios, ihr solltet Hardwarejournalisten werden. :rolleyes:
Auch weiß ich nicht was hier jetzt eine Runde in Geforce 3 Erinnerungen geschwelgt wird oder irgendwas über GGPU erzählt wird. Hat das was mit der eigentlichen News zu tun?

Zum Thema:
Die Frage ist P/L, ob die Kühlung stimmt.
Was mich "verwundert" - Club 3D und blaues PCB? Nicht das es mich stören würde, wäre ideal zu meinem Gigabyte Board.
Ansonsten scheint die Karte offenbar dem Referenzdesign zu entspringen, sonst würde unten an der Anschlussleiste aka PCIe nicht das nvidia Logo drauf prangen, oder? (Das ist zumin bei AMD/ATi Karten ein Anzeichen für Ref Design)
 
Was ist daran so schlecht??? Gleiche Leistung und 10% weniger Stromverbrauch (Wahrscheinlich!)

Also manche sind mit nichts zufrieden...
 
Wenn an den Gerüchten über AMD's 7000-er Serie was w3ahres dran sein sollte, wird es echt ein Schritt in die richtige Richtung sein:


AMD Radeon HD 7970 2048 MB 256 Bit XDR2 1000/4000 MHz 190 Watt
AMD Radeon HD 7950 2048 MB 256 Bit XDR2 900/3600 MHz 150 Watt
AMD Radeon HD 7870 2048 MB 256 Bit GDDR5 950/1450 MHz 120 Watt
AMD Radeon HD 7850 2048 MB 256 Bit GDDR5 850/1300 MHz 90 Watt
AMD Radeon HD 7670 1024 MB 128 Bit GDDR5 900/1250 MHz 60 Watt
AMD Radeon HD 7570 1024 MB 128 Bit GDDR5 750/1000 MHz 50 Watt


Quelle: http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/19800-amd-radeon-hd-7000-erste-spezifikationen-schwirren-durchs-netz.html
 
Die GTX 560 ti ist eine gute Karte. Wer im Preisbereich eine neue Karte kaufen möchte und keine lust mehr auf AMD/ATI und deren Treiberpolitik hat der solle statt eine Radeon 6950 eine GTX 560 ti kaufen. Erstaunlich was hier die Leute zufrieden waren wo sie keine ATI Karten mehr hatten, kanns kaum glauben. Wie man hier sieht gibt es die Karte in allen Variationen.
 
Zurück
Oben