Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wenn dann muss man auch die TDP gleichschneller Karten vergleichen, also 4870 X2 mit 9900GTX.
Die X2 hat eine 10W höhere TDP, kein IHS und verbraucht also effektiv sogar etwas mehr.
Frage mich ob die karte zwischen 2D- und 3D takt unterscheiden können wird und somit 'dynamisch taktet'..das wäre doch mal schön, dann kann sie bei max. belastung ruig etwas mehr verbraten..240W sind mir allerdings schon auch zuviel..wahnsinn!
der G92 war und ist ein "Billigrefresh" des G80, gestutztes Speicherinterface, niedrigere Kosten durch kleinere Chipgröße. Der G200 füllt den Platz sozusagen mit neuen Shadereinheiten auf. Der erste Chip seit dem G80 der zumindest wieder die Anzahl der Recheneinheiten nach oben drückt. Was sollte man deiner Meinung nach an der Architektur ändern. Fährt AMD hier besser, ist der R600, der R670 under 770er etwa nicht auch ein Refresh vom Refresh?
Die letzte Architekturveränderung in diesem Sinne fand mit Einfühung von Unified Shadern statt, wäre diese nicht nötig gewesen hätten wir die selbe Architektur wie vor 4 Jahren, nur mit anderen Zahlen.
Du würdest selbstverständlich alle 2 Jahre bei 0 anfangen und jetzt komplett neue Shaderverbindungen bauen. Die nächste große Veränderung wird vermutlich erst mit Raytracing und den zugehörigen Karten erfolgen...
Das Design des Kühlers ist mir relativ egal. Der Nutzen soll möglichst leise und effizient ausfallen! Der Stromverbrauch ist schon hoch, aber wer Power haben möchte muss halt ein Paar Watt mehr hinnehmen.
Da kann sich mein 750 Watt Netzteil schon freuen, wenn dann eine solche Graka versorgt werden muss! :-)
Sehe ich das richtig, dass du kein Gamer bist? Es gibt ja keine Gamergrakas mehr welche keine separate Stromversorgung haben. Siehe die Nvidia 9600GT hat auch nen 6-Pin Stromanschluss weil sie mehr als 75 Watt verbraucht. ;-)
Das ganze 240 W hin oder her Gelaber ist nich zum Aushalten...
aus Umweltgründen schlecht, aus Folgekosten in Sachen Stromverbrauch schlecht, -
aber man könnte auch CPU mit 240W auf den Markt werfen, jedoch bringen dir im OS Bereich eine Großzahl Kerne wenig. Auch merkst du den Unterschied zw. 3 Ghz Core 2 Duo und 4 Ghz Quad wenig. Beim Gamen jedoch merkst du ob du mal eben die halbe Anzahl Shader und Takt hast. Folglich herrscht hier ein anderes Potential, Grafikkarten werden gepusht und da sind 240W egal, solange der Konsument was davon hat und die Dinger kauft. Hier ist der Markt einfach größer als im Homeoffice Bereich, den CPUs die Intel / Amd fabriziert. Schaut euch bei IBM etc um, da stellt man Prozessormonster her die unseren GPU recht nahe kommen.
Also regt euch nicht so über den wenigen Umweltschutz und die 240 W auf, keiner muss es kaufen. Fakt ist aber das der Markt sowas verlangt, und wo ein Markt ist wird er auch bedient.
Du kannst dir nen Arbeitspc für 200 Euro zusammenstellen der 80 W verbraucht ... alles was teurer ist ist zu 90% zum zocken da und den Leistungsunterschied zwischen 100W oder 240W wirst du hier merken...
Toll... ein Kühler... aus Plastik... hässlich wie die Nacht... also wie jeder Kühler... noch etwas? (und jetzt macht mich rot, weil ich das Photographieren von belanglosen Plasteteilen nicht mag)
Und wo landet am Ende die Energie für die Rechenoperationen? Ich glaube die wird auch in Wärme umgewandelt. Das einzige, was net in Wärme umgewandelt wird (zumindes nicht auf der Graka) ist die Leistung, die zur Daten-/Bildübertragung (ob PCI-E, DVI, TV-out, ...) genutzt wird.
das bild ist auf der anderen seite (also rechts) etwas ,,ünglücklich" geworden, für mich sieht des nach 4 und 4 ramkühlern aus oder unter dem GPU-block auch sind noch 4 sind, vlt sinds 12 also, könnsten es 512, 768 oder 1024 oder 1,5 (mb) gb werden
Eine neue Architektur würde es zum Beispiel ermöglichen im Windowsbetrieb Strom zu sparen. Diese Funktionen fehlen den Geforce Karten nicht etwa weil nVidia das nicht will, sondern weil das mit eben diesem "alten" Chipdesign nicht geht.
Und mal zum Thema Chiparchitektur, Shader-"Verbindungen" und Raytracing, so richtig weisst du auch nicht wovon du da schreibst.