News Hat die GeForce 8800 GT ein Temperaturproblem?

Wie sich hier wieder alle künstlich aufregen... hinter dem Titel der Überschrift steht ein Fragezeichen, im Text selbst wird erklärt das es sich nachwievor um ein Vorserienproblem handeln kann.
 
Artikel-Update: Ein erstes Bild, welches in einem chinesischen Forum aufgetaucht ist, zeigt einen vermeintlich größeren Lüfter auf der GeForce 8800 GT. Ob dies eine Sofortmaßnahme ist oder bereits ein Produkt eines Nvidia-Partners, ist derzeit nicht festzustellen.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
Der lüfter sieht meiner meinung nach nur größer aus und wirkt nur größer, die die karte in einem ganz anderen maßstab aufgenommen ist und beim betrachter viel näher am bildschirm ist als auf dem anderen nicht chinesischen foto.
 
Naja der Abstand vom Lüfter bis zum Rand ist schon deutlich kleiner (zähl die kleinen Luftschlitze rechts daneben :p). Und selbst von einem 40er auf einen 50er Lüfter wechseln bringt nicht nur weniger Dezibel aufs Gehör, sondern auch mehr Frischluft in die Karte.
 
Hätte mich auch etwas gewundert wenn die Karte mit einer, im Vergleich zur 8800GTS Kühlung, relativ kleinen Kühlung auch wirklich kühl bleibt. Warum sollte eine Karte, die wahrscheinlich schneller ist als die 8800GTS 320, viel kühler bleiben? Der kleinere Fertigungsprozess ist auch nicht alles!
 
schade drum, hoffe, dass die singleslot kühlung aber weiterhin ausreicht
 
Zahlenjaeger schrieb:
Also, das macht schon viel aus! Siehe HD2900 Pro/XT vs. HD2950 Pro. Alle bisherigen Bilder der HD2950 zeigen eine Single-Slot-Lösung und die hat AMD/ATI nicht umsonst gewählt

Die 2950 wird auch von der Leistung her unter der 2900 XT angesiedelt sein. Aber es stimmt natürlich zum Teil: Geringere Taktfrequenzen bei gleichzeitig kleinerem Herstellungsprozess sollten für wengier Wärme sorgen.
 
Wer sagt das die 2950 nicht einem selben Schicksal erleidet?
 
@xp_home: wieso sollten die alus nix zu tun hamm? alle mir bekannten binären multiplizierverfahren brauchen genauso viele takte wie bits, also bei 32bit fp-zahlen eben 32 takte. und es wäre ja nicht so, als ob pro pixel nicht mehr als einmal madd gerechnet würde ;) das geht mittlerweile bald in die 1000 takte.
 
naja , dann sollen die lieber nen großen lüfter draufmachen dann ists wenigstens.Zwei slots hin oder her leise und stabil ist wichtiger
 
lieber 2 slot und unhörbar und kühler als singleslot und unbeschreiblich warm + sorgen um mehr kühlung und lauter!
 
@ riDDI
irgendwie kann ich dir nicht ganz folgen. Was willst du damit überhaupt sagen?

Willst du damit sagen, dass eine 8800 GTS mit einem 4-Fachen Shadertakt, statt einem 2-Fachen wie jetzt auch eine doppelte Leistung bei eingeschaltetem AA und AF bringt? Ich bezweifel das ganz stark.

Eine 8800 GT mit mehr als 1,8 Ghz Shadertakt ist allein schon deswegen unwahrscheinlich, weil sie dann mehr GFlops Shaderleistung hätte als die 8800GTS (bei kleinerer Texel- und Pixelfüllrate).
 
Zuletzt bearbeitet:
G92 gegen RV670: Nvidia muss sich geschlagen geben ...

Es gibt gute Gründe, nicht nur nach den Ergebnissen von Benchmarks zu gehen. Aber in dieser Runde gibt es einen überraschend klaren Sieger.

Nvidia bewirbt seine Serie G92_200 nicht etwa als das schnellste Geschoss seit Niki Lauda. Sondern musste eine klare Niederlage eingestehen, wie unsere weit oben platzierten Quellen berichten. Beim allseits beliebten synthetischen Benchmark 3DMark06 wurde Nvidias Champion von einem noch namenlosen Radeon-HD-Produkt überholt.

Ein Referenzboard von Nvidia kommt auf 10.800 3DMarks, während ein Referenzboard ATIs 11.400 3DMarks erzielt. Das ergibt einen klaren Vorsprung von 550 – 600 Punkten.

Das ist eine massive Beschleunigung gegenüber Produkten der vorhergehenden Generation, zumal der gegenwärtige High-End-Leistungsträger Nvidias, 8800 Ultra, auf der gleichen Maschine 11.500 Punkte erreicht. Wenn ein Mainstream-Teil aus der 250-$-Kategorie so dicht an ein aktuelles 599-$-Produkt herankommt, darf man sich fragen, wie sich die Besitzer dieser aktuellen Monster wohl fühlen.
http://www.theinquirer.de/2007/10/05/g92_gegen_rv670_nvidia_muss_sich_geschlagen_geben.html
 
Zuletzt bearbeitet:
Ich meine gelesen zu haben, dass der G92 in einer Dual-Variante 1 TFlop Leistung erzielen sollte und da hat dann PCGH oder wer anderes ausgerechnet, dass die Shader mit 2,4 Ghz laufen müssten. Naja und der Takt kann ja höher sein als der einer Ultra, aber letztere hat auch mehr Shader-Einheiten und holt damit mehr Leistung raus.
 
@ ManPon
Das hört sich imo doch sehr merkwürdig an, dass die 8800GT fast so schnell sein soll wie die 8800 Ultra. Schon alleine wegen dem Namen der ja ganz klar unter der 8800GTS leigt.
 
Den 3D Mark kann man nicht als Spielebenchmark-Ersatz heranziehen, dies hat bereits die Vergangenheit gezeigt, allerdings verschaft man sich einen gewissen Überblick über die aktuelle Situation im Grafikkartenmarkt.
 
Zuletzt bearbeitet:
xp_home schrieb:
Willst du damit sagen, dass eine 8800 GTS mit einem 4-Fachen Shadertakt, statt einem 2-Fachen wie jetzt auch eine doppelte Leistung bei eingeschaltetem AA und AF bringt? Ich bezweifel das ganz stark.

Eine 8800 GT mit mehr als 1,8 Ghz Shadertakt ist allein schon deswegen unwahrscheinlich, weil sie dann mehr GFlops Shaderleistung hätte als die 8800GTS (bei kleinerer Texel- und Pixelfüllrate).
ja ok jetz versteh ich auch was du meinst... ich denke auch nicht, dass es mehr als 1,8ghz werden, allerdings kann man mittlerweile kaum genug arithmetische leistung haben, vor allem in dx10. die füllrate wird schon fast zweitrangig, selbst wenn man die textur 16 mal samplet dauert das eben 32 takte (trilinear), die berechnung komplexer shader mit mehreren multiplikationen und vlt noch dem ein oder andren sinus, die dauert schnell mehrere hundert takte. guck dir nur mal an, wie schnell die 2600er plötzlich in ranbow six vegas sind, ganz ohne viel füllrate.
 
Zurück
Oben