Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Hat die GeForce 8800 GT ein Temperaturproblem?
- Ersteller Volker
- Erstellt am
- Zur News: Hat die GeForce 8800 GT ein Temperaturproblem?
- Registriert
- Jan. 2005
- Beiträge
- 8.580
Wie sich hier wieder alle künstlich aufregen... hinter dem Titel der Überschrift steht ein Fragezeichen, im Text selbst wird erklärt das es sich nachwievor um ein Vorserienproblem handeln kann.
- Registriert
- Juni 2001
- Beiträge
- 19.574
Artikel-Update: Ein erstes Bild, welches in einem chinesischen Forum aufgetaucht ist, zeigt einen vermeintlich größeren Lüfter auf der GeForce 8800 GT. Ob dies eine Sofortmaßnahme ist oder bereits ein Produkt eines Nvidia-Partners, ist derzeit nicht festzustellen.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
- Registriert
- Juni 2001
- Beiträge
- 19.574
Naja der Abstand vom Lüfter bis zum Rand ist schon deutlich kleiner (zähl die kleinen Luftschlitze rechts daneben
). Und selbst von einem 40er auf einen 50er Lüfter wechseln bringt nicht nur weniger Dezibel aufs Gehör, sondern auch mehr Frischluft in die Karte.
Pr0krastinat0r
Commander
- Registriert
- Feb. 2007
- Beiträge
- 2.061
Hätte mich auch etwas gewundert wenn die Karte mit einer, im Vergleich zur 8800GTS Kühlung, relativ kleinen Kühlung auch wirklich kühl bleibt. Warum sollte eine Karte, die wahrscheinlich schneller ist als die 8800GTS 320, viel kühler bleiben? Der kleinere Fertigungsprozess ist auch nicht alles!
Lotusbloom
Commander
- Registriert
- Apr. 2003
- Beiträge
- 2.107
Miniami schrieb:Der kleinere Fertigungsprozess ist auch nicht alles!
Also, das macht schon viel aus! Siehe HD2900 Pro/XT vs. HD2950 Pro. Alle bisherigen Bilder der HD2950 zeigen eine Single-Slot-Lösung und die hat AMD/ATI nicht umsonst gewählt
- Registriert
- Juni 2001
- Beiträge
- 19.574
Zahlenjaeger schrieb:Also, das macht schon viel aus! Siehe HD2900 Pro/XT vs. HD2950 Pro. Alle bisherigen Bilder der HD2950 zeigen eine Single-Slot-Lösung und die hat AMD/ATI nicht umsonst gewählt
Die 2950 wird auch von der Leistung her unter der 2900 XT angesiedelt sein. Aber es stimmt natürlich zum Teil: Geringere Taktfrequenzen bei gleichzeitig kleinerem Herstellungsprozess sollten für wengier Wärme sorgen.
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.569
@xp_home: wieso sollten die alus nix zu tun hamm? alle mir bekannten binären multiplizierverfahren brauchen genauso viele takte wie bits, also bei 32bit fp-zahlen eben 32 takte. und es wäre ja nicht so, als ob pro pixel nicht mehr als einmal madd gerechnet würde
das geht mittlerweile bald in die 1000 takte.
N
nejiomi
Gast
lieber 2 slot und unhörbar und kühler als singleslot und unbeschreiblich warm + sorgen um mehr kühlung und lauter!
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@ riDDI
irgendwie kann ich dir nicht ganz folgen. Was willst du damit überhaupt sagen?
Willst du damit sagen, dass eine 8800 GTS mit einem 4-Fachen Shadertakt, statt einem 2-Fachen wie jetzt auch eine doppelte Leistung bei eingeschaltetem AA und AF bringt? Ich bezweifel das ganz stark.
Eine 8800 GT mit mehr als 1,8 Ghz Shadertakt ist allein schon deswegen unwahrscheinlich, weil sie dann mehr GFlops Shaderleistung hätte als die 8800GTS (bei kleinerer Texel- und Pixelfüllrate).
irgendwie kann ich dir nicht ganz folgen. Was willst du damit überhaupt sagen?
Willst du damit sagen, dass eine 8800 GTS mit einem 4-Fachen Shadertakt, statt einem 2-Fachen wie jetzt auch eine doppelte Leistung bei eingeschaltetem AA und AF bringt? Ich bezweifel das ganz stark.
Eine 8800 GT mit mehr als 1,8 Ghz Shadertakt ist allein schon deswegen unwahrscheinlich, weil sie dann mehr GFlops Shaderleistung hätte als die 8800GTS (bei kleinerer Texel- und Pixelfüllrate).
Zuletzt bearbeitet:
ManPon
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.767
G92 gegen RV670: Nvidia muss sich geschlagen geben ...
http://www.theinquirer.de/2007/10/05/g92_gegen_rv670_nvidia_muss_sich_geschlagen_geben.htmlEs gibt gute Gründe, nicht nur nach den Ergebnissen von Benchmarks zu gehen. Aber in dieser Runde gibt es einen überraschend klaren Sieger.
Nvidia bewirbt seine Serie G92_200 nicht etwa als das schnellste Geschoss seit Niki Lauda. Sondern musste eine klare Niederlage eingestehen, wie unsere weit oben platzierten Quellen berichten. Beim allseits beliebten synthetischen Benchmark 3DMark06 wurde Nvidias Champion von einem noch namenlosen Radeon-HD-Produkt überholt.
Ein Referenzboard von Nvidia kommt auf 10.800 3DMarks, während ein Referenzboard ATIs 11.400 3DMarks erzielt. Das ergibt einen klaren Vorsprung von 550 – 600 Punkten.
Das ist eine massive Beschleunigung gegenüber Produkten der vorhergehenden Generation, zumal der gegenwärtige High-End-Leistungsträger Nvidias, 8800 Ultra, auf der gleichen Maschine 11.500 Punkte erreicht. Wenn ein Mainstream-Teil aus der 250-$-Kategorie so dicht an ein aktuelles 599-$-Produkt herankommt, darf man sich fragen, wie sich die Besitzer dieser aktuellen Monster wohl fühlen.
Zuletzt bearbeitet:
herby53
Lt. Commander
- Registriert
- Juli 2005
- Beiträge
- 1.608
Ich meine gelesen zu haben, dass der G92 in einer Dual-Variante 1 TFlop Leistung erzielen sollte und da hat dann PCGH oder wer anderes ausgerechnet, dass die Shader mit 2,4 Ghz laufen müssten. Naja und der Takt kann ja höher sein als der einer Ultra, aber letztere hat auch mehr Shader-Einheiten und holt damit mehr Leistung raus.
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.569
ja ok jetz versteh ich auch was du meinst... ich denke auch nicht, dass es mehr als 1,8ghz werden, allerdings kann man mittlerweile kaum genug arithmetische leistung haben, vor allem in dx10. die füllrate wird schon fast zweitrangig, selbst wenn man die textur 16 mal samplet dauert das eben 32 takte (trilinear), die berechnung komplexer shader mit mehreren multiplikationen und vlt noch dem ein oder andren sinus, die dauert schnell mehrere hundert takte. guck dir nur mal an, wie schnell die 2600er plötzlich in ranbow six vegas sind, ganz ohne viel füllrate.xp_home schrieb:Willst du damit sagen, dass eine 8800 GTS mit einem 4-Fachen Shadertakt, statt einem 2-Fachen wie jetzt auch eine doppelte Leistung bei eingeschaltetem AA und AF bringt? Ich bezweifel das ganz stark.
Eine 8800 GT mit mehr als 1,8 Ghz Shadertakt ist allein schon deswegen unwahrscheinlich, weil sie dann mehr GFlops Shaderleistung hätte als die 8800GTS (bei kleinerer Texel- und Pixelfüllrate).
tAk
Vice Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.146
ManPon schrieb:G92 gegen RV670: Nvidia muss sich geschlagen geben ...
http://www.theinquirer.de/2007/10/05/g92_gegen_rv670_nvidia_muss_sich_geschlagen_geben.html
The InQ halt. Mehr muss man dazu nicht sagen glaube ich.
mFg tAk
Ähnliche Themen
- Antworten
- 23
- Aufrufe
- 3.718
- Antworten
- 133
- Aufrufe
- 22.764
- Antworten
- 104
- Aufrufe
- 17.377
- Antworten
- 69
- Aufrufe
- 14.854
- Antworten
- 80
- Aufrufe
- 19.755