Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neues zu nVidias GeForce 7800 GTX
- Ersteller Christoph
- Erstellt am
- Zur News: Neues zu nVidias GeForce 7800 GTX
4erAck
Lieutenant
- Registriert
- Nov. 2004
- Beiträge
- 790
ich glaub kaum,dass sich nVidia wieder so n imageschaden wie mit der fx reihe reinholt!
wie Limp Bizkit schon sagte,ist das mit sicherheit ein marketinggag eines Ati-fetischisten!
völliger mumpitz was die wärme entwicklung und verbrauch angeht
wie Limp Bizkit schon sagte,ist das mit sicherheit ein marketinggag eines Ati-fetischisten!
völliger mumpitz was die wärme entwicklung und verbrauch angeht
- Registriert
- Jan. 2002
- Beiträge
- 3.100
Ihr merkt sicher, dass sich diese News nicht nur um den Stromverbrauch dreht. Dieser ist nur ein Aspekt, an dem zusätzlich noch ein Satz steht, dass diese Angaben wahrscheinlich nicht stimmen. Also, immer ruhig bleiben! Die 150 Watt stimmen wahrscheinlich eh nicht.
- Registriert
- Jan. 2005
- Beiträge
- 8.581
MeThoDMaN schrieb:Noch ist das ja nicht offiziell, aber SOLLTE es so sein, kauf ich keine nVidia sondern eine ATi, die haben diese Probleme mit Strom und Hitze zum Glück nicht.![]()
dazu muss ich sagen, das NV-GPUs immer schon ziemlich heiss liefen, die Cores aber auch dafür ausgelegt waren und somit keine Probleme mit den Temps hatten.
Ich kann mich an meine GF4-Ti4600 erinnern: unter Windows ~60°C, beim zocken kam sie an die 85°C rann.... ohne probleme.
Meine 6600GT ist relativ kühl, 49°C (waren aber schonmal weit weniger, allerdings scheint mein Lüfter etwas... naja... "verrückt" zu sein ^^), und vielleicht 65°C bei Last. Das geht eigentlich, besonders in Betracht des oc'ings von 500/900 auf 600/1100 MHz sind das noch ordentliche Temps.
So wie die sache aussieht geht das konzebt auf ! Gut gemacht Nvidia kann ich da nur sagen besser kommt man nicht ins gespräch.
Der Mensch ist halt so ,man merkt sich meistens nur die schelchten eindrücke. Nvidia macht das genau richtig, es wird stunden lang über die
neue Karte diskotiert und wartet mal ab die sind nicht doof, wie oben schon gesagt wurde es ist ein singelslot Kühler die kann nicht
allzu heiss werden sonst hätte NV einen zwei slot kühler drauf gemacht.
Würde in der News stehen " leichte verbesserungen gegenüber der 6800 Ultra" oder Nvidia mit "Silent Kühler" dann hätte die News nicht so viele Leser.
Ich würde mir darüber noch keine gedanken machen ist alles nur Propaganda.
Ich denke das was wir auf dem Bild sehen ist ein Beta Board wenn überhaupt und noch in der entwicklung !
Das ist als würde man über Duke Nukem 2 reden keiner kann überhaupt sagen ob das Game jemals zuende entwickelt wird,
so sieht es auch mit der oben gezweigten Karte aus. Wenn Nvidia sieht das es nicht klappt mit dem Layout wird ein neues entwickelt.
Bleibt Locker !
Der Mensch ist halt so ,man merkt sich meistens nur die schelchten eindrücke. Nvidia macht das genau richtig, es wird stunden lang über die
neue Karte diskotiert und wartet mal ab die sind nicht doof, wie oben schon gesagt wurde es ist ein singelslot Kühler die kann nicht
allzu heiss werden sonst hätte NV einen zwei slot kühler drauf gemacht.
Würde in der News stehen " leichte verbesserungen gegenüber der 6800 Ultra" oder Nvidia mit "Silent Kühler" dann hätte die News nicht so viele Leser.
Ich würde mir darüber noch keine gedanken machen ist alles nur Propaganda.
Ich denke das was wir auf dem Bild sehen ist ein Beta Board wenn überhaupt und noch in der entwicklung !
Das ist als würde man über Duke Nukem 2 reden keiner kann überhaupt sagen ob das Game jemals zuende entwickelt wird,
so sieht es auch mit der oben gezweigten Karte aus. Wenn Nvidia sieht das es nicht klappt mit dem Layout wird ein neues entwickelt.
Bleibt Locker !
Richthofen
Lieutenant
- Registriert
- März 2004
- Beiträge
- 547
lol wer glaubt denn den Schmarrn mit den 150 Watt.
150 Watt bei einer Single Slot Kühlung? Alles klar.....
Das Teil verbrät nie im Leben 150 Watt bei der Kühlung.
Da wäre sonst eine ganz andere Kühlung notwendig.
Da hat irgendeiner richtigen nonsense gelabert.
Die GPU ist datiert auf Anfang Februar im A1 Stepping. Das dürfte noch ein verdammt frühes Engineering Sample sein.
Die GPUs aus der Massenproduktion werden da noch einige Unterschiede vor allem beim thermischen Verhalten ausweisen.
Anandtech hat sich übrigens auch zu Wort gemeldet:
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2431&p=2
Lang kann es also nicht mehr dauern.
150 Watt bei einer Single Slot Kühlung? Alles klar.....
Das Teil verbrät nie im Leben 150 Watt bei der Kühlung.
Da wäre sonst eine ganz andere Kühlung notwendig.
Da hat irgendeiner richtigen nonsense gelabert.
Die GPU ist datiert auf Anfang Februar im A1 Stepping. Das dürfte noch ein verdammt frühes Engineering Sample sein.
Die GPUs aus der Massenproduktion werden da noch einige Unterschiede vor allem beim thermischen Verhalten ausweisen.
Anandtech hat sich übrigens auch zu Wort gemeldet:
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2431&p=2
NVIDIA plans on sticking it to ATI with G70 and offering widespread availability of their new GPU very soon. Manufacturers at the show have already indicated that the first shipments of G70 boards will be in their hands by the second week of June.
Lang kann es also nicht mehr dauern.
lightforce
Ensign
- Registriert
- Okt. 2003
- Beiträge
- 133
ahm nur so zur info Duke Nukem 2 gibts schon seit ner Ewigkeit. War n sehr nettes Jump n Run auf dem 486er.
Ansonsten kann ich nur sagen abwarten, Tee trinken und schaun was sich da noch tut.
cu Lightforce
Ansonsten kann ich nur sagen abwarten, Tee trinken und schaun was sich da noch tut.
cu Lightforce
omg da weiss mal wieder alles besser als die chiphertseller
deswegen hat der r430 aka x800xl auch so einen kleinen kühler->weil der so heiss wird
durch low-k wird der chip nicht kühler, er lässt sich nur höher takten
siehe x800xt/pro(r400) vs x800xl(r430)
deswegen hat der r430 aka x800xl auch so einen kleinen kühler->weil der so heiss wird
durch low-k wird der chip nicht kühler, er lässt sich nur höher takten
siehe x800xt/pro(r400) vs x800xl(r430)
bensen schrieb:omg da weiss mal wieder alles besser als die chiphertseller
deswegen hat der r430 aka x800xl auch so einen kleinen kühler->weil der so heiss wird
durch low-k wird der chip nicht kühler, er lässt sich nur höher takten
siehe x800xt/pro(r400) vs x800xl(r430)
und wieso taktet der dann so niedrig? niedriger als die 130nm x800 ?? du wiedersprichst dir selbst. außerdem kann man nicht sehen, wie schnell der lüfter bei dem kleinen kühler dreht ! :ugly:
durch die 110nm kann der chip nicht so hoch getaktet werden, dies ist aber kein thermisches problem(kannst ja mal nach low-k googeln, hab kein bock den artikel rauszusuchen)
denn selbst mit ner wakü bekommste den r430 net viel höher
es gab viele tests wo verlustleistung der x850xt gegen x850xl getestet wurde
und ob du es glaubst oder net die des x800xl ist niedriger
"außerdem kann man nicht sehen, wie schnell der lüfter bei dem kleinen kühler dreht"
das ist doch nicht dein ernst oder?
ati verbaut also deiner meinung nach auf den neuen chip nen kleineren kühler mit schnellen lüfter, obwohl sie schon ein fertiges design haben welches sie nutzen können
du machst dich lächerlich
denn selbst mit ner wakü bekommste den r430 net viel höher
es gab viele tests wo verlustleistung der x850xt gegen x850xl getestet wurde
und ob du es glaubst oder net die des x800xl ist niedriger
"außerdem kann man nicht sehen, wie schnell der lüfter bei dem kleinen kühler dreht"
das ist doch nicht dein ernst oder?
ati verbaut also deiner meinung nach auf den neuen chip nen kleineren kühler mit schnellen lüfter, obwohl sie schon ein fertiges design haben welches sie nutzen können
du machst dich lächerlich
Die 150W sind Schwachfug, daß ist nur die maximal mögliche Versorgung nach der PEG-Spezi: wie erwähnt, max. 75W durch den Slot und 75W durch den Stecker. Die Karte wird sicher darunter bleiben, ohne nähere Angaben muß man den Bereich 75-150W angeben.
Wollte sich NV nicht mal um eine ordentlich Kühllung kümmern? Diesen Pseudo-Notebook-Radiallüfter-Quark können die gleich wieder in die nächste Tonne drücken, ATI macht es ja vor.
Der Chip wirkt sogar etwas größer als der NV40. Verdächtig übrigens irgendwie die Aufschrift 'Korea', oder unterhält TSMC eine Fab dort?
Wollte sich NV nicht mal um eine ordentlich Kühllung kümmern? Diesen Pseudo-Notebook-Radiallüfter-Quark können die gleich wieder in die nächste Tonne drücken, ATI macht es ja vor.
Der Chip wirkt sogar etwas größer als der NV40. Verdächtig übrigens irgendwie die Aufschrift 'Korea', oder unterhält TSMC eine Fab dort?
W
Willüüü
Gast
Wurde ja auch mal wieder Zeit das es neue Informationen zu dem neuen Grafikchip gibt.
Ich bin mal gespannt wie hoch der Leistungszuwachs im Gegenteil zur alten 6800U ist.
Und wie warm der Chip wird, manche Ultra Modelle wurden ja ziemlich warm.
Gruß
Willüüü
Ich bin mal gespannt wie hoch der Leistungszuwachs im Gegenteil zur alten 6800U ist.
Und wie warm der Chip wird, manche Ultra Modelle wurden ja ziemlich warm.
Gruß
Willüüü
bensen schrieb:durch die 110nm kann der chip nicht so hoch getaktet werden, dies ist aber kein thermisches problem(kannst ja mal nach low-k googeln, hab kein bock den artikel rauszusuchen)
denn selbst mit ner wakü bekommste den r430 net viel höher
es gab viele tests wo verlustleistung der x850xt gegen x850xl getestet wurde
und ob du es glaubst oder net die des x800xl ist niedriger
"außerdem kann man nicht sehen, wie schnell der lüfter bei dem kleinen kühler dreht"
das ist doch nicht dein ernst oder?
ati verbaut also deiner meinung nach auf den neuen chip nen kleineren kühler mit schnellen lüfter, obwohl sie schon ein fertiges design haben welches sie nutzen können
du machst dich lächerlich
kleinere lüfter sind billiger. übrigends kenn ich nur sapphire mit dem kleinen kühler. alle anderen haben den alten oder einen änlichen.
aber ich glaubs dir schon
Zuletzt bearbeitet:
lowerman
Cadet 3rd Year
- Registriert
- Juli 2002
- Beiträge
- 51
Von mir aus können zwei Slot’s für die Kühlung verbraten werden. Hauptsache die Karte ist kein Fön ;-)
@Zock: Wie gut das wenigstens einer alles durchschaut! Aber funktioniert die “Propaganda“ nicht auch bei dir? Du hättest wohl kaum bis hier her gelesen…
Nichts für ungut ;-)
--- Insider --- Darfst dich bei der nächsten Runde BF (hoffentlich bald “2“) bedanken! ------

@Zock: Wie gut das wenigstens einer alles durchschaut! Aber funktioniert die “Propaganda“ nicht auch bei dir? Du hättest wohl kaum bis hier her gelesen…
Nichts für ungut ;-)
--- Insider --- Darfst dich bei der nächsten Runde BF (hoffentlich bald “2“) bedanken! ------
W
Willüüü
Gast
Ich finde die 2 Slot Lüfter ärgerlich, wenn möchte man auch wirklich alle Slots nutzen können und keinen verlieren nur weil der Lüfter so groß ist. Die ATI Referenzkühler waren meißt etwas sparsamer.
Gruß
Willüüü
Gruß
Willüüü
Also ich glaube niemals das die Karte 150Watt verbraucht
Wer diesen Schwachsinn glaub tut mir leid
Bei jeder neuen Grafikkarte haben sie gesagt man braucht ein neues NT
bla bla bla aber meine kiste läuft mit 300W einwand frei
Gruß Franko
Wer diesen Schwachsinn glaub tut mir leid
Bei jeder neuen Grafikkarte haben sie gesagt man braucht ein neues NT
bla bla bla aber meine kiste läuft mit 300W einwand frei
Gruß Franko
Gandalfx86
Lieutenant
- Registriert
- Apr. 2004
- Beiträge
- 734
Ich kann mir diese Anaben nur so erklären:
Auf der Testkarte waren einzelne Leiterbahnen nicht in Ordnung und haben einen Kurzschluss erzeugt, der logischerweise einen ziemlich hohen Stromverbrauch erzeugt (der dann etsprechend gemessen wurde) und gleichzeitig die ganze Karte verbruzelt. Das würde auch gleichzeitig die Bläschen erklären, die sich gebildet haben.
Ich kann mich nämlich noch daran erinnern, dass es mal hieß, dass die neue NVidia relativ wenig Abwärme produzieren würde. (weshalb die ja auch einen normalen Kühler drauf hat)
Auf der Testkarte waren einzelne Leiterbahnen nicht in Ordnung und haben einen Kurzschluss erzeugt, der logischerweise einen ziemlich hohen Stromverbrauch erzeugt (der dann etsprechend gemessen wurde) und gleichzeitig die ganze Karte verbruzelt. Das würde auch gleichzeitig die Bläschen erklären, die sich gebildet haben.
Ich kann mich nämlich noch daran erinnern, dass es mal hieß, dass die neue NVidia relativ wenig Abwärme produzieren würde. (weshalb die ja auch einen normalen Kühler drauf hat)
Dope4you
Commander
- Registriert
- März 2004
- Beiträge
- 3.003
Und was soll jetzt das gejammere wegen der 150Watt, sobald die erste Karte irgendwo verfügbar ist, dann läuft doch einigen (Ich will mich da nicht ausschließen) der Sabber raus und es werden wieder alle Händler abgeklappert um das Ding dann endlich einzubauen. Ist doch dann wirklich vollkommen egal welchen Verbrauch die Karte hat, da geht es doch nicht um die Anschaffung eines "Vernünftigen Gegenstandes" hier geht es wieder um ein HighTech Produkt das zwar kein Schwein momentan wirklich braucht, aber jeder will es haben. Mal ganz ehrlich, mich interessiert es einen feuchten Dreck was mein System an Strom braucht, ich meine wenn ich mir ne 7800er Grafikkarte für 600Euro ins System bau evtl. wegen SLI 2x600Euro, dann sollte mich die Stromrechnung bei dem ganzen am wenigsten stören 
Zuletzt bearbeitet:
- Registriert
- Aug. 2004
- Beiträge
- 1.040
Ähnliche Themen
- Antworten
- 35
- Aufrufe
- 3.717
- Antworten
- 85
- Aufrufe
- 10.151
- Antworten
- 129
- Aufrufe
- 10.631
- Antworten
- 74
- Aufrufe
- 12.085
- Antworten
- 105
- Aufrufe
- 15.161