News Die-Plot des Nvidia GT200 und Überblick

Ich meine damit die real existierenden Spieler.

Das sind nicht gerade wenig, da braucht man sich ja nur WoW & Co. anzuschauen... von daher habe ich mit 1 Million ja noch extrem niedrig geschätzt.
 
jo in betracht auf die umwelt ist das nicht so vorteilhaft, aber nunja mir gehts darum das ich meinen 40Zoll LCD betreiben kann. Gerade bei dem Teil muss man auch gucken das der Saft reicht bzw. die Steckdose ndas aushalten xD, da kommt die ATI Karte nicht schlecht. Bei uns is das auch immer son ding im Haus, wenn mein Rechner Pool mit Festplatten und monioren läuft kann meine mutter etweder waschen oder kochen ^^ aber beides geht net xD
 
illegalz schrieb:
GTX 280: 150 Watt im durchschnitt x 4 Stunden Betrieb x 6Tage die Woche x 40 Wochen im Jahr [...](bei 20ct pro kwh also insgesamt 28,80 Im jahr

1. Möchten das manche vllt. nicht wegen der Umwelt.
2. 50-60€ in 2 Jahren sind nicht ohne, besonders für eine Karte, die ohnehin schon ~600€ zu Beginn kostet.
3. Mehr Verbrauch = Mehr Abwärme = Größerer Lüfter = Mehr Lärm = Mehr Hitze im Zimmer = Mehr Hitze im Gehäuse => eventuell noch mehr Geld für gute Lüfter an Cpu und Co.

IgG schrieb:
Naja, bei dieser Leistung ist den Enthusiasten der Stromverbrauch erstmal egal:
gtx200-series-performance.jpg
Noch peinlicher und "offensichtlicher" kann man eine tabellarische Darstellung fast gar nicht mehr zu seinem Vorteil schönen.
Beginnt bei 0,8 und die Bereiche zwischen 1 und 2 sind exorbitant größer als davor. Wie lächerlich (vom Publisher).

flappes schrieb:
Dazu kommt: Hitze im Zimmer... kann sich ja jeder selber vorstellen, jetzt im Sommer erst recht unerträglich. [...]
Nichts gegen Grafikpower, da ist nVidia eindeutig vorne, aber wenn ich halt zu bestimmten Zeiten keine Grafikpower brauche, dann braucht die Graka auch keine 130 Watt zu verjubeln.

Wieso eine 600€ Highend-Enthusiastenkarte noch immer keine Stromsparmechanismen bekommen soll kann ich nicht nachvollziehen.


@Topic
Mir persönlich ist selbst der Verbrauch der 8800gtx zu hoch. Sonst hätte ich mir eine eingebaut. Klar, es kommt nicht jedem auf einen extrem leisen PC an. Für mich spiel das aber eine große Rolle.
Eine Hd4870 mit 1Gig Ram und Accelero S1 passiv kühlbar ab Werk würde ich wohl kaufen. Wer weiß, ob das bei 160 Watt noch möglich ist. Sollte es eigentlich.
 
KAOZNAKE schrieb:
Warum?!! hat NVIDIA es nicht gemacht wie damals bei der G7? Da gabs auch 7800, 7900, 7950.
Wenn man auf AMD Seite einen neuen Namen mit einem Dieshrink mit neuen Features begründen kann, (HD2 -> HD3)
dann geht es auch bei Nvidia. (GF8 -> GF9)
Ist nunmal Marketing. Wär ja schön blöd wenn der eine das amcht und der Andere sich zurückhält.

Die 9800 ist nunmal nicht der Nachfolger der 8800. Ganz klar, da hilft manchmal ein Blick auf den Preis. Wie naiv muss man sein, zu denken 9800 wäre 3mal schneller, wenn der Preis identisch ist?

Die 8800GT als 8800 zu verkaufen war ein Fehler, richtig.

Scheint einige ganz schon vom Hocker zu reißen, wenn mal die neue Serie nicht mit dem High-End Modell startet.

KAOZNAKE schrieb:
Seit wann definiert sich High-End über (Chip-)Größe?
Seit dem ein winziger Chip bekanntlich kaum so schnell wie ein riesiger ist (bei gleicher Strukturbreite und Packungsdichte). ;)

KAOZNAKE schrieb:
Zusammenfassend kann man sagen, je kleiner desto besser, weil mehr Chips raufgehen und gleichzeitig die Ausbeute steigt. Das ist imo auch der einzige Sinn, Grakas Multi-GPU-mäßig herstellen zu wollen.
Eben. Warum schreit dann jeder nach Multi Die?
Da holt man sich nur eine miese Skalierung, hohe PCB Kosten, zum Teil mehrfache Bestückung (VRAM) in Haus.

flappes schrieb:
aber wenn ich halt zu bestimmten Zeiten keine Grafikpower brauche, dann braucht die Graka auch keine 130 Watt zu verjubeln.
GT200 ist Hybrid Power fähig.
Da verbraucht nur noch die Onboard GPU 5W. Sparsamer gehts nicht.
 
Ich für meinen Teil warte ungerne bis Hybrid SLI für Sockel 775 drausen is^^ will jetzt gamen deswegen schreckts mich ein wenig ab(NV).

WIe andere bereits gesagt haben, für mich ist die Wärme entwicklung gerade im Sommer ein entscheidentes Kriterium! Ich wusste noch wie warm die X1950XTX wurde :D, naja da NV in die richtung 2900XT geht(nur vom verbrauch gesehen nicht von der Leistung) kann man sich wie sagt man so schön "kalt anziehen" :freak::evillol:

naja ^^ wie ebe ngesagt ich steh auf kalte Grakas zumidest sollte es die Zimmer temparatur nicht unbedingt übersteigen(gesamt Rechner)!


Naja ich dachte eigentlich auch das die 9800GTX die 8800 GTX ablösen sollt ^^, aber nunja vielleicht is mir ja was entgangen^^.
 
Unyu schrieb:
CPUs haben mal mehr verbraucht. Und hier gibts ein ganzes Brett mit Spannungswandlern und RAM.

Ökologisch gesehen kannst du erst mal woanders sparen: So ziemlich überall, aber nicht wegen 30W bei der Grafikkarte, das ist Erbsenzählerei. Allein der Gedanke daran verbraucht mehhr Energie.....
Im Idle sind die Karten sogar sparsamer als alles zuvor dank Hybrid Power.

Irgendwo muss man halt einfach anfangen. Der PC ist einfach an, ohne dass man tanken müsste oder sonstwas und man merkt die Kosten nur indirekt. Vollast ist relativ egal, aber im Idle verheizt er dann unnötig Geld, was man sich auch sparen könnte.
Direkte Folgen sind: Lautstärke und Wärme. Je leiser desto besser (für die meisten) und im Sommer ist jedes Grad zu viel...

Hybrid-SLI: Klar, nur mit Vista und einem Nvidia 7x0er Chipsatz. Wer will den bitte freiwillig einen Nvidia-Chipsatz, wenn er schon einen guten X38,P35 oder einen AMD 7x0er kaufen kann/gekauft hat?
Einfach nur arm, dass Nvidia zu faul/blöd ist um einfache Bioseinstellungen zum Stromsparen zu erstellen.

Zum Thema Leistung: Leider kommt der R700 noch nicht raus, mal schauen was daran so viel mehr Aufwand ist, da so eine Karte zu entwerfen.... Wird auch ein Stromfresser sein, dafür nur unter Vollast...

Noch zu den geforce 8 (die neuen) : Speicherinterface beschneiden, Die-Shrink, saublödes Namensschema, das bei erhöhter Leistung ggü. den "alten" 8800GTS weniger Leistung vorgaukelt. Die 8800GTS 512, ok, tritt in dieselben Fußstapfen.
Theorethisch mehr Leistung als die 8800GTX, aber wenns ans Eingemachte geht (hohe Auflösung+ AA und AF) bricht sie total ein.
Dann die Geforce 9: Neuer Name fürs gleihe Produkt. 9800GTX=8800GTS 512 mit minimalem OC, 9800GT=8800GT, 9600GT=beschnittene 8800GT, 9600GSO=8800GS-

Sinnloses ändern der Namen, chaotisches Namensschema und Kundenverarsche wos nur geht. Für Leute, die sich nicht gut auskennen und keine Zeit o.ä. haben, um sich tiefgreifend zu informieren werden verarscht.

btt:
GTX 280: unübertroffen in Leistung/Stromverbrauch/Hitzentwicklung/vllt Lautstärke.
Ich hab nix davon gelesen, dass die DX10.1 unterstützen, SM4.1 auch nicht, dann was praktischereres: HDMI-Wiedergabe mit durchgeschleiftem Ton anstatt per Kabel, welches erst angesteckt werden muss.
Dann kommt in ca. 3 Monaten der Die-Shrink und dann werden die KArten eh billiger. Warum dann so eine kaufen, wenn man dann in 3 Monaten eine "bessere" KArte haben kann mit weniger Nachteilen...
 
Unyu schrieb:
Wenn man auf AMD Seite einen neuen Namen mit einem Dieshrink mit neuen Features begründen kann, (HD2 -> HD3)
dann geht es auch bei Nvidia. (GF8 -> GF9)

Bloß das AMD auch ein neues Namensschema einführen wollte, um das Kürzelverwirrspiel zu beenden. Und die ganzen neuen Features von G8 auf G9 kann man an einem finger abzählen. DX10.1 kanns ja nicht sein ;)

Unyu schrieb:
Die 9800 ist nunmal nicht der Nachfolger der 8800. Ganz klar, da hilft manchmal ein Blick auf den Preis. Wie naiv muss man sein, zu denken 9800 wäre 3mal schneller, wenn der Preis identisch ist?

Warum heißt die dann so? Müsste die dann nicht 9800GT heißen, oder 8900GTX? Der Preis alleine macht da nicht die Musik. Von 3x schneller redet ja auch keiner, aber ein bißchen
mehr als 6% wär ner 9800GTX schon würdig gewesen.

Unyu schrieb:
Die 8800GT als 8800 zu verkaufen war ein Fehler, richtig.

Scheint einige ganz schon vom Hocker zu reißen, wenn mal die neue Serie nicht mit dem High-End Modell startet.

Mir völlig wurscht, die können auch mit der 9200 starten. Aber sinnvoll und nachvollziehbar sollte es schon sein.

Unyu schrieb:
Seit dem ein winziger Chip bekanntlich kaum so schnell wie ein riesiger ist (bei gleicher Strukturbreite und Packungsdichte). ;)

Trotzdem wird High-End nicht über Chip-Größe definiert. Angenommen, ein halb so großer Chip ist doppelt so schnell wie der große, wer ist dann High-End? Wohl doch der schnellere nehm ich an. Das Geschwindigkeit meist mit der Chip-Größe zusammenhängt ist klar, aber definitiv nicht entscheidend für High-End.

Unyu schrieb:
Eben. Warum schreit dann jeder nach Multi Die?
Da holt man sich nur eine miese Skalierung, hohe PCB Kosten, zum Teil mehrfache Bestückung (VRAM) in Haus.

Hab ich doch erklärt: (Kurz: weils billiger ist)

Großer Chip ala GT200 schwierig zu fertigen --> 40% yield beim GT200

kleine Chips leichter zu fertigen--> >90% yield. Schließlich kann man da auch noch Redundanz einbauen, um Fehler auszubüglen. Geht beim großen Chip nicht, weil kostenmäßig nicht zu bewältigen.

Ist ja im Prinzip das was INTEL macht. Mehrere kleine Chips zu einem großen zusammenfügen. Ist letztendlich einfach billiger und auch leichter zu designen, als ein riesiger komplexer Chip. Die paar Nachteile werden da gerne in Kauf genommen. Die PCB-Kosten sind im Gegenteil sogar niedriger. Das Problem mitm VRAM hat NVIDIA beim GT200 auch, dank dem 512bit SI müssen mindestens 16RAM Chips drauf, das ist natürlich teurer als nur 8. (müssen ja auch mit Strom usw. versorgt werden, d.h. das PCB-Layout wird mit mehr RAM Chips komplexer-->teurer usw.)

Unyu schrieb:
GT200 ist Hybrid Power fähig.
Da verbraucht nur noch die Onboard GPU 5W. Sparsamer gehts nicht.

Aber nur mit speziellen Boards (und dann auch nur auf AMD-Basis :hammer_alt::hammer_alt::hammer_alt:)

NVIDIA sollte mal zusehen das jeder was davon hat und das Feature gefälligst in jede Graka einbauen, nicht nur die High-End-Dinger.:stacheln::stock::headshot:
 
Zuletzt bearbeitet:
Einfach nur geil die smileys ^^ die sagen echt alles aus!
Meine Vorredner haben recht xD wozu nen Porsche kaufen wenn ich nur ne 30 fahre ^^ weil ich in ner 30zone bin. Is doch im endeffekt das selbe! Der Gt200 hat soviel Leistung das diese kaum benötigt wird außer mit nem monster monitor ^^.
 
KAOZNAKE schrieb:
Bloß das AMD auch ein neues Namensschema einführen wollte, um das Kürzelverwirrspiel zu beenden.
Aha. Ein neues Schema rechtfertig neue Namen, neue Features nicht?
Zu nennen wäre Hybrid SLI, Triple SLI, Die Shrink, ...

Die 9800GTX hat das Kürzel GTX verdient, weil sie die schnellste Single Chip 9800 ist.

Die 9800GTX ist eben eine Performance Karte auf 8800GTX Niveau, auch preislich.
Wie kommst du darauf, das sie der Nachfolger ist? Ist die 3870 auch 300% schneller als die 2900XT? Wo bleibt der 8800GTX Gegner?
Der Nachfolger ist immer noch die GTX 280, gleich am Preis und der Leistung erkennbar.

KAOZNAKE schrieb:
Hab ich doch erklärt:
Ist mir bewußt, das die Yield mies ist.
Das PCB wird mit mehr Dice teurer. Warum? Weil bei der heutigen Lösung die Dice nicht auf einem Package sind, sondern lustig auf dem PCB verstreut.
Das SI hat hier nicht zu suchen. Vergleiche die SI Kosten mit 2x GDDR5 Kosten.

KAOZNAKE schrieb:
Aber nur mit speziellen Boards
Ist auch kein standardisiertes Feature.
Logisch, das es einen nForce braucht. Das es heute nur bei AMD funzt wird sich ändern.

Kreisverkehr schrieb:
Noch zu den geforce 8 (die neuen)
Neuer Chip, kleiner Preis. Wer hier sauer ist, dem kann keiner mehr helfen.

Kreisverkehr schrieb:
Dann die Geforce 9: Neuer Name fürs gleihe Produkt.
Wie schon geschrieben:
Die G92 als 8800 zu verkaufen war ein Fehler.
GF9 G92 unterscheidet sich trotzdem von GF8 G92: Hybrid SLI, Triple SLI, ...
Ich verstehe nicht wie man darauf so rumreiten kann. Die GF9 sind nicht teurer, also? Die GF8 läuft aus, das ganze dient doch dem Kunden wenn das Portfolio wieder aufgeräumter und übersichtlicher ist.
 
Aufgeräumt ^^ Übersichtlich nunja schätze das sehen manche ein wenig anders aber nungut jedem sein Chip xD
 
Ich bin bestimmt nicht der einzige, der um Features zu nutzen, bestimmt kein Nforce Board kauft, da die Intel in meiner Erfahrung wesentlich zuverlässiger arbeiten. Mein letzter Nforce Chipsatz war ein 630i, und der war unterirdisch. Und mein Nforce4 für AMD war auch nicht gerade berauschend.
Außerdem ist ein halbwegs akzeptabler niedriger Stromverbrauch im Office-Betrieb nicht nur ein zusätzliches Gimmick, sondern meiner Meinung nach essenziell. Wenn man obligatorisch einen Nforce Chipsatz benötigt um sie sinnvoll einzusetzen, sind die Karten für mich gestorben.
 
Ich werd auch definitiv bei ATI bleiben allein schon wegen dem Treiber support!
 
Kreisverkehr schrieb:
Dann kommt in ca. 3 Monaten der Die-Shrink und dann werden die KArten eh billiger. Warum dann so eine kaufen, wenn man dann in 3 Monaten eine "bessere" KArte haben kann mit weniger Nachteilen...
Diejenigen, die Leistung dringend brauchen und bereit sind viel Geld auszugeben, die kaufen GT200 beim Release. Denen ist der Wertverfall auch völlig egal.
Alle anderen können ruhig warten, richtig.
 
Hab nochmal eine Frage an die Experten:

Die 220W, die der gt280 wohl verbrauchen soll:
- verbraucht der die sofort ab Rechnerstart und dann durchgängig?
- oder verbraucht er sie nur, sobald man ein Spiel/was Anspruchvolles gestartet hat?
 
Unyu schrieb:
GT200 ist Hybrid Power fähig.
Da verbraucht nur noch die Onboard GPU 5W. Sparsamer gehts nicht.
Leider hat die Mehrheit Chipsätze von Intel oder ältere von Nvidia. Schöne Sache, aber wenn ich nur eine aktuelle Grafikkarte suche keine Option.

@Kayzah:
Die Watt-Angabe ist bei Volllast. Da aber noch niemand genau weiß, was für Stromsparmechanismen die GT200-Reihe hat, kann man schlecht abschätzen was sie im Idle-Modus verbraucht.
 
Kayzah schrieb:
verbraucht der die sofort ab Rechnerstart und dann durchgängig?
- oder verbraucht er sie nur, sobald man ein Spiel/was Anspruchvolles gestartet hat?
[/QUOTE]
Leute, die bisher mehr wissen (NDA) deuten an, dass der Stromverbrauch im Idle von Nvidia sehr ernst genommen wird. Ob das aktuell bereits gelöst ist oder noch wird, ist nicht sicher.

Meine Theorie ist, dass NVIO sich diesmal auch um diese Dinge kümmert.

Aber sicher ist gar nichts.
 
Also wenn ich mir das so anschaue, bin ich bald geneigt, komplett auf AMD (Board, Grafik, Prozzi hab ich schon) zu setzen. Die Stromsparfeatures sind nicht zu unterschätzen und preiswerter ist AMD ja auch noch dazu.:freak:
 
Hab ich mir auch schon überlegt aber die Prozis sind dann doch nicht soo stromsparend oder?? Also der Phenom verbraucht ja auch ganz schön viel Strom im vergleich zu Intel! Oder seh ich das falsch??
 
Unyu schrieb:
Aha. Ein neues Schema rechtfertig neue Namen, neue Features nicht?
Zu nennen wäre Hybrid SLI, Triple SLI, Die Shrink, ...

Na klar rechtfertigt ein neues Namensschema neue Namen, sonst wärs ja kein neues Namensschema. ;)

Triple SLI ging bei der 8800 auch schon und ein die shrink ist kein Feature. Wie gesagt, neue Features kann man an einem Finger abzählen...

Vorteile der 3870 gegenüber der 2900XT

Direct3D-10.1-API
PCIe-2.0-Interface
Unified Video Decoder
Powerplay
Shader-Model 4.1
CrossFire X oder Quadfire ;)

Wenn du willst nochn die shrink und verbessertes AA (also schneller trotz kleinerem SI), höherer Takt, weniger Stromverbrauch, weniger Abwärme, sehr leise. Naja, die letzten ist glaub bei der 9800GT, ähm 8800GT wohl auch der Fall.

Unyu schrieb:
Die 9800GTX hat das Kürzel GTX verdient, weil sie die schnellste Single Chip 9800 ist.

Die 9800GTX ist eben eine Performance Karte auf 8800GTX Niveau, auch preislich.
Wie kommst du darauf, das sie der Nachfolger ist? Ist die 3870 auch 300% schneller als die 2900XT? Wo bleibt der 8800GTX Gegner?
Der Nachfolger ist immer noch die GTX 280, gleich am Preis und der Leistung erkennbar.

Aha, und ich hab immer den Fehler gemacht und die GTX für die High-End Karte von NV gehalten. Jetzt ists nur noch ne Performance Karte? Wie bin ich noch gleich drauf gekommen das die 9800GTX der Nachfolger der 8800GTX ist? Mal überlegen... 9800 kommt auf 8800 genau wie 8800 auf 7800/7900 kommt. Beim GTX bleibt alles gleich... Hmmm...Stand GTX nicht für Geforce Technology Extreme? Wahrscheinlich extreme viel Gewinn für NV bei der 9800GTX.
Wenn die GTX280 der Nachfolger der 8800GTX ist, hätte sich NV zumindest die 98GTX sparen sollen und die GTX280 stattdessen so benennen. Dann hätte wieder keiner was zu meckern gehabt. Aber jetzt gibts im Prinzip schon wieder ne neue Reihe, sorry, das blickt kein normaler Mensch mehr. Wahrscheinlich wär dann das Problem gewesen, das NV für kurze Zeit ohne High-End dagestanden hätte (weil 88GTX ja ausläuft) und das natürlich auf keinen Fall angehen kann.
Die 3870 ist keine 300% schneller. Wie gesagt, von 300% ist auch niemals jemand ausgegangen von 8800GTX-->9800GTX. Allerdings sollte die 3870 die 2900 nicht in erster Linie leistungsmäßig ersetzen. Natürlich war die Marketing-Abteilung da groß dabei mit neuer Namensgebung. Aber letztendlich wurde die 3870 als "sparsame" 2900 positioniert. Wohingegen die 98GTX als legitimer 88GTX Nachfolger daherkam- IMO.

Naja und übersichtliches Portfolio... NV hat selber eingeräumt, das es so nicht geht:

http://www.xbitlabs.com/news/video/...Admits_Issues_with_Product_Naming_Scheme.html

Wollt ich noch sagen, bildlich gesehen ist es doch so: Während NV die Aufgabe "baue das schnellste Auto der Welt" gelöst hat, indem man 10x1000PS Motoren genommen hat, hat ATI quasi 5x2000PS Strahltriebwerke verwendet. Effizient und einfacher umzusetzen. Vielleicht nicht ganz so schnell, aber viel günstiger.
Wobei die 10x1000PS auch ihren Reiz haben, männlich eben. "Harharhar" (tim taylor)
 
@Kaoznake
Wenn du dir mal bitte Bild 29 dieser News anschaust, wirst du sehen, dass laut AMD die jetzigen 3870 und 3850 parallel zu den neuen Grakas laufen werden. Zumindest im 3. Quartal. Die Chips müssen ja auch noch abverkauft werden und bei dem Preisgefüge momentan machts auch gar nicht viel Sinn, irgendwelche neuen Chips reinzuschieben.

Da aber auf Bild 38 ein Kühler von der HD 4690 zu sehen ist kann es ja nicht mehr lange dauern.

MfG Pantherfibel
 
Zurück
Oben