News Die-Plot des Nvidia GT200 und Überblick

@zwirbelkatz

1. Wie jetzt? jemand der sich so ne grafikkarte kauft, und die auchnoch 4 STD am Tag belastet liebt die Umwelt?
2. Jemand der 600 für ne Graka ausgibt, wird auch die Stromkosten bezahlen können (ist ja bei einer 9800 GX2 auchso)
3. Fenster aufmachen, eine Grafikkarte schafft es ohnehin nicht ein gesamtes Zimmer auch nur um 1 Grad temp anzuheben

bei 2 sachen geb ich dir allerdings recht: warum bei so viel geld keinen Stromsparmechanismus? ja, die grafik ist echtmal peinlich, wenn man die Daten bei Excel eingibt und daraus ein Diagramm macht sieht das ganze schon ganz anders aus.
Ohnehin glaub ich nicht dass die Performance Daten im Diagramm stimmen
@Topic

freut mich dass die HD4870 und die HD4850 im gegensatz zur konkurrenz auch für leute wie mich, bei den das Geld nun mal nicht auf den Bäumen wächst gedacht ist.
 
Zuletzt bearbeitet:
Wieso muss hier jeder Äpfel mit Birnen vergleichen?

Die RV770 werden wohl sehr gute Mainstream-Karten, die GTX 280 spielt in einer ganz anderen Liga. Hier wäre allenfalls ein Vergleich mit der X2 angebracht.
 
@KAOZNAKE

Trotzdem muss man doch zugeben das die 3870 schon eine Ecke mehr features hat als der Vorgänger! Und das ist Inovation. Was mir eben auch bei Nvidea ein wenig fehlt(8800GT=9800GT ^^)

@illegalz
Ich muss dir sagen meine Radeon X1950XTX hat man zimmer ziemlich angeheizzt!!! Ich konnte im Winter teilweise ohne Heizung mein Zimmer Temperatur regeln xD das bei Standart Takt!
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Vorteile der 3870 gegenüber der 2900XT
Vorteile der 9800GTX (Performance) gegenüber 8800GTX (altes High-End):
-VP2
-PCIe 2.0
-Hybrid SLI
-Stromverbrauch
-Leistung, gewaltige Shaderpower und noch weniger Probleme bei AF
-Preis

Das rechtertigt einen neuen Namen, oder wird hier wieder mit zweierlei Maß gemessen?

KAOZNAKE schrieb:
Was soll da verbessert sein? HD3 macht das selbe MSAA wie HD2, SSAA kennt AMD ja nicht und diese Blur AA Sorten sind für die Tonne.

KAOZNAKE schrieb:
Naja und übersichtliches Portfolio
Die Probleme gibts nur, weil die GF8 noch am Markt ist. Sollte bald behoben sein. Dann ist auch klar, wie man Leistungsmäßig sortiert.

KAOZNAKE schrieb:
Wollt ich noch sagen, bildlich gesehen ist es doch so:
Du meinst RV770 und GT200?
Schlechter Vergleich.
Machs so:
AMD nimmt zwei 350PS Motoren und Nvidia ein 1000PS Motor.

Wir haben hier einmal 2x 800Millionen Transistoren vs 1x 1400Millionen Transistoren.
Die 2x 800 können die 1400 nicht schlagen. Was daran effizient sein soll ist mir unklar.
AMDs Vorteil ist die 55nm Fertigung und der Yield, ob der Kunde die Yield zu spüren bekommt? RV670 war ja nicht besonders billig für seine Größe .....
 
Zuletzt bearbeitet:
@unyu, na du bist ja ein richtiger Nvidia-Fanboy wie es mir scheint.
Ja - die Geforce Serie mag im guten und ganzen besser sein als alles, was ATI/AMD je heraus gebracht hat, nur komisch, dass AMD im Bereich Desktop Computer mit ihren Grakas immer stärker im kommen ist.
und mal ehrlich, wie viele prozent der bevölkerung, die überhaupt spielen, schalften 16xaa oder sowas ein.

Außerdem ist die gt200 produktion viel teurer:
https://www.computerbase.de/news/grafikkarten/fotos-und-weitere-infos-zum-gt200-von-nvidia.22014/
"Die Produktionskosten der GPU alleine soll pro Chip deshalb zwischen 100 und 110 US-Dollar liegen."
 
Naja hab ja vorhin mal ein vergleich mit einem Auto gemacht^^, naja ich will ja auch nur sagen das sich aber im vergleich zur reinen Leistung zur 9800GTX nicht viel verändert hat, sei es den Performace, wieso hat man dann nicht den Namen des GT200 nicht in 9900 GTX oder ULTRA umbennant?? Dann hätte ich es verstanden, dann wäre mir das egal wenn der 9800GTX dann performance bedient zum guten preis mir wegen, da man aber ziemlich schnell 8800 GTX mit der 9800GTX vergleicht können da misverständnisse entstehen! Und zack werden vergleiche angestellt! Ich kenne die Zeiten noch wo der G80 400-500€ gekostet haben ^^.

Ich versteh deine Beispiele schon! xD Hast ja vollkommen Recht, aber seien wir mal erhlich ATI hat es früher auch versucht mit der 2900XT! Ohne mal auf details einzugehen!
 
Zuletzt bearbeitet:
@deathhour, sollte das stimmen, entschuldige ich mich wegen dieser falschaussage, ich kriegs im Wohnzimmer mit einer HD3870 zumindestens nicht hin

mfg
 
deathhour schrieb:
wieso hat man dann nicht den Namen des GT200 nicht in 9900 GTX oder ULTRA umbennant?
Siehst du doch hier im Fred. ;)
Als 9900 würde GT200 nicht weit kommen. Die ganzen Fans dort draußen würde die Karte allein vom Namen her schlecht machen.
War wohl ein Fehlglaube man könnte High-End später als den Rest bringen.
 
Ahso nagut

und ja die XTX war eine Heizung xD im Winter!




Ich weiß nur nich wo das hin führen soll, NV macht immer größere Chips bzw. Karten! Mehr Mehr Mehr, is ja in erster linie nicht verkehrt aber auf dauer nicht akzeptabel! Siehe Umwelt,Stromverbrauch sowie Fertigungskosten. NV muss ja auch gucken was sie bei der ganzen sache verdienen! Sobald die Fertigungskosten höher liegen muss ja irgendwie der Gewinn eingefahren werden! Das macht man gewiss am besten mit einer HochPreis Politik(geht nur mit performance Krone,referenz,einmaligkeit)--->Hohe Preise---Viel marketing

deswegen entstehen auch solche Grafiken wie oben!

Da wird aus einer simplen anpassung die evt. noch standartisiert ist wie PCI2.0, gleich ein "neues feature" gemacht^^. Nunja ich finde das is alles mehr oder weniger "kunden desorientierung" obendrein noch gezielt! Fix was kleines einbauen, neuen name draufschreiben, fertig ^^ Sony hat auch Hybrid SLI ^^ in einer gewissen art und weisse in seinen Notebooks! Die gibts schon ein wenig länger! Warum kommt Nvidea erst jetzt drauf? Wenn ihr mich fragt is das alles show, zumal ja spezielle chipsätze benötigt werden und vista ^^. Ich will da nich weiter drauf eingehen muss ehrlich sagen hab da net viel drüber gelesen jedoch das was ich gelesen habe hat mir gereicht.



Früher oder später muss NV seine Produktion neu kalibrieren und auf 55nm umsteigen, sonst werden die Karten noch teurer und die marketing gags nehmen noch mehr zu ^^, was zufolge hat das wir noch mehr in "Informations schei**e stehen"! Irgendwo hängt ja auch ein NV manager an seinem Posten und wenn seine aktionäre im geschäftsbericht rote zahlen sehen gegenüber dem letzten Quartal ,wird dieser auch einen kopf kürzer, deswegen muss NV schnell Geld machen, VIEL geld, wie macht man das indem man die Träume andere Ausnutz, und wirbt mit "LEISTUNG" und features ....

Wir wissen wohin das führt... ich will nich näher drauf eingehen ^^ kann auch sein ich irre mich, jedoch is das allgemeines unternehmerisches denken ^^, aber naja ich kann mich ja auch irren, bitte belehrt mich eines besseren.



Sry wegen RS und ausdruck muss nebenbei noch arbeiten xD:king:
 
Zuletzt bearbeitet:
eigentlich ist die Namensgebung doch ganz einfach:

LE - Ultra low Modell
GS- Low-Modell
GT - performance modell
GTS - high-performance modell
GTX - Highend
Ultra - Ultrahighend
GX2 - 2xUltra high end

Anmerkung: Der durschnitt liegt irgendwo zwischen GS und GT

Das einzige was Nvidia verbockt hat, ist das mit der GTS 320/640/512
 
Ja das mein ich ja, das is irgendwie alles naja mist xD ^^
deswegen find ich es gerade doof das die neue "high end" generation nun neue namen hat, ich meine wenn man einmal eine schiene fährt sollte man diese auch halten! Jetzt könnte man ja auch denken das die G9xxx Serie auslauf is xD :freak:

Das find ich schon ein wenig unglücklich ^^ aber nunja ich für meinen teil kauf mir keine Geforce mehr, die in meinem notebook reicht mir ^^,die kleine 8600M GT mit veralteten Treibern :o
 
Zuletzt bearbeitet:
nur im moment ist die Situation etwas schei***, ich kann man alle noch oft vertrieben Karten von Nvidia aufzählen:

8400GS,8500GT,8600GT,8600GTS,8600GS,8800GT,8800GS,8800GTS,8800GTX,8800GTX,9500GS,9600GSO,9600GT,9800GT,9800GTX,9800GX2

ganz zu schweigen von sowas: 8800GTS - 320, -640 -512

wenn die 8000 serie verschwindet, wird es aber etwas klarer, gut zu sehen ist das bei ATI. weil die 9xxx serie ist, hat man mit dem HD und dem X weiniger namen, nur war es verwirrend das es si Namen die XT oder XTX gab, glücklicherweise sind die aber nicht mehr im Handel.

Auch wen es HD2000 und HD3000 und HD4000 auf dem Markt gibt, bleibt es übersichtlich

Fazit: es liegt weniger an der Zahl, als an der Präzifixen
 
ja aber ATI schafft es ja auch eineindeutig zu bleiben! Da weiß man sofort wie die Performance verteilt ist, aber naja ich glaub hat ja eh kein sinn gross darüber rum zu philosophieren ^^, früher oder später wird sich das schon klären!
 
Bei dem gegeben 65nm-Prozess kann ich mir vorstellen, dass NVidia mit dem GTX 280 das technisch noch eben "sinnvoll" Mögliche ausreizt. Noch komplexere Dice sind wohl mit normaler Lüftkühlung nicht zu realisieren, was die resultierende Grafikkarte quasi unverkäuflich machen würde, da die Leute mit Wasserkühlung doch (noch?) recht spärlich gesäht sind.

Auch wenn es manche nicht hören wollen, der Schritt zu Mehrkern-GPUs wird kommen, und das nicht erst in "10-15 Jahren", wie ich vor einigen Seiten gelesen habe. Erinnert euch an NetBurst beim P4. Als man merkte, dass man Energiedichten auf der Chipoberfläche erreichte, die (laut meinem Systemsoftware-Prof) weit überhalb der der Sonne liegen, ist man auf die Idee gekommen, mehrere und gleichzeitig effizientere Rechenkerne zu verwenden, da nur durch Takterhöhung oder noch extremere Bewegung in Richtung "Brute Force"-Architektur keine (wirtschaftliche) Leistungssteigerung mehr zu machen war. Und NetBurst ist wirklich nicht lange her. Außerdem wird die technische Entwicklung ja auch nicht wirklich langsamer werden.

BTW, ich freu mich sehr auf die 4870 mit 1GB DDR5 :)
 
GPUs sind schon ewig "Mehrkerne". Die Kommunkation dieser hunderten Kerne über ein PCB ist immer grottig lahm im Vergleich zu einer All-in-One-Lösung, dazu die bekannten Multi-GPU-Nachteile.
Die Lösung bei GPUs ist wie immer Dieshrink und dadurch mehr Transistoren auf der selben Fläche.

In ein paar Jahren haben wir auch 400mm Wafer, vor einigen Jahren gabs gerade mal 200mm Wafer.....
 
der nvidia chip ist 2,25 mal so groß wie der von ati - daher also der hohe preis ;P
 
^^ hehe
 
Das sind ja pervese Angaben von NVIDIA, nicht nur vom Stormverbrauch !

Gibt es denn schon Spiele die diese Graka unterstützt? :D

Ich denke NVIDIA rüstet sich schon mal gegen Intel.
 
Angeblich GTX 280 nur 30W im Idle! GT200 also doch mit Stromsparfunktion?

http://www.hardware-infos.com/news.php?news=2113

Wenns stimmt, dann gebe es ja KAUM noch Grund für eine HD4870. Abwarten. Jedoch kann man hier von Hybrid-SLI nicht sprechen, da die Karte sonst 0W verbrauchen würde, weil sie abgeschaltet wird. Hier wird aber von 30W im Idle gesprochen. Also Hybrid Power für alle?
 
Zuletzt bearbeitet:
nunja doch es gibt einen grund für ATI--->hübsche Treiber-->bessere bildquali
Graka is billiger!
Und Sie verbraucht weniger im Lauf-->eher marginal^^ die 80watt^^
 
Zuletzt bearbeitet:
Zurück
Oben