News Bisher unbekannter Nvidia-Chip (D10U-30) in Q2?

Computerbase geht davon aus, dass der GT200 nicht der G100 ist und dieser erst im 2. Halbjahr, vermutlich November, kommt.

Was passiert dann mit dem G100?
 
@Romsky
ich sprech auch nicht von dir oder mir (wobei ich mich auch nicht als freak bezeichnen würde :rolleyes:)
gerade wenn man keine ahnung informiert man sich doch oder?
ich kauf mir auch keine canon powershot A720 nur weil sie die höchste nummer hat
da ich anhand der ummer überhaupt nicht sehen kann ob die kamera taugt les ich mir test durch
 
Romsky hat aber leider Recht. Die Mehrzahl an Kunden vertrauen eher dem Verkäufer als sich vorher mal über ein Produkt zu informieren. Da wird dann ebend schnell mal eine 9800 gekauft obwohl die Leistungstechnisch nicht viel besser als eine 8800 ist, nur weil der Verkäufer (die meistens genauso wenig Ahnung haben) meint, "Ja Die ist gerade erst neu rausgekommen.". Und dann gibt es die, die nichtmal den Weg zum Verkäufer suchen und einfach das Produkt mit der höchsten Nummer suchen. Nur weil sie der Meinung sind, es sei das Beste.

/@Topic

Ich würde gern der CB-Variante dieser Meldung glauben schenken. Weil ich mir schwer vorstellen kann, das es sich beim "D10U-30" um einen besseren "G92er" für eine Dual-GPU Graka hadeln soll.

Es sei denn, Nvidea hat mit dem sogenannten "G92b" eine Möglichkeit gefunden, die Mikroruckler, die bei Dual-GPU´s entstehen, aus der Welt zuschaffen. Die 225-250 Watt Leistungsaufnahme und 1024MB klingen auch eher nach einer Dual-GPU Graka.

Wenn es sich trotzdem um eine Single-GPU (GT200) .. handeln sollte, ist das meiner Meinung nach ein Schritt in die falsche Richtung, bei der hohen Leistungaufnahme. Da der Trend eigentlich in die andere Richtung gehen soll/sollte!

Also ich bin ja mal auf eine offizielle Stellungnahme von Nvidea gespannt. Die sollen mal ein wenig Licht ins Dunkle bringen. ;)
 
Zuletzt bearbeitet:
Zudem würde der Die-Shrink gegen eine erhöhte Leistungsaufnahme bei einer G92 CPU sprechen.

P.S. Ich schweife weder vom Thema ab noch will ich hier Spamen, was ist das denn für ein neuer unkommunikativer Mechanismus?
 
@bensen: So siehts leider aus. Kann DKTwist nur recht geben. Da stolpern soviele im Mediamarkt rum die keine Ahnung haben aber Geld und lassen sich vom "Fachmann" beraten. Musst mal bei schlechtem Wetter zum nächsten Blödmarkt und dich in die PC-Abteilung stellen. Kostenlose Unterhaltung vom Feinsten.
Gibt auch genug die einfach ohne sich zu informieren das Teil mit der höchsten Nummer kaufen, egal obs was bringt oder nicht.
Und mehr als genug werden ihre 8800GTX gegen die 9800GTX tauschen "weil die soviel schneller ist" LOL
Erinnert mich an einen im Forum, der seine 88GTX verkloppt hat, wo die 8800GT noch nicht mal richtig verfügbar war, weil er kein Geld einbüßen wollte wenn die 9800GTX kommt. Und dann wollte er noch wissen, was er sich denn stattdessen kaufen sollte. :lol::evillol::freak::hammer_alt::stock:
 
"Zitat: Was passiert dann mit dem G100?"

Den hat NV wohl aufgrund zu hoher Wärmeentwicklung als totgeburt in die Schrottpresse gepackt, bzw kann es auch gut seit das der GT200 ein weiterentwickelter G100 ist.
 
ach, so unrealistisch finde ich die 225w für ne einzel-gpu nicht
ne 8800gt liegt schon bei ca. 100w. wenn der gt200 deutlich schneller sein soll, wird er auch erheblich mehr verbrauchen. gerüchten zufolge nutzt er ja noch 65nm breite strukturen

das mit dem trend ist so eine sache. es heulen schon alle dass seit 1,5jahren keine schnelle gpu mehr released wurde
aber die damit einhergehende gesteigerte leistungsaufnahme will keiner haben
da max. ein 55nm prozess zur verfügung steht geht es aber gar nicht anders

@KAOZNAKE
ja das es so ist kann ich mir gut vorstellen, nur ist es dann eben wie oben gesagt eigene dummheit
 
Bei der Stromaufnahme kommt die nicht in meinen Rechner das ist eindeutig zu viel.

Binn ich mal gespannt vielleicht hat die Karte wieder 2Gpus oder 3 wer weiß, aber auch die Leistung binn ich schon gespannt.
 
Könnte schon gut möglich sein, das der G92B (evtl. GT200) als Single-GPU soviel Strom frisst. Aber mal ganz ehrlich, bei einem Verbrauchsanstieg von gut 125%, erwarte ich aber auch 125% mehr Leistung gegenüber dem G92. Obwohl das vllt. nun sehr unrealistisch klingt, aber 225-250 Watt Leistungsaufnahme ist echt zuviel des Guten. Die Höhere Leistung tröstet da auch nicht über die Nebenkosten (Strom) hinweg.
 
Zuletzt bearbeitet:
Hey Leute,

1. Nvidia ist sowieso Mist. Treiberaufmachung und Support sagen alles.

2. Da man bei ATI ja gesehen hat das irgendwelche Marktforscher die 10 als ungeeignet betrachten würde ich nicht glauben das die Karte 10800GTX heissen wird.

Erstmal ist der Sprung von G92 zu GT200 doch Relativ gravierend zweitens kann man bei Nvidia immerwieder abweichungen von der Namensgebung feststellen. Bis zur 7er Serie hätte niemand an eine GT geglaubt.

Erstmal steht das X im Raum denn bei ATI ist es einem HD gewichen und somit mehr oder weniger wieder verfügbar. Andererseits haben sowohl Geforce als auch Radeon eigentlich bald ausgedient. Weswegen ein ganz anderer Name auch im Raum steht.
Man ging ja auch von 3D Charger zu Radeon oder von RivaTNT zu Geforce warum also nicht wieder?

Mal abgesehen davon steht bei Nvidia noch eine Mobile variante aus sodass es eben auch eine solche sein könnte. Wer sagt denn das die Watt angaben von 200-250 stimmen?

Ausserdem wird beim Shrinken ja normalerweise auch die Leistungsaufnahme geringer.
Das spricht stark gegen einen Shrink sollte die Leistungsaufnahme so hoch liegen.

Als letztes ist Nvidia auch immer mal wieder für einen unkonventionellen Schritt zu haben wie einen 384 bit breiten Speichercontroller.

Da das grösste Problem momentan der Interface bedingte Leistungseinbruch in hohen Auflösungen ist Tippe ich mal auf G92 mit 384bit Speicherinterface.

Und das ganze wird dann wohl 9800 Ultra heissen.
 
drago-museweni schrieb:
Bei der Stromaufnahme kommt die nicht in meinen Rechner das ist eindeutig zu viel.
Wenn sie, ich geh zumindest davon aus, auch Hybrid-SLI unterstützt, kann einem der Stromverbrauch doch (fast) egal sein. Oder spielst du 24/7?
 
ÄHM Ich versteh auch nicht warum NVidia so einen "Mist" auf den Markt bringt.
Ich mein die 8 Serie hat ATI "kaputt" gemacht und die haben in der Zeit warscheinlich die ganze Firma in den Urlaub geschickt :evillol:
Aber wenn die 250 Watt verbraucht dann müsste es theoretisch ein gigantischer Sprung sein. Oder sie können nichts.
Ich mein ATI hat sich wieder aufbauen können und ist wieder "dabei" und was macht NVidia? Naja die bauen halt nur Kacke wie ATI mit der HD 2900XT/Pro

Aber warten wirs doch einfach ab. Ich mein wir können nur spekulieren und uns jetzt aufregen bringt doch eh nichts oder? :o

mfg Kivi

Edit: Und zu NVIDIAS Treiber kann ich nur Sagen SPITZE! hatte noch nie Probs mit meiner 8800 GT
 
Die ganze Diskussion und die News selbst baut auf Spekulationen.
Es ist doch interesannt was es sein koennte, entscheidend ist doch was es ist und das kann derzeit nicht gesagt werden. ;)
 
Kivi 123 schrieb:
Edit: Und zu NVIDIAS Treiber kann ich nur Sagen SPITZE! hatte noch nie Probs mit meiner 8800 GT

Sorry aber wie kann man einen Treiber als Spitze bezeichnen der auf etlichen Systemen auf Grund von Kompatiblitätsproblemen abstürzt und unter Vista noch nicht mal alle Funktionen des Xp Pendanten mitbringt?

@News naja am Ende ist es ein G92 Modell mit behobenen Vram Bug das würde zu Nvidia passen das dann als neu zu vermarkten
 
Zitat von Energydrink
Ich bin ja generell für viel Grafikleistung, alleine wegen den extremen Anforderungen heutiger Spiele. Aber "250 Watt" Leistungsaufnahme sind einfach indiskutabel.
So eine riesen Verschwendung von Energie ist nicht mehr normal, gerade in unserer Zeit sollte man da etwas anders umweltbewußter denken.
Das ist meiner Meinung nach die falsche Richtung in die Entwickelt wird.



Hast du schon mal was gehört von Hybrid SLI, so wie es aussieht nicht.
nvidia tut sehr genau was gegen hohen stromverbraucht .wenn du nicht spielen tust dann verbraucht deine graka 0-10 watt stromm . und erst wenn du spielst schaltet sich die graka wieder an. nvidia chipsatz vorasugesetzt.
deswegen kann ich das mit dem stromverbrauch nicht mehr hören und lesen.keiner spielt 24h täglich.
mein respekt an nvidia.
etwas anderes kommt bei mir nicht mehr in die kiste.
 
Hast du schon mal was gehört von Hybrid SLI, so wie es aussieht nicht.
nvidia tut sehr genau was gegen hohen stromverbraucht .wenn du nicht spielen tust dann verbraucht deine graka 0-10 watt stromm . und erst wenn du spielst schaltet sich die graka wieder an. nvidia chipsatz vorasugesetzt.
deswegen kann ich das mit dem stromverbrauch nicht mehr hören und lesen.keiner spielt 24h täglich.
mein respekt an nvidia.
etwas anderes kommt bei mir nicht mehr in die kiste.

Vorneweg: ich hatte seit der RivaTNT nur Nvidia-Grafikakrten, bin also kein ATI-Fanboi.
Aber das was Nvidia abzieht ist eine Frechheit sondersgleichen.

Das schon peinliche ausmelken der G80-Technologie (die G92 udn G94 zähle ich dazu) ist schon langsam unverschämt.
Sie schmeißen sinnlose Karten auf den Markt (8800GS, die gesamte 9er Serie) um den unwissenden Kunden komplett zu irritieren.

Sicher tut Nvidia "was" gegen Stromverbrauch, aber bei Weitem nicht genug.

Die 8er (und vllt auch die 9er) Serie taktet sich im 2D-Betrieb nicht automatisch herunter. Warum? Bei älteren Geforce-Generation hat das doch auch schon funktioniert.

Langsam kommen die Kunden aber auf den Trichter, dass sie leiser, kühlere und sparsamere Grafikkarten wollen.
Dank des Stromkartells (und vorallem dank an unsere korrupten Politiker, die auf Gehaltslisten der Stromunternehmen stehen) werden Strompreise auch zukünftig kräftig weiter steigen. (Sah man wunderbar in einer Frontal21-Reportage)
Deshalb werden GX2 oder Triple-SLI Dinosaurier in den nächsten Jahren aussterben.

Natürlich haben nicht alle ihren Rechner 24/7 an, dennoch summiert sich das.
Selbst mit 60 Euro Ersparnis im Jahr kann man etwas anfangen :P

Komm nicht mit Hybrid SLI.
Ersteinmal ist solch ein Gespan nur für reiche Leute sinnvoll, die nicht auf Strompreise achten müssen, außerdem schaffen es die Pappenheimer nicht einmal Dual-SLI oder Triple-SLI optimal und fehlerfrei zu unterstützen.

Nvidia kommt mir zuweilen vor wie die deutsche Autoindustrie. Heulen herum das Absatzzahlen zurückgehen und der Benzinpreis steigen.
Dennoch entwickeltn sie brav 12 Liter Autos die auch noch ein haufen Geld kosten.
Auf die Idee Autos sparsamer und vorallem billiger anzubieten, sind sie aber noch nicht gekommen.
 
war hybrid-sli nicht vista only ?
wenn ja mal epic lol @ wenn ihr nicht spielt fressen die grakas doch ca null watt
 
Spekulatius! Spekulatius!

Fröhliche Weihnachten!

Fudzilla hat mal wieder eine hochglaubwürdige Top-News
in 6 Sätzen, aus der CB eine Doktorarbeit macht...
Wunderbar!

Was die Überlegungen zu der Karte angeht mag das
zwar alles schlüssig sein und sehr warscheinlich klingen,
doch letzten Endes ist es ein reines Rätselraten...
Es wäre wirklich besser, wenn man sich manches
ersparen würde...

Dass die nächste Nvidia High-End Karte, und sei es vll.
die 8900 Ultra (die womöglich auch damit gemeint sein könnte)
mit 1 GB V-RAM ausgestattet sein wird, pfeifen die Spatzen schon
seit langem von den Dächern.
Ob der Realisierung gibt es allerdings unterschiedliche Wege.
Genausogut könnte man jetzt über GDDR4 und ein 256-Bit Interface
spekulieren. Aber das ist doch alles völlig belanglos...

Wayne?

Edit:
@ BessenOlli

GDDR ist ein unmittelbarer Abkömmling des DDR
GDDR2 ist ein daraus hervorgegangene Weiterentwicklung
und damit ebenfalls DDR-basiert.

GDDR3 hingegen enstspringt dem DDR2
GDDR4 ist auch hier eine entsprechende Weiterentwicklung,
die aber nur noch entfernt etwas mit dem DDR2 gemein hat,
da er u. a. über höhere I/O-Takte verfügt.
Momentan findet der DRR4 auf Grund seines recht hohen
Preises bei NV noch keine Anwendung bzw. es wird
davon Ausgegangen, dass direkt auf GDDR5 umgestellt wird.

GDDR5 hat hingegen keinerlei Vorbilder bzw. direkte
Pendants im DDR-Bereich. Er beruht auf einer Konsequenten
Weiterentwicklung von GDDR3 und 4. Er soll die 3-fache
Leistung im Vergleich zum GDDR3 bringen.
Und aus diesem Grund wäre es nicht korrekt, ihn als
"DDR3-basierend" zu bezeichnen...
 
Zuletzt bearbeitet:
soviel 3D Leistung wie heute gab es noch nie so günstig, da kommt ein neuer high end chip doch wieder recht, um die preise NOCH weiter zu drücken. was will man mehr :)
 
Zurück
Oben