News Die-Plot des Nvidia GT200 und Überblick

Unyu schrieb:
Bis jetzt gibts eben keine näheren Beweiße für deine Aussage.
In der CB News wird pczilla verlinkt, leider ohne Erfolg. Ohne diesen Link ist dieser letzte Absatz wertlos.;)

Ich habe die nächst beste funktionsfähige Gegenausage verlinkt.


Jetzt könnten wir über Zufälle diskutieren:D ich denke nicht das 2 news von ganz unterschiedlichen Seiten, mit selber Aussage nichts bedeuten^^

Aber tolle Aktion um mein Argument auszustechen;)

Aber wir werden es ja sehen, spätestens in einem Jahr weiss man was NV macht und wie ATi kontert:D so wie es halt schon immer war^^ Dann kommt ja noch Intel mit dem Larabee;) mal sehen was die Zukunft bringt:D
 
ich besitze derzeit eine XFX 8800GTX XXX (640/1550/2300), IntelC2D E6750, MSI P35 NEO 2 und 2 GB ocz ram. Ich zocke damit Crysis auf 1280x1024, High und 8xAA & 16xAF ruckelfrei! ;)
Wenn die Auflösung höher wird, kann ich auch auf ein bisschen AA und AF verzichten. Und mit über 30% mehr Leistung, dürfte das schon spielbar sein! Meiner Meinung nach ;)
 
Zum Thema Stromsparfunktion: Mich würde es sehr wundern, wenn nVidia die GT200 Karten nicht mit HybridPower Unterstützung ausstattet.
 
@MagicTS: Das tun sie schon, nur brauchts dafür nen speziellen Chipsatz (ironischerweise gehen da glaub grad nur AMD Chipsätze) und (glaube ich) Vista.
 
Das stimmt Hybrid SLI gibts momentan nur für Sockel AM2+ :lol: Also auf zum Phenom-Kauf meine Intel-Herren. :evillol:

Wann Nvidia-Boards für S775 kommen die Hybrid SLI unterstützen ist nicht gewiss, angeblich gibt es Problem die zu Verzögerungen führen. Ich denke aber das ist Teil des Kleinkrieges zwischen Intel und Nvidia. :streiten:

Ach und vistawas? Ohne Vista kein Hybrid SLI...
 
Nvidia* Stromsparfunktion: X

Was heißt das immer eigentlich ^^, ich weiß dass ati karten weniger verbrauchen und "intelligenter" arbeiter, aber nvidia kann auch ein bisschen stromsparen - also bei 2d anwendungen wird nicht soviel verbraucht wie bei 3d. Also kann mir das jemand genauer erklären was damit gemeint ist?
 
Der Verbrauch ist wirklich witzlos, der Preis ebenso. Der Gewinner ist hier für mich ganz klar ATI.
 
Für mich ist auch der Gewinner hier ATI beim Preis.

mfg
 
Mal gucken was die ersten Tests so aussagen, sollte die 4870 wirklich 25-30% in grafikkartenlastigen Anwendungen schneller sein als die 9800GTX, werde ich mir wohl eine AMD/ATI Karte kaufen.
Mit dem Stromverbrauch hat Nvidia sich selbst ins Abseits geschoben. Das ist bei den heutigen Energiepreisen völlig inakzeptabel.
 
Ich schließ mich auch mal mit an ATI rulz, so genug fanboy geschrei xD

^^

Also was ich nur loswerden wollte hier hat irgend jemand mal gesagt das es der einzigste weg sei für NV zukünftig auf single Lösungen zu setzen! Das Multicore erst in 10-15 Jahren etablliert seien. Naja kann sein ich habe es nicht richtig zietiert aber ich will dazu ein was sagen!

Wir hatten das Problem auch mit dem Pentium4 ,gross,laut,stromhungrig...
Ich kann mich gut an die Zeit erinnern, früher haben auch alle gelacht und abgestritten das Multi GPU mist wäre! Schauts euch heute an, es gibt nur noch dual cores überall! Sicher ist eine CPU keine GraKA, aber Theoretisch können beide Physik,Pixel,Physik berechnen!

Ich bin der Meinung das NV mit dem rücken zur wand steht, auf der anderen Seite muss man es unterbetracht ziehen das sie parralel zum GT200 schon am nächsten arbeiten aber das wäre zuviel wahsagerrei!

Was ich sagen will is einfach nur, das man das "heute" mit dem "gestern" vergleichen muss um zu sehen was sich geändert hat! Sicherlich ist das multi GPU problem nicht so einfach zu beheben, aber CPU´s haben das auch geschafft! Es liegt am OS wie der Scheduler skalliert bzw. auf was er ausgelegt ist, von wegen Aufgaben parralelisieren , aber das wurde ja hier schon oft genug debatiert ^^.

ich muss erhlich sagen mich schreckt NV ab nich unbedingt wegen der größe des chips oder dem Stromverbrauch, sondern mir wäre es einfach zu warm, wenn ich mein notebook und meinen EEE PC mit festplatten laufen lasse ist es im Zimmer schon sehr warm, ich hatte mal einen desktop mit X1950XTX selbst das war schon extrem warm xD im winter angenehm aber jetzt im sommer eher unschön xD aber nunja, geschmack. Ich find die Treiber doof von NVIDEA. Aber das is auch ein anderes blatt!
 
In der News ist von 1,4 Milliarden Transistoren die Rede, in der Tabelle dann nur mehr von 1,4 Millionen...
 
@deathhour
PARALLEL

Ansonsten:
Der Midrange-Bereich wird aufgemischt und Nvidia wird wohl die Leistungskrone behalten.
Meine X1900XT wird wahrscheinlich so um Weihnachten von einer 4870 abgelöst.
Ist dann ein neuer Wasserkühler notwendig? hmmm... Ansonsten wirds im gut gedämmten Dachausbau echt zu warm!

mfg
 
Zuletzt bearbeitet:
ATI hat seine Boarderpartner nahegelegt die neue Serie zu Uebertakten, d.h. eine Uebertakete 4870 1Gb, wäre min. so schnell wie eine gt260, wenn nicht schneller, Nvidia habe bis jetzt nur 4 Boardpartner für den gt 200 gefunden weil ja bald der gt200b in 55mm kommt, also warten bis gt200b oder 4870 OC 1Gb kauf. lol...
 
Sorry wegen meinen RS Fehlern als informatiker achtet man da nicht sehr oft drauf xD :evillol:
wofür gibts Rechtschreibprüfung in Word, man sollte die ja auch mal hier im Forum benutzen :p
 
Normalerweise achte ich nicht so auf die Rechtschreibung in Foren, denn auch mir unterlaufen solche. Aber Wörter wie INTERESSE, PARALLEL, etc. werden von mir manchmal verbessert.
Wie sollen denn Kinder, welche den ganzen Tag im Internet hängen, sonst eine anständigen Rechtschreibung erlernen?
*g*

mfg
 
Pantherfibel schrieb:
Gibt es eigendlich schon Infos wann die Mittelklassechips des RV770 kommen?

Wenn du dir mal bitte Bild 29 dieser News anschaust, wirst du sehen, dass laut AMD die jetzigen 3870 und 3850 parallel zu den neuen Grakas laufen werden. Zumindest im 3. Quartal. Die Chips müssen ja auch noch abverkauft werden und bei dem Preisgefüge momentan machts auch gar nicht viel Sinn, irgendwelche neuen Chips reinzuschieben. Die neuen 46X0 usw. dürften zwar günstiger zu produzieren sein, da sie weniger Shader-Prozessoren haben als die 38X0, aber da kein kleinerer Fertigungsprozess am Start ist, dürften sich die Einsparungen in Grenzen halten. Außerdem ist ATi mit der 38X0 Reihe momentan top platziert in dem Preissegment.

Auf derselben Folie ist auch noch nix vom R700 zu sehen, kann also noch dauern evtl.

Unyu schrieb:
Ich habe geschrieben Performancesegment.
Ich sehe darin keine verarsche eine schnelle Karte zu entwerfen, die günstig verkauft werden kann. Tut mir leid. Oder war die 7600 im Vergleich zur 6800 Verarsche?

Die 7600GT war aber sogar schneller als ne 6800 ULTRA (auch mit Kantenglättung usw., klar war das keine verarsche. (https://www.computerbase.de/artikel...test.557/seite-25#abschnitt_performancerating)
Die 9800GTX ist, wenns hochkommt, grad mal 6% schneller als die 8800GTX ?!?
Warum?!! hat NVIDIA es nicht gemacht wie damals bei der G7? Da gabs auch 7800, 7900, 7950. Waren auch dieshrinks mit mehr Performance, hat sich keiner aufgeregt über die Namensgebung, es haben sich nur alle über mehr Leistung gefreut. Jetzt (also bei der 98GTX) kommt auch ein dieshrink, was ja auch kein Problem ist, und der wird dann als neue Serie vermarktet? Grad wo die 8800GT vorher als G8 rauskam? Deswegen regen sich ja alle auf.
Erst eine Karte rausbringen, die fast genauso heißt wie eine andere, bloß als GT und nicht GTS, die dann aber schneller ist als diese. Obwohl die Namensgebung was anderes sugeriert (klingt stark nach: "Hoffentlich fällt jemand drauf rein und kauft den alten Schrott, obwohl der langsamer ist", auch noch verstärkt durch die "mehr MB" also 640 statt 512). Und dann kommt die 98GTX, die mit Mühe und Not schneller ist als ihr Vorgänger?
Nee nee, das nennt man ganz klar verarsche und jede Wette sind jede Menge drauf reingefallen. Denn NVIDIA hatte imo immer die Reputation, dass wenn was neues kommt, die alten Grakas ziemlich abstinken. Und darauf vertrauen viele. Die meisten haben auch gar nicht die Zeit und Lust sich so genau mit sowas zu beschäftigen. Da kannst du noch so lange argumentieren, das die 8800 Serie ausläuft, aber das kann man auch hinbekommen ohne die Leute zu veräppeln. Ging ja sonst auch.

Unyu schrieb:
High-End ist es auch noch, wenn er nicht ganz so groß ist.
GT200 geht schon eher in Richtung Ultra-High-End dank 576mm², im Vergleich zum lächerlich kleinen G80 mit 484mm² oder gar R600 mit gerade mal 408mm².

Seit wann definiert sich High-End über (Chip-)Größe? Meiner Meinung nach definiert sich das bei Grakas hauptsächlich über die Leistung, die natürlich auch irgendwo herkommen muss und dementsprechend bezahlt werden will. In zweiter Linie kommen da noch die Features, wo sich NVIDIA mom. nicht grad mit Ruhm bekleckert (kein DX10.1 ;)) Dann kommt die Aussattung, also guter Kühler und Beilagen-Kram.
Außerdem 484mm² lächerlich klein? Da sind grad mal 120 G80 auf einen 300mm Wafer gegangen, bei 5000$ pro Wafer ist klar, dass der G80 so teuer war. Das wird jetzt nicht besser werden.
Zusammenfassend kann man sagen, je kleiner desto besser, weil mehr Chips raufgehen und gleichzeitig die Ausbeute steigt. Das ist imo auch der einzige Sinn, Grakas Multi-GPU-mäßig herstellen zu wollen. Denn eine Graka ist von der Architektur eh schon multithreaded ausgelegt, ob man da jetzt die doppelten shader oder die doppelte GPU-Zahl nimmt, ist im Prinzip völlig wurscht. Nur ist es einfacher, viele einfach aufgebaute kleine GPUs zu fertigen, als so ein Komplexizitätsmonster wie den GT200. Hinterher hat man halt das Problem, die Dinger auch effektiv miteinander arbeiten zu lassen. Beim CPU ist 80% der Transistoren Cache (leicht zu fertigen) beim GT200 ist 80% Logik (schwieriger zu fertigen). Insofern sind die 40% Ausbeute realistisch. Und da ist die GTX260 schon mit drin :evillol:

@ndi.S schrieb:
Die 280GTX wird wohl Leistung ohne Ende haben, aber für was benötigt man diese?

Im Moment ist es imo nicht möglich, vernünftig auf einem 30" zu zocken. Jedenfalls @high details + AA/AF.
Kannst dir ja die Benches von Crysis fürn 24"er anschauen, unspielbar.
https://www.computerbase.de/artikel...00-gtx-sli-test.784/seite-18#abschnitt_crysis
Dies rückt mit der Next-Generation in greifbare Nähe. Wo die Monitore momentan immer billiger werden. Ich denke, in zwei Jahren werden sich schon so langsam 24"er etablieren (so wie jetzt die 22") und auch die 30" werden dann so langsam für Otto-Normaluser bezahlbar werden. Ich denke da so an 500€. Multi-Monitoring wird auch verstärkt kommen. Und die Grafik entwickelt sich hoffentlich auch noch weiter.


@alle die ne GTX260/280 kaufen wollen: Wartet lieber noch ab, der Nachfolger des GT200 hatte schon Tape-Out.

Name des neuen Chips GT200b :rolleyes:

Wird wohl hauptsächlich ein dieshrink auf 55nm, das heißt in ca. 3 Monaten gibts das Gerät etwas günstiger (weil günstiger herzustellen) mit entweder weniger Stromaufnahme oder mehr Leistung, ich denke mal NVIDIA wird sich für mehr Leistung entscheiden :eek:
 
Zuletzt bearbeitet:
@Klemsi
Hoffe meinst jetzt nicht mich mit Kind ^^ xD:evillol:

Mich würde echt mal sehr interessieren was ihr so arbeitet!
Es gibt ja viele Elektriker, sicher auch Informatiker würd mich mal sehr interessieren!

mfg
deathhour

P.S. bin Diplom-Wirtschaftsinformatiker und lese jeden Tag CB News xD
 
Zuletzt bearbeitet:
mapel110 schrieb:
Mal angenommen, ein Rechner frisst insgesamt 400 Watt und läuft permanent unter Volllast:

400 --> 0.4 Kilowatt
1kwh kostet hier 18 Cent.

0,4 * 24 * 365 * 0,18 = 630,72 €

Deine Rechnung ist ja schön und gut, du hast nur eine kleine Zahl vergessen "Anzahl der Gamer" ... so und nun multipliziere die 600 Euro mal mit 1 Million! Sind das immernoch "lachhafte" Beträge?

Spielzeiten hin oder her... im Normalmodus verbrät mein Rechner ~200 Watt, durchschnittle Laufzeit 8 Stunden pro tag (wie gesagt Normalmodus, non-gaming)
Macht ~105 Euro.
Bei anderen Rechnern (im Normalmodus) komme ich auf 70-80 Watt... macht schlappe 60 Euro aus... davon kann man mal schön essen gehen!

Dazu kommt: Hitze im Zimmer... kann sich ja jeder selber vorstellen, jetzt im Sommer erst recht unerträglich.

Nichts gegen Grafikpower, da ist nVidia eindeutig vorne, aber wenn ich halt zu bestimmten Zeiten keine Grafikpower brauche, dann braucht die Graka auch keine 130 Watt zu verjubeln.
 
Entschuldige flappes kannste mir das mal mit den Gamern erklären? Meinste jetzt gesamt Betrachtung der Gamer? Oder Benutzer die am Rechner angemeldet sind?^^ wäre irgendwie komisch
 
Zurück
Oben