News Nvidia GT300 mit 512 Bit und GDDR5?

@Brim: Und was willst du uns jetzt damit sagen?
Das durch teurere Spule das Geräusch vermindert werden kann? Ist schon erwähnt worden!
Das nur 10% der Nutzer dieses Fiepne überhaupt hören? Ist auch schon erwähnt worden!
Also solltest du eher mal den Thread komplett durchlesen, bevor du ein Urteil über die Kompetenz einzelner Leute fällst!
Und wenn dir diese Meinungen nicht passen, dann biste wohl hier in nem Forum falsch :)
 
Sepheta schrieb:
Ich bräuchte wieder mal ne Midrange Nex-Gen Karte in Form von 9600GT.
Oder kommt von Nvidia erstmal nur High-End raus?

Wenn, dann wird einem eine umgelabelte GT200(b) Karte als Mainstream angedreht :D Oder nochmal G92 reloaded...:rolleyes:
Finde es sowieso schon recht komisch, dass NV keine Mainstreamkarte basierend auf dem GT200 rausgebracht hat. Noch kommt man gegen 4850, 4770 und 4830 an. Aber schon gegen die 4670 hat NV nix zu bieten.
 
Ich denke, dass nV den GT200 ganz schnell hinter sich lassen will (so wie ATi den R600, von dem es ja auch keine waschechten Midrange-Ableger gab, die 2900 Pro zähle ich nicht dazu) und es erst wieder vom GT300 richtige Midrange-Ableger geben wird. Vom Phenom gabs auch keine richtigen Dual Core-Ableger, Kuma war ja ein kläglicher Versuch mit seinen 95W aufgrund der 2 deaktivierten Kerne. "Schlechte" Architekturen werden mitgeschleift solange wie nötig, aber so kurz wie möglich.
 
@Ch!illor
Du solltest dir die Beiträge von Zephyrot durchlesen, wo er einen Mehrphasen-Step-Down-Wandler erklärt und warum und wann dabei etwas fiepen kann. Außerdem den Teil mit lückendem und nicht lückendem Betrieb. Dann wirst du feststellen, dass bisher alle technischen Erklärungen in diesem Thread nicht zutreffend sind. Und dann solltest du dir diesen Satz "Und wenn dir diese Meinungen nicht passen, dann biste wohl hier in nem Forum falsch" durchaus selbst zu Herzen nehmen. Denn ich kann nicht erkennen, dass ich jemandem hier in irgendeiner Form auf den Schlips getreten wäre. Dass du gleich an die Decke gehst, ist jedoch interessant.
 
Wenn du das als "in die Decke gehen" bezeichest bist du ein wenig sehr empfindlich :D
Und das du dich auf einen gewissen Post beziehst hättest du auch mal ruhig sagen können, da ja mehr als ein Post von derjenigen Person in dem Fred aufzufinden sind!
Na ja, falls du dich "auf den Schlips getreten fühlst" tut es mir leid!
Brauchst ja nicht direkt so an die Decke springen :D
Achso, wenn ich an die Decke gegangen wäre, wäre der Smile da irgendwie falsch gewesen, bei meinem letzten Post! :P
 
stna1981 schrieb:
Ich denke, dass nV den GT200 ganz schnell hinter sich lassen will (so wie ATi den R600, von dem es ja auch keine waschechten Midrange-Ableger gab, die 2900 Pro zähle ich nicht dazu) und es erst wieder vom GT300 richtige Midrange-Ableger geben wird. Vom Phenom gabs auch keine richtigen Dual Core-Ableger, Kuma war ja ein kläglicher Versuch mit seinen 95W aufgrund der 2 deaktivierten Kerne. "Schlechte" Architekturen werden mitgeschleift solange wie nötig, aber so kurz wie möglich.

Ist mir neu, dass die GT200 Architektur so ein Fehlschlag ist :eek: GTX260 und Co. sind doch beliebte und starke Karten?

Ausserdem gab es vom RV600 in Form von RV610 und RV630 (2400 XT und 2600 XT) sehr wohl Mainstreamkarten ;)
 
Der GT200 war am Anfang viel zu teuer in der Produktion, durch das breite SI und die 65nm-Produktion. Die Ausbeute pro Wafer war nicht grade gut. Als nVidia bedingt durch ATis RV770 den Preis der GTX280 über 150 Euro nach unten korrigieren musste, haben die ordentlich Verluste eingefahren. Siehe letztes und aktuelles Quartalsergebnis, das liegt nicht nur an den Überkapazitäten... mit dem GT200b ist es jetzt etwas besser, das mag sein, aber dennoch ist es kein so toller Chip für nVidia, wirtschaftlich gesehen. Schnell ist er, sonst hätte ich keine GTX 280 ;). Mit dem G80 und dem G92 war das anders, die konnten voll überzeuge, vor allem der G80, deswegen wird der G92 ja heute noch ausgeschlachtet.

Den RV610 und den RV630 würde ich nicht unbedingt als Ableger des R600 ansehen, waren das nicht Parallel-Entwicklungen? Der RV740 ist ja auch kein Ableger des RV770, sondern eine Neuentwicklung in 40nm.
 
Mag ja sein, dass der GT200 für nVidia nicht gerade gut war, aber der R600 war weder für ATi noch für Kunden gut :D (Obwohl ich selber so eine tolle Fehlgeburt habe^^)
 
Ich hab doch gesagt, dass der R600 kein toller Chip war ^^ ob er gut für den Kunden war, liegt wohl im Auge des Betrachters. Es hat ja jeder Käufer die Möglichkeit, sich Reviews anzusehen und selbst zu entscheiden, ob er eine Karte kauft oder nicht ;)
 
Das klingt nicht gerade nach einem Preis-/Leistungskracher. Ausserdem finde ich nicht, dass wenn von allem mehr verbaut wird, man auch von einem "effizienterem Speicherbussystem" reden darf. Höchstens ein potenziell schnelleres.
Wie effizient etwas ist sieht man erst wenn mans testet.

Bisher war immer der Preis ein Grund um nVidia n Bogen zu machen. Ich hoffe die ändern das mal.

bye Hübie
 
Über die Preise bei nV kann man im Moment echt net meckern, von der GTX 285 vielleicht mal abgesehen. Mehr als konkurrenzfähig. Hatte nach meiner Geforce 2 MX auch immer ATi, jetzt wieder ne 280er GTX im Austausch gehen 2 x HD4850, blöde Mikroruckler :(

Was Shader angeht, hat nVidia momentan die bessere Lösung, die 5D-Shader von AMD werden kaum voll ausgenutzt, daher verpufft die Rohleistung von über 1 TFlops teilweise. Die 1D-Shader von nVidia werden besser genutzt und takten schneller, da sie weniger komplex sind, das macht schon was aus. Kann sich künftig ändern, wird sich zeigen, evtl. bringen hier die Compute Shader schon eine Verlagerung derSchwerpunkte.
 
Brimbamborum schrieb:
Zum wahrlich nervigen Spulenfiepen: Lest euch die Beiträge von Zephyroth in diesem Thread bei 3D-Center durch, dann wird dies klar und eure Einwürfe zukünftig qualifizierter.


soweit alles gut nur ich sehe nicht ein das ich da 300€ ausgeben muss für eine karte und dann noch selbst hand anlegen muss, das können doch die leute von Nvidia selbst machen.

Meine 2x GTX 285 haben das auch und das ist sehr laut, da ist auch VSynch keine lösung
 
Bitte deute das hier nicht als Fanboygeplapper, stna1981 da ich nur für mich spreche:

Eine GTX285 ist auch jetzt nicht preislich attraktiv, da ich in 1680x1050 spiele und dann lieber die ~80-90€ günsitgere HD4890 nehmen würde (bei 4xAA 13% langsamer).
ATi ist einfach in der besseren Position wenn wir diese Diskussion auf Preis und Leistung beschränken. Und das ist das einzige was für mich zählt.
Energie kann man auch anderswo sparen und einen leisen Lüfter gibts meist für 20€ ;)

Bzgl. der 5D-Shader kann ich nur sagen, dass 40% der Programme auf dem Markt mit ATi besser laufen und 60% mit nVidia (gefühlt/geschätzt). ATi hat wiederum ein guten Speicherbus. Deswegen finde ich die Aussage es handele sich beim GT300 um ein effizientes Speichersystem etwas vorgegriffen.

Klar bremse ich mit 235er Reifen besser als mit 175er. Aber dadurch wirds nicht effizienter. Erst wenn die Scheiben innenbelüftet und die Beläge anständiges Material haben ist es Effizient (um meine Gedanken zu veranschaulichen :)).

bye Hübie
 
Warum vergleichst du eine 197€ Karte (4890) mit einer 289€ Karte (GTX 285), anstatt mit einer 201€ Karte (GTX 275)?

stna1981 schrieb:
Als nVidia bedingt durch ATis RV770 den Preis der GTX280 über 150 Euro nach unten korrigieren musste, haben die ordentlich Verluste eingefahren. Siehe letztes und aktuelles Quartalsergebnis
So sehr ich mich auch bemühe, ich kann nicht den Zusammenhang zwischen Quartalsergebnissen und einer High-End GPU entdecken.
Vielleicht trübt meine Kenntnis, das der gesamte kaputte Markt, besonders im unteren und mittleren Segment entscheidend ist meine Sichtweise.

Andererseits wundere ich mich, woher du weißt, das GT200 GPUs dank 400€-4000€ Karten ein böser Verlust gewesen sind.
 
nvidia-karten profitieren sehr wohl von speicherbandbreite. gib der gts250 ein 448-bit si und sie lässt die gtx260 im regen stehen allerdings ist die speicherbandbreite bei der gtx260 bereits so hoch, dass hier eine steigerung aufgrund der gpu fast nichts mehr bringt. das verhältnis muss stimmen.
du vergleichs grad äpfel (g92) mit birnen (g200). die g92 karten sind sehr stark speicherlimitiert, um den "kleineren" g200-karten nicht zu nah zu kommen. es wurde mit einer 9800gtx+ mit 1400mhz ramtakt geschafft, die werte einer gtx260 zu toppen, obwohl der g92 auf dieser karte sehr schlechte oc-eigenschaften hatte (glaub bei 780mhz war schon sense). 850mhz machen aber noch sehr viele g92b mit. wenn die speicherbandbreite reichen würde, kannst du dir denken, wo die reise hingen würde

Kann schon sein das der G92 mit ausreichender Bandbreite zb. GDDR5 alles platt gemacht hätte(hast du da links mit dem schnellen RAM), aber dafür währe vielleicht der Idle Stromsparmodus der GTS 250 nicht realisierbar gewesen. Und lieber vernünftig im Idlen als eine Grafikkarte die 10-20% schneller agiert und dafür auch noch teurer ist.

Ein 384 Bit SI wie bei der 8800GTX hätte schon was. Die goldene Mitte... ;)
 
@Unyu: Einfach deshalb, weil ATi schnelle, kleine günstig herzustellende GPU´s auf günstigeren PCB´s verbaut mit denen Nvidia konkurrieren muss, wobei die NV Lösungen in der Herstellung teurer sind?
Nur so eine Vermutung, aber anfangs schlechte Yield Raten, durch ATi erzwungene Preissenkungen um 30% bei zumnidest anfangs konstanten Herstellungskosten, ebenfalls verhältnismäßig teure Performancekarten...
Sicher dürfte sich die Lage bei NV durch 55nm, höhere Yieldraten usw. wieder gebessert haben, nur hat ATi im Preissegment bis 130,-€ durch die Bank das bessere Angebot (Preis/Leistung) und steht bis 200,-€ sicher nicht schlechter da.
Das dürfte Nvidia zusammen mit Wirtschaftskrise, Intel IGP´s und co. durchaus Probleme bereiten.
 
Nochmal zur Speicherdebatte: Es sind ja nicht alle so hochqualifiziert wie wir hier ^^, und wenn da steht im Mediamarkt-Prospekt "nVidias neuster chip mit 2GB VRAM", denken sich da alle nur toll, ohne Sachen wie Takte zu hinterfragen.
 
Für einen high end Chip ist sind 2GB ja auch "toll"

In den Benchmarks tritt der GT300 2GB bestimmt gegen GTX 285 1GB an und in den Auflösungen und Qualitätsmodi auf die es drauf ankommt ist de GT300 dann locker ca. doppelt so schnell wie die GTX 285 1GB. Dann noch die neue Architektur und 2-3fache Leistung ist durchaus denkbar. Gegen eine GTX 285 2GB schaut das dann schon wieder anders aus.
 
Kasmopaya schrieb:
Dann noch die neue Architektur und 2-3fache Leistung ist durchaus denkbar.

Was denn für nen neue Architektur, hab bisher nur von mehr Shadern und GDDR5 Speicher als neuerung gehört, oder habe ich was überlesen?
 
Zurück
Oben