News Nvidia GT300 mit 512 Bit und GDDR5?

Sentionline schrieb:
Man wartet seid der HD2X Reihe auf den "BooM".
Keine Ahnung, auf was du warstest, aber die HD4xxx Serie von ATI/AMD ist ein Erfolg. So eine Leistungsexplosion wie bei der 8800GTX wird es nicht mehr so schnell geben.
 
Sgt.Speirs schrieb:
Keine Ahnung, auf was du warstest, aber die HD4xxx Serie von ATI/AMD ist ein Erfolg. So eine Leistungsexplosion wie bei der 8800GTX wird es nicht mehr so schnell geben.
Schön schnelle frames bekommt man per MSAA auch bei Nvidia. Und auf was ich warte hab ich ja aufgelistet und niedergeschrieben.

Ich habe eine HD4850. Sie ist leise, man kann es gut übertakten und massig Frames hab ich auch. Schön...weiter?

Nvidia hat gepeilt das ein Chip mehr Aufgaben erledigen kann und für den Käufer Vorteile im "nicht Gamer bereich" bringen kann. Wenn man die ATi Brille abnimmt, sieht man das auch.

btw: SSAA in älteren Spielen ist echt ein Segen. Bei Ati gibts MSAA, und das auch nur für EXE Dateien. Das Spiele mittlerweile auch in BIN whatever Dateien ohne EXE laufen, peilt Ati immernoch nicht.
 
Zuletzt bearbeitet:
Unglaublich was da alles zu lesen ist :D Manch ein Haufen Blödsinn, manch ein Haufen Ahnungslosigkeit...

@ stna1981
Von der Satz in mein Header nicht betroffen aber trotzdem zu Ergänzung.
Meinst du mir ist es nicht klar das dies in 40nm Hergestellt wird (werden sollte)?
Aber wenn man bedenkt wie die Chips bisher waren mit eine 512bit SI sowie die viele Unifield Shadern Einheiten an Transistoren schlucken, dann mal gute Nacht bei 65nm bzw. 55nm :lol:
Aber der GT300 wird wie bisher oft behauptet (und anscheinend auch stimmt) mit 512 Shadern ausgestattet wird, dann muss es erneut an Transistoren Zahl aufgestockt werden, und da sind die 1.3mia nicht genug, und ich denke es wird ca. 1.7-2.0mia Transistoren sein.
Jemand auf Computerbase hat dies einmal sehr schön vorgerechnet, so dass der GT300 Trotz die 40nm Fertigung die ungefähr gleiche Fläche (mm2) aufweisen wie der G200b in 55nm.

Kurz gesagt, wenn die G300 die gleiche Fläche aufweist wie der G200b, was ist es dann?
Ein erneuter Monster Chip :lol:


Und was die Verdoppelung der Leistung aussieht, wer es glaubt wird Seelig.
Auch wenn ich mir ziemlich sicher bin dass der neue G300 rechtlich viel Power hat glaube ich dennoch nicht an die Verdopplung der Leistung wenn Sie nicht an denn Architektur und Aufbau sich da was ändert.
O.k, 512 Shadern im Vergleich zur 240 Shadern ist über das doppelter, aber die ROPs, TMUs, TAUs haben sich nicht verdoppelt ;)
Die Bandbreite lässt sich zwar durch den Einsatz von GDDR5 erneut verdoppeln, aber dies würde auch nicht reichen.
Ich denke dass die Karte ca. so schnell wie die GTX295 wird.

Bevor mancher hier Reklamieren ich wiederspreche mich weil eine GTX295 zwei GTX275er entspricht, merkt Ihr da was?
Entspricht 2er GTX275, aber „nicht“ GTX285 ;) Das Spitzenmodell (Single) ist immer noch der GTX285!
 
Wenn nur ein bisschen was an den Gerüchten dran ist sollte der GT300 ja wirklich ein Hammer werden. Da darf man mal wieder auf einen richten Leistungssprung hoffen.
 
Ich kenne Florian Spooren nicht, der hinter Hardware-Infos steht, aber Theo Valich von Bright Side sollte wohl ein Begriff sein. Was mir sehr komisch vorkommt, ist die Tatsache, dass die beiden Seiten sich bei den nVidia-News ständig gegenseitig als Quelle angeben. So kann ich mir auch "bestätigte" Nachrichten selber bauen. Bisher gibt es nicht den geringsten Hinweis, dass irgendetwas an den Angaben auch nur in der Nähe der Wahrheit liegt.
 
ich halte es zwar nicht für unmöglich, aber doch für unwahrscheinlich, dass sowohl 512 bit si als auch gddr5 zum einsatz kommen. die gtx275 hat noch keinen nachteil durch ihr 448bit si mit gddr3. und wenn nvidia tatsächlich die effiziens des speichermanagements gesteigert haben sollte, sollte da noch mehr luft nach oben sein. ich vermute viel mehr, dass nvidia den gddr5 vram aus kostengründen mit einem max 384 bit si anbinden wird, wie es schon sehr erfolgreich bei der 8800gtx/ulltra zum einsatz kam. ati hat das preisniveau so weit gedrückt, dass ein 512bit-si schlicht unwirtschaftlich für die boardpartner wäre, wenn sie wettbewerbsfähig bleiben wollen. man darf auch nicht vergessen, dass nvidia inzwischen seinen vorsprung vor ati in sachen gpu-leistung weitestgehend eingebüßt hat. nvidia muss also damit rechnen, dass ati mit seiner 58x0-reihe durchaus in der lage sein kann, eine gtx380 zu übertreffen und somit den preisdruck noch weiter erhöhen.

eine weitere möglichkeit wäre, dass die angaben aus den gerüchten eine "gtx395" betreffen, die dann mit 2 x 256 bit gddr5 kommt. das kann man auch als 512bit gddr5 darstellen.
 
Ich auch schon gespannt und die Daten klingen auch recht realistisch.

Viele hoffen hier das die Karte "erschwinglich" wird. Ich finde was Grafikkarten
Preise angeht sind wir in letzter Zeit extrem verwöhnt. Soll die Karte doch
ruhig ein wenig mehr kosten und dafür ein ordentlicher Sprung nach vorne
sein :)
 
Wenn man mal überlegt, dass ATI mit päpstlicher Sicherheit einen kostengünstigen Value-Chip (RV870) bringen wird, fällt es umso schwerer zu glauben, dass NV so teure Grundrisse beim GT300 verwendet. Nichtsdestotrotz ist GDDR5, wie man anhand einer HD4770 sieht, absolut massentauglich geworden. Die Chips werden auch kleiner und immer günstiger.


@Sentionline


Wenn du doch so einen hohen Anspruch an eine Grafikkarte hast, warum hast du dann zu einer HD4850 gegriffen, wo doch eben deine aufgeführten Kritikpunkte der Presse seit 200 Jahren vorliegen? Sinn?
 
Klingt fantastisch... sollen mal Gas geben mit der Entwicklung! Ich hoffe die Karte wird wieder so ein langlebiger Kracher wie meine gute alte 8800GTX, die seit Ende 2006 einen wunderbaren Dienst verrichtet. Da kam höchstens noch die Radeon 9700/9800Pro mit ihrer Langlebigkeit (damals 2001) noch nach :D

Greetz, G.
 
MacPok schrieb:
@Sentionline

Wenn du doch so einen hohen Anspruch an eine Grafikkarte hast, warum hast du dann zu einer HD4850 gegriffen, wo doch eben deine aufgeführten Kritikpunkte der Presse seit 200 Jahren vorliegen? Sinn?
Ich war eben gnädig mit Ati, deshalb ist mein Inventar voll. Nach dem X850XT-PE reinfall und auf die fresse fallen mit der HD4850, war dies meine letzte Ati Karte für die nächsten Jahre. Bei der X850 hatte ich keine Shader 3 unterstützung (sehr bitter war das), und bei der HD4850 kein Futureset. Hab eben zuspät über den Tellerrand gesehen...Die berüchtigte ATi Brille eben. Hab sie zuspät abgelegt...:(
 
@ Sentionline

Das ist ja schön und gut, dass du diese Anforderungen an eine Grafikkarte stellst. Andere haben andere oder weniger (und nicht, weil sie nicht über den Tellerrand hinaussehen, sondern weil sie hinaussehen und deswegen wissen, dass sie nur bestimmte Anforderungen haben).
Ergo: Es gibt kein besser/schlechter, sondern nur das falsche Produkt für bestimmte Anforderungen.
 
gdrr3 und uralt - die bandbreite bei nvidia passt und mit stromverrbauch haben sie auch keine problem trotz gddr3
Wenn die auf ihren jetzigen karten schon ggdr5 verwenden würden na dann gute nacht ati(wobei die bandbreite nur gering zur performancesteigerung beitragen würde) aber alleine die ersparniss im stromverrbauch wäre dann nochmals besser.

auf jeden Fall positiv das sie an ihrem vram bug arbeiten ^^ und 64HDAF? lol da is doch auch wieder nur für die sli/cf und high end karten nutzer interessant.

Aber ich will hier nicht spekulieren , ich lass mich dann einfach wenns soweit ist von den Benchmarks überraschen.
Specs sind ja eigenlich eh nur interessant wenn man sich ein wenig dafür interessiert, im Grunde is mir wurscht wie die Leistung zusatandekommt ob mit 256bit/512bit - 512core/200(5d) ggr3/ggr5

Für mich zählen FPS - SONE - WATT

Und da is nvidia derzeit noch besser auch wenn dx10.1 in anbetracht der abwärtskompatibilität bei einem derzeitigen neukauf und behalten der karte für ca 2 jahre auf lange sicht vorteile bringt. Wenn allerdings physx sich gegen havok durchsetzt würde ich das wieder als remis bezeichnen,da auch phys x einen nicht unwesentlichen fps schub bringt.
Aber bis das alles soweit ist bleibt das alles reine spekulation meinerseits;)

MFg
 
Die Leistung der Karte wird sicherlich beachtlich sein, das Problem sehe ich nur darin das die Spiele diese Leistung gar nicht nutzen werden, die meisten Spiele werden ja für den PC und Konsolen entwickelt, und vor der nächsten Konsolen Generation wird sich daher denke ich nicht viel tun. (zumindest nicht bei den Top-Sellern, wie Call of Duty oder ähnlichem)

Aussnahmen wie Crysis wird es sicherlich noch geben, aber ob die eine 300-500 Euro Karte rechtfertigen ?
 
mal schauen wie sich die karte schlägt .wenn gddr5 speicher verbaut wird,wird der preis hoch ausfallen .
 
Sentionline schrieb:
Nvidia hat gepeilt das ein Chip mehr Aufgaben erledigen kann und für den Käufer Vorteile im "nicht Gamer bereich" bringen kann. Wenn man die ATi Brille abnimmt, sieht man das auch.
Geht mit den ATI-Karten doch genauso. Nur pushen die nicht ihre Sachen so wie Nvidia ihr Physix bzw. Cuda.

Und zum Thema ATI-Brille: Nur Fanboys fangen mit diesem Thema immer an. Abgesehen davon macht Nvidia sehr gute Karten. ATI/AMD hat ebenso seine Hausaufgaben gemacht, was du hier abstreitest.

Und der Grund, warum ich noch eine ältere DX9 Karte habe und warte, ist zum einen DX11 und zum anderen Spiele wie BFBC2 (etc.), die dies auch unterstützen.
 
Diese Jahr noch, bin mal gespannt wann genau:D
*haben will*
 
Auch zu wünschen wäre eine Beseitigung der nervigen hochfrequenten Störgeräusche, sowohl die durch die Spulen verursachten als auch die neuen, vor allem bei 55nm auftretenden.
 
Zurück
Oben