News Nvidia GT300 mit 512 Bit und GDDR5?

Nvidia muss jetzt eine Karte mit GDDR5 raus bringen, die hängen schon hinter AMD her, wenn die wieder mit GDDR3 anfangen wollen können die grad aufhören, GDDR3 ist schon uhr alt. Die sollten auch die GPU in 40 nm machen, dann währe es eine TOP karte.
 
Na mal überraschen lassen.
Intel bringt ja auch noch ihre Grafik Lösung zum ende des Jahres.
Das wird ein Spannendes Rennen werden.
Vielleicht auch eine Preisschlacht.
Den noch werde ich bei NV bleiben ,super zufrieden.
MFG
 
Zuletzt bearbeitet:
ich fänds gut wenn nvidia endlich auf ddr5 setzt. und das mit dem speicherinterface ist finde ich eh schon überfällig
 
Sentionline schrieb:
[...]Die GT300 wird bestimmt eine fette Karte. (...und schlicht meine...) :D

Erstmal abwarten, was ATI als nächstes aus dem Hut zaubert. Nach aktuellen Gerüchten wird ATI in etwas zeitgleich, wenn nicht sogar etwas früher als nvidia mit ihrer neuen Grafikkartengeneration auf den Markt kommen.

Und bisher sind alle Daten zu den neuen Grafikkarten nur Gerüchte.
 
OFFTOPIC
@Sentionline
Mit einer 6800Ultra kann man nicht wirklich Crysis spielen.
Ich habs mit 7800GS+ versucht und musste fast alle Details auf low stellen um akzeptable Frameraten zu bekommen. Hatte das dann zum Spass mal auf High gestellt und die Framerate war irgendwo zwischen 1-5, manchmal auch drunter.
Mit der alten Generation ging das wohl nur mit 3 * SLI GTX8800
 
Lasst euch nicht von den vielen Buzzwords beeindrucken. Im Endeffekt zählt die Leistung und nicht, was auf dem Papier steht :)
 
Ich denke, dass ATi auf ein gepflegtes Update und weitere Optimierungen setzen wird, während es nVidia wieder mit Brute Force-Methoden versucht, wie schon beim GT200. Möglich wäre aber auch, dass hier die Rede vom GT212 ist, ein Refresh des GT200b und der GT300 erst viel später kommt und dann auf 256 bit und bessere pro Watt-Leistung setzen wird.
 
laresx5 schrieb:
OFFTOPIC
@Sentionline
Mit einer 6800Ultra kann man nicht wirklich Crysis spielen.
Hattest du auch eine E6300 drin? Ich habs Butterweich auf 1024x768 durch. Natürlich ohne AA, aber 4xAF. Wenn man ein Krüppelprozessor danebensetzt...ja dann...:D

Du stellst mich glatt als Lügner dar...find ich nicht nett. Wie hätt ich denn das Video für Youtube machen können?

Runaway-Fan schrieb:
Erstmal abwarten, was ATI als nächstes aus dem Hut zaubert.
Na wo issses denn? Man wartet seid der HD2X Reihe auf den "BooM".
 
Zuletzt bearbeitet:
@Runaway-Fan
Nur weil ATI ihre Karte eher bringen ,heißt es nicht das man sie Kaufen muss.
Man sollte immer das Konkurrenz Produkt abwarten .
Was dann meist zu Folge hat das der Preis teilweise um 100 Euro korrigiert wird ,binnen kürzester Zeit.
Und man dann auch einen vergleich hat.
Weil die neue ATI werde ich sicher nicht mit GT200 vergleichen.
MFG
 
Zuletzt bearbeitet:
Immer dran denken, dass der Speicherkontroller in der GPU mit dem gleichen physikalischen Takt wie der Speicher rennen muss.
Und da ist Nvidia im Gegensatz zu ATI weit hinten dran
 
Klingt super, hoffentlich arbeitet Nv auch stark an der Energieeffizienz.
 
Sentionline schrieb:
Hattest du auch eine E6300 drin? Ich habs Butterweich auf 1024x768 durch. Natürlich ohne AA, aber 4xAF. Wenn man ein Krüppelprozessor danebensetzt...ja dann...:D

Du stellst mich glatt als Lügner dar...find ich nicht nett. Wie hätt ich denn das Video für Youtube machen können?

Mein Gott geht ihr immer gleich durch die Decke, ihr Senkrechtstarter.
Ruhig bleiben, wir alle sitzen vor langweiligen grauen Kisten, ... aber es ist ja Frühjahr.
An eine Auflösung von 1024*768 habe ich nicht gedacht, weil für mich mindestens 1280*1024 Pflicht ist, und mein damals verwendeter P4@3.2GHz kann ich nicht mit einem E6300 vergleichen.

EDIT: In welchen Settings hattest Du Crysis gespielt?
 
Zuletzt bearbeitet:
stna1981 schrieb:
Davon mal abgesehen, die HD4890 ist auch kein Verbrauchswunder, und wenn die von 800 auf 2000 Stream-Prozessoren gehen, dann wird das auch nicht unkritisch, also immer mal schön locker bleiben, bevor hier irgendwer den schwarzen Peter zugeschoben bekommt.

rechne doch vom rv740 aus der ist wie der dx11 chip von amd auch in 40nm der hat ne tdp von 80W bei 640 shader rechnest das x3 (was ungefähr auf 2000 shader käme) kommst auf 240W was für ne neue highendkarte wohl in ordnung sein sollte. Die genauer Frage wäre eher noch ob sie mal powerplay besser in griff kriegen wegen den idle-werten.

Sentionline schrieb:
...

*PhysX (genügend Spiele, bei ATi bisher nur 5 DX10.1 Spiele)
*DirectX 11
*bessere Treiber (eigene Erfahrung)

Von ATi bin ich schwer enttäuscht. Wenigstens den Avivo Converter in der Revision 2 hätten die verbessern können. Aber nein, mal wieder nur Müll und Pixelbrei. Nvidia kontert mit Badaboom und dem genialen vReveal.

Das DX10.1 Vorteil von ATi wird als Argument auch nicht mehr ziehen. Es sei den DX11.1 kommt kurze Zeit danach.

ähh ja aber es sind eindeutig noch andere Titel angekündigt die dx10.1 nutzen. Z.b von Blizzard, weiß grad nicht mehr obs nun Starcraft 2 oder Diablo 3 war oder beide.
Des weiteren ist es warscheinlich das jedes für dx11 programmierte spiel die features von dx10.1 auch nutzen können wird. Als entwickler schaltet man halt dann ein paar features weniger ab im vergleich zu dx10. Wenn die Api von Microsoft sowas nicht eh schon automatisch für die Entwickler übernimmt.

DirectX 11 versteh ich jetzt nicht, wenn du das wilst wirst du auch zuerst bei ati fündig. Wie man das auf die habenseite von nvidia stellen kann versteh ich daher nicht ganz? Oder hab ich ne dx11 karte von nvidia die käuflich ist übersehen?

Zu den besseren Treiber wirst hier wohl solch udn solche meinungen zu den Windows-treibern beider hersteller finden. Im linuxbereich ist dies aber gerade ein Grund gegen Nvidia.

Aber ja mit Cuda hat nvidia momentan einen kleinen zeitvorsprung das ist aber alles. Cuda wird wohl aller vorraussicht nach mittelfristig sterben außer nvidia oder andere implemenntieren es so das es auch auf intel und amd-gpus läuft.

Amd will es halt nicht 2x entwickeln und hat eben erst auf standards gewartet die auch längerfristig am markt sein werden. bzw baut ihr zeug darauf auf dx udn opencl mein ich.
 
Klingt nach brachialer Leistung ... hoffentlich ist sie einigermaßen erschwinglich.
 
VatoLoco84 schrieb:
Nvidia muss jetzt eine Karte mit GDDR5 raus bringen, die hängen schon hinter AMD her, wenn die wieder mit GDDR3 anfangen wollen können die grad aufhören, GDDR3 ist schon uhr alt. Die sollten auch die GPU in 40 nm machen, dann währe es eine TOP karte.
...also erstens muß "alt" nicht immer gleichbedeutend sein mit schlechter, aber daß die nächste Nv-Gen mit DDR5 und in 40nm kommt ist doch so gut wie sicher, oder?
Und wo genau hängt jetzt Nvidia AMD hinterher? Leistung oder Energie-Management der Karten kannst du damit eigentlich nicht gemeint haben. ;)
 
Zuletzt bearbeitet:
blackiwid schrieb:
rechne doch vom rv740 aus der ist wie der dx11 chip von amd auch in 40nm der hat ne tdp von 80W bei 640 shader rechnest das x3 (was ungefähr auf 2000 shader käme) kommst auf 240W was für ne neue highendkarte wohl in ordnung sein sollte. Die genauer Frage wäre eher noch ob sie mal powerplay besser in griff kriegen wegen den idle-werten.

TDP der HD4850: 114W
TDP der HD4830: ~80W (gleich viele Shader wie die HD4770)
TDP der HD4770: 80W (in etwa gleich schnell wie HD4850)

Man sieht also, dass die Ersparnis durch die 40nm-Fertigung im Vergleich zur HD4830 nicht soo riesig ist, da der GDDR5-Speicher wieder mehr Leistung verbraucht. Verglichen mit der HD4850 spart man etwa 30%, das ist... ordentlich.

Das bedeutet für mich, dass wenn sich die Shader jetzt verdreifachen (von der HD4770 aus gerechnet), dann kommt man zu einer TDP von etwa 200W oder so raus. Nicht ganz mal drei, da sich ja nicht alles verdreifacht, SI etc. ist ja immer noch nur einmal da.

Das ist auch schon nicht ohne, klar wirds bei nVidia vermutlich etwas mehr, aber wenn sich dort die Leistung verdoppelt, sind wir vielleicht bei 256W (ausgehend von einer GTX 285 mit 183W, einer angenommenen Ersparnis von 30% duch 40nm und der Annahme, dass der Speichercontroller nicht so viel verbraucht wie bei ATi).

Es wird spannend.


Und was OpenCL angeht: das ist nur die verwendete Sprache, die PhysX-Bibliotheken müsste ATi trotzdem von nVidia beziehen. CUDA wird durch den Compute Shader abgelöst, davon gehe ich aus, aber PhysX hat gute Chancen, der neue Physik-Standard zu werden!
 
Zuletzt bearbeitet:
DirectX 11 hin oder her was bringt mir wenn ich die neuste Hardware hab aber dafür keine passende Software. Soweit ich weiß wird DirectX 11 nur ab Windows 7 möglich und bis Windows 7 voll auf dem Markt ist, und bis die ganzen Spiele herstelle auf DirectX 11 umsteigen ist schon 2011 und bis dahin gibt es schon bestimmt GTX 400xxx

Solange Hardware und Software Hersteller nicht ihr Produkt zu gleichen Zeit auf den Markt bringen, gibt es immer die gleiche kacke. Ich hab die neuste beste Hardware aber kann die nicht nutzen da ich keine passende Software habe.

Und so neben bei, wie viele Spiele spielt ihr die voll auf DirectX 10 setzten, also ich hier bei mir nur 2.
 
laresx5 schrieb:
Mein Gott geht ihr immer gleich durch die Decke, ihr Senkrechtstarter.
Ruhig bleiben, wir alle sitzen vor langweiligen grauen Kisten...
Quatsch, ich geh doch nicht an die Decke. Warum auch? Die E6300 war um den Faktor 3 dem P4 3,2 überlegen, daher war dein Untersatz für die 7800GS+ eher suboptimal.
laresx5 schrieb:
EDIT: In welchen Settings hattest Du Crysis gespielt?
High. Schatten low und Texturen auf Medium, da ich nach wie vor 1GB Ram verbaut hab.

1280x1024 flüssig in Crysis hat man ja nichtmal mit der G80 in den Griff bekommen. Weiss jetzt nicht wie die 8800GTX da abgeschnitten hat, mit AA wurde es jedenfalls kritisch. Und bei ATi ist das Spiel ja erst mit der HD4x Spielbar geworden. Spiele aktuell am Fernseher mit meiner 4850GS. 1280x720 4xAA und 16xAF butterweich. Aber nach x mal Warhead langts auch. Das Spiel wird langweilig, sodass ich alte Schätzchen wieder an meinem alten Rechner Spiele aktuell. Schleichfahrt und Warcraft III sind da so beispiele. In der Spielebranche herrscht im mom leider gähnende Leere. Aliens vcs Predateor 3? Kommt nicht. Aliens Colonial Marines kommt erst nächstes Jahr. Doom 4 dauert noch, Warcraft 4 lässt warten und viele guten Studios machen einfach nur dicht (Siehe Ensembe Studios, die AOE III gemacht haben). Mal sehen was noch kommt. Auf die miesen NFSs dieser Welt hab ich jedenfalls kein bock mehr, sodass ich mich weiterhin mit alten Schätzchen zufriedengebe.

blackiwid schrieb:
ähh ja aber es sind eindeutig noch andere Titel angekündigt die dx10.1 nutzen. Z.b von Blizzard, weiß grad nicht mehr obs nun Starcraft 2 oder Diablo 3 war oder beide.
So einen krassen unterschied wird Blizzard nicht einbauen. Deren Marketingabteilung arbeitet zum Glück noch "normal". Zumal Nvidia mit genügend Geld gegenkontern würde, wenn Blizzard zuviel für ATi auf die Spiele schmiert.

blackiwid schrieb:
DirectX 11 versteh ich jetzt nicht, wenn du das wilst wirst du auch zuerst bei ati fündig. Wie man das auf die habenseite von nvidia stellen kann versteh ich daher nicht ganz? Oder hab ich ne dx11 karte von nvidia die käuflich ist übersehen?
Ich hab mich auf die GT300 bezogen. Wird alles zutreffen. Vertrau mir. ;)

Zanza schrieb:
DirectX 11 hin oder her was bringt mir wenn ich die neuste Hardware hab aber dafür keine passende Software.
Es geht nicht direkt um DX11, sondern das der Chip da ist und DX10 Basierende Spiele um Faktor X beschleunigt werden.

Stell dir DX8 Spiele auf der NV38 vor. Der Chip gähnt einfach nur. Stell dir DX9 Spiele auf der G80 vor. Der Chip kaut an den Nägeln. So wirds auch bei der GT300 sein, das man alle DX10 Titel butterweich auf den Schirm bekommt.
 
Zuletzt bearbeitet:
Hallo,

Mal wieder kommt mir das 512er SI bei Nvidia so vor als wäre es deren heiliger Gral.
Zumindest fürs entsprechende Fanlager ;)

Also, um eine solche Bandbreite nutzten zu können, müßte sich die Leistung mehr als verdoppeln.
Das glaube ich ehrlich gesagt erst, wenn ich es sehe.
Zumal dann 1GB VRAM für solch ein Monster fast wieder zu klein wären.

Was spräche eigentlich gegen ein "krummes" SI?
384Bit mal wieder ---> Damit 1536 MB VRAM für die Referenzversion.
Für 2010 eine schöne Größe.
Auch die 50% Mehrleistung (zur GTX285) scheinen mir realistischer.

Gruß

Doc
 
noch unspektakulärer wird es, wenn man bedenkt, das ATis R600 auch eine 512-bit Speicherschnittstelle hat.
 
Zurück
Oben