hat nVidia nicht total versagt ?

gddr4 kommt kaum höher mit dem takt als gddr3
gddr3 geht bis 1,2ghz
es wurde noch kein gddr4 verbaut der mehr als 1200mhz hatte
 
Wenn nV den GT200 schlicht als G92 mit mehr Funktionseinheiten und den angebenen Taktraten bringt, so ergibt sich folgendes:

142 GiB/s --> 38% mehr als eine Ultra
48 MTex/s --> 24% mehr als eine Ultra
933 GFLOPS --> 61% mehr als eine Ultra

Da die Bandbreite und die Füllraten kaum limitieren dürften (außer Z-Füllrate) sollten da schon 50% rausspringen. Es ist aber kaum wahrscheinlich, dass da nichts optimiert wurde - bei den Transis.

cYa
 
Ich dachte es wurde am Editors Day gesagt, dass die Shaderleistung durch Optimierung um 50% gesteigert wurde?


Folgende Aussagen kennt ihr?

Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card.

Dieser obige Abschnitt wurde wohl wegen Verletzung der NDA wieder entfernt.

http://benchmarkreviews.com/index.p...ask=view&id=178&Itemid=1&limit=1&limitstart=3

I can't say anything because of NDA, but the new GeForce GPU will make you wonder what the future holds for multi-core processors. Essentially, it does all of the graphical compute chores, and does them far better.

The non-disclosure agreement with NVIDIA prohibits me from telling you anything about upcoming products.

I can say something else however, such as if you are planning on making a video card purchase in the next two weeks... WAIT!

http://forum.benchmarkreviews.com/showthread.php?t=11871


Aber alles nur Spekulationen und Andeutungen, warten wir also gespannt auf den 17. Juni ;)

Edit: Hier noch ein interessanter Link: http://www.hardware-infos.com/news.php?news=2100

Edit2: Interessante Selbsteinschätzung der Leistung der neuen ATI-GPUs auf einer AMD-Präsentationsfolie:

04RV770part2.jpg


Quelle: http://www.tomshardware.com/cn/382,news-382.html
 
Zuletzt bearbeitet:
Sollte vermutlich GSO heißen... :confused_alt:
Idioten, dass jemandem sowas passieren kann... :rolleyes: Da werden sich die Nvidia-Boys wieder nass machen...
 
TheNameless schrieb:
Die 8er sind ja bald weg. Dann ist es nicht mehr ganz so schlimm verwirrend (auch wenn es teils trotzdem nur umbenannte Karten sind).

wieso weg ? die 8800Ultra wurde bisher immer noch nicht von einer Single-GPU geschlagen, obwohl sie schon solange auf dem markt ist ! deswegen ist der preis so konstant geblieben.

@die frage wegen DDR:

GDDR3 lässt sich maximal auf 1215Mhz DDR takten -->2430
GDDR4 auf maximal 1450Mhz DDR (also kaum eine steigerung) --> 2480
GDDR5 lässt sich auf 2000Mhz DDR takten (ATI taktet auf 1960Mhz) --> 4000Mhz, und das bei weniger verbrauch !

und BITTE schreibt GDDR, denn DDR und GDDR sind zwei völlig unterschiedliche sachen, RAM und VRAM lässt sich einfach nicht direkt vergleichen

Greetz
 
Zuletzt bearbeitet:
Desoxyribo schrieb:
4000Mhz, und das bei weniger verbrauch !
Wohl kaum. Samsung spricht von 20% weniger gegenüber GDDR3. Da die Spannung gleichbleibt (1,5V) und diese 20% also nur vom kleineren Herstellungsprozess kommen, gilt das sicherlich nur für die gleiche Taktrate. Folglich wird der 20%ige (wenn überhaupt) Vorteil ganz schnell von der hohen Taktrate wieder aufgefressen.
 
Desoxyribo schrieb:
G80 ist seit Monaten EOL.

Desoxyribo schrieb:
RAM und VRAM lässt sich einfach nicht direkt vergleichen
Geht schon, DDR2 und DDR3 ist ja auch nicht das selbe.

Bei GDDR5 wurden schon weit über 2Ghz Chips gezeigt.

Und bitte lass in Zukunft die Taktverdoppelung weg, da wird man ja verrückt bei.
 
Unyu schrieb:
Und bitte lass in Zukunft die Taktverdoppelung weg, da wird man ja verrückt bei.

jo sorry aber sonst kommen wieder die fragen "hä aber ich dachte die hat 3.8Ghz speichertakt ? dann muss der G280 ja viel besser sein !". aber gut, ich werde es dirzuliebe in zukunft unterlassen;)

Wie meinst du man kann VRAM mit RAM vergleichen ? wie lange gibts GDDR3 schon ? öhm, recht lange ja ! und dann kommen im forum immerwieder so fragen "aber wieso gibts DDR3 RAM erst seit nem 3/4 jahr ? auf den grafikkarten wird der ja schon lange verbaut ! und da ATI mal DDR4 auf einer karte verbaut hat müsste ja demnäächst auch DDR4 als RAM verfügbar sein." glaub mir das wird noch ne weile dauern. deswegen --> bitte nicht vergleichen;)

ja ich weiss das der G80 EOL ist aber die GTX/Ultra sind immernoch sehr beliebt, und bei einzelnen händlern kannst du die immernoch neu erwerben.

@aspro: das mit dem weniger saft ziehen habe ich auf die gleiche frequenz bezogen, klar wenn man weiter hochgeht dann kommen die wieder gleich auf. aber trotzdem gibts mehr leistung für weniger saft;):D

Greetz
 
GDDR3 wurde von ATI entwickelt, kam aber als erstems mit der nVidia FX5700 Ultra raus, nämlich oktober 2003. also ca. 4.5 Jahre her. Wie lange es DDR2 gibt weiss ich allerdings nicht (bzw. wikipedia weiss es nicht;))

Greetz
 
"DDR2 was introduced in the second quarter of 2003 at two initial speeds: 200 MHz (referred to as PC2-3200) and 266 MHz (PC2-4200)."
;)
 
ATI hat GDDR3 entwickelt? Na klar ... und nV haben den Transistor erfunden :lol:

cYa
 
und intel die cpu (/ironie)
 
y33H@ schrieb:
ATI hat GDDR3 entwickelt? Na klar ... und nV haben den Transistor erfunden :lol:

cYa


GDDR3 wurde von ATI entworfen und kam zum ersten Mal bei der nVidia GeForce FX 5700 Ultra und danach bei der GeForce 6800 Ultra zum Einsatz. Bei ATI Technologies wurde der Speicher zum ersten Mal bei der Radeon X800 verbaut. Weitere bekannte Produkte, bei denen GDDR3 Verwendung findet, sind Sonys Playstation 3 (256 MB für die Grafikkarte) und Microsofts Xbox 360 (512 MB werden von CPU und GPU gleichzeitig genutzt).

naja entworfen halt:D

€dit: habe mich oben bei den verschiedenen speicherfrequenzen getäuscht: GDDR4 schafft bis zu 1.45Ghz


€dit2: so jetzt gibts ja hier nen bench von CB aus, Unyu lass deinen kommentar hören !:D Bestätigt doch wenigstens zum teil meine erwartungen, für 600€ ein bisschen mehrleistung als ne 9800GX2, finde ich irgendwie schwach. Da wird aber ein ordentlicher preiskampfkrieg entfachen wenn die HD4000er rauskommen... uns wirds freun:)

Greetz
 
Zuletzt bearbeitet:
hat mir bitte irgendwer noch einen link zu dem statement von Nvidia, dass die GTX280 alles wegfegen wird,und wir mit so einem leistungsplus rechen können,wie damals beim G80?



gruß
 
Schinzie schrieb:
hat mir bitte irgendwer noch einen link zu dem statement von Nvidia, dass die GTX280 alles wegfegen wird,und wir mit so einem leistungsplus rechen können,wie damals beim G80?



gruß

nicht ganz direkt von nVidia aber nahe dran, hier
;)
 
rofl.... nein, i mein ein Nvidia offizieler,irgend son manager.


gruß
 
jaja hab ich schon verstanden;) hab halt als gag den link reingetan weil der ja immer so tut als sei er einer von denen, bzw. hoch rangiger fanboy:D

Greetz
 

Ähnliche Themen

Zurück
Oben