Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
hat nVidia nicht total versagt ?
- Ersteller Desoxyribo
- Erstellt am
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.688
Wenn nV den GT200 schlicht als G92 mit mehr Funktionseinheiten und den angebenen Taktraten bringt, so ergibt sich folgendes:
142 GiB/s --> 38% mehr als eine Ultra
48 MTex/s --> 24% mehr als eine Ultra
933 GFLOPS --> 61% mehr als eine Ultra
Da die Bandbreite und die Füllraten kaum limitieren dürften (außer Z-Füllrate) sollten da schon 50% rausspringen. Es ist aber kaum wahrscheinlich, dass da nichts optimiert wurde - bei den Transis.
cYa
142 GiB/s --> 38% mehr als eine Ultra
48 MTex/s --> 24% mehr als eine Ultra
933 GFLOPS --> 61% mehr als eine Ultra
Da die Bandbreite und die Füllraten kaum limitieren dürften (außer Z-Füllrate) sollten da schon 50% rausspringen. Es ist aber kaum wahrscheinlich, dass da nichts optimiert wurde - bei den Transis.
cYa
Bitcatcher
Lt. Commander
- Registriert
- Apr. 2006
- Beiträge
- 1.080
Ich dachte es wurde am Editors Day gesagt, dass die Shaderleistung durch Optimierung um 50% gesteigert wurde?
Folgende Aussagen kennt ihr?
Dieser obige Abschnitt wurde wohl wegen Verletzung der NDA wieder entfernt.
http://benchmarkreviews.com/index.p...ask=view&id=178&Itemid=1&limit=1&limitstart=3
http://forum.benchmarkreviews.com/showthread.php?t=11871
Aber alles nur Spekulationen und Andeutungen, warten wir also gespannt auf den 17. Juni
Edit: Hier noch ein interessanter Link: http://www.hardware-infos.com/news.php?news=2100
Edit2: Interessante Selbsteinschätzung der Leistung der neuen ATI-GPUs auf einer AMD-Präsentationsfolie:
Quelle: http://www.tomshardware.com/cn/382,news-382.html
Folgende Aussagen kennt ihr?
Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card.
Dieser obige Abschnitt wurde wohl wegen Verletzung der NDA wieder entfernt.
http://benchmarkreviews.com/index.p...ask=view&id=178&Itemid=1&limit=1&limitstart=3
I can't say anything because of NDA, but the new GeForce GPU will make you wonder what the future holds for multi-core processors. Essentially, it does all of the graphical compute chores, and does them far better.
The non-disclosure agreement with NVIDIA prohibits me from telling you anything about upcoming products.
I can say something else however, such as if you are planning on making a video card purchase in the next two weeks... WAIT!
http://forum.benchmarkreviews.com/showthread.php?t=11871
Aber alles nur Spekulationen und Andeutungen, warten wir also gespannt auf den 17. Juni
Edit: Hier noch ein interessanter Link: http://www.hardware-infos.com/news.php?news=2100
Edit2: Interessante Selbsteinschätzung der Leistung der neuen ATI-GPUs auf einer AMD-Präsentationsfolie:
Quelle: http://www.tomshardware.com/cn/382,news-382.html
Zuletzt bearbeitet:
- Registriert
- Jan. 2008
- Beiträge
- 972
TheNameless schrieb:Die 8er sind ja bald weg. Dann ist es nicht mehr ganz so schlimm verwirrend (auch wenn es teils trotzdem nur umbenannte Karten sind).
wieso weg ? die 8800Ultra wurde bisher immer noch nicht von einer Single-GPU geschlagen, obwohl sie schon solange auf dem markt ist ! deswegen ist der preis so konstant geblieben.
@die frage wegen DDR:
GDDR3 lässt sich maximal auf 1215Mhz DDR takten -->2430
GDDR4 auf maximal 1450Mhz DDR (also kaum eine steigerung) --> 2480
GDDR5 lässt sich auf 2000Mhz DDR takten (ATI taktet auf 1960Mhz) --> 4000Mhz, und das bei weniger verbrauch !
und BITTE schreibt GDDR, denn DDR und GDDR sind zwei völlig unterschiedliche sachen, RAM und VRAM lässt sich einfach nicht direkt vergleichen
Greetz
Zuletzt bearbeitet:
aspro
Captain
- Registriert
- Mai 2004
- Beiträge
- 3.553
Wohl kaum. Samsung spricht von 20% weniger gegenüber GDDR3. Da die Spannung gleichbleibt (1,5V) und diese 20% also nur vom kleineren Herstellungsprozess kommen, gilt das sicherlich nur für die gleiche Taktrate. Folglich wird der 20%ige (wenn überhaupt) Vorteil ganz schnell von der hohen Taktrate wieder aufgefressen.Desoxyribo schrieb:4000Mhz, und das bei weniger verbrauch !
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
G80 ist seit Monaten EOL.Desoxyribo schrieb:wieso weg?
Geht schon, DDR2 und DDR3 ist ja auch nicht das selbe.Desoxyribo schrieb:RAM und VRAM lässt sich einfach nicht direkt vergleichen
Bei GDDR5 wurden schon weit über 2Ghz Chips gezeigt.
Und bitte lass in Zukunft die Taktverdoppelung weg, da wird man ja verrückt bei.
- Registriert
- Jan. 2008
- Beiträge
- 972
Unyu schrieb:Und bitte lass in Zukunft die Taktverdoppelung weg, da wird man ja verrückt bei.
jo sorry aber sonst kommen wieder die fragen "hä aber ich dachte die hat 3.8Ghz speichertakt ? dann muss der G280 ja viel besser sein !". aber gut, ich werde es dirzuliebe in zukunft unterlassen
Wie meinst du man kann VRAM mit RAM vergleichen ? wie lange gibts GDDR3 schon ? öhm, recht lange ja ! und dann kommen im forum immerwieder so fragen "aber wieso gibts DDR3 RAM erst seit nem 3/4 jahr ? auf den grafikkarten wird der ja schon lange verbaut ! und da ATI mal DDR4 auf einer karte verbaut hat müsste ja demnäächst auch DDR4 als RAM verfügbar sein." glaub mir das wird noch ne weile dauern. deswegen --> bitte nicht vergleichen
ja ich weiss das der G80 EOL ist aber die GTX/Ultra sind immernoch sehr beliebt, und bei einzelnen händlern kannst du die immernoch neu erwerben.
@aspro: das mit dem weniger saft ziehen habe ich auf die gleiche frequenz bezogen, klar wenn man weiter hochgeht dann kommen die wieder gleich auf. aber trotzdem gibts mehr leistung für weniger saft
Greetz
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Wie lange gibts DDR2 schon?Desoxyribo schrieb:wie lange gibts GDDR3 schon?
- Registriert
- Jan. 2008
- Beiträge
- 972
GDDR3 wurde von ATI entwickelt, kam aber als erstems mit der nVidia FX5700 Ultra raus, nämlich oktober 2003. also ca. 4.5 Jahre her. Wie lange es DDR2 gibt weiss ich allerdings nicht (bzw. wikipedia weiss es nicht
)
Greetz
Greetz
- Registriert
- Jan. 2008
- Beiträge
- 972
y33H@ schrieb:ATI hat GDDR3 entwickelt? Na klar ... und nV haben den Transistor erfunden
cYa
GDDR3 wurde von ATI entworfen und kam zum ersten Mal bei der nVidia GeForce FX 5700 Ultra und danach bei der GeForce 6800 Ultra zum Einsatz. Bei ATI Technologies wurde der Speicher zum ersten Mal bei der Radeon X800 verbaut. Weitere bekannte Produkte, bei denen GDDR3 Verwendung findet, sind Sonys Playstation 3 (256 MB für die Grafikkarte) und Microsofts Xbox 360 (512 MB werden von CPU und GPU gleichzeitig genutzt).
naja entworfen halt
€dit: habe mich oben bei den verschiedenen speicherfrequenzen getäuscht: GDDR4 schafft bis zu 1.45Ghz
€dit2: so jetzt gibts ja hier nen bench von CB aus, Unyu lass deinen kommentar hören !
Greetz
Zuletzt bearbeitet:
Antimon
Commander
- Registriert
- Nov. 2007
- Beiträge
- 2.614
Desoxyribo schrieb:Da wird aber ein ordentlicher preiskampfkrieg entfachen
Ati vs. Nvidia
- Registriert
- Jan. 2008
- Beiträge
- 972
Schinzie schrieb:hat mir bitte irgendwer noch einen link zu dem statement von Nvidia, dass die GTX280 alles wegfegen wird,und wir mit so einem leistungsplus rechen können,wie damals beim G80?
gruß
nicht ganz direkt von nVidia aber nahe dran, hier
- Registriert
- Jan. 2008
- Beiträge
- 972
jaja hab ich schon verstanden
hab halt als gag den link reingetan weil der ja immer so tut als sei er einer von denen, bzw. hoch rangiger fanboy
Greetz
Greetz
Ähnliche Themen
D
- Antworten
- 21
- Aufrufe
- 1.974