News Benchmarks: Radeon HD 2900 XT vs. 8800 GTS

Was ist denn an "when it makes sense" nicht zu verstehen?

Macht es für eine unified API Sinn unified ALUs zu haben oder nicht?

Das war seitens NV ein klarer Hinweis auf die G80 Architektur, auch wenn das viele nicht so verstanden haben (sondern eher so: jetzt (G8x) noch nicht (da sinnlos), aber später).
Aber bitte hör auf, diese Fehlinterpretation Nvidia in den Mund zu legen.
 
kisser schrieb:
Was ist denn an "when it makes sense" nicht zu verstehen?

Macht es für eine unified API Sinn unified ALUs zu haben oder nicht?

Das kann man jetzt klar sagen, aber damals war das auf jeden Fall nicht so. Dazu muss man eigentlich nur Berichte aus der Zeit lesen.

Das war seitens NV ein klarer Hinweis auf die G80 Architektur, auch wenn das viele nicht so verstanden haben (sondern eher so: jetzt (G8x) noch nicht (da sinnlos), aber später).
Aber bitte hör auf, diese Fehlinterpretation Nvidia in den Mund zu legen.

Als ob diese Doppeldeutigkeit von nvidia nicht gewollt war.
Aber was soll denn bitte eine Fehlinterpretation sein? Bist du David Kirk? Ansonsten kannst du doch auch nur spekulieren, wie er dies meinte.
 
AMD: Folien mit Details zum R600 aufgetaucht

Die Taktraten sehen für die einzelnen Chips demnach angeblich so aus:

HD 2900 XT: 742 MHz (475 GFLOPs)
HD 2600 XT: 800 MHz (192 GFLOPs)
HD 2400 XT: 700 MHz (56 GFLOPs)

Auf den Folien sieht man die Benchmarks + andere Infos... naja mal sehen wenn endlich die R600 bei CB gezeigt wird.
 
laser114 schrieb:
Als ob diese Doppeldeutigkeit von nvidia nicht gewollt war.


Natürlich war die gewollt.
Es ist eine ganz große Kunst eines PR-Menschen, Dinge so auszudrücken, daß niemand etwas genaues weiß (und deshalb viele in die falsche Richtung dachten), aber sie dennoch wahr sind.
Auch ich hatte nicht unbedingt mit einer US-Chiparchitektur beim G80 gerechnet, aber die Möglichkeit angesichts dieser Aussage doch in Betracht gezogen.
 
Hmm der Stromverbrauch ist sehr sehr viel 200 watt bei idle und 250 watt bei voll-auslastung
 
Man ist hier was los, nur wegen ein paar, nicht bestaetigter, Daten!
Lasst abwarten bis die raus kommt und dann kann man hier weiter diskuttieren...

Und die 8800GTS bekommt bei Oblivion nur knapp 40 fps??
Da bekomme ich mit meiner 6800GT fast mehr...

mfg
 
Falls die stimmen sieht es nicht gut aus. Auf der anderen Seite könnten hier noch alte Treiber verwendet worden sein
 
Wann fällt denn endlich die NDA? Echt grausam, seit nem 3/4 Jahr muss man immer wieder die gleiche Sche*e lesen. "ATi wirds nVidia zeigen", "Der Stromverbrauch ist zu hoch", "Die lange Verschiebung treibt ATi in den Ruin" bla bla sülz.
Bleibt doch einfach locker und atmet ruhig durch die Hose, erstens kommt es anders und zweitens als man denkt ;)
 
@ 10tacle
Für dich fällt NDA dann, wenn du endlich lernst die Beiträge vor dir zu lesen bevor du Fragen stellst.

10tacle schrieb:
sollte ich vieleicht tun, aber nach 7 Beiträgen die ich gelesen habe wo nur der selbe Müll wie immer drin stand war es mir dann zu doof weiter zu lesen. ;)

Der Müll kommt davon, dass viele sich die Beiträge nicht durchlesen und immer weiter den selben Müll schreiben...
 
Zuletzt bearbeitet: (Beitrag nach mir)
sollte ich vieleicht tun, aber nach 7 Beiträgen die ich gelesen habe wo nur der selbe Müll wie immer drin stand war es mir dann zu doof weiter zu lesen. ;)

[EDIT]
Hab jetzt die letzten beiden Seiten überflogen und wo steht da ein genaues Datum? 14. Mai? Ist das ne Vermutung oder ist das Fakt?

[EDIT]
@numi
DANKE!
 
Zuletzt bearbeitet:
der 14. ist zu 90% Fakt. aber genau weiß man nie...
 
und noch ne bench :D KLICK
 
Den Bench habe ich auch schon gesehen. Diese Werte im Bereich SM2.0 und SM3.0 entsprechen denen meines X1950XTX Hardware CF Systems. Damit könnte man dann grob einordnen, wie performant die Karte und DX9 ist.
 
Die C't hat in ihrer aktuellen Ausgabe auch ein paar Benchmarks drin.

Die Taktfrequenz des 2900XT soll 742 MHz betragen und Speichertakt bei 828 MHz liegen.

Meistens ist die ATI-Karte eher in dem Bereich einer Geforce 8800GTS. Der Direct3D 10 SDK-Benchmark von Vista zeigt aber einen Wert von 159 bei PipeGS, während die GTX gerade mal 63 schafft.

Eventuell ist die ATI-Karte also doch gerade bei DirectX 10-Spielen wieder deutlich besser. C't schreibt auch noch, dass eventuell mit den Treibern etwas herausgeholt werden könnte.

Interessant ist auch der Stromverbrauch. 215 Watt für 2900XT, währen die 2600-Modelle 45 Watt verbrauchen sollen. Tests und genaue Angaben zu den kleineren Modellen gibt es allerdings nicht.

Ich bin also gespannt, was genauere Tests herausbringen. Bitte CB versucht irgendwie Direct X10-Tests zu berücksichtigen. Vielleicht ne Crysis-Demo oder ähnliches.
 
GeYe schrieb:
.

Meistens ist die ATI-Karte eher in dem Bereich einer Geforce 8800GTS. Der Direct3D 10 SDK-Benchmark von Vista zeigt aber einen Wert von 159 bei PipeGS, während die GTX gerade mal 63 schafft.

Eventuell ist die ATI-Karte also doch gerade bei DirectX 10-Spielen wieder deutlich besser.

Aus den Geometrie-Shader Demos wird man das kaum ableiten können, denn da ist der R600 architekturbedingt sehr stark, ich kenne zwar die GS-Demos nicht, kann mir aber vorstellen, daß dort weder Texturen noch Pixelshader genutzt werden. Es ist also eher ein synthetische Bench für die GS-Leistung.
 
Zurück
Oben