News Benchmarks: Radeon HD 2900 XT vs. 8800 GTS

meine fresse ati hat keine 320 streamprozessoren!!!

es sind 64 vec-5 oder 80 vec-4 prozessoren. während nvidia 128 vec-1 prozessoren hat. das vec gibt an, wie viele zahlen auf ein mal THEORETISCH berechnet werden können.
 
Warum es stromfresser sind? weil jedes milimeterchen mehr leiterbahnen und jeder Transistor mehr den Innenwiederstand der graka erhöhen und somit die verlustleistung steigt. Zudem hat die taktrate nicht mit dem Stromverbauch zu tun bzw. deutlich weniger einfluss darauf wie zum beispiel volt die angelegt werden müssen um diese Taktrate stabil zu halten. und die dürfte bei 750 mghz nur geringfügig höher sein als bei 1350. und das wird locker wieder durch die anzahl wettgemacht. das ist reine Physik. Je komplexer ein schaltkreis ist umsomehr strom wird er verbrauchen.
 
Ich kann mir auch gut vorstellen das 320 Stream Prozzesoren ganz schön was verbraten..
Ich musss schon sagen das ATi mehr hätte machen müssen,ein halbes jahr,was bei Grafikkarten sehr viel ist,und troßdem nur so wenig mehr Leistung,zumal die 2900xt ja auch schon ein refresh des 2800xt ist,die wohl zu langsam war..Oder hat ATi aus Spass die so genannt?
 
ich liebe es wenn sich intel, nvidia und AMD Fanboy beschimpfen!

mir ist es eigentlich egal, ich kauf das was ich für das beste P/L Verhältnis bekomme.

mein notebook hat intel CPU und ATI Grafik und mein Car PC hat AMD CPU und NV Grafik
 
SSJ schrieb:
Wenn man etwas sehr verspätet rausbringt, dann erwartet man , das es auch besser sein wird, das ist überall so!
Und du weist nicht wo die Realität ist *gg Wo bitte steht geschrieben das was neueres immer besser sein muss? Das wäre ja mal echt geil wenn sich alle Hersteller an diese Formel halten würden ...

Und was hast du mit deinen 320 vs. 96, ist dir schon mal aufgefallen das die unterschiedlich aufgebaut sind :freak: (64 vec-5 oder 80 vec-4 vs. 128 vec-1 Prozessoren)
 
Zuletzt bearbeitet:
So. war schon lang nicht mehr hier angemeldet. Aber jetzt musste es einfach sein!

ATI ist keines wegs schlechter!

1. ATI hat AVIVO... hat nvidia sowas?! kann man mit einer nvidiagraka die performance eines encoders 5 mal schneller machen?! ->NEIN<- !!!
2. Wie hoch ist die CPU auslastung der neuen ATI-GPUs während gespielt wird?!
=>Bei ATI: 5%, bei Nvidia: 100% !!!!

Außerdem hat ati noch ein soundchip an board!

Mag ja sein das ati mehr streamprozessoren hat.. aber die haben auch einen sinn! Denn die Ati graka berechnet, anders wie bei nvidia, auch noch die Physik!!!

Und das Atis grakas mehr verbrauchen sollen, muss mir erst mal jemand zeigen. Ich denke nicht das der 65nm prozess mehr verbraucht wie nvidias 90nm!

Übrigens: Die aussagen zur physikberechnungen und zum stromverbrauch beziehen sich auf benchmarks zur HD 2600XT.

Wenn wir schon im Mid-range sind: Atis HD2600XT ist genauso leistungsstark in spielen wie die 8600GTS. Nur braucht die Ati keinen extra stromanschluss!
So.. Wer braucht jetzt mehr strom?! ati oder nvidia?!

Fazit: Ati:Physikberechnung, Soundchip, AVIVO, Videobeschleunigung
Nvidia: keine Physikbrechnung, kein spundchip, keine Avivo, videobeschleunigung
 
Jungs besänftig euch wieder, liegt wohl an der prallen Sonne :)

fakt ist, das weder ATI oder NVIDIA in der Geschichte der GPUs, erst eine kleinere Version rausgebracht hat um anschliessend das Topmodell vorzustellen. Es gab danach nur immer Refreschs! Das ist fakt, was ATI macht ist nur ein Refresch nachzuschieben. Würde bedeuten, HD 2900XT ist das Topmodell und der Refresch CHIP der HD2900XTX. Wenn das niemanden einleuchtet, dem kann ich dann auch nicht helfen! :)

Und weil NVIDIA das erkannt hat, bauen Sie jetzt auch nicht mehr am Refresch,stattdessen entwicklen Sie den G90 weiter. Wie man es auch dreht, es sind beide sehr gute Karten.


Mfg Selflex
 
Das Ergebnis war auch nicht anders abzusehen.

Aber man sollte die 96 Steamprozessoren von nidia nicht mit den 320von ATi vergleichen. Das ist eine völlig andere Baustelle. Soll die HD 2900XT nicht mit 80 Shadern ausgestattet sein, die pro Takt bis zu/bestenfalls 4 Rechenoperationen ausführt? Dann ergeben sich auch 320.
Vergleicht mal Leute. Würden ernsthaft 320 Shadereinheiten auf so einer Karte denn überhaupt Platz finden?

Niemand ist sich da wahrlich im Klaren - darum wartet ab und hofft auf einen baldigen Test auf CB. Bis Dato muss man halt die Schnautze halten ^^
 
canada,wen neueres schlechter oder gleich gut ist wie etwas altes,und dabei auch noch mehr Strom verbraucht,dan kann man es in die Tonne stopfen...
 
und selbst wenn avendexx dann ist die struktur der vec 5 shader erst recht ineffizent wenn ich zwar theoretisch 5 zahlen berechnen können praktisch aber nur eine oder 2 schaffen.

dann ist die gesamte struktur schlicht ineffizient. es interessiert niemanden was theoretisch möglich ist. die praxis ist das entscheidende und fakt bleibt, dass 80 vec 4 shader zwar theoretisch mehr leisten könnten aber in der praxis kaum mehr schaffen als 128 vec 1 shader. und somit sind die vec 4 shader witzlos geworden.

Nightlfil du postet echt nur mist. Lol deiner ist bisher echt der lustigeste beitrag hier. ^^
 
Zuletzt bearbeitet von einem Moderator:
eiso meiner Meinung nach is das genau das gleiche wie wenn man X1950XT mit ner 8800GTS vergleicht, weil immerhin hat ATI eine Entwicklungstufe, die X2800XT, einfach ausgelassen und jetzt sollte man dann schon die X2900XT gegen eine 8900GTS antreten lassen, später.
 
ist doch klar das man sich da eher mit der kleineren vergleich da die wohl 400 kosten wird und so die gts sehr deutlich schlägt zum leicht höheren preis! wenn man die mit der doch rund 100€ teureren gtx wirds doch rauslaufen das die zwar etwas langsamer aber viel billiger ist und so des bessere p/l verhältnis hat, meiner meinung nach wäre es egal mit welcher man sie verlgeicht da sie wohl am ende besser da stehn wird, mal abgesehn vom stromverbrauch, und zum thema ultra, wenns mit den 1000$ stimmen sollte ist die total fürn ar___ wegen sehr schlechtem p/l V.
 
Nochmal zu den Shadern: Es kommt nicht auf die Anzahl an!! Wie schon richtig gesagt wurde, wird es wohl so aussehen, dass Nvidia mit 128 Vec1 Shadern (die in einem Takt MADD+MUL berechnen können) gegen ATIs wahrscheinlich 64 Vec5 Shader antreten wird. Allerdings können die Vec5 Shader selten voll ausgenutzt werden, der Flaschenhals würde hier also bei Unterbelastung entstehen, während der Flaschenhals bei Nvidia eher bei der Überbelastung liegen wird.
 
Ich mache euch nen Vorschlag: die Nvidia-Fanboys holen sich ne 8800GTS, die ATI-Fanboys in 3 Wochen eine 2900XT und die rational Denkenden die Beste der Beiden.
Wieso ist das unfair eine 6 Monate alte Karte mit ner Aktuellen zu vergleichen, wenn die ähnlich Kosten? Sollen wir die Hersteller dazu zwingen, einmal jährlich und am gleichen Tag zu präsentieren oder was?
 
O oh oh, das ging ja voll in die Hose AMD/ATI. Die Werte sind zwar gut, aber an Peinlichkeit nicht mehr zu übertreffen. Da wird der Weltöffentlichkeit stolz präsentiert wie wenig man den eigenen Systemen zutraut in dem man den Hoffnungsträger im Wagen der Konkurrenz vorfahren läßt.
Eine bessere Werbung kann sich Intel doch gar nicht wünschen. Würde mich nicht wundern, wenn Intel morgen in allen Zeitungen eine ganzseitige Werbeanzeige aufgibt:"Jetzt endlich zu kaufen! Die neue AMD/ATI 2900XT powered bei Intel Core 2 Duo, denn auch AMD weiß was gut ist!".
Also so langsam frag ich mich ob die bei AMD überhaupt noch wissen was Sache ist. Ein Hühnerhaufen ist im Gegensatz zu AMD straff durchorganisiert und diszipliniert. Da nützt auch die Meldung mit dem Barcelona-Kern nichts mehr von heute. Bis der raus ist hat sicherlich schon aus Inkompetenz ein Advanced Mega Doofies-Manager versehentlich Insolvenz eingereicht!

Ich glaube Dieter Nuhr hatte damals bei seinem Spruch AMD im Hinterkopf! Jedenfalls wäre es besser wenn AMD bis zur endgültigen Vorstellung der Karten und neuen CPUs keinen Ton mehr von sich gibt!
 
Mustis schrieb:
und selbst wenn avendexx dann ist die struktur der vec 5 shader erst recht ineffizent wenn ich zwar theoretisch 5 zahlen berechnen können praktisch aber nur eine oder 2 schaffen.

dann ist die gesamte struktur schlicht ineffizient. es interessiert niemanden was theoretisch möglich ist. die praxis ist das entscheidende und fakt bleibt, dass 80 vec 4 shader zwar theoretisch mehr leisten könnten aber in der praxis kaum mehr schaffen als 128 vec 1 shader. und somit sind die vec 4 shader witzlos geworden.

Zur bewertung der Ineffizienz gehört aber auch noch ein wenig mehr. Und ob sie nun effizient oder ineffizient ist, steht doch auf nem anderen Blatt Papier. Das ist mir persönlich schnuppe, solange die Karte schneller ist, wobei es mir ebenfalls schnuppe ist, ob es sich dabei um ATi oder NVidia handelt.
 
stimmt, das ist mir gar nicht aufgefallen!

Diese wurden mit einem Testsystem auf Basis eines Intel D975XBX2 BadAxe2, Intel Core 2 Extreme QX6700 and 2x1GB DDR2-800 MHz ermittelt.
 
also vielleicht könnten wir die flame-wars hier mal beenden. ist ja echt peinlich. alle labern hier, als ob sie die götter der grakas wären und schon selbst shader programmiert hätten.
die ersten benches sehen doch ganz gut aus, aber wirklich interessant ist natürlich die leistung bei höheren auflösungen und full-aa. schon vielfach war im vorfeld zu hören, dass ati die neuen karten preislich aggressiv platzieren will und insofern interessiert der erscheinungszeitpunkt überhaupt nicht sondern der potentielle käufer vergleicht erhältliche karten im gleichen preissegment. alles andere ist theoretisierendes geschwätz. also xt vs. gts und nix anderes.
mit dem erscheinen der xtx werden dann die karten neu gemischt.
ach bevor mich jmd als ati-fan einordnet - siehe signatur. für mich ist immer nur interessant, welches produkt zu einem fairen preis eine gute leistung liefert. das macht immun gegen fan-attitüden ;-)
 
Avendexx das ist es mir auch. ich hatte mit dem gedanken gespielt, meine gtx gegen eine xt einzutauschen weil der preis in ordnung geht. aber eben auch nur wenn sie schneller ist und das bei gleicher lautstärke und maximal gleichem Stromvebrauch und gleicher bildquali. dann wäre mit die effzienz in der karte selber schnuppe. so wie es sich aber abzeihnet braucht die xt aber mehr strom und das wird unter anderem daran liegen das die vec4 shader so ineffizient arbeiten und man daher mehr brauch (hochgerechnet). ich warte auch gespannt auf die tests ob mein gedankengang sich bewahrheiten wird. ein wenig mehr strom darf sie ja verbrauchen. nämlich exakt soviel prozent wie sie die gtx im gesamten in der geschwindigkeit schlägt.
 
steve127 schrieb:
...die ersten benches sehen doch ganz gut aus, aber wirklich interessant ist natürlich die leistung bei höheren auflösungen und full-aa. schon vielfach war im vorfeld zu hören, dass ati die neuen karten preislich aggressiv platzieren will und insofern interessiert der erscheinungszeitpunkt überhaupt nicht sondern der potentielle käufer vergleicht erhältliche karten im gleichen preissegment. alles andere ist theoretisierendes geschwätz. also xt vs. gts und nix anderes....

Genau so ist ist! Damit hast du meine volle Zustimmung!

@Mustis
Ich hätte nie mit dem Gendanken gespielt, meine GTX gegen eine XT einzutauschen, da von von Anfang an klar war, dass die 2900XT das kleinere Gegenstück zur XTX darstellt und somit die XT nicht mit der XT verglichen werden kann und diese klar langsamer ist. Ich für mich spiele eher mit dem Gedanken, ob 2900XTX oder GTX und da warte ich bis es wirkliche Benches gibt und entscheide dann, welche es wird.
 
Zuletzt bearbeitet:
Zurück
Oben