News ATis RV630 (Radeon HD 2600) abgelichtet

Towatai schrieb:
@52

da ich deinem post entnehme das du anscheinend keinerlei spiele spielst die halbwegs aktuell sind, diese in voller grafikpracht genießen willst, troll dich zurück in deine höhle. es gibt auch jetzt genügend titel die eine GTS/GTX ans limit bringen.. selbst unter 1280x1024. die daseinsberechtigung haben diese karten sehr wohl und das hat nichts mit DX10 zu tun! mach dich erstmal schlau bevor du so nen mist verbreitest! die karten sind auch unter DX9 momentan das schnellste was man erhalten kann! man man man... hauptsache erstmal irgendwie rumblubbern..:freak:

Aber Towatai, du siehst doch es ist ein Konsolero, die müssen überall ihren Senf zu tun.
In diesem Sinne "NinjaShore" ab in deine Konsolenhöhle, haia machen:D .
 
Du hast noch Mac-User vergessen, wobei mir die Konsolen auch schon in meine entzündeten Augäpfel stachen :D
 
kommt mir das so vor oder is die karte um einiges kleiner als vorherige Bilder bzw. ist der kühler auch um einiges geschrumpft???
 
naja... wenn die leistung geil ist.... eventuell ist das ja nur ein Vorab-Modell ;)

Naja.. auf jeden fall steckt die in nem HP xw6400 mit 2*Dualcore Xenon Prozzies...

greez
terraterra
 
Aber ich versteh es nicht wenn di "HD"2900xt 320 shader hat

wieso di bei den benches (3dmark) und bei Crysis demo nicht abgeht wie die sau??
An was liegt das?

Freu mich total auf di Serie obwohl "X" besser klingt als "HD":)

Aber was mir auffällt di schmeißen die Karten nur mehr so aufn Markt "Nvidia"
will ja bis Herbst in G90 rausbringen (was soll das?)-wir wollen nicht schon wieder eine neue Serie:)
 
Man kann keine Shadereinheiten mehr zählen, da diese durch das Marketing unzählbar sind. Eine X1950XTX hat auch schon 96 Shader für den Pixelteil, es werden wohl 64 Shader werden für den R600, welche man auch als 128 zählen kann.

Aber ich versteh es nicht wenn di "HD"2900xt 320 shader hat

wieso di bei den benches (3dmark) und bei Crysis demo nicht abgeht wie die sau??
An was liegt das?

Es sind keine 320 Shader, sondern nur 320 MADDs das der R600 pro Takt theoretisch durchführen kann.

mfg Nakai
 
Đęađliŋe schrieb:
Aber ich versteh es nicht wenn di "HD"2900xt 320 shader hat

wieso di bei den benches (3dmark) und bei Crysis demo nicht abgeht wie die sau??
An was liegt das?

Freu mich total auf di Serie obwohl "X" besser klingt als "HD":)

Aber was mir auffällt di schmeißen die Karten nur mehr so aufn Markt "Nvidia"
will ja bis Herbst in G90 rausbringen (was soll das?)-wir wollen nicht schon wieder eine neue Serie:)


Was stört es dich mit deiner 6800GT:freak: ? Ich freue mich schon auf den G90:) .
 
Ich lach mich schlapp, wenn die R600 Familie ein Flopp wird!:D

Kein Wunder, dass die so billig werden sollen...

Ich hoffe es aber nicht, denn ich bin ein AMD Fanboy!:evillol:

MfG M.R.
 
montag werden die atis in tunis vorgestellt..... ab dann heulen die nvidiafanboys.... bzw die heulen ja jetzt schon... nach der 8600 pleite *gg*
 
Undergroundking schrieb:
montag werden die atis in tunis vorgestellt..... ab dann heulen die nvidiafanboys.... bzw die heulen ja jetzt schon... nach der 8600 pleite *gg*

Nunja, wer weiß wie sich der R630 schlägt - so viel berauschender als die nVidia-Karten sieht der nämlich nach den Prognosen nicht aus: Gleiche Speicheranbindung, gleich wenig/viel Speicher, niedriger getaktet... Ich hoff' auch, dass da was nachkommt, fürchte aber dass das alles nix wird und ich mir irgendwann ne GTS320 hol!
 
nach dem bisherigen erkenntnissstand sieht es aber zumindest für die mathematische leistung des rv630 gut aus. sollte er wirklich über 32 4d-einheiten verfügen entspricht das immerhin dem vierfachen des g84 pro takt, normalisiert immer noch dem doppelten.
 
Ich hoffe sie kommt an die Leistung einer 1950Pro ran oder übersteigt diese, damit nvidia ne gescheite midrange Karte nachliefert.
 
riDDi schrieb:
nach dem bisherigen erkenntnissstand sieht es aber zumindest für die mathematische leistung des rv630 gut aus. sollte er wirklich über 32 4d-einheiten verfügen entspricht das immerhin dem vierfachen des g84 pro takt, normalisiert immer noch dem doppelten.

ich glaube aber, dass ATi die shader nicht asyncron zum core taktet. also wird der R630 mit ca. 700MHz takten, während die shader der G84 mit 1400mh takten.

also im "normalen" gleichschnell ;)
 
Zuletzt bearbeitet:
Madbomb schrieb:
hm, jetzt frage ich mich welchen von beiden Berichten der richtige ist, denn auf Inquirer kann man heute ebenfalls etwas über die HD2600XT lesen. 65nm, Max 80W, 256MB GDDR4, kein externer Stromanschluss und eine Ein Slot Kühler Lösung.

http://de.theinquirer.net/2007/04/20/details_und_bilder_der_radeon.html
Meistens entsprechen die News auf Inquirer immer der Warheit.

Jaja, entspricht meistens der Wahrheit, wie die Wahrheit der Bildzeitung.
Max. 80Watt verbrauch und das ohne externen Stromanschluss, nur schade das unsere PCIe Schnittstelle nur max. 75 Watt liefern kann und nun? Also bei Leistungsspitzen haben wir dann einen wunderschönen Absturz. Manmanman, wenn ich so´ne Kacke immer lesen muss kommt mir die Galle hoch,echt.:mad:
 
wenn die Benchmarks für die 2600xt stimmen dann ist die auch für die Tonne. ausser Preis ist ehr niedrig, aber ATI muss uns endlich mal was hammerhartes liefern.
 
Zurück
Oben