Erste Bilder von ATIs R600!

AW: Erste Bilder von ATI's R600!

Das endet in meiner Gehäusefront. Scheint länger zu sein als mein Tower ;)
Aber mal so ne Frage. Leistungsmäßig is da nix bekannt oder?
 
AW: Erste Bilder von ATI's R600!

@Cod3mast3r... :Ist ja auch länger als eine 8800GTX. Aber nochmal für alle: es handelt sich um die OEM-Version für den Erstausrüstermarkt.
Die eigentliche X2800XT(X) soll deutlich kürzer sein.
 
AW: Erste Bilder von ATI's R600!

Die eigentliche X2800XT(X) soll deutlich kürzer sein.
x2900xtx bitte ;)

leistung bis auf den "fake" unbekannt - nur vermutungen wegen der specs

cYa
 
AW: Erste Bilder von ATI's R600!

Ich freue mich neben der Leistung vor allem darauf,dass der Konkurenzkampf dazu führt,dass Nvidia die Preise stärker senkt.
 
AW: Erste Bilder von ATI's R600!

y33H@ schrieb:
x2900xtx bitte ;)

leistung bis auf den "fake" unbekannt - nur vermutungen wegen der specs

cYa

woher weißt du, dass es die x2900xtx sein wird?
es gab auch ne x1800xtx ;)
 
AW: Erste Bilder von ATI's R600!

1.) Es gab keine X1800XTX ---> du meinst X1800XT(ohne 2tes X ;) )

2.) Bei so ziemlich jeder Spekulation oder angeblichen News wird von einer X2900XT(X) geredet...

mfG ;)
 
AW: Erste Bilder von ATI's R600!

ahja und deshalb stimmts natürlich auch :x

und wegen dem X: stimmt ^^
 
AW: Erste Bilder von ATI's R600!

das Ding ist die hässlichste Hardware die ich je gesehen :freak: habe aber egal bin von Ati überzeugt und werde sie mir zum Verkaufsstart trotzdem kaufen :)
 
Nun,

ich verstehe die momentanen Diskussionen bzgl. dem Stromverbrauch etc rein garnicht! Ein jeder mag gerne "Mehr"leistung und dies ist eben mit einem grösseren Stromverbrauch verbunden.
Eine grosse Wohnung benötigt auch mehr Energie um z.B beheizt zu werden, ein Ferrari schluckt bekanntlich auch mehr als ein Smart etc. (Liste beliebig erweiterbar).
Wenn Leute einen Wärmestrahler im Bad mit 2000Watt betreiben, dann ist doch ein pc immer noch der reine Energiesparer.....
Ich bin jedenfalls wirklich sehr neugierig auf diese und kommende Karten und mit meinem Netzteil von 750Watt sollte ich erstmal gerüstet sein und insofern dem nicht so sein sollte, dann wird eben auch dort nachgerüstet.

Gruss
Alexander
 
So? Und wieviel möchtest Du für ein Kühlsystem für eine Graka ausgeben, die eine Verlustleistung von, sagen wir mal, 200W kompensieren soll? Heutige CPUs verbrauchen weniger Strom als noch vor etlichen jahren, bei extrem erhöhter Leistungsfähigkeit. Die Erhöhúng der Leistung durch erhöhte Stromaufnahme ist nicht zwangsläufig und ausschließlich notwendig. Momentan ist der sich schon lange fortsetzende Trend einfach ziemlich unschön ... das sollte man als User auf jeden Fall mal festhalten. Und wenn ich an PCIe 2.0 denke, mit einer max. Bereitstellung von 300W, dann wird mir schlecht ... es wird Zeit, dass sich daran etwas ändert ...
 
Ich glaube, die Diskussion bezieht sich auch auf die Technik, die verwendet wird.
Umso kleiner die Technik wird umso niedriger können die Frequenzen werden. Dadurch würde die Temp und der Stromverbrauch sinken, da die Verlustleistung reduziert würde.
Aber die Forschung ist ja aufm richtigem weg. Sonst hätten wir grakas mit Kw-verlustleistungen :D


*g 2 dumme ein gedanke ^^
 
Das mag sein, das geht aber doch vergleichsweise langsam. Wenn ich bedenke, dass Intel mit ihrer Architektur schon fast bei 45nm ist, und nvidia evtl. demnächst oder irgendwann von 90nm auf 65nm umstellen will, dann ist das leicht ärgerlich. M.E. kann es nicht mehr lange so weitergehen, denn Karten, die mit aufwändigen Kühlsystemen trotzdem noch 80°C warm werden unter Last, könnten bei noch höherer Stromaufnahme in Zukunft locker auch 100° C übersteigen. Oder sollen WaKüs für Gamer-PCs zur Standardausrüstung werden?
 
Wird sie ^^
bis jemand wie zB asus ne andere Kühlung draufsetzt :lol:
 
Seit wann hat ne Radeon 2 bzw überhaupt "SLI" Stecker für so ne SLI brücke wie bei nvidia??

pic5.jpg
 
seit letztem jahr ;)

evtl is der 2. für die dritte graka, die für physik-berechnungen eingesetzt werden soll oder quad-CF steht vor der tür :/
 
Ab der X1XXX Reihe glaube ich. Nennt sich aber Crossfire. Vorher wurde die Verbindung außen über nen extra kabel hergestellt. Nun sind sie drauf gekommen das intern einzubauen ;)

bö schule =/
 
Jopp ich hab zB ne 1950 Pro von asus. Die hat die Anschlüsse. Aber ich brauche sie nich weil mein cpu schon für eine zu schwach is ;)
 
schnopsnosn schrieb:
seit letztem jahr ;)

evtl is der 2. für die dritte graka, die für physik-berechnungen eingesetzt werden soll oder quad-CF steht vor der tür :/

Nein, soweit ich weiß, muss man bei ATI momentan zwei Brücken zwischen den Karten aufstecken. ATI beteuert zwar, dass es normalerweise auch mit einer gehen würde, aber es werden zwei Stück aufgesteckt (siehe screenshot).

Mfg mmic
 

Anhänge

  • ATI_Crossfire_bridge_1.jpg
    ATI_Crossfire_bridge_1.jpg
    65,5 KB · Aufrufe: 168
Zurück
Oben