Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Erste Bilder von ATIs R600!
- Ersteller Tommy Hewitt
- Erstellt am
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.691
AW: Erste Bilder von ATI's R600!

leistung bis auf den "fake" unbekannt - nur vermutungen wegen der specs
cYa
x2900xtx bitteDie eigentliche X2800XT(X) soll deutlich kürzer sein.
leistung bis auf den "fake" unbekannt - nur vermutungen wegen der specs
cYa
schnopsnosn
Rear Admiral
- Registriert
- Dez. 2004
- Beiträge
- 5.560
AW: Erste Bilder von ATI's R600!
woher weißt du, dass es die x2900xtx sein wird?
es gab auch ne x1800xtx
y33H@ schrieb:x2900xtx bitte
leistung bis auf den "fake" unbekannt - nur vermutungen wegen der specs
cYa
woher weißt du, dass es die x2900xtx sein wird?
es gab auch ne x1800xtx
schnopsnosn
Rear Admiral
- Registriert
- Dez. 2004
- Beiträge
- 5.560
AW: Erste Bilder von ATI's R600!
ahja und deshalb stimmts natürlich auch :x
und wegen dem X: stimmt ^^
ahja und deshalb stimmts natürlich auch :x
und wegen dem X: stimmt ^^
Nun,
ich verstehe die momentanen Diskussionen bzgl. dem Stromverbrauch etc rein garnicht! Ein jeder mag gerne "Mehr"leistung und dies ist eben mit einem grösseren Stromverbrauch verbunden.
Eine grosse Wohnung benötigt auch mehr Energie um z.B beheizt zu werden, ein Ferrari schluckt bekanntlich auch mehr als ein Smart etc. (Liste beliebig erweiterbar).
Wenn Leute einen Wärmestrahler im Bad mit 2000Watt betreiben, dann ist doch ein pc immer noch der reine Energiesparer.....
Ich bin jedenfalls wirklich sehr neugierig auf diese und kommende Karten und mit meinem Netzteil von 750Watt sollte ich erstmal gerüstet sein und insofern dem nicht so sein sollte, dann wird eben auch dort nachgerüstet.
Gruss
Alexander
ich verstehe die momentanen Diskussionen bzgl. dem Stromverbrauch etc rein garnicht! Ein jeder mag gerne "Mehr"leistung und dies ist eben mit einem grösseren Stromverbrauch verbunden.
Eine grosse Wohnung benötigt auch mehr Energie um z.B beheizt zu werden, ein Ferrari schluckt bekanntlich auch mehr als ein Smart etc. (Liste beliebig erweiterbar).
Wenn Leute einen Wärmestrahler im Bad mit 2000Watt betreiben, dann ist doch ein pc immer noch der reine Energiesparer.....
Ich bin jedenfalls wirklich sehr neugierig auf diese und kommende Karten und mit meinem Netzteil von 750Watt sollte ich erstmal gerüstet sein und insofern dem nicht so sein sollte, dann wird eben auch dort nachgerüstet.
Gruss
Alexander
rumpel01
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 26.727
So? Und wieviel möchtest Du für ein Kühlsystem für eine Graka ausgeben, die eine Verlustleistung von, sagen wir mal, 200W kompensieren soll? Heutige CPUs verbrauchen weniger Strom als noch vor etlichen jahren, bei extrem erhöhter Leistungsfähigkeit. Die Erhöhúng der Leistung durch erhöhte Stromaufnahme ist nicht zwangsläufig und ausschließlich notwendig. Momentan ist der sich schon lange fortsetzende Trend einfach ziemlich unschön ... das sollte man als User auf jeden Fall mal festhalten. Und wenn ich an PCIe 2.0 denke, mit einer max. Bereitstellung von 300W, dann wird mir schlecht ... es wird Zeit, dass sich daran etwas ändert ...
cmprmsd
Lt. Commander
- Registriert
- Mai 2005
- Beiträge
- 1.973
Ich glaube, die Diskussion bezieht sich auch auf die Technik, die verwendet wird.
Umso kleiner die Technik wird umso niedriger können die Frequenzen werden. Dadurch würde die Temp und der Stromverbrauch sinken, da die Verlustleistung reduziert würde.
Aber die Forschung ist ja aufm richtigem weg. Sonst hätten wir grakas mit Kw-verlustleistungen
*g 2 dumme ein gedanke ^^
Umso kleiner die Technik wird umso niedriger können die Frequenzen werden. Dadurch würde die Temp und der Stromverbrauch sinken, da die Verlustleistung reduziert würde.
Aber die Forschung ist ja aufm richtigem weg. Sonst hätten wir grakas mit Kw-verlustleistungen
*g 2 dumme ein gedanke ^^
rumpel01
Fleet Admiral
- Registriert
- März 2006
- Beiträge
- 26.727
Das mag sein, das geht aber doch vergleichsweise langsam. Wenn ich bedenke, dass Intel mit ihrer Architektur schon fast bei 45nm ist, und nvidia evtl. demnächst oder irgendwann von 90nm auf 65nm umstellen will, dann ist das leicht ärgerlich. M.E. kann es nicht mehr lange so weitergehen, denn Karten, die mit aufwändigen Kühlsystemen trotzdem noch 80°C warm werden unter Last, könnten bei noch höherer Stromaufnahme in Zukunft locker auch 100° C übersteigen. Oder sollen WaKüs für Gamer-PCs zur Standardausrüstung werden?
Computer Hase
Lt. Junior Grade
- Registriert
- Jan. 2007
- Beiträge
- 316
Exotisch. Hoffen wa mal das sie nit so laut wird wie sie aussieht 
schnopsnosn
Rear Admiral
- Registriert
- Dez. 2004
- Beiträge
- 5.560
seit letztem jahr 
evtl is der 2. für die dritte graka, die für physik-berechnungen eingesetzt werden soll oder quad-CF steht vor der tür :/
evtl is der 2. für die dritte graka, die für physik-berechnungen eingesetzt werden soll oder quad-CF steht vor der tür :/
- Registriert
- Sep. 2005
- Beiträge
- 4.446
Die X1950Pro oder so hat auch diese 2 Connectoren. Die Lösung find ich auch viel besser als das externe Kabel.
mmic29
Admiral
- Registriert
- Okt. 2005
- Beiträge
- 7.652
schnopsnosn schrieb:seit letztem jahr
evtl is der 2. für die dritte graka, die für physik-berechnungen eingesetzt werden soll oder quad-CF steht vor der tür :/
Nein, soweit ich weiß, muss man bei ATI momentan zwei Brücken zwischen den Karten aufstecken. ATI beteuert zwar, dass es normalerweise auch mit einer gehen würde, aber es werden zwei Stück aufgesteckt (siehe screenshot).
Mfg mmic
Anhänge
Ähnliche Themen
- Antworten
- 13
- Aufrufe
- 2.293
- Antworten
- 56
- Aufrufe
- 12.294
- Antworten
- 39
- Aufrufe
- 8.312
W
- Antworten
- 234
- Aufrufe
- 51.154
- Antworten
- 173
- Aufrufe
- 22.946