News GeCube: Dual-R600-Derivat zur Computex

Ein weiterer Versuch nVidia einzuholen:rolleyes:(Obwohl NVidia bei Midrange shit gebaut hat)

Bei den Midrange könnte es aber klappen wenn denen wer das 128bit Speicherinterface abgewöhnen würde:grr:
 
Zuletzt bearbeitet:
Wäre schön zu wissen wie ATI dastehen würde ohne AMD ich denke Mal besser da einige Leute ziemlich genervt waren als Sie gegangen wurden besonders mit dem umstrukturierungen :rolleyes:
 
das die 2900er karten mit entsprechender kühlung zu enormen taktraten fähig sind wurde ja schon bewiesen.

vielleicht haben sich die hersteller ja mal daran orientiert und bringen eine gute alternative, auch wenn die vom verbrauch leider NOCH höher liegen würde...
 
Wenn das zwei 2600er sind, dann kann die Karte gut (wenig Strom und hoffentlich 256-bit oder mehr) und evtl. eine "wirkliche" Mid-Range Karte werden. Alles was momentan unter der 2900er ist, bezeichne ich nur als Office-Karten.
 
Zuletzt bearbeitet:
yeah .... noch schlechteres performance/watt ... na hoffentlich nicht. aber die neue version sollte ja schon in einem neuen fertigungsprozess sein
 
Ach die Roadmap steht doch nicht erst seit gestern fest und die Entwicklung hat sicherlich auch nicht nur ein paar Wochen/Monate gedauert. AMD lahmt im Moment auf ganzer Linie (CPUs und Grafiksparte), bleibt nur zu hoffen, dass sie sich aus diesem Tief befreien können, denn Konkurrenz belebt bekanntlich das Geschäft. Allerdings sind die neuen ATI Karten keine wirkliche Konkurrenz für NVIDIA. Bleibt noch die wirkliche DX10 Performance und die XTX Variante abzuwarten, dort könnte die R600 vielleicht noch punkten. Aber in meinen Augen ist ATI mind. ein halbes Jahr zu spät dran.
 
Tja, warum ist die NVidia schon im Dezember und die ATI erst jetzt und dass auch noch bei schlechterer Performance erschienen? Wird mir wohl keiner sagen könne aber nVidia hat gut ein halbes Jahr mehr Erfahrung sammeln können und die Zukunft sprich nur noch so Kaliber! Die nächste Reihe hat sicher schon 1GB Videospeicher! Aber dass alles hier macht doch keinen Sinn! Mann sollte die Karten mal unter Real DX10 laufen lassen mal sehen wie die dort die kraft entfalten können!

Außerdem: Bis die ersten DX10 Games erscheinen dauerts noch! Bis DX10 ready ist, ist schon die neue GeForce Serie herausen. NVidia rocks:king: NVidia hat sicher was gelernt, aber ob ATi viel Erfahrung sammeln konnte?
 
Zuletzt bearbeitet:
Doppelte 2900 XT? Ja, ne, ist klar... Als Kühlung dann ein 12cm-Lüfter mit 5000rpm und natürlich das ganze Gerät auf 3 Slots breite (in jeder Richtung) in einem soligen Kupfer-Block eingegossen? ;)
 
Mal eine Frage wozu braucht man solche Dual-Grafikkarten? Bevor jemand eine Dual 2600XT holt greift er doch eher auf eine 7950GX2 zurück die wahrscheinlich sogar billiger und leistungsstärker ist als eine Dual 2600XT.

gruß
Lumi25
 
eine spezielle thermoelektrische Kühlung

die wollen doch nicht etwa nen peltierelement darein bauen:freak:

jetzt gehts erst richtig los....knacken wir die 400Watt-Grenze:p

:evillol:...zum Glück is gerad G8-Gipfel:evillol:
 
Da sind mehr als 400 drin! Machen wir jetzt das Tuning wie bei Autos! Immer mehr Leistung:lol::lol::lol::lol:

Wenns genug ist ists immer noch zu wenig!
 
Eine 8800GTS mit 320Mb wird denke ich mal die hälfte kosten und dabei die gleiche Leistung liefern.
 
Es ist sinnlos Midrange Grafikkarten als Dual zu verknüpfen. Die Baukosten sind höher, warum auch immer, obwohl man nur 1 PCB und nur die selben Spannungswandler und Kondensatoren verwendet und der Preis letztendlich höher als bei vergleichsbar gleicher Leistung, aber niedriger Stromaufnahme einer Highendgrafikkarte ist.
 
Eine Karte aus zwei sparsamen HD2600XT Chips könnte interessant werden. Das wären dann ca. 90 Watt (45+45) Das ist sehr viel besser als 215 Watt einer HD2900XT. Wenn der Preis stimmt, gebe ich ihr sogar mehr Marktchancen als einer HD2900XT. Die Frage ist nur, wann sie endlich auf dem Markt verfügbar ist. Wenn sie erst zum erscheinen des R650 in die Regale kommt, dann wirds wohl eher nichts.
 
Zurück
Oben