News ATis Schützling R600 in 15 Bildern

... OEM hin oder her... Ein Dell-Rechner mit zwei solchen Dingern als Crossfire-Verbund dürfte saftig sein, Stromverbrauch, Preis und auch Leistung betreffend.

Wie yakuza schon sagt.. in einen Stacker passt die Karte, auch als Crossfire, ohne Probleme. Nur muss man da die Bremsen festmachen, sonst passiert es womöglich noch, dass der Rechner beim Start des neuesten Need for Speeds losfährt, weil die zwei Grafiklüfter (Crossfire) mit insgesamt 48 Watt Verbrauch für Schub sorgen:D

Jetzt wartet die Welt nur noch gespannt auf die weniger Leistungsaufnahme besitzende, kleinere und hoffentlich auch hübschere Retail-Karte. Zu wann war der R600 eigentlich ursprünglich mal geplant?
 
LOL
"Den Griff zum Wegwerfen..."

Hab schon lange nicht mehr so gelacht. Bin trotzdem schon gespannt was die Dinger leisten. Fest steht jedenfalls, dass nVidia den technologischen Vorsprung eines halben Jahres mit Sicherheit nicht untätig verrinnen lässt. Die haben sicher schon die passende Antwort parat, falls der R600 schneller als die 8800GTX sein sollte.

Negativ find ich jedenfalls die Tatsache, daß ATI nach dem Verzögerungsdesaster der ersten X-Serie wieder so lange gebraucht hat. Auch wenn ich es grundsätzlich besser finden würde, wenn man die Entwicklungszeiten grundsätzlich wieder verlängern würde und man nicht nach einem halben Jahr von einer bessereren Serie "beerbt" wird so spricht das trotzdem nicht für ATI. Der Markt ist nun mal so.

Zur Zeit find ich mit meiner 7800GT auch nach eineinhalb Jahren auch noch unter 1600x1200 das Auslangen, und solange dies gewahrt ist und auch keine neuen DX10 Killer-Titel à la Crysis erhältlich sind, werd ich mich ohnehin noch zurück halten.
 
Der Inquirer (gerade auf deutsch) ist immer noch meine Lieblingsbettlektüre. Spekulationen mit soviel Überzeugung rüberzubringen muß man auch erstmal schaffen. ;)

Achja: Der Gag "Griff zum Wegwerfen" kommt bei jedem Gegenstand mit Henkel-ähnlicher Konstruktion, wer darüber noch herzlich lachen kann, hat wirklich einen ..ähh.. gesunden Humor. :rolleyes:

Und für wann der R600 ursprünglich geplant war, finde ich zwar nicht, aber man hatte mal auf November/Dezember 2006 spekuliert. https://www.computerbase.de/news/grafikkarten/hat-nvidias-g80-das-tape-out-hinter-sich.16438/ Dann 1.Quartal 2007 https://www.computerbase.de/news/grafikkarten/atis-r600-verrichtet-sein-werk.17511/ und naja es zieht sich immer noch. ^^
 
Zuletzt bearbeitet:
Also ich muss mich generell gegen den Aufwärtstrend beim Stromverbrauch von Grafikbeschleunigern aussprechen, was zu Zeiten des zunehmenden Klimawandels doch als ernstzunehmendes Thema zu sehen ist. Es würde mich nicht wundern wenn wir in der nächsten Grafikkartenserie (bzw. bei ATI schon in der aktuellen) Midrange-Karten (ala 7600GT) mit Doppelslotkühler und Extrastromanschluss sehen würden. Aber da wäre für mich wirklich der Spaß zuende...
der nächste heult das er sie net in seinem shuttle xpc reinbekommt
Tja, also ich bin wohl "der nächste".
Also eigentlich habe ich nicht vor mir überhaupt so eine Stromschleuder zu kaufen, aber dass wegen der Grafikkarten die Mini-PCs immer größer werden müssen finde ich wirklich unnötig. Selbst in die aktuelle P2-Serie von Shuttle passt die 8800GTX noch geradeso rein, obwohl die P2-Serie im Vergleich zur alten G-Serie auch bereits riesig ist. Wo kommen wir denn da hin, soll es bald nurnoch Bigtower geben?

Off-Topic:
Hier zeigt Intel beispielsweise wie mans richtig macht.
Seh ich anders. AMDs brauchen im IDLE deutlich weniger Strom als Intels, und ein PC ist nunmal zum Großteil der Zeit IDLE. Ich will damit aber eigentlich garnicht AMD schönreden und einen großen Flamewar auslösen, sondern einfach nur mal klarstellen, dass AMD in Punkto Stromsparen immernoch etwas besser hinguckt als Intel (C'n'Q ist effektiver als Speedstep). Aber ich möchte damit wirklich keinen Flamewar auslösen, also bitte ich alle, die ihre Meinung gegen AMD kundtun möchten, darum einen eigenen Thread zur Problembewältigung aufzumachen und uns alle an dieser Stelle damit zu verschonen. ;)
 
Leck mich fett ist das Monstrum lang ! :freak:

Ich hab schon 'nen BigTower, aber ob ich das Dingens in mein Gehäuse (X-Alien) reinbekomme ? Denke nicht...
 
lol wie lächerlich ist das layout denn?
naja, wenn man schon nicht mit leistung überzeugen kann, dann wenigstens mit der größe .. zumindest sieht es hier so aus. man merkt, dass ati mit amd zusammenarbeitet ;)

und wieviel hat eigentlich die hellboy-lizenz gekostet? :)
 
"Wo kommen wir denn da hin, soll es bald nurnoch Bigtower geben?"

Nun, es hat mal (sehr) groß angefangen, warum solls da nicht auch wieder groß enden ;)

"Aber ich möchte damit wirklich keinen Flamewar auslösen"

Dann lass es auch...

Was den zunehmenden Stromverbrauch angeht, hast du aber Recht. Nur leider ist die Zielgruppe dieser fetten Grafikkarten der Spieler, der alles in bester Bildqualität sehen will, und dessen Augen sich schon beleidigt fühlen, wenn sie die extremen Treppeneffekte von 4x Anti-Aliasing bei 1980x1200 Bildpunkten ertragen müssen. Damit das nicht passiert, kauft er die Karte mit der größten Leistung, egal welchen Verbrauch sie hat... und Ati und nVidia ziehen mit: mehr Leistung um jeden Preis.
 
Zuletzt bearbeitet:
oXe schrieb:
Aber du hast echt recht, die Karte wirkt sehr monströs!
Ich glaube in meinen Chieftec tower würde ich die nicht reinbekommen :)

oXe

also in mein Chiftec Bravo (Bigtower) würde die passen :D ok, dafür müssten Pumpe und AGB an nen andern Platz, aber da die Retailversion ja eh ein ganzes Stück kürzer sein wird gibts keine Probleme^^

@topic: sind zwar ein paar schöne neue Bilder, aber ich würde viel lieber mal die Retailversion sehen. Warum wird immer nur die OEM Karte gezeigt, hat das nen bestimmten Grund? Naja, es soll endlicj Mitte Mai werden, so langsam nervt das Warten auch :(
 
@ avunculus
Nicht ganz fair von dir für AMD eine Lanze zu brechen und dann mit mehrfachem Hinweis keinen Flamewar auslösung zu wollen jede Antwort oder Richtigstellung unterbinden willst. Viel hast du ja nicht gesagt, aber um es wieder fair zu machen, braucht man ja nur erwähnen, dass Intel momentan in der Energieeffizienz unter Volllast meilenweit vorraus ist. Wenn du das so stehen lässt, ists wieder ausgeglichen, denk ich. Also lassen wir das, zumal ich ja auch AMD sympatischer finde (was mir aber gerade nicht hilft). ;-)
Zu den Grakas: Aus nem Mini-PC eine Leistungsbombe zu machen ist aber sowieso kontraproduktiv! Klar ists ärgerlich, dass die Dinger groß sind und größer werden aber die schnellen Komponenten brauchen eben Luft drum-rum. Hilf ja nix wenn ein Teil den anderen verkohlt und kein Luftstrom druchfindet. Ich hätte ja auch gern meine High-End-Multimedia-Spielkonsole auf PC-Plattform im Wohnzimmer, aber da werden wir wohl noch warten müssen. Kühlere, kleinere aber auch schwächere Karten der Serie werden schon noch kommen. Das Referenzdesign bleibt nicht in Monopolstellung und bald hängen Heatpipe und Wasserkühlung dran ;-)
 
die 2.0 A Bezeichnung wird ja wohl die theoretische maximallast sein . kann mir kaum vorstellen das die je erreicht werden. wozu solls auch 10mal mehr leistung bringen als bei nem handelsueblichen luefter. hoert mal auf zu spekulieren bevor das teil offiziell getestet wurde.
 
@DvP
Heatpipes sind doch schon drin:)

@HughHeffner

"die 2.0 A Bezeichnung wird ja wohl die theoretische maximallast sein"

Möglich, aber dann wäre es theoretisch zuviel;) Der Arctic Cooling ATi Silencer 5 kann das Monster nicht kühlen, klar, aber viel Wind macht der auch - bei 0,3A Angabe. Ich stell mir jetzt gerade vor, wie stark das 6fache davon wäre...
 
Gehts bitte etwas länger?
Leistung hin oder her, erinnert mich an die FX5800Ultra.

Wenigstens ist der Kühler vorraussichtlich schön leistungsstark, so kann vermieden werden, dass man den PC auch mal zum Arbeiten nutzt ohne nebenbei mit dem Headset auf max. Stufe Musik zu hörn.

@all die hier irgendwas von Leistung braucht eben Platz faseln:
Euch ist schon bewusst, dass die Maße der Karte ein WITZ sind? Nächstens fang ich an meinen Lian Li Miditower zu zersägen, bloß weil die 3D Karten immer größer werden. Irgendwo hakts doch.
 
Scheint ja nun 100%ig zu sein, dass wir hier ein 512Mbit interface haben und das der Speicher 1.1Ghz (GDDR4) hat.

Grundlage.

Die Kühlkonstruktion ist sehr interessant und kühlt die Spannungswandler nun aktiv mit. Alles sehr interessant.
Jetzt brauchen wir praktische Ergebnisse :D


bye Hübie

Edit: @Voodoo_Freak: Es handelt sich hierbei doch um die OEM Version. Die Retail ist 23cm lang und gut ist.
 
Zuletzt bearbeitet:
Also so langsam sollte sich das doch eigentlich rumgesprochen haben, dass lediglich die OEM Karten so lang sein werden. Klick
Die normalen Retail Karten werden nicht länger sein als die 8800 GTS Karten und deutlich kürzer als die GTX Karten. Man braucht also kein neues Gehäuse oder sowas.
 
Zuletzt bearbeitet:
aber wieso zeigt ATI als Promo die OEM, anstatt mal endlich die Retail zu enthüllen. Diese Geheimniss-krämerrei geht einem langsam auf die nerven

hmm.. ein grossteil hier hat es scheinbar noch immer nicht mit bekommen das nur die OEM so lang ist, da es die Modelle aus der älteren Revision sind :rolleyes:
bei jeder News immer wieder welche die sich wegen der grösse aufregen.
immer dieses halbwissen.... ;)
 
Zuletzt bearbeitet:
@OEM: Inzwischen steht der Hinweis bereits zehnmal in diesem Thread. Warum macht ihr euch die Mühe immer wieder darauf zu verweisen? Nein, die nächsten werden trotzdem über die Länge herziehen - irgendwo ja auch zurecht.

@ Raceface: "nur die OEM so lang ist, da es die Modelle aus der älteren Revision sind" D.h. Retailkunden bekommen auschließlich die neue Revision? Welches ist die neue Revision? ... Irgendwie würde ich es gut finden, wenn überhaupt irgendeine Revision in den Handel gelangt :)
 
Mhhh also so langsam frage ich mich einfach nur: WIE WER WAS WO WANN?

Kommt der R600 nun in 80nm oder direkt in 65nm? Heißt er dann R650 oder wie? Wenn der R600 in 65nm kommt, heißen die anderen chips dann R610 bzw R630 ohne das V, weil sie ja kein die-Shrink sind?
Fragen über Fragen...

Aber echt n ganz schön großes Stück Silizium.. muss man ja mal sagen.
 
fetzt doch! :)
die voodoo5 würde auch nicht nur wegen der tollen fsaa-fähigkeiten berühmt.
manchmal muss man eben auch größe zeigen, um legendär zu werden...
 
Zurück
Oben