News Sapphire arbeitet an Atomic HD 3870 X2

Also ich freue mich auf jede neue Königin im 3D-Markt und die 3870X2 hat (derzeit) eben die Leistungskrone. Dass sie zwischen 20-50 Watt, mal mehr, mal weniger Strom verbraucht als eine Ultra, je nach Testumgebung und vor allem Anwendung, ist klar.
In benches kann die ATI ihre Powerplay-Stromsparfeature, bei dem im laufenden 3D-Betrieb die Karte gedrosselt wird, natürlich nicht entfalten. Dann verbraucht sie die von ATI angegebenen 196W alleine. Im Spielbetrieb jedoch, bei dem sich nicht alles ständig bewegt, bzw nicht viel bewegt, geht die Karte sicher in die Richtung der von ATI angegebenen 110W runter und verbraucht dann eben sicher weniger als eine Ultra, die unter 3D immer die volle Kelle verbraucht (wie wohl auch der Nachfolger der 8800er-Serie noch immer keinerlei Stromsparfeatures haben soll. Aber lassen wir uns überraschen).
Dass Nvidia mit der kommenden 9800GX2 ein plumpes Dual-PCB-Design hinklatscht, das ATI schon seit 1996 bei Dual-GPU-Karten (Rage Fury Maxx) nicht mehr nötig hat, wird Nvidia noch genügend Probleme bereiten.
So soll zB der Stromverbrauch der Karte alleine (!) nicht unter 250W zu bekommen sein, von den Hitzeproblemen ganz zu schweigen.

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1202732246

Schon meine derzeitige 7950GX2 ist ein echtes Hitzemonster nud hat reduzierte GPU-Taktraten von nur 500 anstatt 650MHz iVz einzelnen 7900er. Nichts anderes wird Nvidia bei der 9800GX hinbekommen, es sei denn sie schaffen es wie ATI, ein SLI aus verschiedenen Karten (und damit auch verschiedenen Taktraten) hinzubekommen:

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1202640365

Aber zurück zum Thema: da die X2 echte Powerleistung bietet, ist auch der Stromverbrauch kein Schnäppchen. Wasserkühlung ist da ein folgerichtiger Schritt. Daher freue ich mich auf die Karte, auch wenn sie wohl nicht unter +80 EUR zu bekommen sein wird. Die angegebenen 500 EUR halte ich für realistisch.

ICH würde sie mir dann trotzdem nicht kaufen, denn eine günstige X2 gibts schon ab 380 EUR und die Mehrleistung einer frisierten, da wassergekühlten, ist doch ehrlich gesagt für die Katz, oder ?! Jedes "normale Spiel" läuft auch mit der normalen Variante der X2 schnell genug. Crysis verschnellert sich damit von 27 auf 29fps unter akzeptablen Qualitätseinstellungen, das kann man gleich vergessen.

Aber ich bin froh, dass ATI diese X2 überhaupt gebracht hat. Und sie war kein Schnellschuss. Akzeptabel im Stromverbrauch, bedenkt man die Rohrechenleistung. Nur ein PCB und damit geringerer Stromverbrauch, als Nvidia mit einer Dual-PCB-9800GX2 jemals hinbekommen wird. Die Treiber sind gleich zu Beginn gut gewesen und reizen die Karte gut aus. Und dass Nvidia bei diversen Titel (ETQW, Crysis) Millionen von Dollar reingebuttert hat, damit die Engine ja auch ja nicht mit einer ATI-Karte richtig losziehen kann, dass ist ein Fall für sich. Ich jedenfalls habe Crysis mit aus diesem Grund nicht gekauft, denn ich will die Hersteller für eine solche einseitige Produktpolitik nicht auch noch belohnen. Hinzu kommt, dass Crysis von EA ist, weshalb ich es schon gar nicht kaufe.

Also immer her mit neuen Karten, das belebt den Markt und ein paar Käufer wird die Katre sicher finden, zB wenn die Karte Single-Slot sein soll wie die hier vorgestellte. Dann können die stinkreichen Freaks hier sich zwei gepflegte wakü-X2 in den Rechner knallen. RWE und EnBW freuen sich schon ;-)
 
eLw00d schrieb:
Komisch, du hast doch mal gesagt es gibt garkeine Mikroruckler. :o

komisch das ich mich daran nicht erinnern kann, aber du hilfst mir sicherlich gleich auf die Sprünge damit du nicht als übler Lügner dastehst :)


@ Unyu :

Das war auch nicht ernst gemeint !

Aber wenn leute schon angeblich Mikroruckler auf Karten sehen die garkeine produzieren(eben die gf7 serie) dann ist wirklich alles vorstellbar.
 
Realsmasher schrieb:
komisch das ich mich daran nicht erinnern kann, aber du hilfst mir sicherlich gleich auf die Sprünge damit du nicht als übler Lügner dastehst :)
Oha, "übler Lügner"... ich glaub ich muss weinen. Bin nämlich grad zu faul das Forum zu durchsuchen.
Vielleicht war´s ja auch ein anderer, du verdrehst trotzdem immer alles.

Realsmasher schrieb:
Aber wenn leute schon angeblich Mikroruckler auf Karten sehen die garkeine produzieren(eben die gf7 serie) dann ist wirklich alles vorstellbar.
Siehe Forumdeluxx.
Es ist bewiesen, dass die GF7 Reihe auch das Problem hat.

Einfach mal was aufgeschnappt und alle nieder machen, die was anderes behaupten.
Ich hab wenigstens immer "anscheinend" dabei geschrieben, wenn ich erwähnt habe, dass die GF7-Serie wahrscheinlich keine Probleme damit hat/hatte.
 
@ die leute, die rumflamen, weil die 3870 X2 ja ach soviel strom frisst...
wenn es euch sooo stört, dann kauft sie nicht und wartet 10 jahre, bis ne graka im high-end segment 50W frisst....
je mehr leistung, desto mehr stromverbrauch...bestimmt beschweren sich hier einige über den stromverbrauch der 3870 X2, aber haben sich früher bei der 8800ultra aufgegeilt und auf stromverbrauch geschissen...wetten?;D
 
@ Real: Weiß ich. aber nur weil´s dort "allgemeingültig" formuliert wurde, kann man doch nicht direkt einen GF7-SLI Besitzer, der was anderes behauptet, als Deppen darstellen.
Zumal im 3DCenter nicht wirklich viele Ergebnisse dazu vorlagen.

"Allgemeingültig" ist, außer der Tatsache, dass es existiert, bei dem Problem das Wenigste.
 
hmm ok, vielleicht hab ich da etwas überreagiert.

bei der aktuellen Situation ist das hoffentlich ein wenig verständlich...in praktisch jedem Thread und jeder news zur x2 wird das thema breitgetreten und das zu 95% von Leuten die diese Karte garnicht kennen.

Ich will das auch nicht runterspielen, die x2 hat das Problem offensichtlich und es ist völlig inaktzeptabel, aber trotzdem muss es irgentwann auch mal wieder gut sein.
 
Man sowas braucht doch echt kein Mensch!! Das is wieder so eine Masche um Leuten das Geld aus Tasche zu ziehen, und es als "Inovation" zu verkaufen. Schaut mal aus dem Fenster, was es da für eine Grafik ohne Mikroruckler und in ´ner Menge Frames gibt. Und stellt euch vor, es ist sogar umsonst.........
 
Realsmasher schrieb:
bei der aktuellen Situation ist das hoffentlich ein wenig verständlich...in praktisch jedem Thread und jeder news zur x2 wird das thema breitgetreten und das zu 95% von Leuten die diese Karte garnicht kennen.
Ja, mich nervt´s auch immer wieder was dazu zu schreiben.
Aber ich möchte, dass das Problem behoben wird und da hilft´s halt enorm, wenn das Thema immer und immer wieder angesprochen wird.
Das viele Leute die Karte an sich nicht kennen/besitzen und sich trotzdem zum Problem äußern, finde ich nicht schlimm. Schlimm ist, dass die meisten dieser Leute keine Ahnung haben was Mikroruckler sind und wie schwerwiegend das Problem ist.
 
wo soll die WaKü denn ins gehäuse gebaut werden?
 
So war Arbeiten .
Ich will hier keine Karte schlecht reden aber mich kotzt es an wen blinde Fanboys jeden scheis verteidigen.
Ich kenne Leute ,die tragen ne Brille und sitzen vor einem 25ms Tft und behaupten er schliert nicht beim zocken.
Ich glaube nur noch was ich mit meinen eignen Augen sehe es gibt so wenig Unparteische Tests,das man die Erfahrungen im selber Teuer bezahlen muss .
Ich hatte im letzten Jahr wegen einigen Profi Übertaktern 4 Mainboards, angefangen bei 2 965 Boards ,1 P35 und jetzt ein X38 Board .
Wie viele lügen ich in der Zeit aufgedeckt habe man war das ein Spass.
Genauso wie ich kein Geld für ne Graka habe !
Hatte ne 7950Gx2 ,Wakü 8800GTS G80,eine 8800Gtx Wakü, und jetzt einen G92 Chip.
Also ich weis wovon ich spreche .
Nie wieder Sli oder Cf.
2 cors auf einem Die mit einem Speicherinterface aber gerne.
Mfg
 
Zuletzt bearbeitet:
Wer s unbedint bracugh weil er zuviel geld hat soll es sich holen
 
Nur weil IHR etwas dagegen einzuwenden habt, soll die Karte nicht verkauft werden?

Ich bin halt keine 16 mehr und wohne in der eigenen Wohnung. Wenn am Ende des Jahres ne fette Nachzahlung kommt macht das wenig Spaß. Nix für ungut.


bestimmt beschweren sich hier einige über den stromverbrauch der 3870 X2, aber haben sich früher bei der 8800ultra aufgegeilt und auf stromverbrauch geschissen...wetten?;D

Mag sein, jetzt wissen wir, dass es anders gehen kann. Die Cpus machen es vor und laufen untervoltet um 40% und mehr übertaktet.

Wieso kann ich das also nicht bei den Gpus auch wünschen? Ist das nur Fassade, das die "Die Shrinks" kleiner werden?
 
Ich bin halt keine 16 mehr und wohne in der eigenen Wohnung. Wenn am Ende des Jahres ne fette Nachzahlung kommt macht das wenig Spaß. Nix für ungut.

Zwingt dich ja auch niemand die Karte zu kaufen...
Wer Leistung will, weiß auch das er sie teuer bezahlen muss.
Es gibt halt auch Leute, die wollen mehr Leistung.
Ich weiß, der Mainstreammarkt ist halt der stärkste, aber der High-End Sektor hat auch seine Berechtigung.
Und wenn du auf mein Alter hinaus möchtest, ich bin kein "dummes" Kiddie das denkt : Boah, was für ne geile Karte!!111einseins111elf!"
Ich weiß schon das diese Karte ordentlich Strom verbraucht.
Ich hock hier selbst mit einer 9800 Pro rum und seit 3 Jahren kein neues Spiel gekauft...
 
Zuletzt bearbeitet:
Zurück
Oben