News Details und Bilder zur ATi Radeon 3870 X2

T.B.B. schrieb:
überflüssiges Zitat entfernt *klick*

Mit der Multi-GPU-Architektur hast Du wohl Recht.
Aber den Leistungsfehler bei Crysis sollte man bei Nvidia suchen. Das Spiel läuft mit nur einer GT erheblich besser, als mit zwei Karten. Da hat Nvidia geschlampt. Die sollten auch endlich mal ihre Treiberpolitik überarbeiten.
 
Zuletzt bearbeitet von einem Moderator:
also man kann ja über amd jammern was man will bei den phenoms bin ich mir noch nicht sicher ob die jetzt der brüller sind, ist mir grad auch egal da ich grad eh keine cpu aufrüsten will, denke der wird sich schon gegen den core2duo positionieren, er scheint (welch wunder) mit den geringen taktraten gegen einen aktuellen hochgetakteten intel quad noch keine change zu haben, wobei man das auch immer in relation zum preis sehen muss, für mich reicht momentan auch ein x2 mit 2ghz, ich finde die sprünge zu mehr cores viel interessanter, zumal wenn die tdp und der preis stimmt. (das erstere stimmt bei den aktuellen leider noch nicht), von daher wird das (zumindest) für mich noch ne weile mit phenom nix vielleicht 2. quartal oder so ne neue revision etc...

sorry sehr weit vom thema abgeweicht ^^ aber zu den karten. kann man jetzt amd schlecht machen weil die neuen karten so schlecht sind? find ich irgendwie merkwürdig. vergesst mal die 8800gt, woher sollte bitteschön amd vor nem halben jahr oder wann die das teil entwickelt haben erraten das ne neue mittelklasse karte von nvidia rauskommen wird die auf ultra niveau laufen wird.

wenn man mal dieses überraschungsteil außen vor lässt hat ati gute arbeit geleistet. speziel mit dem 3850, damit werden die sehr viel geld verdienen, weil in dem bereich sie jetzt konkurenzlos sind, die 8800gt kostet deutlich mehr, und die meisten wollen eben nicht so viel geld ausgeben. kenne jemand der will auch mit seinem bald neuen pc nur spielen und der wollte eigentlihc 100,- für die karte ausgeben, jetzt wird er sich wohl die 3850er kaufen. und er kriegt jede menge preis/leistung.

oder die 3870 die sagen wir mal für 200,- den eigenen highend chip für 300,- zersägt, und nebenbei auch noch die 8800gts 640mb für 320,- ??

Da könnt ihr doch nicht ernsthaft von schlechter arbeit reden.

hmm k zurück zu der konkretten karte ^^ hmm ja für mich nicht interessant da der stromverbrauch zu hoch, aber für leute die sich auch sli holen oder 8800ultra sicher sehr interessant.

Ab der 8800ultra reichts doch für die meisten, eh aus, da spielt doch paar % leistung hin oder her dann keine rolle mehr, außer für paar freaks (die markt-mäsig nicht relevant sind) die auf 1920x1280 mit 16x aa spielen wollen. Was regt ihr euch auf, kauft euch ne nvidia 88xx x2 die dann 5% schneller ist und 30% mehr kostet, habt viel spass damit göns euch, aber glaubt nicht das deswegen ati den bach runter geht.
 
Die letzten paar Prozente an Leistung bezahlt man immer am teuersten. Das war schon immer so und wird auch so bleiben. (Sie Extreme Editions)

mFg tAk
 
200 Watt? Nein Danke. Nur was für highendfans mit dem entsprechenden Kleingeld.
Hoffe mal, dass der Rest der Serie weniger frist. :)
 
Eine 8800 Ultra verbrät auch 185W und dass die X2 200W braucht ist auch nur eine Vermutung. Ich denke sie wird unter 200W auskommen.

Ich zitiere mal folgende Aussage:
ATIst schrieb:
an alle die mit mehr als 200W rechnen... eine HD3870 brauch ca. 105W, un 2 HD3870 im CF wahrscheinlich 210W... der vorteil der X2 is ja, dass net 2 komplette PCBs mit strom versorgt werden müssen, sondern nur eine weitere GPU un die dazugehörigen baugruppen... so um die 175W wärn realistisch...

Außerdem bezieht sich der Verbrauch auf Volllast, und in wieviel Prozent der Zeit ist das... Und in der restlichen läuft sie mit >100W, was immer noch weniger als eine Ultra ist.
 
Zuletzt bearbeitet:
So einfach kann man doch die Leistungsaufnahme nicht addieren, ebenso wenig kann man bei CF oder SLI von +100% mehr Leistung sprechen, weil ja nun zwei oder gar vier, nimmt man zwei vom Typ X2, Karten quasi im Rechner arbeiten. Das sollte doch nun wirklich jedem klar sein. :rolleyes:

LG
Ganeagon
 
Bin eigentlich eher ATI Fan, aber da die neue Karte von Nvidia "D8E" wird warscheinlich schneller sein wird, weil sie aus zwei 8800 GT besteht, werde ich wohl eher zu dieser tendieren, wenn der Preis stimmt.
 
Scheint so als wenn der R680 ne Art Treiber-Testkandidat für ATI ist, um den nächsten Schritt zu machen:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=4327&Itemid=1


Der R700 könnte dann evtl. 2008 kommen und ne Multicore-GPU haben! Damit hätten sie auf jeden Fall etwas, was nVidia Probleme machen könnte, vor allem weil sie eben auf 55nm umstellen konnten und nicht nur 65nm! Für nVidia würde so ne Quadcore-GPU denke ich mehr Probleme machen!
 
Looooossss Alle kaufen :D

Während wir dann vor unseren Karten hocken und uns ein drauf *piep* weil die so endgeil sind
müssten wa ja theoretisch nurnoch warten bis die Games dafür optimiert werden :LoL:

Dann muessten wir erstmal 20% performance verlust auf uns nehmen weil wir "kindergarten " Vista aufspielen um DX 10 zu nutzen und um dann noch mehr Ram zu usen(mehr als 3,5 gb) auf 64bit umsteigen >dann noch eigene treiber schreiben,obwohl die in massen dafür vorhanden sind usw usw


gehabt euch wohl

Slave

wem wohl die Ironie als erstes ins Gesicht Springt *O.O*

^^
 
Steht jetzt eigentlich ein genauer Erscheinungstermin fest oder liegt der immernoch im 1. Quartal?
Was soll das Teil eigentlich kosten?
 
Henrico schrieb:
Oder ich muß mir wohl erst einen anderen Prozzi besorgen,denn mit meinem AMD x2 5200+ habe ich das gefühl,das meine Grakas ausgebremst werden und das selbst mit 4Gig Ram DDR2 667 Mhz.

Ist das dein ernst?

Mit so einer CPU(auf Standard?) betreibst du SLI un erhoffst dir Wunder?

Wie wäre es mal mit 3,5GHz - 4GHz, (5GHz Intel CPU) dann siehst du vielleicht was, sowas ist übrignes auch messbar! ;) http://www.futuremark.com/community/halloffame/3dmark06/

[ironie/an]Weiss die übertaktungsrekorde der top AMD's leider nicht![ironie/aus]

Aber die Phenoms scheinen ja viel zu versprechen...

So zum topic... SLI oder X-fire ATI im allgemeinen halte ich immer noch für Volksverdummung und Geldschneiderei, weil es nächsten Tag wieder eine GPU gibt die schneller ist als beide zusammen...

Wenn es allerdings ein GPU-Gespann mit der doppelten Leistung einer vergleichbaren einzelnen GPU gibt, dann schlage ich gerne zu...

Bringt sie nicht 200% im Vergleich zum 200% Aufpreis, ist man schlicht dumm, sich sowas überhaupt nur anzusehen...

Entschuldigt meine Ausdrucksweise... Hier ist niemand persöhnlich gemeint, der sich sowas kaufen will...

Ich würde mir nur selber sowas verbieten...
 
Zuletzt bearbeitet:
Die sollen erstmal eine einzelne X2 stabil zum laufen bringen, bevor die 2 davon koppeln und sogar von 8 Grafikprozessoren in einem PC phantasieren.
Ist doch einfach nur lächerlich...
 
Genau das ist doch deren Absicht! Wenn die X2 läuft, dann setzen die sich an Multicore-GPUs, wenn nicht, dann nicht! :rolleyes:
 
Wenn sie sich denn durchsetzen, und ich hoffe doch sehr, dass sie sich durchsetzen, dann könnte man eine deutlich messbar bessere Leistung im Vergleich zu einem Crossfire-Verbund aus zwei non-X2 Karten erzielen. Wie am Beispiel von GeCube Radeon HD 2600 XT Gemini zu sehen war, ist eine solche Karte tatsächlich fast exakt zwei Mal so schnell wie ein einzelnes Exemplar selbiger.

LG
Ganeagon
 
Ich wünsch mir ja auch, dass es funktioniert, zweifel aber stark daran, da Crossfire selbst auf bewährten Karten wie der x1900xt nur bei extrem wenigen Spielen Leistung bringt aber bei extrem vielen Spielen nur Probleme.
Es kommen halt immer neue Produkte raus, ohne dass die Bestehenden bis zu voller Funktionsfähigkeit gereift sind. Es wird einfach nichts mehr fertig gemacht. Die Kunden sind ja blöd genug, den unfertigen Schrott zu kaufen.
Wenn mal nix klappt, wird einfach das kommende Produkt angepriesen, bei dem dann Alles anders werden soll...
 
m3phist0201076 schrieb:
Ist das dein ernst?

Mit so einer CPU(auf Standard?) betreibst du SLI un erhoffst dir Wunder?

Wie wäre es mal mit 3,5GHz - 4GHz, (5GHz Intel CPU) dann siehst du vielleicht was, sowas ist übrignes auch messbar! ;) http://www.futuremark.com/community/halloffame/3dmark06/

[ironie/an]Weiss die übertaktungsrekorde der top AMD's leider nicht![ironie/aus]

Aber die Phenoms scheinen ja viel zu versprechen...

So zum topic... SLI oder X-fire ATI im allgemeinen halte ich immer noch für Volksverdummung und Geldschneiderei, weil es nächsten Tag wieder eine GPU gibt die schneller ist als beide zusammen...

Wenn es allerdings ein GPU-Gespann mit der doppelten Leistung einer vergleichbaren einzelnen GPU gibt, dann schlage ich gerne zu...

Bringt sie nicht 200% im Vergleich zum 200% Aufpreis, ist man schlicht dumm, sich sowas überhaupt nur anzusehen...

Entschuldigt meine Ausdrucksweise... Hier ist niemand persöhnlich gemeint, der sich sowas kaufen will...

Ich würde mir nur selber sowas verbieten...

Ja du hast Recht ! Mit dieser CPU ist SLI für´n Allerwertesten :) Habe mich nun doch vom Intel Fieber anstecken lassen und mir nen Core 2 Quad und das XFX 680i LT Mainboard bestellt.Da haben wenigstens beide PCIE Steckplätze x16.Mal sehen was mit dieser Combo geht.Ich halte es übrigens nicht für Volksverdummung,wenn man sich ein SLI System zusammenstellt sondern einfach nur Spaß an der Freude.Klar kann man sich auch auf andere Weise einen Performance PC zusammen Basteln und das weitaus günstiger aber ich bin halt in der Hinsicht ein Freak wie viele andere hier.
Im Bezug der Übertaktungsmöglichkeiten der Dual Cores von AMD kann ich nur sagen das ich meinen x2 5200+ auf mittlerweile stabile 3 Ghz gebracht habe,also 400 Mhz mehr als Standart.Everest zeigt mir also einen x2 6000+ an.Mit Luftkühlung (Thermaltake V1) geht das locker und die Temps liegen bei voller Auslastung nicht höher wie im Standarttakt.24 Grad im Idle und unter Last nie mehr wie 45 Grad (Ein gutes Gehäuse vorausgesetzt)

Greetz
 
Mal ne Frage...gibt es schon neuigkeiten von der Karte? Sollte die nicht im Dezember vorgestellt werden und im Januar lieferbar sein?

Da sich mein CF Gespann jetzt wohl doch vielleicht bis Januar versüäten könnte wird die Karte (bei entsprechendem Preis) wieder interessanter... ;)
 
Zurück
Oben