News Technische Daten zur Radeon HD 3800

Mal sehen aber die Leistung einer 8800GTX sollte die Karte dan schon erreichen, ist ja das mindeste nach so langer Zeit und um einiges wie die 2900 sollten die Karten auch schneller sein.
 
@ hippiemanuide das ist doch scheißegal laufen doch auf den alten Standart auch ist voll abwärtskompatiebel.
 
Das waer fett, ein 8800 GTX/Ultra Pendant zum halben Preis... kanns kaum erwarten bis die ersten Tests durch sind. Wenn gut dann gekauft.. freu :)

edit/ ich bereuhe heute noch den Umstieg auf nvidia! Als ich meine gekauft hab war sie halt die schnellste (bis dann dioe 1950 kam :(. Und meine 79er hat so eine derbe grottenschlechte Bildqualitaet!

Bitte ATI hau se weg !!

mfg
 
Zuletzt bearbeitet:
Warum tut sich AMD/ATI nur immer so schwer bei Grafikkarten den Stromverbrauch, oder die TDP, bekannt zu geben?
Liebe AMD-Leute, Eure Informationspolitik ist gelinde gesagt SHICE! (oder liegt das an dem zuständigen Pressesprecher?)
 
Hm, wenn man keinen PCI-Steckplatz mehr braucht, könnte man 2 der Teile crossfiren, wobei natürlich dann der Stromspareffekt flöten geht ^^

Leider brauche ich meinen untersten PCI-Slot noch. Auf meine Audigy will ich nicht verzichten. Schon garnicht zu Gunsten vom Onboardsound *lol*

Mir wäre eine HD > 2900 XT X2 lieber, selbstverständlich mit min. 1GB-Grafikspeicher, ein längeres Gehäuse ist gleich gekauft ....
 
Zuletzt bearbeitet:
sebbekk schrieb:
OK, wenn man noch diverse Sub-Kategorien deklariert, dann gehört sie sicher nicht zum obersten High-End-Segment. Die Performance wird sicher aber irgendwo bei GeForce 8800 / Radeon HD 2900 angesiedelt sein und die gelten letzten Endes noch als High-End, solang nichts neues kommt. Hinzu kommt die Namensgebung, die mit Radeon HD 3800 ihr übriges suggerieren soll.

Naja, aber Namen sind letztlich auch nur Schall und Rauch ;) Für mich ist die HD 3800 keine Highendlösung. Einfach mal abwarten was kommt.


sebbekk schrieb:
Quellen zur Meldung lassen sich z.B. folgende nennen:

tomshardware.tw

chiphell.com
ocworkbench.com
fudzilla.com

Okay ;) Aber die sollte man am besten schon nach angeben oder? Denn wirklich offiziell bestätigt sind die Daten ja noch nicht und lassen sicherlich noch etwas Raum für Spekulationen ;)

Gruß
ASrock_USer
 
bin gespannt ob nvidia endlich paroli bekommt :evillol:
Aber die Daten sehen gut aus, hoffentlich wird Nvidia vom Tron gestoßen :D
 
KodeX schrieb:
Nein, die Grafikkarte ist abwärtskompatibel. Auc mit PCIe 1.0...

Woher weißt Du das; wie sicher ist das?

Ich kenne bisher auch nur die 100%-Aufwärts-Abwärts-Kompatibilität zwischen PCIe2.0 und PCIe1.1.
Von 1.0 ist mir nichts bekannt.
Bin nämlich auch ein Angeschmierter mit meinem ASUS P5LD2 SE... :(

Oder bringt ATI diese ersten PCIe2.0er-Karten ausnahmsweise noch mit 1.0er-Support raus?
 
Hi also wahrscheinlich ne ziemlich bescheuerte Frage aber warum stehen auf dem Bild die Werte 825/2400 Mhz in der Tabelle hingegen steht aber wieder 825/1200 Mhz ????

Kann mir das vielleicht jemand kurz erklären ?

MfG
lord niCon
 
@113
Du musst den Takt (1200) * 2 Rechnen ;) 1200MHZ ist nur der Effiziente Takt ;)
 
ich finde das lustig dass alles mit Direct X 10 angeblich vereinheitlicht werden sollte und super effekte bieten soll.
Die tatsache ist, dass jeder sein eigenes süppchen weiterkocht.
5D*64 Stream prozessoren oder 128 Stream prozessoren, hinzu kommt eine größere prozessorbelastung bei HD video wiedergabe als mit DX 9 karten und einen enormen framerateneinbruch bei DX10 spielen, die aber optisch nur marginal besser aussehen als in DX9.
Dafür kann man AA und AF vergessen.

Was noch interessanter ist, ist dass die Spieleindustrie sowieso für einen hersteller spiele optimiert.
Wo bleibt hier die vereinheitlichung??

Und was ist mit SAAF AAFADA DADADA und FAFAsuperAA??
Die ganzen mischungen aus AA und AF sind bei Nvidia und ATI auch unterschiedlich. Wer blickt da noch durch?

Das was lustig ist, ist die Tatsache, dass ich ein Spiel (gute Graka vorausgesetzt) in DX9 mit 4AA und 8AF auf 1600x1050 spielen kann und trotzdem gute frameraten habe.
Schalte ich DX10 ein habe ich außer besseren effekten einen extremen qualitätsverlust weil ich AA und AF gar nicht erst hinzuschalten kann, da sonst die Frameraten einbrechen.
Was soll das?? DX9 - 90Fps und DX10 - 20Fps ?????
 
Letztendlich sind halt eh die Treiber bei ATI scheiße, ganz egal wie toll die Hardware ist. Sieht man zb auch am letzten Computerbase Crossfire-Test
 
Solange ATI/AMD seine Treiberpolitik nicht ändert, ist jede neue Karte uninterressant. Noch immer schlummern in der 2900 XT Ressourcen, die aufgrund schlecht programmierter Treiber, nicht genutzt werden können. FAKT ist, ich würde mich freuen, wenn ATI/AMD wieder den Primus stellt.
 
onemandivision schrieb:
Letztendlich sind halt eh die Treiber bei ATI scheiße, ganz egal wie toll die Hardware ist. Sieht man zb auch am letzten Computerbase Crossfire-Test

Ich weiss ja nicht, wo ihr immer diesen Unsinn herhabt, aber gut:
Die Treiber und die Treiberpolitik von AMD sind absolut vorbildlich. Da kann man sich nicht beschweren. Man bekommt stets aktuelle Treiber.

Ich weiss leider nicht genau welchen Computerbase-Test Du meinst, aber der Artikel über den Catalyst 7.10 ist sehr positiv und kommt zu einem gute Ergebnis.

Der letzte Crossfire-Test (mit der Radeon HD 2900 XT) wurde noch mit den Versionen 7.1 und 7.5 gemacht. Seitdem hat sich doch einiges getan (dank der Treiberpolitik von AMD).
Ich denke, dass jetzt die Treiber auch immer mehr für einen Crossfire Betrieb optimiert werden. Das wird ja auch mit den neuen 55nm Karten wirklich interessant.
 
7.10 ist schon bei manchen spielen positiv, aber bei meiner x1950xt hat er z.B. für CoD 2 fatale folgen wenn ich aa anmachen komme ich net mal auf 10 fps also mit dem 6.9 war ich mit 40 gut dabei ..... mit 4xAA ... naja wenn die ATI jungs das mit den treibern endlich mal in den griff kriegen ..... dann gibts ein sinnloses problem auf der welt weniger ...
 
"We can now confirm that Geforce 8800GT will win against RV670XT, clocked at 825MHz with the DDR4 memory at 2400MHz. Nvidia’s chip is more powerful and faster in most of the games and synthetic benchmarks but at the same time the chip generates more heat, it's 65 nanometre and it is more expensive for Nvidia to make. " ( Fudzilla)

Woher wollen die das wissen ??? Beide Karten sind noch net draussen !!! Und ich hab noch nichts über Benchmarks oder ähnlichem von der 3870 gehört ??!!!:freak:
 
Zurück
Oben