News Technische Daten zur Radeon HD 3800

Nun, die genauen Infos werden wohl erst nächstes Jahr rauskommen. Aber aufgrund der Komplexität heutiger und kommender Chips wird man die Produktion insofern anpassen, dass man eher einzelne Parts herstellt und dann zusammenlegt, wie auch immer. Die einzelnen Dies werden dann kleiner und die Yield-Rate steigt signifikant. Zusätzlich kann man die einzelnen Graka Segmente besser einteilen. Mal sehen, vielleicht wird mans so machen, dass zwei Formen produziert werden. Der Logik-Part (ich vergleichs mal mit den CPUs), mit den RAMDACs, Memory-Controller und was auch immer. Dann der Stream-Part, welcher die Stream-Prozessoren, TMUs usw. enthält, welche sich von GPU-Segment zu Segment in der Anzahl unterscheiden.

Ich sag nicht, dass es so kommt, aber das wäre wahrlich die vernünftigste Lösung. Ich stimme da einfach mal der Meinung von 3dcenter zu (17. Mai).
Ich lass mich gern überraschen.
 
Also um mal die ganze Diskussion ueber "ATI macht keine High End Grakas mehr" etwas zu entschaerfen, hier mal meine Theorie:

AMD hat den Speicherbus auf 256 gesenkt, damit es LEICHTER ist, ZWEI Chips mit unabhaengigen Speicherbussen nebeneinander auf eine Karte zu setzen. Das ist dann SLI auf einer Grafikkarte. Das gibt es ja von ATI bekanntlich nur bei der 1950 er Serie. Warum? Weil es wohl unmoeglich ist, zwei 512bit Speicherbuschips auf einem Board unterzubringen. ( die 1950er haben 256 )

Die reduzierte Leistungsaufnahme, DX 10.1(Zukunftsicherheit) und der reduzierte Bus sprechen da Baende.

Also:

einfach mal abwarten.

ATI kann sich nicht erlauben KEINE High End Graka herzustellen. Viele die ich kenne, ( vor allem die die nur wenig Ahnung haben) entscheiden sich fuer den Hersteller, der derzeit die beste Graka herausbringt. Und dann kaufen die ne abgespeckte davon. Egal was ich denen erzaehle.

Gruss

Bernhard
 
Wann Gibts Endlich Benchmarks Zur 3800? :(
 
Welcher Scherzkeks hat das Diagramm denn gemacht? :D
 
Turrican101 du solltest vielleicht auch mal die Werte bei dem Diagramm lesen. Die Werte sind weder böse noch gut... laut dem Bench 14% langsamer als die GeForce. Ein korrekter Test auf Computerbase ist mir aber lieber. Möchte endlich die AA Fähigkeiten der Karte wissen und wie der Stromverbrauch ist gegenüber der 2900er und 1900er Generation.
 
Ich hab die Werte gelesen, trotzdem lustig dass das Diagramm erst bei 10.600 anfängt, wenn die ATI nen Wert von 10.700 hat, wodurch der nvidia-Balken dann 10x länger erscheint!

Ob das Absicht ist? ;)
 
Ist doch latte, auf echte Benchmarks warten und fertig :P
 
Ich denke man sollte die ersten Benchmarks abwarten bevor man schreibt sie werden so oder so stark .

Ich vermute aber auch,daß die meisten die hier schreiben die HD2900XT nur von hören und sagen kennen und ungeschminkt das von sich geben was die Gerüchte halt über die Karte erzählen . Fakt der Stromhunger ist gross aber auch nicht wesentlich grösser als die der 8800 Ultra oder GTX. Nervend ist das man einen 8pol pci-express-stromstecker und einen 6 pol pci-express-stromstecker an die Karte anstecken muss um die Gesammtleistung der Grafikkarte auszureizen oder eventuell sogar Overlocking zu betreiben. Diesen Stecker hab ich erst bei einen 850 Watt Netzteil von chieftek gefunden was nicht heist das die Grafikarte dieses Netzteil braucht (betreibbar mit einen 550 Wattnetzteil mit Adapter aber siehe oben ) Die Karte ist nicht lauter als die 7800 Gt die ich vorher hatte sondern leiser im 2d betrieb oder im 3d betrieb gleichlaut. Zur Geschwindigkeit Seit den neuen 7.10 Treibern ist sie ist durch die Bank schneller als einen Geforce 8800 Gt 640 mb und manchmal schneller manchmal langsamer als eine 8800 GTX( in hoher auflösung und mit 4fach antialaising) an die Ultra kommt sie nicht ran und wird sie nicht rankommen Allerdings kostet sie ca 350 Euro durch die Bank der Hersteller und nicht 600 Euro.

Fazit sie ist eine Higendkarte zu einen guten Preis mit der Schwierigkeiten einer idealen Stromversorgung (auser man möchte sowieso sein netzteil wechseln dann muss man 350 +130 euro rechnen was dann bei einen preis einer 8800 Gt 640/Gtx liegt . Betreibt man die Grafikkarte allein und nicht im grossfire modus hat diese auch kein hitzeproblem. Im grossfire modus epfehle ich auf alle fälle gute Gehäuselüfter und einen guten Luftdurchzug da die Karten dann um ca.10 Grad heiser werden. Mal abgesehen das der sli /grossfire modus leider nur bei ein paar Spielen überhaupt einen Performance zuwachs von 10-30 % bringt und manchmal die Singelkarten schneller sind:lol:. Ausnahme: Voller Antialsing-modus, da können sie bis zu 70 % mehr Leistung bringen (Singelkarte ca 20 frames- Dualkarte 34 frames), was teilweise zwischen unspielbar und bedingt spielbar schon entscheident ist . Allerdings die Kosten sprechen nicht dafür . Aber das ist nur meine persönliche Meinung

So nu zu Vermutungen : Da die neuen Karten im gleiche Leistungsfeld liegen, ist wohl anzunehemen nur wird die geringere Fertigungsgrösse den Strombedarf senken daher wird die 3800 generation nur die Fehler der alten Karte ausmerzen aber schneller werden sie nicht oder nur minimalst sein. Ob das gleich ein komplette Umbenennnung rechtfertigt ? Ati möchte wohl nichts mehr von 2900 serie wissen und hofft mit einem neuen Name wird alles gut. Aber der Kunde bekommt im prinzip nur eine revision der alten 2900er Karte (Architektur des chips unterscheiden sich nicht wesentlich, auser der Fertigungsgrössen. Daher kann nur die frequenz maximal einen ausschlag geben und der schnellere speicher mit dem Nachteil der 256 bit speicheranbindung siehe 3870 zu Hd2900XT

Meiner Meinung nach: Wer eine 1950er hat und eine ähnlich gute karte +d310 unterstützung haben mag sollte sich die 3870 überlegen die die eine hd2900Xt ihr eigen nennt wartet auf die nächste generation an chips. und die die sich sowieso nie eine ati kaufen ja die 8800 Ultra wird nicht gefährdet und ihr habt noch immer die beste:rolleyes:.
 
Zuletzt bearbeitet:
^^
kann leider auch kein mandarin, aber das testsystem lässt sich sehr leicht finden, steht direkt über der grafik. desweiteren vermute ich mal das 3d-mark06 in den default-einstellungen ausgeführt wurde:

Intel Core 2 Quad Q6700(2.66GHz)
Intel X38
DDR3-1066 1GB×2

grüße,
franeklevy
 
jepp, seriös ist es nicht, aber es verdichten sich die spekulationen und werden langsam aber sicher - auch durch solche "benchmarks" bestätigt. die skalierung ist natürlich alles andere als mathematisch korrekt :freak:

naja, bald wissen wir mehr, bin auf den ersten test hier auf cb gespannt.
 
das wären aber schwache ergebnisse und die hd3800 wäre somit schwächer als die hd2900xt? würd ich schade finden :(
 
Zur Nvidia gabs auch Benchmarks wo die schneller als ne GTX sein soll, das fand ich auch recht merkwürdig, lieber auf echte Benchmarks warten!
 
das diagramm ist ja echt mal 'schwanz ab 25cm' plus X gemessen.
voll für die tonne.

nichtsdestrotrotz könnte das ergebnis an sich stimmen.erste benches der 8800gt erwiesen sich im nachhinein ja auch als wahr.

irgendwie bin ich froh,das ich meine 2900pro wieder abgegeben habe nach 3 tagen wegen der lautstärke und dem abnormalen stromverbrauch.
alles kommende kann nur sparsamer und leiser sein.natürlich nur solange,bis wieder die 55nm ausgereizt werden in form von taktraten jenseits gut und böse.
aber dann kommt ja der nächste shrink :freaky: :D
 
glaube persönlich nicht das die 3800 reihe stärker sein soll als die 2900xt wieso auch?

das preisleistungsverhältnis würde doch garnicht stimmen

die 2900xt ist jetzt noch ca 330 euro teuer dann soll die 3800 zwischen 200-250 kosten und besser als die 2900 xt?

niemals ausserdem wird nach der 3800 serie die 2900 xt sicher nicht günstiger werden

das sind meine persönlichen einschätzungen korregiert mich wenn ich falsch liege

c y a
 
Zuletzt bearbeitet:
schon mal dran gedacht, dass die Produktion von 55nm Grakas billiger ist als andere?
 
@ Sebastian_34:

Dann würde aber das Namensgebungsschema nicht mehr passen, vorrausgesetzt man bietet die X2900XT weiterhin an.

mFg tAk
 
die 2900xt ist jetzt noch ca 330 euro teuer dann soll die 3800 zwischen 200-250 kosten und besser als die 2900 xt?

Vielleicht lassen die die 2900xt aussterben, wie nvidia damals 7900gtx oder 7950gx2 (die neu immernoch 500 lappen kostet :freak:)

8800gtx niveau fuer 250 Euronen und das Ding geht weg wie warme Semmeln...
Ich wuerd mich freuen, endluch wieder ne Ati Karte drin zu haben.

mfg

edit/ Das Diagramm hat entweder ein Sonderschueler oder ein nvidia fanboy erstellt wa? rofl
 
Zuletzt bearbeitet:
Zurück
Oben