AMD Radeon HD 4800 im Juni?

Vorteile der 3870 zur 2900XT im Groben:

# - ATi PoerPlay | Energieeffizientes Arbeiten und guter Stromsparmodi

# - ATi UVD | Der universal media Decoder ist in der Tat eine Neuerung bei den Grafikkarten, da man bei der 2900XT auf so ein Device verzichtet hat- nun sind auch HD Medien keine Belastung für den gesamten Rechner mehr

# - Die Shrink auf 55 nm | Wechsel der Strukturbreiten von 80 auf 55nm

# - bessere Kühlung | Verwendung eines fast silenttauglichem Kühlsystems mit akzeptablen Leistungswerten

# - DirectX10.1 | Welchen Vorteil die neue Serie damit ausspielen kann gegenüber der 2900XT ist nur in der Theorie bekannt, aber dennoch ist es ein Unterschied

# - Feintuning an GPU | AMD hat die Shadereffiziens steigern können. So ist die HD 3870 trotz 256 Bit dennoch in der Lage die 2900XT mit 512 bit SI in die Schranken zu weisen

# - Verbessertes AA | AMD hat den Rv670 Chip noch ein wenig aufgebohrt und an der Leistung gedreht


Diese Liste kann noch viel länger werden, aber im Grunde sind das alles die Kernfeatures und Unterschiede auf einem Blick. Bei nvidia seh ich da schon einen geringeren Unterschied von G80 auf G92. Es ist ein einfacher Die-Shrink mit leicht modifizierten Shadern, aber dennoch nichts neues.

Alleine schon der Unterschied von DX10.0 auf DX10.1 ist fast schon eine neue Serie wert. Summiert mit den anderen positiven Features, wie dem PowerPlay und verbessertem AA ist es durchaus legitim einen neuen Namen zu wählen. Außerdem ist aus marketingtechnischer Sicht die 2900 nicht gerade der Glücksbringer und da kommt eine neue Namensgebung wie gerufen. Da hat AMD mehr als nur zwei Fliegen mit einem Streich erlegt.

Und wegen der 9600 mache ich mir keine allzugroßen sorgen.
 
so sehe ich das auch !
ich hatte vorher immer nur Nvidia Karten und jetzt die Ati!
Also Sie macht alles Besser!
Nagut das liegt natürlcih daran was ich für Karten ehabt habe :)
Aber ich finde den RV670 Chip richtig geil (wie schon erwähnt stromverbrauch usw.)
Und den bracuhte ati aber auch dringend!
Wenn man es so sieht hat Ati immer top karten gemacht bis auch die 2xxx serie die war scheiße zumindest die High end-karten!
Seit AMD am steuer ist (An der 29xx konnten sie nichts mehr machen die war ja schon fertig bei der übernahme)
Haben sie die ganze Architektur gerumgerissen und aus der nicht so tollen Architektur von ATI ne richtig geile effiziente und auch leistungsstarke geschaffen!
AMD daumen hoch!
 
Bei nvidia seh ich da schon einen geringeren Unterschied von G80 auf G92. Es ist ein einfacher Die-Shrink mit leicht modifizierten Shadern, aber dennoch nichts neues.

Das ist - mild ausgedrückt- Schwachsinn.
Im G92 wurde der komplette NVIO integriert, was alleine schon eine deutliche Änderung im Chipdesign erfordert, hinzu kommt eine neue Version des Videoprozessors und eine Aufstockung der Texture-Adress Einheiten ggu. der Texture-Filter units. sowie diverser chipinterne Tweaks an der Architektur.
Ohne Grund ist eine GT jedefalls nicht teilweise schneller als eine GTX und Co. ;)

Man muss schon ziemlich schmerzfrei sein, um sowas einen "einfachen" die-shrink zu nennen, aber daher einige Gestalten meinen, hier einen "Jihad der Grafikkarten" führen zu müssen, wundert mich das auch nicht weiter.
 
Zuletzt bearbeitet:
Evader schrieb:
Ohne Grund ist eine GT jedefalls nicht teilweise schneller als eine GTX

teilweise, richtig.

Im größten Teil jedoch ist sie langsamer und bei höheren Auflösungen/Details erst recht.

Natürlich hat sich viel verändert von der gtx, aber im gegensatz zur 2900->3870 nicht alles zum Guten ;)
 
@ww2warlord
das will ich gar nicht alles aufgezählt haben
du sollst nur mal sehen das nicht alles was ati macht über jeden zweifel erhaben und alles was die grüne fraktion macht absolute verarsche ist
das ati sich mit der 3xxx reihe deutlich verbessert hat streitet ja wohl keiner ab

aber mal am rande
so gut wie alles trifft auch auf G80 -> G92 zu: die-shrink, änderungen am core (neue tmus, nvio integriert, neue videobeschleunigung, etc.)
und nur weil jetzt kein d3d 10.1 dazu gekommen ist machst du so eine welle?
sorry aber das kann man wirklich nicht objektiv nennen
 
Für mich ist es einfach die Masse an Features, die mir signalisiert, ob das Produkt ausgereift und abgerundet ist oder nicht. Bei der 2900 kann man gerne von Betaware reden, weil es fast schon eine Zumutung ist. Was ich besonders hervorheben möchte ist, dass man einen sehr deutlichen Unterschied zwischen R600 und Rv670 wahrnehmen kann. Man spürt ihn richtig und das ist bei nvidia definitiv nicht der Fall.

Ja dann möchte ich gerne mal eine etwa so lange Liste mit positiven Errungenschaften sehen, die nvidia in den G92 implementiert hatte und die es nicht schon im G80 gab.

Und da sehe ich einfach keinen nennenswerten Vorteil. Klar nv hat an der Effiziens der GeForce gearbeitet - das will keiner bestreiten, aber ich sehe vom G92 nur den Vorteilm dass er deutlich billiger und einfacher herzustellen ist, obwohl sich nv bekanntlich ein wenig schwer tut beim Wechsel der Strukturbreiten.

Und als Vergleich. Wenn man eine ganze Generation aufsteigt, dann möchte ich auch richtige Neuerungen sehen, wie von der 6800 auf 7800 zu erkennen war oder von X1800 auf X1900. Mehr muss es ja nicht sein aber zumindest ein "spürbarer" Unterschied wäre ja wünschenswert...
 
Im größten Teil jedoch ist sie langsamer und bei höheren Auflösungen/Details erst recht.

Hat niemand bestritten.

Natürlich hat sich viel verändert von der gtx, aber im gegensatz zur 2900->3870 nicht alles zum Guten

Die GTX war ja auch im Gegensatz zur 2900 unterm Strich eine etwas positivere Vorlage als die 2900 für die 3800er.

Was ich besonders hervorheben möchte ist, dass man einen sehr deutlichen Unterschied zwischen R600 und Rv670 wahrnehmen kann. Man spürt ihn richtig und das ist bei nvidia definitiv nicht der Fall.

Man hatte ja auch etliche verhunzte Bereiche aufzuarbeiten, es wäre traurig gewesen, wenn dem heute nicht so wäre.

Ja dann möchte ich gerne mal eine etwa so lange Liste mit positiven Errungenschaften sehen, die nvidia in den G92 implementiert hatte und die es nicht schon im G80 gab.

Wurde bereits genannt, VP2, TF:TA Verhältnis, Streamingunits etc.

Wenn man eine ganze Generation aufsteigt

G92 ist ein Refresh mit total beschissener Namensgebung, keine neue Generation.
 
Na, das will ich doch hoffen das die "neue" ATi GPUs mal kommen -.-
Hab mir deswegen auch eine Übergangslösung geholt, die 3870 wird bis dahin "Reichen" ^^
 
Technische Daten über die Radeon HD 4800 gelüftet?

Hallo zusammen


Evileul schrieb:
Hab gerade gelesen das die AMD Radeon HD 4800 im Juni kommt ,wann kommen denn die Nvidia´s und wann werden die jetzigen billiger.

Die GeForce 9600 GT ist nun gelauncht und bereits schon in einzelnen Onlineshops gelistet.

Gemäss neusten Gerüchten wird die GeForce 9800 GX2 auf der CeBIT 2008 im März gar nicht offiziell gezeigt, sondern praktisch lautlos erscheinen oder meiner Meinung nach nur in geringer Stückzahl produziert werden.

Der Termin März / April 2008 für die kommenden NVIDIA-Grafikkarten (9800 GT, 9800 GTS und 9800 GTX) sehe ich als plausibel an...

Die Konkurrenz - ATI/AMD - kommt dann im Juni 2008...

Hoffentlich sind die HD 4870 und HD 4850 viel schneller als die HD 3870 und HD 3850, damit man endlich die GeForce 8800 GT und 8800 GTS 512 von der Bahn schiessen kann (und das auch bei AA + AF).



Hier ist meine Zusammenfassung:




Und hier die Quellen, von denen ich die Informationen habe:

http://www.hartware.de/news_44085.html

http://www.hardware-infos.com/news.php?news=1829


Durch den Einsatz von GDDR5 wird der Preis bestimmt in die Höhe steigen.


Noch was zum Takt beim Grafikkartenspeicher:

GDDR1
- Basiert auf DDR1-SDRAM
- Spannung von 2,5V
- Taktraten von 166-400 MHz
- Read-Latenzen von 3, 4 und 5
- Datendurchsatz max. 25,6 GB/s bei 256-Bit
- Mit einem 2-fach Prefetch

GDDR2
- Basiert auf DDR1-SDRAM
- VDD/VDDQ-Spannungen von 2,5/1,8 V
- Taktraten von 400-500 MHz
- Read-Latenzen von 5, 6 und 7
- Datendurchsatz max. 32,0 GB/s bei 256-Bit
- Mit einem 2-fach Prefetch

GDDR3
- Basiert auf DDR2-SDRAM
- Spannung von 1,8 V
- Taktraten von 500-1080 MHz
- Read-Latenzen von 5, 6, 7, 8 und 9
- Datendurchsatz max. 67,5 GB/s bei 256-Bit
- Mit einem 4-fach Prefetch

GDDR4
- Basiert auf DDR2-SDRAM (jedoch mit Überarbeitungen speziell im I/O-Bereich)
- Spannung von 1,8 V
- Taktraten von bis zu 1450 MHz
- Read-Latenzen von 5, 6, 7, 8 und 9
- Datendurchsatz max. 92,8 GB/s bei 256-Bit
- Mit einem 4-fach Prefetch

GDDR5
- Basiert auf DDRx-SDRAM (jedoch mit Überarbeitungen speziell im I/O-Bereich)
- Spannung von 1,5 V
- Taktraten von bis zu 2500 MHz
- Read-Latenzen von 5, 6, 7, 8 und 9
- Datendurchsatz max. 160 GB/s bei 256-Bit und einem Takt von 2.5 GHz
- Mit einem 8-fach Prefetch



Dies sind zwar noch nicht offiziell bestätigte Informationen, aber das sieht doch schon recht gut aus... :D


Gruss

Matthias
 
Sieht gut aus, ich hoffe nur das die 256bit Speicheranbindung nicht zu sehr limitiert.
 
Ball_Lightning schrieb:
Sieht gut aus, ich hoffe nur das die 256bit Speicheranbindung nicht zu sehr limitiert.

Eine Speicherianbindung kann nie limitieren, das was limitieren kann ist die Speicherbandbreite, also die Geschwindigkeit mit der die GPU Daten aus dem VRAM lesen kann. Und diese Speicherbandbreite setzt sich aus dem SI und dem verwendeten Speicher zusammen. Ein 256-bit SI mit 2GHz VRAM hat die gleiche Speicherbandbreite wie ein 512-bit SI mit 1GHz schnelllem VRAM.

Viele Leute sehen das Speicherinterface (SI) und wollen daraus auf irgendetwas schließen, was aber nicht möglich ist. Und da der RV770XT 2,2GHz (4,4GHz DDR) schnellen GDDR5-VRAM verwenden soll reicht das 256-bit SI völlig aus. Mit über 140GB/s (HD3870: 72GB/s) wird diese Karte neue Rekorde aufstellen.

Ein angeblicher GT200 von nVidia hätte mit einem 512-bit SI und 1GHz (2GHz DDR) GDDR3 eine geringere Speicherbandbreite.
 
Zuletzt bearbeitet:
kellerma schrieb:
Der Termin März / April 2008 für die kommenden NVIDIA-Grafikkarten (9800 GT, 9800 GTS und 9800 GTX) sehe ich als plausibel an...


wo hast du das her ?

ich finde nirgends etwas das auf einen release vor ende q2 für die neuen NV hindeuted...
 
Bin gerade erst auf die Infos gestoßen. Sehr schön, wenn das alles stimmt. Ich hoffe, dass die 4650 noch ohne zusätzlichen Stromanschluss auskommt, aber TDP hat ja nix zu sagen. ;)

Dass die 4670 knapp die Rechenleistung der 3870 in GigaFLOPS haben soll, ist auch sehr sehr geil. Aber war ja klar, dass man zulegen musste, nachdem Nvidia die 9600 so wie sie ist, gebracht hat.

Hoffentlich bekommt es AMD hin, die Karten im Leerlauf (in Verbindung mit IGP) auch irgendwann ganz abzuschalten.
 
Vollständiges Abschalten der GPU(s) ist meiner Meinung nach ein wenig zu problematisch. Bei nvidia's Hybrid SLI klappt das nicht so einwandfrei und oft ist man zum Neustarten gezwungen. Da gefällt mir das Stromsparen mit dem zukünftigen PowerPlay+ features doch viel besser 10-20 Watt im Idle - dafür keine Probs und keine lästigen Neustarts.
 
Gerüchte über Gerüchte - was stimmt aber?

Realsmasher schrieb:
wo hast du das her ?

ich finde nirgends etwas das auf einen release vor ende q2 für die neuen NV hindeuted...

Ich habe mich auf diese Quelle bezogen:

http://www.pcgameshardware.de/aid,6...oadmap_9800_GX2_9800_GTX_9800_GT_und_9600_GT/


Die Gerüchte um die GeForce-9-Serie von NVIDIA nehmen nicht ab:


Nvidia GF 9800 GX2: 13% mehr Spiele-Fps als GF8800 Ultra?
http://www.pcgameshardware.de/aid,6..._als_GF8800_Ultra_Neue_Benchmarks_und_Bilder/


NVIDIA GeForce 9600GT 512MB G94 Tested
http://www.tweaktown.com/articles/1293/print/index.html


Spezifikationen der GeForce 9800 GTX durchgesickert?
http://www.pcgameshardware.de/aid,631912/News/Spezifikationen_der_Geforce_9800_GTX_durchgesickert/


GeForce 9800 GX2: Neue Fotos aufgetaucht
http://www.pcgameshardware.de/aid,629910/News/Geforce_9800_GX2_Neue_Fotos_aufgetaucht/


Nvidia: Namenschaos bei GeForce-9-Reihe?
http://www.pcgameshardware.de/aid,628084/News/Nvidia_Namenschaos_bei_Geforce-9-Reihe/


Gerücht: Neue Details zur GeForce 9800 GTX aufgetaucht
http://www.pcgameshardware.de/aid,6...eue_Details_zur_Geforce_9800_GTX_aufgetaucht/

Wobei ich bei den NVIDIA-Grafikchips für die kommende GeForce-9-Serie auch nicht mehr ganz durchblicke: G92 für 9800 GX2, G100 für 9800 GTX, 9800 GTS (wird wohl nicht kommen) und der GT200 (ehemaliger G200?) ist der für die Zukunft-Generation von NVIDIA?


Auch zu ATI/AMD's kommender Radeon HD 4000-Serie ranken sich etliche Gerüchte:


AMD: Mit dem RV740 gegen Geforce 9600 GT?
http://www.pcgameshardware.de/aid,632214/News/AMD_Mit_dem_RV740_gegen_Geforce_9600_GT/

AMD: RV770 angeblich bis zu 50 Prozent schneller als RV670
http://www.pcgameshardware.de/aid,6...eblich_bis_zu_50_Prozent_schneller_als_RV670/


Exklusiv: Radeon HD 4000 Infos
http://www.hartware.de/news_44085.html


AMD Radeon-HD-4000-Details gelüftet
http://www.hardware-infos.com/news.php?news=1829

Einerseits wurde Mal eine News verbreitet, dass die neuen Radeon-Grafikkarten nicht mehr HD 4000 sondern einfach Radeon 4000 heissen würden. andererseits wird diese Info anscheinend schon wieder dementiert.


Ich hoffe Mal, dass sich die meisten dieser Informationen als richtig erweisen werden... :rolleyes:


Gruss

Matthias
 
die infos von pcgames sind schonmal quatsch, nvidia hat längst bestätigt das die neue Generation zumindest anfangs noch auf den 65nm prozess setzen wird.

bedenkt man das würde die spekulative Karte dort unter 100% last um die 450W verbrauchen -> totaler nonsense.

aber selbst bei 55nm würde sie nicht unter 300W verbrauch liegen.
 
wie krass gddr5 Ram mit 4,4GHz ..
einfach nur irre
Die 4850 Speichertakt 3,6GHz wird mir!^^
 
Zurück
Oben