News Gerüchtestatus zur „Radeon-HD-7000“-Serie

memory_stick schrieb:
Weil niemand XDR2 produziert?
XDR(1) wird produziert von Samsung ausshliesslich für die PS3.
XDR2 jeztz nur wegen einer Highend-Serie von Grafikkarten EINES Herstellers zu fertigen ist unwirtschaftlich und somit seher unwahrschienlich.

Rambus verkauft die XDR-Lizenzen und jeder Partner muss dann selber zusehen wie er die Chips hergestellt bekommt. AMD besitzt die Rambuslizenz für XDR2-RAM und dürfte die Chips somit produzieren und verkaufen. Vor ein paar Tagen kam die News, dass AMD ins RAM-Geschäft einsteigen möchte. Jetzt dürfen Sie kombinieren, Watson....
 
nanoworks schrieb:
Rambus verkauft die XDR-Lizenzen und jeder Partner muss dann selber zusehen wie er die Chips hergestellt bekommt. AMD besitzt die Rambuslizenz für XDR2-RAM und dürfte die Chips somit produzieren und verkaufen. Vor ein paar Tagen kam die News, dass AMD ins RAM-Geschäft einsteigen möchte.

Nochmal: AMD steigt nicht selber ins RAM Geschäft ein, sondern vergibt an zwei Hersteller die Lizenz den AMD Aufkleber draufzupacken. Das wars auch schon.
 
7990 mit 6 GB VRAM, langsam wirds witzlos. :rolleyes:
2 GB sind immernoch absolut ausreichend für die meisten Leute.
 
Wenn XDR2-RAM auch noch so warm wird wie die RD-RAM auf den ersten PIV und dann im Verhältnis zu DDR-RAM immer noch eine deutlich höhere Leistungsaufnahme haben sollte, dann gute Nacht leise und sparsamere Grafikkarten.

Eines ist allerdings gewiss, ganz gleich wie schnell die neuen AMD-Karten werden, diejenigen welche mal wieder Meinung sind, neue Hardware müsse "verschenkt" werden und davon träumen eine 7950 für 250€ oder eine 7970 für 320€ kaufen zu können, werden wie auch bei der Einführung der 69er Serie abermals enttäuscht werden.
 
Ich verstehe nicht, warum sich wieder viele über den/die (voraussichtlichen) Preis/e beschweren. AMD hat nichts zu verschenken und warum sollten die nicht ihre Karten zu einem ordentlichen Preis verkaufen? Wenn die Leistung stimmt (was man erst nach offizielen Tests sehen wird), dann ist es mehr als nur gerechtfertigt die Preise über einer GTX570 oder GTX580 anzusiedeln.

Wenn NV etwas schnelleres bringen wird, was man noch überhaupt nicht sagen kann, dann werden sich die Preise automatisch anpassen.
 
e-Laurin schrieb:
@ViRuZ87
Die Grafikkarten werden nicht nur fürs Spielen sondern auch für GPGPU verwendet. Da darfst dann auch mal etwas mehr RAM sein.

Hoffentlich geht das dann nicht nach hinten los. NVidia hatte mit Fermi genau das gleiche versucht und ist im ersten Anlauf kläglich gescheitert.
 
Für mich heißt es erst noch abwarten und das eine ganze Weile lang.

1) AMD und Nvidia müssen ihre neuen Karten auf den Markt bringen. Erst dann kann man entscheiden welche die Richtige für einen ist. Zudem werden dann vorraussichtlich auch die Preise sinken und erst dann, nicht früher!
2) Werde ich auf gute alternative Kühllösungen warten. Das Referenzdesign kann man meisten vergessen wenn man es kühl und leise haben will.

Das heißt wohl für mich, dass ich bis zum Herbst nächsten Jahres warte bis ich mir was Neues anschaffe. Im Sommer brauche ich nicht unbedingt eine dicke Grafikkarte, da habe ich andere Dinge im Kopf.
 
Zu den Preisen würd ich mir noch keine große Gedanken machen. Das war doch immer gleich bisher. Wer die neue Generation rausbringt der bestimmt den meist hohen Startpreis, und erst wenn der Konkurrekt sich dazusiedelt pendeln sich die Karten ein, je nachdem wie sie zum Konkurrenzpendant abschneiden. Spätestens wenn Nvidia released werden die AMD preise fallen und man wird wohl das übliche Preis/Leistungs Schema vorfinden. Das es nicht in jeder Generation einen Preis/Leistungs Hammer wie zb 3850 oder 4850, oder 8800gt geben kann sollte klar sein.

Abwarten_Und_Tee_Trinken++
 
Bei PCGH gab es mal zwei Gerüchte zu dem Thema, die dieser News widersprechen:
http://www.pcgameshardware.de/aid,854336/AMD-Radeon-7000-Launch-Termine-geleaked-Update-Erste-Preisgeruechte-deuten-auf-teure-Grafikkarten-hin-Geruecht-des-Tages/Grafikkarte/News/

http://www.pcgameshardware.de/aid,856467/Radeon-HD-7000-Spezifikationen-angeblich-geleakt-Topmodelle-mit-Rambus/Grafikkarte/News/

Man wird wohl sehen müssen, was nun der Wahrheit entspricht und was nicht. Es könnten auf jeden Fall sehr interessante GPUs werden und da die GNC-Architektur die nächsten Jahre auch in APUs Einsatz finden wird, hoffe ich, dass sie nicht floppt.

Sollten diese Leaks der Wahrheit entsprechen, würde sich auch der Stromverbrauch auf einem sehr guten Niveau bewegen, siehe 2. Link.
 
Liebes AMD, ich wünsche mir pünktlich zur Januar lieferbar:
- die Performance einer 5870
- max 100W TDP und 1x PCIe-Power 6polig, besser 75W ohne Stromstecker
- mit ner leisen 2 Slot Referenz-Kühlung
- für 120 Euro

Sollte doch machbar sein, oder ?
 
Was beschwert ihr euch über den Preis. Es gibt ja noch die HD 7800-Serie. Und die dürfte ja viel spannender werden. Die kosten naturgemäss viel weniger, verbrauchen sehr wenig und dürften sicher auch schneller sein als die jetzigen HD 6900. :D
Ich glaube kaum, dass die HD 7800 nur 1GB Vram besitzen werden.

Die grösste Enttäuschung bisher ist eben, dass die HD 7800-Serie so spät erscheint. Die HD 7900 wird kaum etwas im Marktgeschehen veränderen (mal abgesehen von den GTX 580/570 und HD 6900; einige darunter dürften EOL werden). Die Preise der anderen Grafikkarten dürften also nicht stark runtergehen und genau der Preisbereich der HD 6800 bzw. der GTX 560er-Serie ist für die meisten Gamer relevant.

Das Gleiche gilt für die HD 7700-Serie. Eine 100-120 Euro Grafikkarte mit der Leistung einer HD 6870 und mit dem Verbrauch einer HD 5770? Wann erscheint diese? :(
 
Zuletzt bearbeitet:
Rambus kommt zu 99,99% nicht. Das hat eine Seite mal als eventuelle Möglichkeit erfunden, 100 plappern es nach. Davon wird es aber nicht echter.

GDDR5 ist zudem doch noch lange nicht am Ende. Eine Aufbohrung des Speicherinterfaces, zudem mehr Takt bringt so viel, da ist der Markt noch lange nicht tot. Zudem ist GDDR5-Speicher krass günstig, es fertigen ein halbes Dutzend Hersteller den - dort hat man ordentliche Volumina mit denen man arbeiten und auch Karten mit 2 bzw. 3 GByte bestücken kann.

Und richtig mehr Leistung holt man ohnehin nicht über das Speicherinterface heraus, sondern über den Chip. Und der soll ja ordentlich umgemodelt werden.
 
Krautmaster schrieb:
bei der HD5870 sind es ja 1600 und wenn diese ausgelastet werden ist sie sogar schneller als eine HD6970
Da hätte ich mal gerne ein paar Benchmarks zu bitte.
 
ViRuZ87 schrieb:
7990 mit 6 GB VRAM, langsam wirds witzlos. :rolleyes:

Musste kurz lachen bei deinem Kommentar. 3+3 ist - wird eigentlich JEDESMAL oft genug geschrieben wenns um Vram/Dual-GPU geht - immernoch 3.
Wie oft wurde schon erklärt, dass bei einer Dual-Karte der Vram nicht verdoppelt wird, sondern jede GPU ihren eigenen hat mit genau den gleichen Daten wie im Vram der anderen GPU?

Nur weil bei der 4870X2 mal irgend so ein Gerücht von gemeinsamen Speicher für beide GPUs die Runde machte, wo man den Speicher wirklich hätte addieren dürfen, heißt das noch lange nicht, dass es auch Realität wurde/wird.

Und ich hab schon öfter gehört, dass 512MB RAM (4870) locker ausreicht, is ja alles übertrieben und dann hab ich selbst sehen dürfen, wie die Karte dann eingebrochen ist. Die 9800GX2 und ihre tollen 512MB war auch so ein Krüppel.

Und bevor der VRam überläuft oder man aufgrund der aktuellen Karten (2GB) auf die neuen schließt, was diese so maximal als Vram bräuchten, darfs auch gern mal mehr sein.

@ y33H@

Ich denke, er meint folgendes: 320 5D-Shader ergeben 1600 Shader, wohingegen die 384 4D-Shader der 6970 nur 1536 Shader ergeben. Jedenfalls laut Datenblatt hat die 5870 auch mehr TFlop/s auf dem Papier. Somit sollte die alte Karte sogar die neue übertrumpfen können bei perfekter Auslastung ohne son Kram wie Spiele-Engine, Tesselation blablub.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Da hätte ich mal gerne ein paar Benchmarks zu bitte.

Die Unterschiede beider Karten im Vergleich sind meist extrem klein

https://www.computerbase.de/2010-12/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_ratings

Der Vorsprung ist sehr gering, dazu kommt, der höhere Chip und Speichertakt der HD6970 und der doppelte Ram.

https://www.computerbase.de/2010-12/test-amd-radeon-hd-6970-und-hd-6950/19/#abschnitt_battleforge

Außerdem lassen sich die 4er Shader (über den Chip gesehen) meist etwas besser auslasten (was ja auch AMDs Grund für den Umstieg war).

BQ lassen wir mal außen vor, die war bei HD5XXX wohl auch einen Tick besser was der 6XXX noch ein paar % schenken dürfte.

Schaut man sich aber Fälle an in denen alle Shader arbeiten so kommt die HD5870 besser weg... siehe zB. reine Rohleistung.

https://en.bitcoin.it/wiki/Mining_hardware_comparison

leider fehlt die HD5870 ja nahezu in jedem neueren Test hier auf CB. Dennoch steht die Karte heute noch 1a da - auch die HD5850 die Anfang des Jahres mit 1GB DDR5 115€ gekostet hat ^^

Zudem ist die HD5870 oft sogar besser OC bar und machte unter Wasser oft ihre 1100 Mhz weg.

Meiner Ansicht nach hat sich der Umstieg auf die 4er Shader der 69XX Serie bisher kaum gelohnt. Vor allem aber wohl bei kleinen Karten mit wenigen Shaderclustern, bei vielen Shadern wie HD5870 sind die 5D Cluster wird das "5" relativ klein im Verhältnis zur Gesamtshaderzahl weshalb das Auslastungsproblem wohl eher bei kleinen Karten problematisch sein wird.

Ich für mich hätte eher damit gerechnet, dass man mit Zunahme der Shaderzahl/Clusterzahl von der 5D Architektur profitiert.

Der Vergleich der Transitorenzahl mal erzänzend:

HD5870 vs. HD6970
ca. 2,15 Mrd.vs ca. 2,64 Mrd.
334mm² vs 389mm³

Sparsamer wird die HD6970 eigentlich nur durch geringere Spannung da ausgereifterer Prozess.
Effizient sind beide Architekturen.


Aber das is OT ;)

Die neuen Shader können ganz anders ausfallen.

Edit:

Effizient sind beide Architekturen. VLIW4 und VLIW5 - mich beschleicht nur immer die Angst, dass AMD (typisch) mim Kopf durch die Wand will und VLIW4/5 nun übern Haufen wirft oder ablöst und damit ein träges Transitormonster wie Bulldozer schafft wo man doch so eine perfekt effiziente Architektur besitzt die locker 3200 Shader verkraften sollte auf 28nm. Mit 30% mehr Dampf gebe ich mich bei 28nm und HD7XXX definitiv nicht zufrieden. Bei der HD4XXX auf HD5XXX, dem letzten Shrink konnte man VLIW5 nahezu 1 zu 1 skalieren und hatte massive Mehrleistung (doppelte Rohleistung +).
 
Zuletzt bearbeitet:
Kreisverkehr schrieb:
Wie oft wurde schon erklärt, dass bei einer Dual-Karte der Vram nicht verdoppelt wird, sondern jede GPU ihren eigenen hat mit genau den gleichen Daten wie im Vram der anderen GPU?

Nur weil es oft Leute nachplappern wird es nicht richtiger, siehe PhysX (unterschiedliche Vram Belegung)!

Man könnte es im Bezug auf AMD und MGPU verallgemeinern im Bereich gaming, das wars dann aber auch ;)
 
Wird denn PhysX denn auf beiden Karten berechnet? (Link wär toll).
Ohne diese Spielerei rechnet jede Karte abwechselnd an einem Bildchen, was nichts daran ändert, dass die eine Karte nicht auf die Daten im Speicher der anderen zugreifen kann.
=> Jede Karte muss ihre Daten somit separat im Speicher halten.
Eben genau deswegen kann man nicht einfach hergehen und den verbauten Vram als verfügbaren Vram deklarieren.
 
Die Mainkarte die sich mit der Grafikausgabe beschäftigt, hat logischerweise andere Daten im Speicher als die PHysX Karte, welche sich logischerweise mit ganz anderen Sachen beschäftigt. Ganz leicht schon an der stark differierenden Belegungsmenge zu erkennen.

Dafür braucht es kein Studium...
 
Tapion3388 schrieb:
Überflüssiges Zitat entfernt *klick*

Hoffen wir das dies Stimmt, das würde AMD zu ein neuen Glanz in der Grafikartensegment verhelfen.

Und die XDR2 würden sich gut machen bestimmt bei einer HD7970 :)
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben