News Erste technische Spezifikationen zum RV870?

Ich frag mich immer wieder wieso leute hier vonner völlig neuen architektur reden, es ist ziemlich unwahrscheinlich, dass es ne neue architektur wird. Die neue architektur wird sicher für dx11 entwickelt.
Es wäre doch dumm eine neue architektur zu bauen um sie dann innem halben jahr wieder völlig umzukrempeln.
 
ATI wird es irgendwann schon noch schaffen die multi GPU probleme zu handlen :) sollte der RV870 nicht eine neue Architektur bekommen?

So wie ich das lese mit "20%" leistungssteigerung sieht mir das eher aus wie ein aufgebohrter RV770!
Wenn man bedenkt das die steigerung von der HD3850->HD4850 ca. 50% leistungsteigerung beträgt!

Könnte mich da mal jemand aufklären?
 
Die DIE wird ja regelrecht geschrumpft. Wonderbra ...

Bedeutet für den Kunden, geringere Abwärme, bessere Chipausbeute und würde sich MultiGPU-Design durchsetzen so könnte man Unter-,Mittel- und Oberklasse anahnd der Chipanzahl einstufen (Einsteiger 1Core, Mittel-Klasse 2-3 und ober Klasse 4). So könnte man mit einen Chip jeden bereich abdecken und Sparrt wiederum kosten für die anderen Design-Fertigungen ... wie gesagt wenn Sie es wirklich hinbekommen, das das System nicht mehr dass es mehrere GPUs besitzt und sich das ganze wie ne Single-GPU-Lösung verhält um die Typischen Multi-GPU Problemen zu umgehen.

"Nur" 256Bit Speicher-Interface. Ich denke dass sich schon etwas dabei gedacht hatt. Der 512Bit ausflug bei NVidiaresultiert nur in Kompliziertere und teurere Chips, da muss man halt Abwägen was billiger kommt. KLeineres IF und hoch getakteter RAM oder umgekehrt. Die ATIler werden shcon wissen was Sie tun, auch wenn ich des ned immer gedacht habe
 
digitalangel18 schrieb:
Nur an den Treibern für SLI und CF hapert es ja immernoch....ich verstehe ehrlich gesagt auch nicht was daran so kompliziert ist, bei 3DFX hat das doch auch geklappt...vlt. kann mich ja jemand aufklären.
Ohne jetzt in die Details zu gehen, kann ich dir die Frage schon Mal beantworten.
3Dfx hatte ganz andere Zeiten. Da gab es keine Fullscreeneffekte oder Shader. Diese neuen Effekte sind es die eine 3Dfx Effizienz verhindern.

Lösungen gibt es sicherlich. Aber es ist halt nicht so relativ einfach wie zu 3Dfx Zeiten.

BTW.: Lang lebe meine Vodoo 4 4500. :D
 
Jaja die bösen Gerüchte na da binn ich mal gespannt was wirklich stimmt dann, aber auf die Karte warte ich nimmer des dauert noch eindeutig zu lange.
 
Dann lass ich meine 8800 GT weiter ihre Arbeit verrichten... und bin gespannt was Ati wieder für einen Bomben-Chip produziert. Wobei ich solchen News nicht viel glauben schenken mag, ich will Tatsachen ;)

Bin mal gespannt wie nVidia kontern wird... so wie die unter Druck stehen momentan.

MfG porsche944
 
http://en.hardspell.com/doc/showcont.asp?news_id=3768 schrieb:
It is also said that AMD next generation R800 will use new design. We know Radeon HD3870X2 and the coming Radeon HD4870X2 both used single PCB+dual graphic core design while R800 will possible use real dual core design. If so, AMD next generation flagship R800 will be the first dual core GPU. The specs of R800 will double RV870.
Quelle

Heißt dass jetzt, dass der R800 wieder 2x RV870 oder eine GPU mit 2 Kernen wird ?
Die wiedersprechen sich doch in einem Abschnitt selbst:
Erst heißt es:
http://en.hardspell.com/doc/showcont.asp?news_id=3768 schrieb:
R800 will possible use real dual core design
Also ist der R800 eine 2-Kerne-GPU (=1 Dual-CORE-GPU)
http://en.hardspell.com/doc/showcont.asp?news_id=3768 schrieb:
The specs of R800 will double RV870.
Hier heißt es, dass der R800 nur Dual-GPU (= 2 normale RV870 GPUs auf einer Karte) sein soll.

Entweder ich hab da was falsch aufgeschnappt, oder die widersprechen sich in einem Abschnitt total. Falls 2tens der Fall ist, kann man sich über die Glaubhaftigkeit der Quelle sich ein Urteil bilden ;)

Klärt mich bitte auf ;)

Edit: es sieht wohl so aus:
dass es einfach zwei GPUs werden (also auf die Karte einfach zwei RV870 draufgelötet werden), die sich wie eine Dual-Core-GPU verhalten soll. Also KEINE ECHTE Dual-Core-GPU, sondern zwei GPUs mit verbesserter Abstimmung.
Also alles wie bisher, nur dass die Abstimmung verfeinert wird.
Dieses Gerücht hatten wir schon einmal beim R700. Und was ist draus geworden ? In Luft aufgelöst !!

Gerüchtekücke, viel Spaß beim Kochen ;)
Ich für meinen Teil halte es für ein Fake, genau so wie die Gerüchte um die 4870x2 (R700), die sich in Luft aufgelöst haben.
 
Zuletzt bearbeitet:
es wird eine gpu aus 2 rv870 kernen, die sich aber wiene richtige dual-core gpu verhalten soll.Damit ist wohl gemeint,dass die alten nachteile shared memory etc damit wegfallen könnten
 
Du widersprichst dir selbst auch ;)
Du schreibst:
Eine GPU mit 2 Kernen, die sich wie eine 2-Kern-GPU verhält :freak:
Genauer aufpassen, was du schreibst :freak:

Du meinst wohl eher, dass es einfach zwei GPUs werden (also auf die Karte einfach zwei RV870 draufgelötet werden), die sich wie eine Dual-Core-GPU verhalten soll. Also KEINE ECHTE Dual-Core-GPU, sondern zwei GPUs mit verbesserter Abstimmung.
Also alles wie bisher, nur dass die Abstimmung verfeinert wird.
Dieses Gerücht hatten wir schon einmal beim R700. Und was ist draus geworden ? In Luft aufgelöst !!

Gerüchtekücke, viel Spaß beim Kochen ;)
Ich für meinen Teil halte es für ein Fake, genau so wie die Gerüchte um die 4870x2 (R700), die sich in Luft aufgelöst haben.
 
Zuletzt bearbeitet:
Wie stehts den nun mit der Architektur? Is es eine neue oder nicht?
 
Wenn man von einer hundertprozentigen Skalierung mit dem 40nm Prozess ausgeht würde der aktuelle RV770 Kern von 260mm² auf ~137,5mm² schrumpfen - und es ist eher davon auszugehen, dass selbst der RV770 ohne Änderungen in 40nm größer wäre. Das ATI auf den 2,5mm² Differenz zur angegebenen Größe von 140mm² noch 20% mehr Shader sowie weitere Optimierungen unterbringen soll ist schwer vorzustellen. Dann noch zu sagen, dass der Chip genau um diese 20% schneller sein soll klingt verdächtig. Zwar wird das durch den höheren Takt erklärt (zugegeben: die zusätzlichen shader werden nicht zu 100% in Mehrleistung umgesetzt) dennoch hat es für mich den Anschein als hätten Hardspell bzw. deren Quelle einfach mit nem Taschenrechner rumgespielt ohne richtig nachzudenken um uns die Daten des RV880 aus der Glaskugel zu lesen.
 
3Dfx hatte ganz andere Zeiten. Da gab es keine Fullscreeneffekte oder Shader. Diese neuen Effekte sind es die eine 3Dfx Effizienz verhindern.

Lösungen gibt es sicherlich. Aber es ist halt nicht so relativ einfach wie zu 3Dfx Zeiten.


so ungefähr kann man das sagen.

allerdings verhindern die shadereffekte eine hohe effizienz nicht nur, sondern schaffen auch die grundlage dafür.

Denn die mehreren hundert shader die bisher in einem chip arbeiten tun dies auch schon komplett parallel.
So könnte man beispielsweise einen "hauptchip" als scheduler verwenden und den rest von einzelnen verteilten Chips(shader-cluster) berechnen lassen.


Das Ganze zieht aber ein Konzept hinter sich her welches erst entwickelt werden will (für jede Generation neu !) und warum sollten ati/nvidia das tun wenn vielleicht 0,1% der verkauften Karten in die Kategorie > 500$ fallen ?
 
GDC schrieb:
Ich wundere mich immer wieder, dass weder nVidia noch ATi auf die Idee gekommen sind, statt SLI bzw. Crossfire auf Multicore-Lösungen zu setzen. Vielleicht stelle ich mir das als Laie auch sehr vereinfacht vor, aber statt zwei oder mehr Slots mit PCIe-Karten zu belegen, warum nicht gleich einen DualCore bzw. QuadCore GPU auf eine Karte packen?

michi12 schrieb:
Du widersprichst dir selbst auch ;)
Du schreibst:
Eine GPU mit 2 Kernen, die sich wie eine 2-Kern-GPU verhält :freak:
Genauer aufpassen, was du schreibst :freak:

Du meinst wohl eher, dass es einfach zwei GPUs werden (also auf die Karte einfach zwei RV870 draufgelötet werden), die sich wie eine Dual-Core-GPU verhalten soll. Also KEINE ECHTE Dual-Core-GPU, sondern zwei GPUs mit verbesserter Abstimmung.
Also alles wie bisher, nur dass die Abstimmung verfeinert wird.
Dieses Gerücht hatten wir schon einmal beim R700. Und was ist draus geworden ? In Luft aufgelöst !!

Gerüchtekücke, viel Spaß beim Kochen ;)

ähh ja,genau^^
beim r700 gibts schon verbesserungen. Es ist zwar noch herkömmliches Cf aber nen paar verbesserungne in der abstimmung solls ja geben,wieviel das nun ist mal gucken.
Aber r700 wurde auch eher schnell zusammengeschustert, in r800 soll um einiges mehr entwicklungsarbeit geflossen sein.


deathhour schrieb:
Wie stehts den nun mit der Architektur? Is es eine neue oder nicht?

Weiß noch niemand,genauso wie niemand weiß wie weit die daten von der wahrheit entfernt sind;)
Aber die meisten gehen wohl von alter architektur aus, weil es einfach am logischsten ist.
 
MWR87 schrieb:
"Nur" 256Bit Speicher-Interface. Ich denke dass sich schon etwas dabei gedacht hatt. Der 512Bit ausflug bei NVidiaresultiert nur in Kompliziertere und teurere Chips, da muss man halt Abwägen was billiger kommt. KLeineres IF und hoch getakteter RAM oder umgekehrt. Die ATIler werden shcon wissen was Sie tun, auch wenn ich des ned immer gedacht habe

In dem Fall ging es auch um den anzuwendenden Speicher. GDDR5 ist neu und man sah an der HD4870, die Verfügbarkeit war zu Beginn sehr eingeschränkt. Denke nicht, das die Massenproduktion auch Nvidia hätte beliefern können.

michi12 schrieb:
Quelle
Heißt dass jetzt, dass der R800 wieder 2x RV870 oder eine GPU mit 2 Kernen wird ?
Die wiedersprechen sich doch in einem Abschnitt selbst:
Erst heißt es:
[...]
Also ist der R800 eine 2-Kerne-GPU (=1 Dual-CORE-GPU)
[...]
Hier heißt es, dass der R800 nur Dual-GPU (= 2 normale RV870 GPUs auf einer Karte) sein soll.
Entweder ich hab da was falsch aufgeschnappt, oder die widersprechen sich in einem Abschnitt total. Falls 2tens der Fall ist, kann man sich über die Glaubhaftigkeit der Quelle sich ein Urteil bilden ;)

Klärt mich bitte auf ;)

Es heißt beim ersten "possible", also möglicherweise. Dezeit geht man aber von einem Multi-Chip-Design aus.

Was ich allein aus der Sicht eines einfacheren PCBs und einfacherer Kühlung bevorzugen würde.

Das PCB wäre zwar länger, aber einige Layer kann man sich dann sparen. Un wenn die Chips untereinander Kommunizieren können wie ein DualCore, dann kann man das auch aufspalten in zwei Chips ohne sie in ein Gehäuse zu stecken, was nunmal bei Dualcore CPUs notwendig ist, da es meistens nur einen Sockel gibt. Das andere findet man eher in Servern.

Die Kühlung könnte man aufteilen und müsste nicht an einem Fleck ihren Dienst verrichten. So wäre zwischen naheliegenden PCIe Slots noch Raum, damit die Rückseite mehr Frischluft abkriegen kann. Vielleicht könnte man auch ein System für 9,2/12 cm Fans entwickeln. Womit selbst bei High-End silent wirklich möglich wird. So ein ähnliches System was Dell einmal angewendet hat. Kunststoffkanäle zu den Hitzequellen.

Noch genial wäre eine Möglichkeit, das System generell mit zusätzlichen 1/4" Gewinden für Wasserkühlung auszustatten.

Wenn man bei einem Produkt schon teures Material sparen kann, sollte man solche Features jedenfalls mitliefern.
 
Mal sehen, was für ein Netzteil für die RV870 benötigt wird. Ich hoffe Sie kann die GTX 280 schlagen?
Ich werde aber auf die HD 5870 X2 warten, mit 2 GB GDDR5 :jumpin::jumpin:
 
Jungens R800 und RV870 sind 2 verschiedene Karten.

R800X2 2x2Core-GPU bestehend aus 2 RV870 GPU´s mit je 2 Kernen.
RV870 1x2Core-GPU bestehen aus einer RV870 GPU mit 2 Kernen.

Nicht ander bei der R7xx reihe dort ist es ähnlich .

R700X2 ergibt 2xRV770 GPU´s auf dem PCB
RV770 ist eine GPU auf einem PCB.

So schwer ist das doch garnicht zu verstehen was dort steht, ein wenig Englisch müßt ihr schon noch können.
 
Junge, dass ist mal falsch ;)
R800 = 2 GPUs (2xRV870), die sich angeblich wie eine Dual-Core-GPU verhalten sollen dank besserer Abstimmung
RV870 = einfach ein GPU

Nix mit ECHTEN Dual-Core-GPUs (siehe meine 2 Posts oben) ;)

Also wird Dual-Core-GPU wohl noch ein Traum bleiben->Schade. Wieso stellen die nicht auf mehrere Cores um, wie bei den CPUs schon längst geschehen ? Ich weiß, GPU und CPU sind nicht zu vergleichen, aber dass müsste doch möglich sein, Intel´s Larabee soll ja schon mit 16 Cores an den Start gehen.

Wird bald zeit, dass Nvidia und ATI mal in diese Richtung entwickeln, und Multi-CORE-GPU anstatt Multi-GPU Karten rausbringen, wie es bei den CPUs schon längst der Fall ist.
 
Zuletzt bearbeitet:
Und wieder Falsch von dir schau mal in die Roadmap von AMD ;).
Das was du meinst hat der R700 aka HD4870X2 die R8XX wird eine DCGPU glaub es mir oder auch nicht.
DualCore GPU´s stehen schon Fest fürs 1.Q2009 und QuadCore GPU´s ebenso fürs 4.Q2009.

Ich werde damit wieder genauso Recht haben wie bei der HD2900er,HD38XX und HD48XXer Reihe.
 
Quelle ?

Die Quelle, über die diese News hier handelt, geht nämlich NICHT von DCGPU aus, sondern von Dual-GPU, die sich dank besserer Abstimmung wie DCGPU verhalten soll. Also keine ECHTE DCGPU.

Siehe mein Post am ende.
 
Zuletzt bearbeitet:
Michi ich glaub da gibt es zuviel Probleme, nicht nur die kommunikation unter einer Hülle, sondern auch die Anbindung und vor allem die Wärmeentwicklung bei einem DuoGPU. Ich denke mal zwei einzelne sind da einfacher zu kühlen, also im vergleich zu einem Multi. Problematsich ist die Kühlung bei den GPUs im Vergleich zu CPUs trotzdem.
Und der letzte Punkt, das kostet ne Menge Ressourcen, die ATI nicht hat und NV will sich da nicht die mühe machen. Die werden anscheind immer nur zu ihre X2 version genötigt, so kommts mir vor. Um den Platz an der Sonne zu behalten. der GT280X2 wird bestimmt auch kommen, wenn ATI weiter Druck macht.
 
Zurück
Oben