News Neue Gerüchte zu ATis R600-Chip

B@dehose schrieb:
Tja leider laufen im zusammenhang mit den UnifiedShader die Architekturen immer weiter auseinander. Wie oben richtig genannt hat der G80 32+32 TMUS, letztere dienen nicht zum Adressieren sondern nur zum Berechnen, es sind also quasi Dual TMUs, die nur anspringen wenn zwei oder mehr TMU Durchläufe nötig sind.

Und was niemand bedenkt, 64 4D Shader würden doch den Rahmen des Chips sprengen, wie groß soll der denn noch werden? nVidia ist mit dem G80 eigentlich schon zu weit gegangen.....

und ATi muss trotzdem ein gutes Early Z implementieren, sonst sind auch 100GB/S an Bandbreite schnell vergriffen, wenn unötige Pixel berechneet werden, die später garnicht sichbtar sind.

64 4D sind weniger als 128 1D Shader. Man muss ja für jeden Shader eigens Leitungen und Caches hinzuaddieren.

Early Z ist natürlich immer wichtig, wobei es nur zum Vorgänger geringfügig verbessert werden sollte.

Jo, also 512Bit und 12 Layer PCB ist Schwachsinn. Entweder ein 20 Layer PCB mit 512Bit, dafür aber die Hälfte der Vrams hinten. Ein 24 Layer PCB schließe ich jetzt mal wegen der Kosten aus. Ich denke das wir entweder 64 Vec4 Shader (2+2 & 3+1) oder 96 Vec3 Shader (2+1 & 3+0) sehen werden. Wobei die 96 Vec3 plausibler klingen. Dazu erwarte ich sicher 1,2-1,4GHz GDDR4. Ich denke auch daß wir 16 ROPs sehen werden, 12 sind mir einfach zu wenig^^

96 passt auch besser zum Shader-TMU-Verhältnis.
Der R580 hatte 3,5 Shader-TMU-Verhältnis. Der R500 hatte ein 3:1 Verhältnis.
Aus dem Verhältnis werden aus meinem Quellen nun 4:1. D.h. 64 ALUs sind zu wenig, wenn man das Verhältnis einberechnet. Das wären nur 16 TMUs. Bei 96 sinds schon 24!
Bei R580 gab es genaus soviele ROPs wie TMUs.
Beim R500 nur die Hälfte. (Deswegen hatte er nur 8, dafür Fullspeed ROPs)

Nun welches Verhältnis nun gewählt wird, da bin ich mir nicht sicher.
Man muss auch bedenken, das immer das passenste genommen wird.
Außerdem macht es keinen wirklichen Unterschied ob es 64 Vec4 oder 96 Vec3 ALUs sind.
Die Shaderleistung ist fast identisch, wobei 96 sehr viel leichter auszulasten sind.

mfg Nakai
 
Eine separate CrossFire-Edition wird es vom R600 wohl nicht mehr geben. Denn genau wie der RV570, der auf der Radeon X1900 GT eingesetzt wird, wird eine solche Grafikkarte einen Dual-Bridge-Anschluss haben und so ein CrossFire-System zwischen zwei handelsüblichen Karten erlauben.
Sitzt diese Dual-Bridge nicht nur auf der X1950Pro?

Wenn sich das bewahrheiten sollte, klingt es sehr lecker. Auch wenn die Karte astronomisch teuer sein wird, wird sie ihre Käufer finden. Den Freaks die immer das schnellste brauchen würden auch einen sehr hohen Preis bezahlen. Für den Umsatz sind die High-End Karten eh unwichtig.

Aber wie so oft bleibt erstmal nur abwarten und Tee trinken:D
 
gerüchte besagen das es auf allen karten so kommen soll
wär ja auch schwachsinn diese verbesserung wieder zuverwerfen
die entwicklung war sicher nicht kostenlos
 
@Ism!r!b3l

Die News ist schon alt. Und es werden immer frühe Samples an bestimmte Unternehmen/Tester geschickt. ;)
 
Das ist ja mal ein riesen Die.

Ober der wohl die Milliarde Transistoren knackt??



Peace
 
ne die milliarde glaub ich nicht
ist immerhin kleiner als der die vom g80, aber schon in 80nm

vll so 800mio
 
Hallo, ich freue mich tadellos über diese Meldung! Denn einst ist sicher, falls der R600 den G80 in die schranken weist(was ich hoffe), können wir uns über eine noch Leistungsstärkere Singlekarte von Nvidia freuen.
Wettbewerb belebt halt nicht nur den Markt sondern auch den Geist :)

Gruss Selflex
 
Selflex schrieb:
Hallo, ich freue mich tadellos über diese Meldung! Denn einst ist sicher, falls der R600 den G80 in die schranken weist(was ich hoffe), können wir uns über eine noch Leistungsstärkere Singlekarte von Nvidia freuen.
Wettbewerb belebt halt nicht nur den Markt sondern auch den Geist :)

Gruss Selflex

Aber nicht mehr in 90Nm, der G80 ist schon lange an seinen Grenzen. Wenn dann erst in 65 oder erst 80Nm.

mfg Nakai
 
Was schätzt ihr, wird die Karte kosten?
Wenn die wirklich einen leisen Lüfter haben sollte, würd ich mir die kaufen, wenn sie nicht die 400-450 Euro übersteigt.
 
Ich denke, das kommt auf den Preis des G80 an und wie gross der evtl. Performancevorsprung im Vergleich zur 8800GTX sein wird. Rechne zum Launch lieber mal mit min. 550€.

mFg tAk
 
Ich denke das ATI mit dem ''R600-Chip'' gegenüber der GeForce 8800 Reihe einen deutlichen Vorsprung gewinnen wird. Auf die Umsetzung von DirectX10 bin ich aber mal gespannt!!
 
gibts eigentlich schon bilder o.ä. wo man sehen kann wie die grafik unter Dx10 aussehen wird? oder wird das wenigstens irgendwo erklärt? die techdemos zum G80 sind ja trotz ihrer perfektheit noch immer in Dx9. oder hat Dx10 garkeinen einfluss auf das Aussehen der grafik, sprich neue Grafikfeatures?

gut, crisis soll ja mit Dx10 laufen aber sind die tollen effekte nicht auch schon mit Dx9 möglich? wo liegt denn der unterschied?
 
Zuletzt bearbeitet:
Tom-Deagle schrieb:
Ich denke das ATI mit dem ''R600-Chip'' gegenüber der GeForce 8800 Reihe einen deutlichen Vorsprung gewinnen wird.

Möchte ja auch sein, immerhin kommt er ja auch deutlich später und muss sich dann schon fast wieder dem G80-Refresh stellen.;)
 
donphilipe83 schrieb:
gut, crisis soll ja mit Dx10 laufen aber sind die tollen effekte nicht auch schon mit Dx9 möglich? wo liegt denn der unterschied?
in der geschwindigkeit
manche effekte sind unter dx9 zu langsam, bzw. waren die grafikkarten einfach zu langsam

d3d10 ermöglicht nun mehr effekte oder aufwändigere efekte zu nutzen
afaik wären die mit dx9 schon theoretisch möglich
 
Sprich sind aktuelle DX9 Effekte unter DX10 effizienter darzustellen?

mFg tAk
 
Genau so ist es. Aber auch komplexere Effekte sind dann, wie oben schon erwähnt, möglich, die sich mal mehr und mal weniger von Effekten in DX9-Spielen unterscheiden. Es ist also weder falsch, noch richtig, zu sagen, dass DX10 (D3D10) neue Effekte bietet.
 
Zurück
Oben