News Neue Gerüchte zu ATis R600-Chip

bei solchen aussichten lohnt es sich da noch eine x1950 zu holen ?
 
Seb89 schrieb:
was wird hier für ne kacke gelabert???
...
Also bitte erstmal informieren bevor man so ne scheiße schreibt...

das kompliment gebe ich gerne zurück
ist ja nicht schlimm wenn man mal was falsches schreibt
aber andere in diesem ton zurechzuweisen und selber nicht mal rotgedruckte fette buchstaben erkennen
CB schrieb:
Gemessen wird die Gesamt-Stromaufnahme des Testsystems
ist keine frechheit, das ist asozial

so macht man sich in diesem forum sicher keine freunde
 
sry aber mich kotzt es an wie manche leute neue grafikchips runter machen bevor sie überhaupt draußen sind (dabei sind noch nicht mal infos da....)

das mit dem Stromverbrauch ok war mein fehler... aber dann versteh ich immernoch nicht wieso in den News steht das sie weniger strom fressen soll wie ein g80.... weil dann is ja es ja in der tat so, wie einige geschrieben haben... (stromverbrauch vom r600 wird dann größer sein als der vom g80) naja ok

naja ich finds assozialer nen post zu erstellen und reinzuschreiben "ATI KOMMT BEI MIR SOWIESO NIEE REIN!!" und das ohne ne Begründung... genauso sinnlos find ichs wenn einer sowas mit NVIDIA schreibt... sind beides Super GraKa Hersteller....

also nochmal nen fettes sry das ich meinen letzten post so "assozial" geschrieben hab -.- ich musst aber jetzt auch mal mein senf dazugeben^^
 
Naja ob jetzt ein riesiger Chips bestehend aus einem Core oder 16 Chips auf eine Die macht ja von der Grösse her gesehen wohl keinen grossen Unterschied.

Aber die Idee ist sicherlich kostensparend, wenn man sie so umsetzt.

mFg tAk
 
Also erstmal, was hier einige von sich geben ist, wirklich sehr hart.

Dann zweitens sind die meisten Specs vom Inq wohl sehr falsch.

Der R600 wird ein Zwischending vom R5x0 und vom R500.

Also:
700 - 800Mhz
96 Vec3-ALUs
24 TMUs
Die ROPs sind ein Problem, da es hierzu wenig Infos gibt.
12 Xenos-ROPs, 24 R5x0 Rops oder 16 ROP R5x0.
256Bit SI
1,4 Ghz Gddr4

Ein 512 Bit SI ist von den Layern unmöglich, da man für ein 512 Bit SI ein 20 Layer PCB benötigt, aber auch nur falls die Chips auf beiden Seiten sind.
Falls der R600 etwa so groß wie der G80 ist (Pcb), dann muss er die Speichersteine auf beiden Seiten haben.
ATI müsste komplett neue Spawas nehmen, denn die Stromversorgung bei G80 berbraucht schon 1/3 des PCBs....

mfg Nakai
 
Krass, woher hast du diese Infos?! Ich nehme mal an das sind schon finale Specs oder?
Also das klingt alles schon viel warscheinlicher, denn ich hätte mir das auch nicht so recht vorstellen können wie ATi das hätte mit dem Preis machen sollen, da 512Bit SI, 1GB GDDR4 und ein sehr aufwändiges Kühlkonzept.

Wäre dir dankbar für eine Quelle.
 
Zuletzt bearbeitet:
@Nakai

Aber die Verlässlichkeit deiner Informationen kann man genauso hinterfragen und als falsch darstellen wie die es Inq.
Ich weis nich was immer so problematisch daran ist einfach mal zu warten bis es die Karte irgendwo gibt, oder zumindest offizielle Informationen seitens AMD/ATi draußen sind.
Manchen Leuten machts halt anscheinend einen höllen Spaß einfach mal in der Gegeng herum zu spekulieren.

MfG
Kcop
 
spekulieren ist auch mal ganz schön
nur bitte nicht als tatsachen hinstellen

@tak
joa der g80 ist ja auch schon ein monster
die ausbeute wird da wohl bei kleineren chips besser sein

vll bekommt dann ati von start an ein gutes mainstreamportfolio :stacheln: ;)
 
Leute, Nakai hat gute Quellen. Da müsst ihr einfach vertrauen :) Und mal im Erst, 12 Layer und 512Bit, das ist nicht möglich.
 
Bin gespannt was da auf uns zukommt bin jetzt schon sauer das ich mir einen neuen Tower+Netzteil kaufen kann.
 
@w0mbat

Und woher weisst du dass er gute Quellen haben soll?

Also ich mein, er bis jetzt noch nicht auf meine Bitte reagiert und mal eine Quelle mit rein gesetzt. Das wirkt dann etwas unglaubwürdig.
Aber so von den Daten her könnte es schon hinkommen, was aber nicht heissen muss dass es am Ende auch so kommt.

EDIT:

scottie schrieb:
Wie lautet doch der schöne satz des nvidia-Ober-Chefs: " Ziel ist es nicht, die beste Grafikkarte zu bauen, sondern das Spiel noch einmal zu spielen..."
.....

:watt:

Irgendwie versteh ich den Sinn davon nicht. :freak:
 
Zuletzt bearbeitet:
Moin moin meine Herrn,

wenn man wie ich längere Zeit das Forum nicht mehr verfolgt aber jetzt wieder (hoffentlich) mehr Zeit dafür hat und wieder reinschaut, stellt man doch fest, dass die Qualität der Beiträge in den Grafik-Foren teilweise ziemlich gesunken ist, das muss ich leider mal so sagen.
( Ohne hier irgendwem auf die Füße treten zu wollen, auch unsereins hat mal bei null angefangen und ich wäre der letzte der behauptet, durch die gesamte komplexe Materie völlig durchgestiegen zu sein...)

Eigentlich schade, denn die Macher von CB verdienen mein größtes Lob, solche aktuellen Testberichte und Artikel schreibt man nicht eben mal nach Feierabend.

Leider gibt es keine Möglichkeit in einem öffentlichen Forum die immer gleichen Meinungen nach dem Motto " Hersteller XY ist sowieso besser..." und " Karten von XY würde ich ja nie kaufen..." rauszuhalten, aber es nervt einfach.

Wer (wie ich) die ganze Thematik seit nunmehr 6 Jahren verfolgt und wie ich glaube auch viele von euch in den letzten Jahren Karten beider Hersteller im Rechner hatten kann irgendwann das Schlaumeier-Gelaber nicht mehr hören.

Das wurde zwar schon mehrfach gesagt, aber offensichtlich noch nicht oft genug!

Im Interesse eines gesunden Konkurrenzkampfes kann man sich nur wünschen, dass ati in der nächsten Zeit dem G80 etwas entsprechendes entgegensetzt - und davon ist auszugehen.
Meiner persönlichen Meinung nach hat nvidia mit dem G80 endlich da nachgebessert wo es sich für einen High-End-Chip gehört und wo es eben nun mal bei der 7xxx-Serie vorsichtig gesagt nicht so dolle aussah: Bei der Bildqualität!
Das Mehr an Performance gibt es " sozusagen nebenbei" gratis dazu.

Insofern ist der G80 sicher ein amtliches Stück Hardware, unbestritten, aber das musste auch kommen!!!

Ati ist es nun zu wünschen, dass man sich nicht (wieder) in Fertigungsproblemen verstrickt und die Karten "zu gut" machen will ( siehe Speicherbus etc.) sondern rechtzeitig gegenhält und schlicht und einfach Geld verdient!

Wie lautet doch der schöne satz des nvidia-Ober-Chefs: " Ziel ist es nicht, die beste Grafikkarte zu bauen, sondern das Spiel noch einmal zu spielen..."

Ich hoffe, die Entwickler bei ati handeln dementsprechend.....
 
Zuletzt bearbeitet:
w0mbat schrieb:
Leute, Nakai hat gute Quellen. Da müsst ihr einfach vertrauen :) Und mal im Erst, 12 Layer und 512Bit, das ist nicht möglich.

@w0mbat

Und woher weisst du dass er gute Quellen haben soll?

Also ich mein, er bis jetzt noch nicht auf meine Bitte reagiert und mal eine Quelle mit rein gesetzt. Das wirkt dann etwas unglaubwürdig.
Aber so von den Daten her könnte es schon hinkommen, was aber nicht heissen muss dass es am Ende auch so kommt.

Ich behaupte niemals das diese Specs stimmen.

Quellen kann ich auch nicht wirklich geben. Aber es verdichtet sich zumahl.

http://www.rage3d.com/board/showpost.php?p=1334635538&postcount=187
http://www.techreport.com/etc/2006q4/stream-computing/index.x?pg=1

Das sind zwar nicht meine wirklichen Quellen, obwohl meine noch mehr ins Detail gehen, aber so in etwa kann man von selber drauf kommen...

mfg Nakai

€: Es könnten Xenos USCs sein, aber diese wären zu unflexibel. D.h. es könnten R580-R500-ALUs werden. Also Vec3 mit 2+1 oder 3+0.
Dadurch könnte man sie sehr gut auslasten.
 
Zuletzt bearbeitet:
Oder 2+2 und 3+1 Vec4.
 
w0mbat schrieb:
Oder 2+2 und 3+1 Vec4.

Bei 96 ALUs wäre das zuviel, obwohl die ALUs nicht viel kosten. Der grund warum der G80 auch etwa 681 Transis groß liegt viel eher daran, das 128 einzelne ALUs verwendet wurden, d.h. jede ALU z.B. ist mit einem eigenem Tempregister ausgestattet und das frisst viel weg.

Das Problem beim R600 ist die Füllrate selbst mit 800Mhz Coretakt wird er mit 24 TMUs und 16 bzw. 12 ROPs nicht an den G80 rankommen. Dafür wird er viel Shaderleistung haben.
Die Speicherbandbreite wäre mit etwa 100Gb/s einfach overkill.

Er bräuchte schon 32 TMUs um den G80 in Füllrate zu schlagen.
(Welcher ja 64 TMUs hat, dafür nur 32 die nur gleichzeitig eine Textur addressieren können)


mfg Nakai
 
Jo, also 512Bit und 12 Layer PCB ist Schwachsinn. Entweder ein 20 Layer PCB mit 512Bit, dafür aber die Hälfte der Vrams hinten. Ein 24 Layer PCB schließe ich jetzt mal wegen der Kosten aus. Ich denke das wir entweder 64 Vec4 Shader (2+2 & 3+1) oder 96 Vec3 Shader (2+1 & 3+0) sehen werden. Wobei die 96 Vec3 plausibler klingen. Dazu erwarte ich sicher 1,2-1,4GHz GDDR4. Ich denke auch daß wir 16 ROPs sehen werden, 12 sind mir einfach zu wenig^^

12 Layer PCB mit 256Bit SI (oder vielleicht 384Bit SI?)
1,2-1,4GHz GDDR4
16 ROPs @ 750-850MHz
96 Vec3 (2+1 & 3+0) Shader
 
Tja leider laufen im zusammenhang mit den UnifiedShader die Architekturen immer weiter auseinander. Wie oben richtig genannt hat der G80 32+32 TMUS, letztere dienen nicht zum Adressieren sondern nur zum Berechnen, es sind also quasi Dual TMUs, die nur anspringen wenn zwei oder mehr TMU Durchläufe nötig sind.

Und was niemand bedenkt, 64 4D Shader würden doch den Rahmen des Chips sprengen, wie groß soll der denn noch werden? nVidia ist mit dem G80 eigentlich schon zu weit gegangen.....

und ATi muss trotzdem ein gutes Early Z implementieren, sonst sind auch 100GB/S an Bandbreite schnell vergriffen, wenn unötige Pixel berechneet werden, die später garnicht sichbtar sind.
 
Zuletzt bearbeitet:
@scottie
Du hast mir die Worte aus dem Mund genommen. :)

@Seb89
Bitte lese dir doch mal die Regeln durch bevor du deine ersten Beiträge verfasst.
Du kannst doch nicht so einen Ton anschlagen, und das noch bei den ersten Beiden Posts.

Das Niveau hier wird langsam wirklich unerträglich...

Gruss
S@ncho
 
Zurück
Oben