News Weitere Details zur R600-Familie bekannt

w0mbat schrieb:
64vec5 Shader @ 750MHz

Willst du uns hiermit mitteilen, dass ATI nicht auf eine komplette Unified-Shader-Architektur setzt, sondern "nur" einen Unified Shader Core zur Unterstützung von DX10 hat. Nur das letztere ist ja Voraussetzung für DirectX10. Oder hast du einfach keine Ahnung was du da redest? Den auf dem R580 als auch auf dem G71 sind Vektorprozessoren (4D) (vec4 nicht vec5!)

Nakai schrieb:
Der Stromverbrauch beträgt niemals 240 Watt geschweige denn 200 Watt!!!:)
Du bist ja lustig. ....niemals 240 Watt geschweige denn 200 Watt, sondern 250 Watt oder wie? Willst du uns das mitteilen, oder kannst du einfach keine Sätze mit "geschweige denn" bilden? Das weniger wahrscheinliche kommt immer nach dem "geschweige denn". Wenn also 200 Watt weniger wahrscheinlich sind, wird es eher mehr als weniger....

@Pierre
Stimme dir voll und ganz zu :)
 
Zuletzt bearbeitet:
zu florian
der war in seiner euphorie wohl ein wenig verpeilt und meinte die XTX - die wird natürlich etwas teurer.
aber die XT für 400€ ist schon interessant - wird bestimmt relativ schnell auf unter 350€ gehen.
wobei mir das für ne Graka eigentlich noch immer zu viel ist - kaufe eigentlich immer so im 250€ Segment, aber das teil würde meinem Sys beine machen :D
 
und wann kommt die strom flat von ati und nvidia?????????????????????????????????????????????
 
Spekmodus an:

das wär ja mal nicht unwahrscheinlich, dass ATI/AMD ihre sprösslinge nicht aus einem guß US gießt.
Falls dies der Fall sein sollte, kann man verstehen weshalb die Karte bei einem Takt vom über 800 MHz gerade mal so schnell wie eine GTX ist :)

Spekmodus aus:


Mfg Selflex
 
xp_home schrieb:
Willst du uns hiermit mitteilen, dass ATI nicht auf eine komplette Unified-Shader-Architektur setzt, sondern "nur" einen Unified Shader Core zur Unterstützung von DX10 hat. Nur das letztere ist ja Voraussetzung für DirectX10. Oder hast du einfach keine Ahnung was du da redest? Den auf dem R580 als auch auf dem G71 sind Vektorprozessoren (4D) (vec4 nicht vec5!)


Der R600 hat 64 5D-Unifiedshader-Einheiten. Achja ein Unifiedshader ist nichts anderes als ein Normaler Shader der eben auf DX10 angepasst ist, er hat also Zugriffe auf Vertex-, Geo- und Texturdaten. Ebenso gibt es mehr Konstanten und größere Register.
w0mbat hätte eher 5D-Shader schreiben sollen, den Vec5 kann ich mir nur schwer vorstellen.

Jedenfalls ist w0mbats Post richtig gewesen bis auf:
128vec1 Shader @ 1350MHz

Entweder man schreibt 128 skalare Einheiten oder 16 entkoppelte Vec8-Einheiten.

Zum Rest: Ich hab kein Wort verstanden, was du überhaupt gemeint hast.

dass ATI nicht auf eine komplette Unified-Shader-Architektur setzt

Was verstehst du unter komplett?!

Den auf dem R580 als auch auf dem G71 sind Vektorprozessoren (4D) (vec4 nicht vec5!)

Ja beides ist 4D, jedoch komplett anders umgesetzt. Jeder Shader des R580 besteht aus einer Vec3+ADD3-ALU und einer Skalar+ADD1-ALU.
Der G70 hat 2 Shader. Eine Vec4 vor der TMU und eine Vec4 nach der TMU.

Willst du uns das mitteilen, oder kannst du einfach keine Sätze mit "geschweige denn" bilden?

Willst du mir mitteilen das du keinen Anstand hast? Wie frustriert muss man sein um so ein Klugscheißer zu sein. Jedenfalls hast du was wirklich Geniales und Sinnvolles beigetragen...wunderbar.^^:lol:

mfg Nakai
 
@ Selflex
Na-ja, wenn man die Vektorprozessoren vollständig auslastet sind diese sogar effizienter, da sie eben gleich 4 Ergebnisse liefern. Das Problem ist halt immer, dass man sie kaum vollständig auslasten kann...

Nakai schrieb:
Was verstehst du unter komplett?!i
Habe doch ein Link gegeben. Zu faul zum klicken und lesen?

Nakai schrieb:
Willst du mir mitteilen das du keinen Anstand hast? Wie frustriert muss man sein um so ein Klugscheißer zu sein. Jedenfalls hast du was wirklich Geniales und Sinnvolles beigetragen...wunderbar.^^:lol:
Nein, ich wollte dir mitteilen, dass dein Beitrag nicht wirklich "genial" und "sinnvoll" war, da der Beitrag weder eine Begründung noch ein Beweis enthält und zudem auch noch genau so lächerlich formuliert ist, so dass man allein schon aufgrund der Formulierung nicht sinnvoll darauf eingehen kann.
 
Zuletzt bearbeitet:
xp_home schrieb:
Habe doch ein Link gegeben. Zu faul zum klicken und lesen?

Ich kenn den Artikel, nur das er dem Thema DX10 nicht so gerecht wird.
Eine skalare Einheit ist nur eine skalare Einheit, ein Vektorprozessor ist nichts anderes als ein Zusammenschluß von skalaren Einheiten, dadurch geht aber die Flexibiltät drauf.
Dennoch hat der G80 keine 128 skalaren Einheiten, er hat 8 TCPs, in jedem TCP sind 2 Shaderblöcke von Vec8-Einheiten drin. Die Dinger sind zwar voneinander entkoppelt aber nicht soweit, dass sie wirklich unabhängig voneinader arbeiten können. Es sind 16(8x2) MIMD Units mit je einer SIMD-Einheit die Vec8 ist.

https://pics.computerbase.de/1/5/8/8/6/32-1080.472203153.jpg

Das Bild zeigt es sehr schön.

mfg Nakai

€:
Nein, ich wollte dir mitteilen, dass dein Beitrag nicht wirklich "genial" und "sinnvoll" war, da der Beitrag weder eine Begründung noch ein Beweis enthält und zudem auch noch genau so lächerlich formuliert ist, so dass man allein schon aufgrund der Formulierung nicht sinnvoll darauf eingehen kann.

Okay dann nochmal: Der R600 kann durch die beiden 6 PIN-Stecker und durch den PCIE-PORT nicht mehr als 225 Watt verbrauchen. Jedoch kann keine Leitung praktisch komplett ausgelastet werden. Selbst der G80 hat 2 Stromstecker.
Eine TDP-Angabe kann nie voll und ganz genommen werden, es ist der maximale theoretische Wert, was meist weit von der Realität weg ist.
Der G80 hat eine TDP von 187 Watt und verbraucht nur 145 Watt unter praktischen Bedingungen. Die TDP-Angaben die früher gemeldet wurden, also 200 Watt und 240 Watt sind nicht möglich!
Deswegen gehe ich von etwa 170 Watt aus.
 
Zuletzt bearbeitet:
Nakai schrieb:
Okay dann nochmal: Der R600 kann durch die beiden 6 PIN-Stecker und durch den PCIE-PORT nicht mehr als 225 Watt verbrauchen. Jedoch kann keine Leitung praktisch komplett ausgelastet werden. Selbst der G80 hat 2 Stromstecker.
Eine TDP-Angabe kann nie voll und ganz genommen werden, es ist der maximale theoretische Wert, was meist weit von der Realität weg ist.
Der G80 hat eine TDP von 187 Watt und verbraucht nur 145 Watt unter praktischen Bedingungen. Die TDP-Angaben die früher gemeldet wurden, also 200 Watt und 240 Watt sind nicht möglich!
Deswegen gehe ich von etwa 170 Watt aus.

Mh, ich dachte die PCIe Schnittstelle liefert 75Watt + 75Watt beim 6Pin + 150Watt beim 8Pin = 300 Watt ?

Mfg Selflex
 
Zuletzt bearbeitet:
Hmm, vielleicht hab ich ja was an den Augen, aber ich sehe auf diesen schönen Bildern (der OEM-Karte, ja ich weiß) einen PCI-Express-Anschluss, der 75 Watt leisten könnte.

Dazu gesellen sich ein 6-Pin-Anschluss für zusätzliche 75 Watt (oder?) und einen 8-Pin-Anschluss, bei dem ich nicht genau weiß, wieviel Watt da durchfließen. Wenn ich rechne, komm ich auf 75/3*4=100 Watt - nur ob diese Rechnung richtig ist, weiß ich nicht. (vgl. Bild der Stromanschlüsse)

Das würde nach meiner Rechnung 250 Watt ausmachen - genug Platz also, um bei einer Verlustleistung von 2xx Watt nicht alle Bahnen 100% zu belasten.
 
hallo zusammen ...

ich oute mich gleich zu beginn als noob, damit nicht gleich das geflenne losgeht*grinst

also ... ich dachte das high end karten eben vor allem für hardcoregamer interessant sind.
warum regen sich denn hier einige über den stromverbrauch auf, wenn es zum einen noch
nirgens wirkliche zahlen gibt, welchen man glauben kann. und zum anderen ... interessiert
es den echten gamer, ob nun die graka viel verbraucht, oder der prozzi. ich mein, wenn das
gesamte system nun heutzutage doch weniger verbraucht(kann sein, das ich mich irre) dann
ist es doch nicht wirklich wichtig, wieviel die graka verbraucht, wenn der gesamte verbrauch
zum schluss, also das komplette system weniger verbraucht, als das alte.... oder irre ich mich
da... ?

wegen der leistung, ich weiss auch nicht, doch wenn ich ati wär, würde ich gerade weil ich
die nvidia natürlich beobachte ... ein minimum gleichwertiges produkt anbieten, was sie
zu guter letzt auch tun werden, darin bin ich mir sicher. (nur menschen irren, ich bin ein
mensch, darum sei mir verziehen*g)

auch wegen der grösse ... ich mein ... klar muss man beim gehäuse aufpassen, doch da
ist wieder der käufer gefragt, machts einen sinn, oder nicht. dazu muss ich auch wieder
sagen, sorry, einen gamer interessiert das nur beim kauf ... der wird sich schon das richtige
gehäuse dazu kaufen, oder bezahlt lehrgeld. auch kennen wir doch die vergleiche von
wegen grösse aus anderen gebieten, ist es doch auch der mann, welcher die 14cm vor
einer frau für satte 22 cm ausgiebt *grinst ...

eines muss ich dennoch loswerden, ich finde es nicht gerade passend, wenn gewisse
herren hier über anderes als über das thema schreiben, das empfinde ich als unanständig.
dafür gibt es andere möglichkeiten, sich auszutauschen. denn über federbeine und
solches zeugs, will keiner was lesen, wenn er den artikel zur neuen graka lesen möcht
und die posts, welche ihrer meinung darüber kundtun. ist nur meine meinung .....

greez
 
Pierre schrieb:
Dazu gesellen sich ein 6-Pin-Anschluss für zusätzliche 75 Watt (oder?) und einen 8-Pin-Anschluss, bei dem ich nicht genau weiß, wieviel Watt da durchfließen.

ein 8-Pin kann eine Karte mit max. zusätzlichen 150W versorgen.
dann wären das
6-Pin= 75
8-Pin= 150
PCIe= 75
mit max 300W könnte die Karte versorgt werden. Ab PCIe 2.0 sind 8-Pin versorgung Standard. Das Topmodell von Intels neuem Bearlake Chipsatz wird erstmals mit einem PCIe 2.0 Slot ausgestattet sein - entsprechende Grakas sind aber noch nicht angekündigt.

An alle Stromsparer (was auch durchaus nachvollziehbar ist) - kauft euch Energiespar Glühbirnen und stattet damit jede Lampe in eurer Wohnung/Haus/Villa? aus - damit lässt sich um einiges mehr einsparen als wenn die Graka bei einer kleinen Zock-Session ein paar W mehr zieht, wenn schon dann richtig konsequent sein ;)
 
Zuletzt bearbeitet:
Selflex schrieb:
Mh, ich dachte die PCIe Schnittstelle liefert 75Watt + 75Watt beim 4Pin + 150Watt beim 6Pin = 300 Watt ?

Mfg Selflex

aber ATi will den R600 auch PCIe kompartibel machen und den 8prin stecker kompartibel mit einem 75W-6PIN

also 75W slot + 75W 6PIN + 75W 8PIN (da kompartibel mit 75W 6PIN) =225W
 
PCIE liefert 75 Watt, der 6 Pin auch 75 Watt und der 8 Pin 100 Watt. (Er muss auch kompatibel zum 6 Pin sein)
Und ich bleibe dabei, eine Leitung komplett auszulasten wäre sehr schlecht, zum einen bringt das MB nicht immer 75 Watt an den PCIE-PORT und ein NT schafft auch nicht immer die volle Leistung an einen Anschluß.

Eigentlich ist es ganz einfach: 2 Pins liefern 25 Watt, 4 Pin 50 Watt, 6Pin dann 75 Watt und 8 Pin bis zu 100 Watt.

mfg Nakai
 
Volker schrieb:
Während die einen felsenfest darauf bestehen, dass ATi erst einmal mit dem älteren 80-nm-Herstellungsprozess beginnt und später auf 65 nm umsteigt, was prompt einen neuen Grafikchip „R650“ zu Tage bringen soll, bestehen andere Gerüchte darauf, dass vom ersten Moment an alles im kleineren Format produziert wird. Die daraus folgenden Verlustleistungseinsparungen sollen bei bis zu 100 Watt liegen, was doch ziemlich unglaubwürdig erscheint.[/url]
Anderes Zitat:
"Die Firma versucht das 65-nm-Teil so schnell wie möglich auf die Reihe zu bekommen, da es Stromeinsparungen im Bereich von 60 - 100 Watt bringen kann, abhängig vom jeweiligen Endprodukt."

Das klingt ja jetzt schon bei 240 Watt TDP sehr optimistisch. Bei 225 Watt würde dies noch unglaubwürdiger klingen. Ich werde mich jetzt aber nicht an der "Pin-Abzähl-Spekulation" beteiligen :)
 
Zuletzt bearbeitet:
@Nakai

in einem Artikel der aktuellen PCGH über PCIe 2.0 steht das ein 8-Pin Stecker bis zu 150W übertragen kann
 
Mir ist so ziemlich egal ob die Graka 240 Watt verbraucht, wenn ich dann dafür super spielen kann bin ich schon zufrieden!! So anbei, ich kaufe lieber eine neue teure gute Graka anstatt eine PS3 oder Xbox!!
 
raceface schrieb:
@Nakai

in einem Artikel der aktuellen PCGH über PCIe 2.0 steht das ein 8-Pin Stecker bis zu 150W übertragen kann

Kann ich dir nicht sagen, jedoch kann man einen 6 Pin Stecker in den 8 Pin Anschluß stecken.
Also kann man im Standartbetrieb davon ausgehen, dass es 2 6 PinStecker sind.

mfg Nakai
 
Zurück
Oben