DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX500)

AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Neo_Xsendra schrieb:
Also erstmal: ich hab von der materie um zu wissen was die umstellung von 5d auf 4d shader mit sich bringt.

Aber so einfach wie du es dir immer einredest, isses dann auch wieder nicht. Da gehört noch ne Menge mehr dazu als mit irgendwelchen Prozenten bezüglich der Ausalstung um sich zu werfen.

Neo_Xsendra schrieb:
ne im ernst, in dem zusammenhang gabs höchstens zu raten um wie viel % amd die shaderzahl erhöht und was sie sinst noch verändern. ;)

Es gab zu raten? Oder wissen wir schon definitiv was? Ich habe glaube ich was verpasst. :o

Was wir nur wissen ist, das es mehr werden, aber wieviel wissen wir noch nicht?

Schaffe89 schrieb:
Du weißt schon, dass es 320 5D Shader sind *5 gerechnet?

Sorry mein Fehler! Bin selber schon ganz durcheinander ;)

Ums nochmal mit Zahlen auszudrücken:

Angenommen ein 5D-Shader hat Platzbedarf A. Und weiter angenommen ein 4D-Shader hat Platzbedarf 0,95xA. Dann hätten 1600 Cypress Shader(-cores) bzw. 320 5D-Shader eine Die-Size von 320A, während 1600 Cayman-Shader (bzw. 400 4D-Shader) dann einen Platzbedarf von 380A hätten, also etwa knapp 20% mehr. (1600/4*0,95)

Das aber bei deutlich höherer Performance, da ja EIN 4D-Shader in etwa die Performance EINES 5D-Shaders aufweist und Cayman in diesem Fall 25% mehr Shadercores aufweist.

Bei einem kleineren "Schrumpfungsfaktor" (oben 0,95) wie etwa 0,8 hätte man theoretisch sogar den gleichen Platzbedarf wie vorher Cypress, bei immer noch 25% mehr Performance.

Wobei man die 25% auch erstmal "auf den Teppich" bringen muss, hier wirkt sich das 4D-Design vermutlich positiv aus. Vermutlich braucht man aber auch noch weitere interne Verbesserungen, um hier deutlich zuzulegen, wie etwa größere L1 Caches oder geringere Latenzen.

Neo? Irgendwelche Anmerkungen?

Neo_Xsendra schrieb:
Ein 4D Shader ist kleiner als ein 5D Shader.
Ein 4D Shader besteht aus 4 linear geschalteten shadern
Ein 5D Shader besteht aus 4,5 linear geschalteten Shadern. 4,5 deshalb, weil der 5. Shader kein vollwertiger Shader war.

Laut Charlie warens vorher 1 komplexer und 4 einfache Shader ("they have gone from a 4 simple + 1 complex arrangement ") gegen demnächst 4 Shader, die irgendwo dazwischen liegen ("to a 4 medium complexity arrangement. ")

Tkohr schrieb:
Hmm,also irgendwie leuchtet mir die Ati Shader funktion nicht ein,warum machen die das nicht wie bei Nvidia,eine Shader einheit kann alle berechnungen machen.Ist doch im endeffekt effizienter,als wenn ich für jede berrechnung einen speziellen shader brauche.

Das kommt halt schwer auf die Software drauf an. Es gab bei den Reviews zu RV770 damals Benches, wo eine 4850 mit der GTX280 fast gleichgezogen hat.

genauso isses andersrum, da kackt ne 5870 manchmal total gegen ne eigentlich deutlich schlechtere NVIDIA ab. So gesehen erhält man bei NVIDIA prinzipiell eher gleich gute (oder schlechte) fps, als bei AMD. Dort schwankt es je nach Software öfter mal zwischen "läuft super auch mit schwachen Karten" und "läuft kagge auch mit Highend-Karten".

Ist halt ne Philosophie. Während man sich bei NVIDIA nur damit rumschlagen muss, die (mathematischen) Funktionen optimal auf die Shader zu verteilen, muss man sich bei AMD auch damit rumschlagen, diese optimal innerhalb der Shader zu verteilen.

AMDs Weg *kann* halt deutlich schneller sein, muss aber nicht. Bietet ja auch noch andere Vorteile wie geringe Die-Size. Wobei das auch nur daran liegen kann, das mans bei NVIDIA nicht gebacken bekommt.

Tkohr schrieb:
Was die Gerüchte zur leistung der 6xxx serie angeht,ich glaube Nvidia kann da locker mithalten.Die GF104 ist ja noch jung,und hatt seine leistung mit derr überragenden 460gtx schon unter beweiss gestellt.

Naja, überragend ist die 460 mit Sicherheit nicht. Mit der Die-Size größer als von Cypress (336mm² zu 334mm²) erreicht man dessen Performance nämlich nicht. Genauso wie eine etwas höhere Leistungsaufnahme benötigt wird, um irgendwo zwischen 5830 und 5850 zu landen. Aber gute Preise machen das etwas wett.

Neo_Xsendra schrieb:
was denkst du warum ich immer sag, dass 2d die aktuell effektivste lösung wäre?

Naja, das muss aber schon rein von der Rechenleistung nicht der Fall sein, denn die 2D-Shader können genau auch nur 50% ausgelastet sein.

Zudem scheint es allem in allem betrachtet eben nicht am effizientesten zu sein, sonst wäre man nicht von 3fach skalar (bei der X1900 glaub ich wars) auf 5fach skalar gewechselt und nun "nur" auf 4D zurück.

Neo_Xsendra schrieb:
320 5D Shader bekommst (1600 Einheiten)
...
und nurnoch
460 2D Shader (920 Einheiten)
(grob überschlagen)

Das berechnest du wie oder welches Eichhörnchen hat dir das geflüstert? Könnte ja sein, das AMD auch 1000 1D Shader auf die gleiche Fläche bekommt. Wobei wieder die Frage wäre, mit welchen Taktraten usw.

Neo_Xsendra schrieb:
Es ist einfach eine Frage des abwägens und der machbarkeit (auch marketingtechnisch) auf welche variante man setzt. hat auch was mit technikphilosofie zu tun. und welches ziel man anstrebt.

Exakt.


Neo_Xsendra schrieb:
Aber diese variante eines 5d shaders war meiner meinung nach schon immer bulls**t. und was ne überraschung amd rüstet atis vorstoß zurück.

Naja, ist nur deine Meinung. Von mir aus könnte man auch 100D-Shader anbieten, wenn sich diese effektiv nutzen lassen.

Alles ne Frage der richtigen Software.

Zudem ist das sehr einsichtig (nicht im Sinne von Einsehen)

Da spielen jede Menge Faktoren rein, die im Zusammenspiel etwas extrem effektives ergeben können. Da kann man nicht sagen Punkt A oder B für sich isoliert bewirken dies oder jenes.


x-polo schrieb:
Wenn die 5D Shaderarchitektur bei der HD5xxx wenig bis garnix gebracht hat dann wäre die
HD6770 vermutlich sogar etwas schneller.
HD 6770 mit 80 TMUS und ~1200 Mhz Speichertakt + samt neuer Tesselationseinheit
HD5850 72 TMUs und 1000 Mhz

Das ist (wie bei Neo-Xendra) etwas kurz gesprungen. Da kommen ja immerhin noch der Chiptakt, Speicheranbindung und halt die Anzahl der Shader dazu, im mindesten. Wie gesagt da gibts noch jede Menge anderen Kram, aber da sollte man wohl lieber zu den Fachleuten bei B3D schauen, da wird einem ja schwummrig....

:)
 
Zuletzt bearbeitet:
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Es war ja schon vorher angekündigt das cayman 1x6+1x8 pin braucht oder brauchen wird.

das deutet auf einen wesentlich höhren stromverbrauch hin und auch auf eine höhere hitzeentwicklung.
 
Zuletzt bearbeitet:
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

yo evtl wird die schon etwas wärmer als die 5870....das erklärt auch der lustige Kühler der das PCB der 1.karte kühlt.
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

und weiter gehts ! ^^

caymanxta.jpg


ist anscheinend Cayman XT, und das 8+6 Pin könnte sich bewahrheiten, ich hoffe aber das AMD am
unteren ende dieser zwischen den theoretischen 225-300 Watt liegt oder gar darunter und es
nur eine art vorsichtsmaßnahme für reserven ist
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Die ersten ES der HD5870 hatten auch 8+6-Pin *Schulter zuck*

Die Stromstecker sind schon lange mehr kein Indikator.
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

y33H@ schrieb:
Die ersten ES der HD5870 hatten auch 8+6-Pin *Schulter zuck*

Die Stromstecker sind schon lange mehr kein Indikator.

ich hoffe es auch inständig weil das meine neue karte werden wird, definitiv ;)
auch hoffe ich dass das PCB nicht rot sonder schwarz wird, aber das nur nebensache

meine GTX480 is schon wieder verkauft, wegen möglichen wertverfalls, sitze
nun die knapp 2 monate mit meiner alten HD3870 ab ;)
 
Zuletzt bearbeitet:
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Rotes PCB gab's jahrelang ;-)
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

y33H@ schrieb:
Die ersten ES der HD5870 hatten auch 8+6-Pin *Schulter zuck*

Die Stromstecker sind schon lange mehr kein Indikator.
Ich sehe es auch als positiv an.
Denn selber übertakte ich nicht, aber ich glaube, dass sich viele Übertakter über eine HD6870 mit einem Referenzverbrauch für 2X6-Pin und verbaut mit 8+6-Pin freuen ;)
Wäre aber auch nicht schlecht, wenn das Teil aber trotzdem mit 2 6Pin funzt^^
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Letzteres sicher nicht, die 2x Masse sind seit Jahren "gesenst". Ohne startet's nicht.
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

y33H@ schrieb:
Letzteres sicher nicht, die 2x Masse sind seit Jahren "gesenst". Ohne startet's nicht.

Könnte da nen "Fake"-Adapter 8 auf 6 Pin helfen?
Obwohl wäre wohl schlecht für die Leute die keine Ahnung aber trotzdem übertakten.
Sind aber auch dann irgendwie selber Schuld^^

Wahrscheinlich wäre es einfach die Beste Lösung nen richtigen Adapter mit beizulegen^^
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

ich liebe die Zeit kurz vor neuen Grafikkarten-Generationen xD

Hoffe das ich/wir nicht von AMD entäuscht werden...
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

@ JokerGermany

Nun, ein "echter" 6-Pin hat 2x 12V und 3x Masse und liefert theoretisch 75W. Ein "echter" 8-Pin hat 3x 12V und 5x Masse und liefert laut Theorie 150W. Ein "falscher" 6-Pin ist einfach nur ein um 2x Masse verringerter 8-Pin, bietet ergo ebenfalls 150W und nicht 75W wie ein "echter" 6-Pin. Die meisten halbwegs aktuellen PSUs haben 6-Pins mit 3x 12V oder 6+2-Pins mit 3x 12V. Schau mal nach.
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

KAOZNAKE schrieb:
Aber so einfach wie du es dir immer einredest, isses dann auch wieder nicht. Da gehört noch ne Menge mehr dazu als mit irgendwelchen Prozenten bezüglich der Ausalstung um sich zu werfen.

Ich hab lediglich keine lust auf technische details einzugehen. also verallgemeiner ich und geb grobwerte an.

KAOZNAKE schrieb:
Es gab zu raten? Oder wissen wir schon definitiv was? Ich habe glaube ich was verpasst. :o

Was wir nur wissen ist, das es mehr werden, aber wieviel wissen wir noch nicht?

Bezog sich nur auf meine aussage, und deine reaktion darauf. darum vergangenheitsform. allgemein GIBT es natürlich noch jede menge sachen wo man raten kann ^^
wollte nur sagen, das es in der aussage (auf die es sich ursprünglich bezog) nicht viel zum raten gab


KAOZNAKE schrieb:
Ums nochmal mit Zahlen auszudrücken:

Angenommen ein 5D-Shader hat Platzbedarf A. Und weiter angenommen ein 4D-Shader hat Platzbedarf 0,95xA. Dann hätten 1600 Cypress Shader(-cores) bzw. 320 5D-Shader eine Die-Size von 320A, während 1600 Cayman-Shader (bzw. 400 4D-Shader) dann einen Platzbedarf von 380A hätten, also etwa knapp 20% mehr. (1600/4*0,95)

Das aber bei deutlich höherer Performance, da ja EIN 4D-Shader in etwa die Performance EINES 5D-Shaders aufweist und Cayman in diesem Fall 25% mehr Shadercores aufweist.

Bei einem kleineren "Schrumpfungsfaktor" (oben 0,95) wie etwa 0,8 hätte man theoretisch sogar den gleichen Platzbedarf wie vorher Cypress, bei immer noch 25% mehr Performance.

Wobei man die 25% auch erstmal "auf den Teppich" bringen muss, hier wirkt sich das 4D-Design vermutlich positiv aus. Vermutlich braucht man aber auch noch weitere interne Verbesserungen, um hier deutlich zuzulegen, wie etwa größere L1 Caches oder geringere Latenzen.

Neo? Irgendwelche Anmerkungen?

tja~ das ist halt die vermutung um wie viel kleiner so ein 4D shader im vergleich zu einem 5D wirklich sind. da hab ich auch nur schätzwerte. aber die Kante ist schonmal nicht schlecht. meine eigenen vermutungen liegen ja eher bei 12% mehr shadern bei gleicher größe.

btw die aussage mit den cores oben verwirrt mich etwas. wie kommst du auf 25% mehr shader cores? (und vor allem von was auf was gerechnet? von 4D auf 5D?)

KAOZNAKE schrieb:
Laut Charlie warens vorher 1 komplexer und 4 einfache Shader ("they have gone from a 4 simple + 1 complex arrangement ") gegen demnächst 4 Shader, die irgendwo dazwischen liegen ("to a 4 medium complexity arrangement. ")

sollte mich mein gedächtniss so trügen? ... kann durchaus sein XD
aber ich hätte schwören können das es 4vollständige und 1 beschnittener war. andersrum ists ja gleich noch viel schlimmer @.@

KAOZNAKE schrieb:
Ist halt ne Philosophie. Während man sich bei NVIDIA nur damit rumschlagen muss, die (mathematischen) Funktionen optimal auf die Shader zu verteilen, muss man sich bei AMD auch damit rumschlagen, diese optimal innerhalb der Shader zu verteilen.

AMDs Weg *kann* halt deutlich schneller sein, muss aber nicht. Bietet ja auch noch andere Vorteile wie geringe Die-Size. Wobei das auch nur daran liegen kann, das mans bei NVIDIA nicht gebacken bekommt.

exactamente. wobei es bei nv zuletzt eher an der angst vor zu großen veränderungen des chefdesigners lag. aber zum glück haben sie ja nen neuen der sich jetzt mit der fermibasis rumärgern durfte (aber ich finde den gf104 als ersten ableger den er machen durfte, hat er doch gut hinbekommen oder? :) )

KAOZNAKE schrieb:
Naja, das muss aber schon rein von der Rechenleistung nicht der Fall sein, denn die 2D-Shader können genau auch nur 50% ausgelastet sein.

Zudem scheint es allem in allem betrachtet eben nicht am effizientesten zu sein, sonst wäre man nicht von 3fach skalar (bei der X1900 glaub ich wars) auf 5fach skalar gewechselt und nun "nur" auf 4D zurück.

das ist ne sache der verteilungswahrscheinlichkeit. 2D Shader haben eine Theoretische auslastung von 70-80% was aber (bei aktuellen spielen) eher gen 85% geht.

KAOZNAKE schrieb:
Das berechnest du wie oder welches Eichhörnchen hat dir das geflüstert? Könnte ja sein, das AMD auch 1000 1D Shader auf die gleiche Fläche bekommt. Wobei wieder die Frage wäre, mit welchen Taktraten usw.

Das sagt mir das magische Einhörnchen (nicht EICHHÖRNCHEN! FREFLER!!!!!!) Physikus. Du hast abstände die du zwischen shadern einhalten musst, die in solchen clustern (beschreibt die mutlishader architektur ganz gut) geringer sein müssen aufgrund anderer ansprecharten bauweisen ... blablablub. mehr langweilige graue theorie.
das verhindert jedenfalls dass du 1D mit einer packdichte wie 5D herstellst. und es verhindert auch das du 4D mit einer Packdichte vo 5D herstellst. so einfach wie langweilig X3

KAOZNAKE schrieb:
Naja, ist nur deine Meinung. Von mir aus könnte man auch 100D-Shader anbieten, wenn sich diese effektiv nutzen lassen.

Alles ne Frage der richtigen Software.

Zudem ist das sehr einsichtig (nicht im Sinne von Einsehen)

Da spielen jede Menge Faktoren rein, die im Zusammenspiel etwas extrem effektives ergeben können. Da kann man nicht sagen Punkt A oder B für sich isoliert bewirken dies oder jenes.

hätte könnte wäre, kann man aber aktuell nciht. ich bin da recht pragmatisch und betrachte solche dinge immer von der machbarkeits und nutzbar seite welche für 5D einfach nicht gegeben war und ist. *schulterzuck*

KAOZNAKE schrieb:
Das ist (wie bei Neo-Xendra) etwas kurz gesprungen. Da kommen ja immerhin noch der Chiptakt, Speicheranbindung und halt die Anzahl der Shader dazu, im mindesten. Wie gesagt da gibts noch jede Menge anderen Kram, aber da sollte man wohl lieber zu den Fachleuten bei B3D schauen, da wird einem ja schwummrig....

:)

Wüsste ich die finalen exkdaten wär ich sogar AMD aktuell nen schritt vorraus. Das hätte ja mal was ^^

Und die speicheranbindung bleibt ne 256er. der takt solls richten. jtm.

Was Shaderanzahl und takt angeht ... ich erwarte nur eine leichte erhöhung bei beidem (zwischen 5870 und 6870). aber das hab ich ja schonmal gesagt.
 
Zuletzt bearbeitet:
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Neo_Xsendra schrieb:
2D Shader haben eine Theoretische auslastung von 70-80% was aber (bei aktuellen spielen) eher gen 85% geht.
Also ich muss mich wohl doch korrigieren - meine Annahme dass du die Werte nicht ernsthaft als real ansiehst ohne Quellen und Belege war wohl falsch :freak:

Ich "denke" die Auslastung in Spielen liegt eher gen 50% - selbe Quelle wie deine. ;)
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Also ich muss mich wohl doch korrigieren - meine Annahme dass du die Werte nicht ernsthaft als real ansiehst ohne Quellen und Belege war wohl falsch

erm ... nein ich bin mir ziemlich sicher, dass ich das nicht von dir hab :evillol:

wie gesagt. ich hab meine quellen nie angegeben und ich werd es auch nie :D
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Was mich noch eher interessieren würde ist.
Ob die neue HD6000er-Serie auch so leicht zu OCen ist mittels digitalem Spannungsregler aller VT1165, so wie bei der HD5000er ?

Darüber scheint es noch keine Infos zu geben.
Wäre doch wieder genial sich eine HD6850 zu kaufen und sie einfach zur HD6870 zu machen. :D
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Wäre doch wieder genial sich eine HD6850 zu kaufen und sie einfach zur HD6870 zu machen.

AMD würde das sicher auch ganz toll finden. :D
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

y33H@ schrieb:
Ein voller GF104 bei 800 MHz ist grob auf HD5870-Level.

glaub ich nicht. Eine GTX460 1GB bei 900MHz ist leicht hinter der HD5850. Da gibts irgendwo einen Test von einer GTX480 im Vollausbau, bei gleichem Takt ist die nur ein paar Prozent schneller als ne gewöhnliche 480.

wenn überhaupt, ist ein voller GF104 bei 800MHz grob auf HD5750 Niveau. Der GF104 ist gut, aber zaubern kann auch er nicht.
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Eine GTX460 1GB ist bei ca 800mhz bereits auf dem Level einer HD5850q Stock.
Siehe CB Tests.
Meinst du die gammlige 768mb Variante?
 
AW: DX11 Gerüchteküche Teil II (AMD HD6000 und Nvidia GTX400)

Raucherdackel schrieb:
glaub ich nicht. Eine GTX460 1GB bei 900MHz ist leicht hinter der HD5850. Da gibts irgendwo einen Test von einer GTX480 im Vollausbau, bei gleichem Takt ist die nur ein paar Prozent schneller als ne gewöhnliche 480.

wenn überhaupt, ist ein voller GF104 bei 800MHz grob auf HD5750 Niveau. Der GF104 ist gut, aber zaubern kann auch er nicht.

erm. ich hoffe das mit der 5750 warn tippfehler.https://www.computerbase.de/2010-07/test-nvidia-geforce-gtx-460/20/#abschnitt_ratings

die 5750 kann ja nichtmal mit der 460 768 im standart takt mithalten ;D


btw gibts neue gerüchte von großem optimismus. es scheint als ginge die 485 in die letzte runde der überarbeitung. angeblich hat man vollausbau erreicht, den vcore senken können und dabei den takt um etwa 50mhz für alle erhöhen können im letzten durchgang. dabei hätte sie unter last 50 watt weniger verbraucht als eine 480 und dabei je nach anwendung zwischen 10 und 15% an leistung gewonnen. damit würde man nach dem eltzten durchgang die eigenen erwartungen sogar noch übertreffen.
(ich bin ja mal gespannt)
 
Zurück
Oben