ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

dir ist aber schon klar, dass der gf100 in 40nm gefertigt wird und der g92b in 55nm, oder? ;)
kleinere fertigung kann mit weniger volt betrieben werden, was zu geringerer hitzeentwicklung führt. somit ist, wie du schon richtig schreibst, eine vergleichbarkeit nicht gegeben.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wie bereits gesagt, sind 1.7GHz Hot-Clock Best-Case-Szenario. Ail weiss von 725MHz für einen Full-GF100 und 750MHz für 1/2-GF100. Er weiss jedoch nicht, ob es sich darum um GPC-Clock oder Core-Clock handelt. Wäre(!) es letzteres, würde der Hot-Clock bei 1.7GHz liegen... Ich persönlich tendiere zum GPC-Clock - 1.7GHz wären zu schön um wahr zu sein.

Die Aussage von Nvidia, dass die theoretische Textur-Filter-Leistung unterhalb von GT200 liegt, lässt auf einen Hot-Clock von unter 1505MHz (Crossover freq für selbe Filterleistung von GT200 und GF100). Die 725MHz GPC-Clock von Ail für GF100 passen hier sehr gut...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Also mir würde ja schon ein einziger Link hier reichen der 1,7 GHz Hot-Clock erwähnt hatte - bisher ist der Thread hier die einzige Quelle die mir untergekommen ist - meiner Meinung nach ist das frei erfunden um wieder ein bisschen Gesprächsthema zu generieren.
Willkommen Guerillas.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Herr Guerilla
Die 1.7GHz werden von Ailuros (3DC) angesprochen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Na dann gib doch mal den Link hier an wo darüber gesprochen wird - machen doch andere auch wenn sie was finden, oder?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Verstehe den Blödsinn auch nicht, wenn ich was behaupte und mir das jemand nicht glaubt versuche ich das doch anhand einer Quelle zu belegen. Also verlinke ich das in meinem Beirag, das solltest du vielleicht noch lernen AwesomeSauce, sowas gehört zu einem guten Boardie dazu.

Mit Faulheit hat das nichts zu tun.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich habe vor zig Seiten bereits gesagt, die Aussage stammt von Ailuros aus dem 3DCenter-Forum. Wie schwer kann es sein, kurz ins Spekulations-Forum zu klicken und dort den GF100-Thread zu finden (1.Stelle im Forum)... Eigeninitiative bitte! Als guter Boardie kennt man Ailuros!
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
http://www.heise.de/newsticker/meld...ader-Kerne-und-64-Textureinheiten-906002.html
Vielmehr sollen wohl die TMUs nicht nur bei halber Hotclock takten.

Dies scheint für einen Chip, mit dem Nvidia die Leistungskrone beanspruchen will, zu wenig, besaß doch bereits der GT200b einer GeForce GTX 285 gleich 80 TMUs. Der Knackpunkt scheint hierbei jedoch die Taktfrequenz zu sein. Liefen die 80 TMUs einer GeForce GTX 285 mit nur 648 MHz („Graphics Clock“, wie auch die Rasterendstufen/ROPs), will Nvidia die Textureinheiten beim GF100 mit einer deutlich höheren Taktfrequenz ansteuern. Unbestätigten Gerüchten zufolge sollen die Textureinheiten gar so flott wie die Shader-Rechenkerne laufen („Hotclock“), was ihre geringe Anzahl mehr als kompensieren würde. Diese Taktfrequenz betrug beim GT200b 1476 MHz (GeForce GTX 285), beim GF100 dürfte sie sich ebenfalls in ähnlichen Regionen bewegen.

Ich wiess nicht wie relevant das ist, ich hab keinen Überblick hier, der zitierte Text von heise online ist in der aktuellen c't jedoch ein wenig anders geschrieben;

Dies scheint für einen Chip, mit dem Nvidia die Leistungskrone beanspruchen will, auf den ersten Blick zu wenig, besaß doch bereits der GT200b einer GeForce GTX 285 gleich 80 TMUs. Neben dem größeren L2-Cache spielt jedoch auch die Taktfrequenz eine Rolle. Liefen die 80 TMUs einer GeForce GTX 285 mit nur 648 MHz („Graphics Clock“, wie auch die Rasterendstufen/ROPs), will Nvidia die Textureinheiten beim GF100 mit einer deutlich höheren Taktfrequenz schneller ansteuern.,nämlich mit der Hälfte der Taktfrequenz der Shader-Rechenkerne.Diese Taktfrequenz Shader-Kernfrequenz (Hotlog) betrug beim GT200b 1476 MHz (GeForce GTX 285), beim GF100 dürfte sie sich ebenfalls in ähnlichen Regionen bewegen. Insgesammt soll die Leistung der GF100-Textureinheiten bis zu 60% höher sein als die der 80 GT200-TMUs.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@y33h@
Stalker CS scheint zumindest im ClearSky-Lager einen ziemlich höheren Poly-Count zu haben als CoP. Anbei ein Screenshot mit 2.6 Mio Tris/frame (keine Mods!) Hatte mich also doch nicht getäuscht;)

@Complication
TechReport hat mit Nvidia gesprochen und erfahren, dass die theoretische Filterleistung von GF100 unterhalb derjenigen des GT200 liegen soll. Damit ist ausgeschlossen, dass die Textureinheiten auf Hot-Clock laufen (wie milamber! das bereits angedeutet hat). Vielmehr ist es realistisch, dass sie auf GPC-Clock arbeiten, so wie dies so ziemlich alle Hardware-Seiten schreiben.
TechReport schrieb:
We don't have final clock speeds yet, but we do have a few hints. As I pointed out when we are talking about texturing, Nvidia's suggestion that the GF100's theoretical texture filtering capacity will be lower than the GT200's gives us an upper bound on clock speeds.The crossover point where GF100 would match the GeForce GTX 280 in texturing capacity is a 1505MHz core clock, with the texturing hardware running at half that frequency. We can probably assume the GF100's clocks will be a little lower than that.
http://techreport.com/articles.x/18332/5

Heise scheint hier die einzige Instanz zu sein, die von Hot-Clock für Textureinheiten ausgeht...
 

Anhänge

  • stalkerCStris.jpg
    stalkerCStris.jpg
    280,1 KB · Aufrufe: 417
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich schätze, das ist einfach nur nicht mehr aktuell. Der Heise Artikel ist vom 18.01., ist der gleiche wie in der c't vom 01.02., nur nicht so Umfangreich, und im Detail sind einige passagen anders formuliert, oder enthalten andere Informationen. Heise ist ja der Verlag der c't, der Autor ist der selbe (mfi).
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Lübke
Du wirst doch wohl für Gerüchte irgendeine Quelle sehen wollen um dir selber ein Bild machen zu können ob das was hier erzählt wird auch in etwa realistisch ist.

@Awesome
Danke für den Link - das spart die Sucherei. Dort steht allerdings
Ich weiss immer noch nicht ob diese 725/750 Frequenzen fuer GF100 und 1/2 GF100 fuer den core clock stehen oder 1/2 hot clock.

@milamber
Danke für die Korrektur - ich sollte mir wohl doch lieber wieder die Print Version kaufen ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Complication
Ich habe nie was anderes behauptet;)
mir selbst schrieb:
Ail weiss von 725MHz für einen Full-GF100 und 750MHz für 1/2-GF100. Er weiss jedoch nicht, ob es sich darum um GPC-Clock oder Core-Clock handelt. Wäre(!) es letzteres, würde der Hot-Clock bei 1.7GHz liegen...
Ailuros schrieb:
Falls es aber der erste Fall sein sollte (best case scenario) dann liegt der hot clock auf 1.7GHz.
Die 1.7GHz sind ein Gerücht wie alles andere auch, aber von irgendwo muss er es ja haben. Ich gehe von 725MHz GPC-Clock (also 1450MHz Hot-Clock) aus. Gleich jedes (positive) Gerücht als Guerilla-Taktik abzustempeln, halte ich aber für übertrieben...
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

AwesomeSauce schrieb:
@Complication
Ich habe nie was anderes behauptet;)

Die 1.7GHz sind ein Gerücht wie alles andere auch. Ich gehe von 725MHz GPC-Clock (also 1450MHz Hot-Clock) aus. Gleich jedes (positive) Gerücht als Guerilla-Taktik abzustempeln, halte ich aber für übertrieben...
Tu ich auch nicht - nur dann wenn einfach keine Quellen zu Gerüchten verlinkt werden. Dann wirkt das eben frei erfunden.
Auch ein Gerücht sollte zumindest im Bereich des wahrscheinlichen liegen - das ist 1700 MHz Hotclock nicht. Und wenn man das hier mal nachrechnet:
Ich weiss immer noch nicht ob diese 725/750 Frequenzen fuer GF100 und 1/2 GF100 fuer den core clock stehen oder 1/2 hot clock. Falls es aber der erste Fall sein sollte (best case scenario) dann liegt der hot clock auf 1.7GHz.
1/2 Hotclock = 750 MHz
Mal 2 = 1500 MHz und nicht 1700 - das ist wohl eher ein Tipfehler. Also "best case " 1500 MHz.

Auch dieser Link von dir war sehr interessant: http://techreport.com/articles.x/18332/5
und dort ist ja auch von 1450 MHz Hotclock die Rede.

Ich war überrascht zu lesen dass die DP Performance für die GeForce so extrem beschnitten wurde auf gerade mal 1/4 - soll wohl verhindern dass die teureren Teslas liegen bleiben.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Nein, das ist kein Tippfehler! GF100 = 725MHz, 1/2 GF100 = 750 MHz. Unbekannt, ob Core-Clock oder GPC-Clock. Wäre es Core-Clock (best Case), läge der Hot-Clock bei 1.7GHz. Wäre es GPC-Clock (wahrscheinlicher), läge der Hot-Clock bei 1450MHz (alles für GF100). Core-Clock != GPC-Clock = 1/2 Hot-Clock

@DP-Performance
Klar, ist ein ziemlicher Einschnitt. Aber wer ernsthafte Berechnungen mit diesen GPUs durchführen will, greift sowieso zu den Teslas, wegen ECC-Support. Das lässt du wieder schön aus...
Double-precision support doesn't appear to be of any use for real-time graphics, and I doubt many serious GPU-computing customers will want the peak DP rates without the ECC memory that the Tesla cards will provide.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dann musst du mir mal den Unterschied erklären, da ich nicht weiss wie du auf die 1700 MHz rechnest - verstehe ich vielleicht falsch was GPC-Clock sein soll?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die 1.7GHz hat er nicht berechnet. Es sieht so aus, als hätte er diese drei Informationen 725MHz für GF100, 750MHz für 1/2 GF100 und eben diese 1.7GHz (woher auch immer). Wären die 725MHz der Core-Clock, läge der Hot-Clock eben bei diesen 1.7GHz. Wären die 725MHz GPC-Clock (=1/2 Hot-Clock), läge der Hot-Clock bei 2*725MHz=1450MHz, wobei die 1.7GHz nichtig sind.

AnandTech schrieb:
The core clock has been virtually done away with on GF100, as almost every unit now operates at or on a fraction of the shader clock. Only the ROPs and L2 cache operate on a different clock, which is best described as what’s left of the core clock. The shader clock now drives the majority of the chip, including the shaders, the texture units, and the new PolyMorph and Raster Engines. Specifically, the texture units, PolyMorph Engine, and Raster Engine all run at 1/2 shader clock (which NVIDIA is tentatively calling the "GPC Clock"), while the L1 cache and the shaders themselves run at the full shader clock.
http://www.anandtech.com/video/showdoc.aspx?i=3721&p=2
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

GPC ist 1/2 Hotclock und nicht Core. Keiner weiß bzw. darf sagen ob die 725 bzw. 750 MHz 1/2 Hotclock ergo GPC oder Core sind. Bei 750 Core liegt der Hotclock wahrscheinlich bei 1,7 GHz, da eine Ratio von 2,3 von Core zu Hotclock in etwa dem bisherigen Verhältnis entspricht. Zudem wurden vor Monaten schon 1,7 GHz für die A3 spekuliert, da dies 1,7 MAD-GFLOPS entspricht und dies zu der laut NV mehr als doppelten PhysX-und FC2-Performance passt.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Complication: ja ein link wäre nett gewesen, aber er hat ja zumindest gesagt, woher er die infos hat. mir gings nicht darum, wer jetzt recht hat und wer nicht, ich wollte nur diese off-topic-diskussion beenden.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben