News Finale Taktraten der GeForce GTX 280/GTX 260?

@ bullrun:
ich hab beim lesen deines post aufgehört, als du geschrieben hast "die strukturen sind feiner geworden"

nun ja der g92 wird in 65 nm hergestellt.... und der g200? auch in 65 nm, also wo ist da was kleiner geworden???

und noch was... n begriff aus der phsyik, je kleiner ein körper ist, desto größer ist im vergleich dazu die oberfläche. größere oberfläche heißte bessere kühlung.

wenn ich nun son riesengerät bastel, kann ich net davon ausgehen, dass ich noch optimale takungen erreiche aufgrund der hitzeentwicklung.

sonst erklär du mir doch, warum nvidia die taktraten so extrem senken mußte?...
 
Aber wenn ich da ja nur an CF oder SLI denke kommt mir das grausen das beste was der umwelt bisher passiert ist

Nvidia wird sicher wieder 3-Way SLI implementieren: 243Wx3 = 729W

und Crossfire X wird bis in den Sommer Treibermässig sicher auch vier Karten unterstützen:
4xHD4870X2: 4x250W = 1000W

Und dan fragt nochmal einer für was braucht man ein 1KW SNT da bekommt man ja gerade die Grafik satt
 
@Huhamamba

eben,der Takt ist niedriger als beim Vorgaenger... Mit kleineren Strukturen , Spannungen und damit geringerer Hitzeentwicklung sollten hoehere Taktungen moeglich sein . Das das nicht der Fall ist kann nur bedeuten das keine hoehere Taktung notwendig und die Konkurrenz unter Kontrolle ist. Vielleicht will man sich noch Raum nach oben lassen fuer eine 280Ultra oder aehnliches .Auf GDDR5 brauchst du denke ich nicht zu warten .Zusammen mit 512bit SI ergibt sich eine schier unendliche Bandbreite die voellig sinnlos waere . Wenn GDDR5 irgendwann mal mit GT200 kommen sollte, wird im gleichen Zug das SI beschnitten. Gab schon einige Faelle in denen das gemacht wurde und die Bandbreite dadurch gleich blieb. 512bit SI +GDDR5 koennten von keiner Karte auch nur annaehernd ausgenutzt werden, das waere wie einen Feuerwehrschlauch aus dem Wasserhahn speisen ...:)
 
binear_freak schrieb:
ich wollte nur mal darauf eingehen da Bansi geschrieben hat das der G80/G92 die theoretische leistung besser auf die straße bringt. was jedoch nicht der fall der G80 vielleicht ein bisschen wegen der höheren speicherbandbreite und dem größeren Speicher der G92 hat aber in etwa die gleiche Leistungsausbeute wie der RV670

Und man muss erst mal sehen was die beiden Chips so bringen beim R600 sagte auch jeder nach datenblättern der putz den G80 mit seinen 512 Bit und restlichen schnick schnack und was war er konnte nicht mal ner GTS parolie bieten. Wer sagt das es NVidia mit dem GT200 nicht genauso geht

https://www.computerbase.de/2007-11/test-ati-radeon-hd-3870-rv670/2/#abschnitt_technische_daten

Schau mal bei den GFlop Angaben bei den Geforce Karten. Da ist ein Stern dabei und dazu schreibt CB folgendes:

*Die von uns angegebenen GFLOP-Zahlen der G80-Grafikkarten entsprechen dem theoretisch maximalen Output, wenn alle ALUs auf die gesamte Kapazität der MADD- und MUL-Einheiten zurückgreifen können. Dies ist auf einem G80 allerdings praktisch nie der Fall. Während das MADD komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Mit dem ForceWare 158.19 (sowie dessen Windows-Vista-Ableger) kann das zweite MUL zwar auch für General Shading verwendet werden, anscheinend aber nicht vollständig, da weiterhin die „Sonderfunktionen“ ausgeführt werden müssen. Deswegen liegen die reellen GFLOP-Zahlen unter den theoretisch maximalen.

Um auf etwas wahrheitsgetreuere GFlop Raten bei G8x/G9x zu kommen, müsste man eigentlich rechnen: Anzahl SPs * 2,2 * SP Takt. Normalerweise wird immer mal 3 gerechnet da ein SP MADD + MUL ausführen kann, was dann eben diesen 3 Operationen entspricht. Beim G8x/G9X kann aber das 2. MUL nur zu geringen Anteilen für General Shading verwendet werden, im obrigen Beispiel eben 20 %. Beim GT 200 könnte sich das ändern!
 
Zuletzt bearbeitet:
cosmicparty schrieb:
@ bullrun:
ich hab beim lesen deines post aufgehört, als du geschrieben hast "die strukturen sind feiner geworden"

nun ja der g92 wird in 65 nm hergestellt.... und der g200? auch in 65 nm, also wo ist da was kleiner geworden???

und noch was... n begriff aus der phsyik, je kleiner ein körper ist, desto größer ist im vergleich dazu die oberfläche. größere oberfläche heißte bessere kühlung.

wenn ich nun son riesengerät bastel, kann ich net davon ausgehen, dass ich noch optimale takungen erreiche aufgrund der hitzeentwicklung.

sonst erklär du mir doch, warum nvidia die taktraten so extrem senken mußte?...

So, du Physikgenie, er meinte auch den G80 in 90nm und nicht den G92. G80 = 90nm und GT200 = 65nm. Heißt also feinere Struktur. Klingelts?
 
@ nWarrior: omg der g200 soll zum vorgänger 50%schneller werden? wer ist denn nun der vorgänger? der g92 in 65nm also was erzählst du fürn n quark?

da ist nix mit feineren strukturen, der g200 ist nach meinung vieler auch eher der verschollene g90.

und wenn der g80 der vorgänger sein soll, dann wär der g200 ja noch langsamer.

mit logik hast du es net so, oder? *g*

PS: bist du der, der im pcgh forum als extremer nervfaktor angesehen wird? *g* weil son fanboy der nur flamt ohne hintergrundwissen? ;)
 
Zuletzt bearbeitet:
G92 ist ein Performance Chip. Was soll der Vergleich? Was hat die 7600 mit der 6800 zu tun?

Hier gehts doch um High-End? :confused_alt:
Also vergleiche G80 mit GT200.
 
BullRun schrieb:
ATI ist angeblich soviel cleverer, launcht aber seit 2 Jahren nur noch Murks.
[...]
sehr viele Leute muessen sehr hart und lange fuer die neue Hardware arbeiten und wollen dann nicht so enttaeuscht werden
Die X19x0-Serie und die momentane HD38x0-Serie waren mehr als gute Karten. Klar die 2900-Reihe hatte so ihre Probleme, aber zu behaupten, dass ATI/AMD die letzten Jahre nur Murks abgeliefert hat, ist mehr als amüsant. Man hat nicht die Performance-Krone ergattern können, bei Nvidia aber gehörig die Preise drücken können.

Und dass sich sehr viele Leute eine Grafikkarte für > €500,- ist auch zu bezweifeln. Bei mir liegt die Schmerzgrenze bei €300. Wer sich eine 4870 gekauft hat, wird sicherlich nicht enttäuscht sein.
 
Zuletzt bearbeitet:
cosmicparty schrieb:
@ nWarrior: omg der g200 soll zum vorgänger 50%schneller werden? wer ist denn nun der vorgänger? der g92 in 65nm also was erzählst du fürn n quark?

da ist nix mit feineren strukturen, der g200 ist nach meinung vieler auch eher der verschollene g90.

und wenn der g80 der vorgänger sein soll, dann wär der g200 ja noch langsamer.

mit logik hast du es net so, oder? *g*

Der Vorgänger ist die 9800 GX2!

Und hier nochmal ein Vorgeschmack auf die Leistung dieser Karte.
http://we.pcinlife.com/thread-935774-1-1.html
 
@cosmicparty

nunja der G92 ist der Facelift des G80 um den es hier geht und auf den ich mich beziehe(und besitze)... haut also schon alles hin was ich hier gesagt habe .
Deine Erlaeuterungen zur Physik sind mir nicht ganz klar , dachte immer ein groesserer Koerper hat auch die groessere Oeberflaeche. GT200 hat auf jeden Fall die kleineren Strukturen,weniger Versorgungsspannung und die groessere Kuehlflaeche ... es ist physikalisch also unmoeglich eine groessere Verlustwaerme aufzubauen. Die geringe Taktung resultiert wahrscheinlich daraus das die 280GTX auch so alles andere alt aussehen laesst und man Raum nach oben fuer schnellere Versionen hat(z.b. 280Ultra) Warum die Katze gleich aus dem Sack lassen wenn man im Spargang schon alles abraeumt ... die einzige logische Erklaerung . Du wirst es bald sehen und ich freue mich schon heute auf die deine Erklaerungsversuche des neuesten Fiaskos.

Falls die HD4xxx wider Erwarten doch ein Knaller wird kaufe ich diese .... einfach immer das Schnellste egal von wem .... der klassische Performance-Fanboy:)
 
Zuletzt bearbeitet:
cosmicparty schrieb:
@ nWarrior: omg der g200 soll zum vorgänger 50%schneller werden? wer ist denn nun der vorgänger? der g92 in 65nm also was erzählst du fürn n quark?

da ist nix mit feineren strukturen, der g200 ist nach meinung vieler auch eher der verschollene g90.

und wenn der g80 der vorgänger sein soll, dann wär der g200 ja noch langsamer.

mit logik hast du es net so, oder? *g*

Fragst du dich das gerade selber, oder?

"Die Meinung vieler" bestätigt aber noch lange nicht, dass es auch tatsächlich der G90 ist. Offenbar hast du noch nie Benchmarks zwischen dem G80 und G92 gesehen, oder? Der Unterschied ist minimal. Aber ja, er wird dadurch ja NOCH langsamer, ist klar. Und warum der G92 nicht viel schneller ist als der G80, sollte dir hoffentlich klar sein.

Desweiteren gib mir bitte die Quelle, wo du das mit den 50% hast. Aber nicht das Gerücht um die 50%, sondern ne klare Aussage. Tja, verschissen, was? Die wirst du nämlich nie finden.

Ich frage mich, ob du eigentlich merkst, was um dich herum passiert?
 
Ja stimmt soweit auch wieder nur wurde in der letzten Generation die Auslastung auch deutlich verbessert und ich schätze diesesmal auch. Und ich bin mal gespannt wie die X2 zu werke gehen wird da sie ja anscheinend den kompletten speicher ausnützen kann und nicht mehr doppelt speichern muss. Dies spricht aber auch nicht gerade für die Qualität der Archittektur wenn knapp 30% der Leistung nicht abgerufen werden können.

Und wenn AMD endlich den shader mal richtig hochdrehen würde dann wäre die leistung auch vorhanden.

weil zw 1GHz und 1,5 sind doch noch 50% unterschied und das sind 50% theoretische Rechenleistung.
 
@ bullrun:
das gegenteil ist der fall. je größer ein körper ist, desto schwerer wirds ihn zu kühlen. ein blödes beispiel wäre die sonne, riesige masse, dementsprechend kleine oberfläche und extreme hitze.

klein heißt große oberfläche und gut zu kühlen.

das ist ein grundgesetz der physik, darüber kann man nicht diskutieren. mach dich einfach schlau.

zum nächsten, der g200 wird in 65nm produziert, genau wie die 8800GT oder 9800 GTX, eben wie alle g92.l

also ist der g92 in 65 nm der vorgänger und nicht der g80. der g80 wird schon lange nicht mehr produziert.

und es ist nicht meine erfindung, schon andere technikseiten schreiben, dass nvidia wohl von der taktungsmöglichkeit enttäuscht ist.

es ist ja auch so, je größer ein chip wird, deste mehr "fehler" hat er, desto weniger perfekt wird er eben. auch ein grund für ne geringere taktungsmöglichkeit.

der hauptgrund ist aber der stromverbrauch. wenn der g200 mit der niedrigen taktung schon 240 watt verballert.... ja hallo? die KÖNNEN den net höher takten. soll das ding über 300 watt verbrauchen?

zu heiß, zuviel strom eben.... oder glaubst du wirklich, nvidia gibt sich freiwillig mit +50% zufrieden, wenn sie 600$ haben wollen?

der chip ist das ende der fahnenstange. nochmal. warum sagt nvidia die ändern nun ihre taktik und gehen ati s weg? kommt da nicht mal ein zweifel im denken?
 
@ nWarrior: lol du bist der witz des jahre, über dich lacht auch das ganze pcgh forum.

und wenn du mal die werte umrechnest, aber auch unter berücksichtigung der takung, kommst du auf +50%.

und sorry, ist nicht meine erfindung, sondern was ich auf vielen seiten weltweit lesen konnte.

aber du denkst bestimmt verdopplung der die-größe bringt verdopplung der leistung? *ggg* omg
wenns mal so einfach wäre...

PS:wer formuliert eigentlich so "tja verschissen was"? ich denke man kann sehen, wie man dich nun einordnen kann ;)
 
Zuletzt bearbeitet:
cosmicparty schrieb:
klein heißt große oberfläche und gut zu kühlen.
Anders rum. :)

binear_freak schrieb:
Und wenn AMD endlich den shader mal richtig hochdrehen würde dann wäre die leistung auch vorhanden.
Sie tun es aber nicht.
Warum wohl?

Schon mal überlegt, was es neben SPs noch an Schwachstellen gibt? TMUs? :)

binear_freak schrieb:
X2 zu werke gehen wird da sie ja anscheinend den kompletten speicher ausnützen kann
Wie soll das auf einmal gehen? :)

cosmicparty schrieb:
aber du denkst bestimmt verdopplung der die-größe bringt verdopplung der leistung?
Bei AMD reichen 20% mehr Transistoren für 70% Mehrleistung?
Sehr konsequent gedacht. :rolleyes:

cosmicparty schrieb:
also ist der g92 in 65 nm der vorgänger und nicht der g80.
Tolle Logik.
G70 in 110nm ist auch der Vorgänger von G71 in 90nm.

cosmicparty schrieb:
warum sagt nvidia die ändern nun ihre taktik und gehen ati s weg?
bensen schrieb:
 
Zuletzt bearbeitet:
@ unyu:

omg... mach dich bitte in der physik schlau.

ein kleiner körper hat im verhältniss zur masse eine sehr grosse oberfläche.

ein großer körper hat im verhältniss zur masse eine kleine oberfläche.

darauf kann man dann rückschlüsse auf die kühlung ziehen.

studiert hier keiner naturwissenschaften? *g*

das ich mit dem g92 verlust von nvidia recht hatte, dazu haste auch noch net zugegeben *g*

und ati hat den shader nun auch vom normalen gpu takt entkoppelt. war mal ein vorteil von nvidia.

und ein zitat vom inquirer....

"Im Verhältnis zu AMDs R700 kann der G200 eher nicht beeindrucken."
 
Die Masse ist irrelevant oder willst du die Transistoren wiegen?

Es ist ganz einfach:
Viel Wärme auf großer Fläche = leichter kühlbar, als viel Wärme auf kleiner Fläche
Du kannst ja gerne versuchen einen 300mm² Die mit einer nadel mit dem Kühler zu verbinden, sollte nach deiner Theorie ja kühler sein als wenn man beide direkt verbindet.

Du solltest ernsthaft über Physik nachdenken, ich muss mich schon sehr zusammenreißen um mehr als "lol" zu schreiben.

Ja ich zitire auch:
"GTX280 80 or 120 TMU, ATI still suffer"
"If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock."
"GT200 more than imagination, R700 no chance of winning."
 
@cosmicparty:

Wenn man im Glaushaus sitzt, soll man ja bekanntlich nicht mit Steinen werfen...

Das hast Du ja schön verstanden, dass das Verhältnis von Oberfläche zu Volumen um eine Längenpotenz unterschieden werden... und deswegen versuchen Eisbären auch, besonders große Bären zu sein, damit sie nich so doll frieren müssen.

Aber wenn Du Dich schon so gern über physikalische Details unterhalten möchtest, musst Du auch gewisse Transferleistungen erbringen, was Dein (auswendig gelerntes?) Wissen angeht.

So ist das System "Grafikchip" in Sachen Kühlung nun mal auf nur auch zwei wesentliche Aspekte zu reduzieren und zwar zum einen die Wärmeleistung und zum anderen die zur Verfügung stehende Oberfläche für einen Wärmeübergang.

Und wenn nun ein GT200 sage und schreibe 236 Watt frisst, dann müssen die auch wieder weg. Jeder Mensch mit wie Du so schön sagst "ausgeprägter Allgemeinbildung" wird einsehen, dass die Wärme über mehr Oberfläche besser abgeführt werden kann. Dass der GT200 mit 576 mm² nun mal sehr groß ist, dafür kann auch ein Eisbär oder eine Melone nichts, sorry.
 
cosmicparty schrieb:
@ nWarrior: lol du bist der witz des jahre, über dich lacht auch das ganze pcgh forum.

und wenn du mal die werte umrechnest, aber auch unter berücksichtigung der takung, kommst du auf +50%.

und sorry, ist nicht meine erfindung, sondern was ich auf vielen seiten weltweit lesen konnte.

aber du denkst bestimmt verdopplung der die-größe bringt verdopplung der leistung? *ggg* omg
wenns mal so einfach wäre...

PS:wer formuliert eigentlich so "tja verschissen was"? ich denke man kann sehen, wie man dich nun einordnen kann ;)

Du musst mal deine eigene Beiträge laut für dich vorlesen. Du wirst dich kaputtlachen! :lol:

Und ja, das in PCGH ist doch mal nen geiler Gag, oder? Gibt tatsächlich Leute, die das glauben.

Also ich mach Schluss für heute, denn das macht mein Zerchfell nicht mehr mit.
 
Zurück
Oben