News Nvidias Antwort auf ATis HD5K-Serie Ende November?

@ Turbostaat
Natürlich ist die 5870 besser als ihre Vorgänger, das werden die neuen Nvidia Karten aber auch sein. Wie die neuen Chipgenerationen der beiden Lager gegeneinander abschneiden, das gilt es für mich abzuwarten.

@ All
Mit einer Sache hab ich Verständnisprobleme. Die CPU des Testsystems limitiert nicht, sonst käme man mit einer GTX295 nicht auf noch höhere Werte. Warum also ist die 5870, die die Rechenleistung von zwei 4870 Karten hat, nicht auch doppelt so schnell als eine 4870?
 
Obwohl NV meint DX11 ist nicht so wichtig......:evillol: hoffe ich mal das sie sich mit der 300er
Serie beeilen - das drückt die Preise wieder.....:cool_alt:
 
WiseGuy schrieb:
Da braucht es keine Spezifikationen, die sowieso keinen Schluß auf die Leistung der Karten in der Praxis zulassen. Die Ati ist, obwohl alles doppelt vorhanden ist, nicht plötzlich doppelt so schnell. Sie liegt im Mittel etwa 50% vor einer 4870. Es kann daran liegen, daß die CPU limitiert, aber definitiv bestätigen läßt sich das erst, wenn man anhand einer anderen Architektur vergleichen kann.

Nunja, das sollte eig. auch klar sein, dass die doppelte Anzahl an parallel arbeitenden Recheneinheiten bei gleichem Takt (5870-4890) nicht zu einer Verdopplung der FPS-Leistung im Schnitt führen kann, schon gar nicht zum Start einer Serie. Das ist ein bischen vergleichbar mit Single-core->Dual-Core->Quadcore. Die Zukunft wird shaderlastigere Spiele hervorbringen, der Vorsprung von jetzt guten 40-50% zur 4890 wird grösser werden.
Auch NV wird mit einer Verdopplung (oder etwas mehr, gerüchteweise ja 512) der SPUs bei gleichem Takt keine 100% Mehrleistung als die 285er hinkriegen können, auch wenn deren Shader-Cluster gerüchteweise nun mit MIMD statt SIMD arbeiten können. (Multiple/Single Instruction Multiple Data)
Es werden auch hier zum Start wohl kaum mehr als 40-60% Mehrleistung zur 285 bei gleichem Takt) im Schnitt sein, wobei das doch absolut OK wäre, wie es das auch bei der 5870 ist.

Und das mit der Mehrleistung ist auch noch stark einstellungsabhängig, je höher die Auflösung (und auch quali), desto mehr wird die parallele Shaderpower auch bei "alten" Titeln durchschlagen, bei NV, wie bei ATI.

Man sieht es bei ATI schön am CB-Test, mit steigender Auflösung wächst der Vorsprung zur 4890.
Etwas stutzig macht mich aber, dass dieser erwartbare Trend bei steigendem AA nur bedingt zu beobachten ist.
In 25x16 8AA scheint doch irgendwas zu limitieren, evt. die ROPs?, der Datendurchsatz zum RAM?, die Treiber?, die Zukunft wirds zeigen.



Gruß
Raubwanze
 
Zuletzt bearbeitet:
H€553s Argument finde ich einleuchtend, ohne das jetzt mal nachgerechnet zu haben.

Aber @Raubwanze, sind die heutigen Spiele nicht schon für parallele Grafikberechnung ausgelegt? Und verteilen die GPUs nicht die Last gleichmäßig auf ihre Rendereinheiten?
 
Screemer schrieb:
du hast dir das video aber schon auch angesehen, oder? die ruckler sind eindeutig keine grafikkarten bedingten ruckler sonder nachladerucker. erinnert sehr an die nachladeruckler aus gothic 3.


weil physikberechnungen prädestiniert sind um auf gpu-architekturen ausgeführt zu werden. massive viele gleichzeitige parallele berechnungen. cpus erreichen bei weitem nicht die performance bei physikberechnung wie gpus. physik ist ein absolutes feld für GPGPU.
Die Rechnung ist doch relativ einfach.....welche Auflösung musste dafür gefahren werden und wieviel Grafikspeicher nimmt das Ganze in beschlag. Damit Eyefinity in Spielen auch nur halbwegs in brauchbaren Auflösungen läuft halte ich 2GB Grafikspeicher für unumgänglich, unm genug Details darstellen zu können wird man aber wohl bei einer multi GPU Kombination landen.

Die ganze Physikgeschichte hat in den Diskussionen allerdings oftmals einen entscheidenen Fehler. Werden dadurch mehr objekte dargestellt, dann geht das ebend auch auf die Grafikeinheiten ausserhalb der Shader. Beides getrennt voneinander zu betrachten ist grober Unfug.

Turbostaat schrieb:
@WiseGuy
Ähm... ich sage nur 50% Mehrleistung im Schnitt, dafür nur 5% mehr Stromverbrauch, dafür 34% weniger im Idle als bei der HD4890... Was will man mehr?
Was die Wärmeentwicklung betrifft sind die Chips dafür ausgelegt, deshalb laufen sie auch mit so einem langsamen Lüfter. Auf den ersten Blick mag zwar die HD5870 wäremer sein als die 4890, sie ist aber auch gleich mal um 8db leiser.

Die Chiptemperatur ist aber ebenfalls für dessen Strombedarf entscheidend und das kann man ganz einfach rausfinden wenn z.B. die Spannungswandler der Grafikkarte den Stromfluss auslesen lassen und der Lüfter vom Kühler manuell regelbar ist.
Einmal die Werte in Idle per Standardeinstellung messen und einmal den Verlauf mit komplett aufgedrehtem Lüfter beobachten......da fällt mit der Temperatur auch der Stromfluss und somit letztenendes auch die Verlußtleistung bei der Einstellung des Grafikchips. (zuletzt getestet mit einer x1950XTX)
 
Laut den neusten Gerüchten soll der G300 480 Unified Shader (1D) sowie ein 384 Bit großes SI besitzen.

en.Hardspell.com:

Interestingly, it is rumored that AIC partners will design GT300 cards themselves.GT300 has double shaders than that of the previous generation. GT 300 will have 480 shader processors fitted with GDDR5 memories on 384-bit memory interface.

Das wär ja mal was Neues - 480 Unified Shader und 384 Bit SI statt wie bisher angenommen deren 512 Shader und 512 Bit SI. Dann würde die "GTX 380" wohl mit 1536 MB VRAM kommen.

Gut - 384 Bit SI + GDDR5 würde an für sich auch schicken. Man wär in Sachen Speicherbandbreite immer noch ein gutes Stück vor ATi.


Folgende Speicherbandbreiten wären dann möglich:

384 Bit SI + 1,0 GHz GDDR5 = 192,0 GB/s
384 Bit SI + 1,1 GHz GDDR5 = 211,2 GB/s
384 Bit SI + 1,2 GHz GDDR5 = 230,4 GB/s
384 Bit SI + 1,3 GHz GDDR5 = 249,6 GB/s

Für die kleineren Modelle könnte man ja 320 Bit SI und 256 Bit SI einsetzen.

128 Bit SI wär dann etwa HD 5770 Level.


en.Hardspell.com:

It is reported that GT 300 has taped out and expected to lanch in late 2009.GT300 has billions of transistors,bigger and faster than Radeon HD5870.Its GX2 dual version is on track.

Hm - ob man es schafft ohne Teildeaktvierung und Heruntertakten eine "GTX 395" zu bringen ?! Wir werden es sehen.
 
klabur1 schrieb:
Also ich hoffe, dass ATI von den 5870gern ne Menge verkauft, bis Nvidia mit dem GT300 auf den Markt kommt. Die müssen ja auch mal Ihre Kassen füllen, um gegen Nvidia gewappnet zu sein.
Ich kauf mir zwar den GT300...

Irgendwie liest man das in letzter Zeit auch immer wieder. Interessant wie viele Leute hoffen, dass irgendwer die ATIs kauft damit deren geliebte NVs dann billiger werden :freak:
Macht das doch selber, vor allem wenn die Produkte gut sind. Auf NV zu warten und dann ATI den Zuschlag zu geben weil sie ein besseres P/L Verhältnis bieten (was auch so sein wird) ist hingegen schon sehr nachvollziehbar.

@ BPhoenix
Bitte immer Aufpassen, dass man die Schnittstellen (Cuda, OpenCL, Stream, Direct Compute) nicht mit den darauf laufenden "Applikationen" (Havoc, Bullet, PhysX usw.) zu verwechseln. Ich will nicht sagen, dass du das nicht trennen kannst aber in der Argumentation ging das alles ein Bisschen durcheinander.
Ich würde es natürlich sehr gerne sehen wenn NV PhysiX auf OpenCL oder Direct Compute realisiert wird bzw. wenn MS eine eigene Physik Bibliothek einführt, die natürlich auf Direct Compute läuft. Da hätten alles was davon, was NV natürlich nicht schmeckt.

@ Topic
40nm versionen des GT200b (den man vielleicht um DX 10.1 erweitern konnte) wären natürlich auch möglich, falls NV mit dem GT300 noch nicht so weit sein sollte. Das würde auch die Argumentation bzw. des Stellenwerts von DX11 erklären, die nVidia letztens vom Stapel gelassen hat.
 
WiseGuy schrieb:
Die Ati ist, obwohl alles doppelt vorhanden ist, nicht plötzlich doppelt so schnell. Sie liegt im Mittel etwa 50% vor einer 4870. Es kann daran liegen, daß die CPU limitiert, aber definitiv bestätigen läßt sich das erst, wenn man anhand einer anderen Architektur vergleichen kann.

Das geht schon deutlich früher. Nimmt mit steigender Grafikeinstellung auch der Abstand zwischen den beiden zu, dann verlagert sich idR die Hauptlast von der CPU auf die Grafikkarte, da bei CPU Limitierung die schnellere Grafikkarte einfach verhältnismäßig mehr Wartezyklen einlegen muss. Bricht die durchschnittliche Framerate mit steigender Grafikeinstellung "plötzlich" sehr deutlich ein ist idR der Grafikspeicher so voll das für die aktuellen Bilder bereits auf den deutlich langsamen Arbeitsspeicher zugegriffen werden muss.
 
@Wiseguy

Natürlich sind sie das. Aber die Vergangenheit 3870->4870, 9800GTX->GTX280 zeigt, dass die Anzahl an parallel arbeitenden Recheneinheiten nicht 1zu1 skaliert, vor allem, wie im 1.Post schon erwähnt, nicht zur Einführung der neuen Generation.
Neue angepasste Spiele und optimierte Treiber (auch ohne die Vorteile von DX11) werden bei beiden Seiten zu einem Ausbau des Vorsprungs auf die Vorgängergeneration führen. Allerdings 100% (bei verdopplung und gleichem takt) wird es nie werden, es sei denn in Einstellungen in denen andere Flaschenhälse auftreten, besonders genannt sei da die Überlastung des VRAMs.
 
Zuletzt bearbeitet:
ohman schrieb:
Könnte auch nur nen Trick sein, damit die Leute warten und jetzt noch nicht bei den ATIs zuschlagen. Dann ist der Termin nur ein Paperlaunch und im Endeffekt startet die Karte doch erst im neuen Jahr.

Das *könnte* kannste streichen, das ist 100% der Fall. War jetzt schön öfter so in der Vergangenheit (3870-->8800GT)

Was solls, bin mir 100% sicher, das AMD sowieso das bessere P/L-Verhältnis bieten kann, die besseren Features sowieso. Denn Physx juckt mich nicht die Bohne und mehr hat NVIDIA dann auch nicht mehr zu bieten (für mich)

Zitat von FUDOs Geschreibsel:

"“Our (Nvidia’s) 40nm yields are fine. The rumors you are hearing are baseless.”

Totaler Quark. Ein Fertigungsprozess (40nm) hat keinen yield, sowas kann man nur für einen spezifischen Chip angegeben. Mag ja sein, das das mittlerweile der Fall ist für den GT218 und den ganzen "kleinen" Kram, beim GT300 glaub ich nicht dran.

Überhaupt war das ganz starker Tobak, was FUDO da zusammengereimt hat:

"If you do the math, it takes at least six weeks after tape out to release the card and get it ready for full scale production"

Release the card = get ready for production?

:watt:

Bevor man was releast, muss man ja erst mal produzieren.

Kyle Bennett von HardOCP schreibt zum GT300:

"I personally think that NVIDIA's GT300 will not see the light of a retail shelf for 4 to 6 months. Therefore it is my opinion that the GT300 is currently meaningless in this market place. Had the situation been different, I would have said exactly so."

Und der Junge beschäftigt sich schon ne ganze Weile mit Hardware und der sagt auch seine Meinung, auch wenn das "Konsequenzen" für ihn haben könnte (NVIDIA hat da ganz spezielle Methoden)
 
ich denke auch das es mehr ne release-ente von nvidia wird.

zum thema eye infinity: ich denke eher das die ruckler auf einen vollen v-ram schließen lassen und nicht auf eine zu schwache grafikkarte. im video kamen die ruckler sehr sehr unregelmäßig und ich denke eher das die getestete hd5870 mit ihren 1gb desöfteren nen vollen vram bekommen hatte.
 
DvP schrieb:
Irgendwie liest man das in letzter Zeit auch immer wieder. Interessant wie viele Leute hoffen, dass irgendwer die ATIs kauft damit deren geliebte NVs dann billiger werden :freak:
Macht das doch selber, vor allem wenn die Produkte gut sind. Auf NV zu warten und dann ATI den Zuschlag zu geben weil sie ein besseres P/L Verhältnis bieten (was auch so sein wird) ist hingegen schon sehr nachvollziehbar.

:heuldoch:

Das ist jedem selbst überlassen. Ich kauf mir die schnellste Karte wenn Sie nicht zu einem komplett überteuerten Preis angeboten wird. Und ich meinte auch, dass wenn ATI irgendwann mal das Geld ausgeht, Nvidia den Preis komplett bestimmen kann. (da keine vergleichbaren Karten am Markt) Und dass will glaub ich keiner.

Und sollte mal ATI die schnellste Karte anbieten (in der gleiche Generation, nicht nur 2 Monate lang), kauf ich natürlich die ATI.

Aber wie gesagt. Ist jedem selbst überlassen. Ich sag dir ja auch nicht wie du wann etwas kaufen sollst. Ich geb hier nur meine persönliche Meinung ab, mehr nicht.
 
Hallo zusammen,

also die Hoffnungen einiger, daß Nvidia Karten günstiger würden, wenn ATI aufgekauft würde, halte ich für ziemlich daneben und mehr als Nebulös.

Vielmehr wäre in einem solchen Szenario die Wahrscheinlichkeit extrem hoch, daß die Grafikkartenpreise nach Oben gingen. Zumal eine solche Aquisition auch Zeit benötigt und damit Geld.

Alles in allem ist es eigentlich der Verdienst von ATI, daß die Preise im Verhältnis zur Leistung mittlerweile extrem Günstig geworden sind. Speziell seit der Radeon 4000er Serie, wonach Nvidia ja als Reaktion hierauf die Preise der 260/280er Serie extrem Senken mußte.

So long.....
 
@ klabur1

Eigentlich wollte ich nicht von jedem Einzelnen den ich damit angesprochen habe ein Statement oder eine Rechtfertigung haben, da sicherlich der eine oder andere (wie du offensichtlich) auch einen navollziehbaren Grund hat, warum er so handelt.
Deine Aussage war eher der Stein des Anstoßes. Primär war die Aussage eher für die Jungs gedacht die hier mit platten "schöne Karte, aber ich warte sowieso auf die neuen NVs und kaufe mir dann die" Sprüchen ankommen und gar keinen speziellen Grund dafür brauchen ;-)

@ Affenkopp
Den (mittlerweile) überflüssigen Uncharted 2 Link könntest du mal rausnehmen ;-)

Luxmanl525 schrieb:
...also die Hoffnungen einiger, daß Nvidia Karten günstiger würden, wenn ATI aufgekauft würde, halte ich für ziemlich daneben und mehr als Nebulös.

!? Wer hofft denn darauf? Hab ich was überlesen? Ich halte es nicht für nötig Offensichtliches zu diskutieren.
 
Zuletzt bearbeitet:
wie es luxmanl525 sagt, eigentlich bestimmt ATI den preis auf dem markt, durch die etwas geringere leistung ist ATI selbst dazu "genötigt" den preis in unteren gefilden anzusiedeln. sehr zur freude der kunden, ob ATI-jünger oder auch nvidia ;)

gerade zu zeiten der 8800gts war der preis lange sehr hoch, denn ati hatte leider nichts entgegen zu setzen, was nivida ja bekanntlich gute genutzt hat um das kaffee-kässchen zu füllen :D
 
Jo. Das sehe ich genauso. Das gleiche gilt nat. auch für Intel und AMD. Auch da sollte jeder froh sein, dass 2 da sind die Prozessoren ungefähr gleicher Leistung anbieten. Aber auch hier sieht man, was Intel macht wo sie keinen Gegner haben. Bei den ganzen Corei7 Extreme Editions bestimmen Sie den Preis. Und der ist meistens 4stellig - weil niemand einen vergleichbaren anbietet.
 
Bis zu 300 Watt Leistungsaufnahme wurden der kommenden Nvidia-GPU GT300 bisher nachgesagt - Nvidia soll diese nach Medienberichten nun aber optimiert haben. 225 watt

preise... so angegeben werden sich auf 500-800-1500 euro so heißt es. ??

NAJA WARTEN sage ich nur.
 
Zuletzt bearbeitet:
Zurück
Oben