News GeForce GTX 295 schlägt HD 4870 X2?

Jaja redet mall lieber nicht soviel über mikroruckler.Man kann nämlich beu euch allen nicht beweisen ob ihr überhaupt schonmal ein SLi/CF system gehabt habt.Also mall schon den ball flach halten.
 
Experte18 schrieb:
Jaja redet mall lieber nicht soviel über mikroruckler.Man kann nämlich beu euch allen nicht beweisen ob ihr überhaupt schonmal ein SLi/CF system gehabt habt.Also mall schon den ball flach halten.

Und? Threads dazu gibt es genügend, wenn du es uns hier nicht glaubst..

Fakt ist, es gibt sie, selbst CB hat sie ja schon eindrucksvoll nachgewiesen, also solltest du den Ball mal schön flach halten!
 
Eine geringere Leistungsaufnahme ist nicht unmöglich, taktet die GT200b-GPU doch deutlich unter 600 MHz. Da mindestens ein sehr ähnlicher, wenn nicht sogar exakt der gleiche 55nm-Fertigungsprozess von TSMC zur Anwendung kommt, kann der nVidia-Chip vermutlich mit einer geringeren Betriebsspannung als ATI's RV770 bei 750 MHz zuverlässig arbeiten. Da fällt es auch nicht so sehr ins Gewicht, dass Ersterer etwas mehr Transistoren mitbringt.

Unabhängige Benchmarks werden von den FPS her allerdings wohl dichter zusammen liegen.
 
Ich warte lieber auf CB Test! abwarten, vielleicht ist es richtig, dass die Karte schnelle ist, und ich bin nicht

überrascht, Nvidia hat Zeit gelassen um die neue Karte zu erscheinen!
 
Naja wenn es nvidia nicht schaffen würde jetzt ne hd4870x2 zu schlagen dann weiß ich auch nicht^^! Wenn nvidia jetzt die schnellste hat wird ati wiede rkontern... also immer ein hin und her...
 
Ich finde es sehr seltsam dass die für die Spielebenchmarks andere Spiele genommen haben, wie beim Ermitteln der Stromaufnahme.
Waren die fps bei Crysis Warhead so schlecht?
Oder vielleicht die Leistungsaufnahme bei Fallout?

Es sind auf jedenfall beides alternative Heizmethoden.
 
Klingt interessant die GTX 295 wenn der Preis und die Leistung stimmt könnte ich meine 2 8800GT in Rente schicken und mit die GTX ins Gehäuse schrauben.
Ich werde mal erste Tests abwarten und dann schaue ich mal weiter.

MfG Ray
 
Bisher konnte noch keine Multi GPU Karte so richtig überzeugen.
Das dies ausgerechnet mit einer GTX295 gelingen soll, kann ich mir nur schwer vorstellen.
Für mich ist die Karte ein reines Prestigeprodukt - nicht mehr und nicht weniger.
 
Also meine Hd4870x2 hat mich serwohl überzeugt! Vorallem da sie teilweise billiger als ne gtx280 zu haben ist...
 
Wann wird es wohl die ersten Wasserkühler für die Karte geben :freak:

Also wenn ich der Meinung bin ich brauche soviel Leistung wie irgend möglich und bin bereit dafür soviel Geld auszugeben, dann habe ich ehrlich gesagt lieber zwei GTX 260 im SLI-Verbund. Weil wenn mir eine Karte abschmiert hab ich immerhin noch eine in Reserve. Die doch verbesserten Werte die NV aus dem Design der GTX 280 übernommen hat (wie 240 Stream-Prozessoren) sind wohl das einzigste Argument, welches diese Karte etwas schneller macht wie zwei GTX 260.
 
Zuletzt bearbeitet:
smith0815 schrieb:
Unsinn, die Problematik der Mikroruckler ist ungelöst und die ganze Multi-GPU-Technik nach wie vor allgemein sehr problembehaftet, bei Nvidia etwas weniger als bei ATI.

Ja ist schon komisch das sich jetzt kaum einer gegen die bösen Microruckler aufbegehrt so wie es als Verteufelung bei der X2 war die somit einen Status als Staatsfeind Nummer 1 bekam !

Und das die Microruckler bei NVidia weniger sein soll wurde schon von CB wiederlegt !
Durch Zeitframemessungen sieht man ganz deutlich das 2x GTX deutlich stärker schwanken als eine X2 !!

Aber lassen wir das jetzt einfach mal... ;)

Das was mich schonwieder wundert ist das z.B. bei FarCry2 die X2 deutlich weniger FPS haben soll als beim Test von CB mit einer HD 4870 !

Auch bei den anderen Spielen scheint es mir etwas unrealistisch zu sein.
Da müßte jetzt CB einen Test mit der X2 bei den 5 besagten Spielen nachschieben. :cool_alt:
 
Naja wenn man den Tabellen glauben kann, dann ist das ja sowieso keine "interne" SLI GTX 260, sondern irgendwas zwischen 260 und 280 mal 2.

Also dürfte der vergleich mit nem SLI gespann aus 260 doch gar nicht gezogen werden.

Der direkte Vergleich zu einer 2GPU Karte ist okay, jedoch darf hier nicht auf eine Karte runtergerechnet werden. Schließlich gibt es diese nennen wir sie mal GTX 270 bzw. nach NVIDIA Klatur GTX 260-240

Die ursprüngliche 260 ist schon lange tot, nur NVIDIA ändert die 280 so lange ab, bis sie was vernünftiges zu stande bringen.
Das ist ja auch völlig legitim.

Nur war die HD 4870X2 nicht herrausvorderer der GTX 280? Offiziell von AMD?


Ich selbst würde mir anstatt des WATT-Wahnsinns lieber mal wünschen, das es die Leistungen einer 8800GT oder 8800GTS seitens NVIDIA oder die einer 3870 oder 3850 in Form einer 9300 oder 3470 gibt.

Also klein, passiv gekühlt (gut das gibt es schon) und trotzleistung richtig sparsam.

Es macht halt keinen Spaß mehr die Stromrechnung zu zahlen.

Und versteht mich nicht falsch jede Karte hat seine daseins Berechtigung, wie auch Glühbirnen mit 100 Watt.

Ach ne, die hat die EU ja verboten. Kommt demnächst ne EU-Verordnung zu sparsamen CPUs und GPUs?

Dann wäre der Servermarkt jedenfalls tot.

So und nun viel Spaß beim debatieren.

OEM111
 
MIkroruckler?! Ist mir bei Crysis Cod5 uswusf nicht aufgefallen bei meiner x2...! Die dinger sind zwar messbar! Aber ob sie das auge wahrnimmt is ne andere sache! Ich merke davon jedenfalls nix...!! Deswegen ja "mikro" ruckler!

Außerdem kommt mir der test von nvidia nicht ganz geheuer vor... teilweise is die karte ja 100% schneller xD Is in meinen augen unrealistisch <.<! Naja die haben wohl mal nen fantasie Bench erstellt!
 
H3rby schrieb:
Man würde sicherlich auch Spiele testen, die auf ATi optimiert sind ... Aber warte, die gibt es ja leider nicht..
tja... und wer software verkaufen will, muss eben auch sehen, dass sie auf entsprechender hardware vernünftig läuft...

H3rby schrieb:
Tja, normalerweise ist das jetzt blöde für ATi, aber hier zählt das wohl nicht gerade viel...
naja... wird sich sicherlich erst noch zeigen, ob und wieviel eine anpassung auf ati karten bringt... schlisslich hat man mit activison-blizzard einen starken partner an board

@topic:
warum besitzt der kern der gtx295 soviele precessor cores wie die gtx280.... die taktraten sind aber trotzdem identisch mit der gtx260.... steht uns da etwa noch eine gtx270 ins haus, mit einem unkastrierten gt200 und den taktraten der 260?
 
Pickebuh schrieb:
Ja ist schon komisch das sich jetzt kaum einer gegen die bösen Microruckler aufbegehrt so wie es als Verteufelung bei der X2 war die somit einen Status als Staatsfeind Nummer 1 bekam !
Ich empfehle dir zu überdenken, ob emotionale Bindungen an einen Hersteller angebracht sind. Beide IHVs sind kapitalistische Unternehmen, man sollte immer eine Gesamtbewertung der aktuellen Produkte vornehmen und sich emotionale Regungen ersparen. :freak:

Und das die Microruckler bei NVidia weniger sein soll wurde schon von CB wiederlegt !
Durch Zeitframemessungen sieht man ganz deutlich das 2x GTX deutlich stärker schwanken als eine X2 !!
Da hast du mich falsch verstanden, mit "weniger problembehaftet" meinte ich nicht die Mikroruckler, sondern die sonstigen Probleme von Multi-GPU-Lösungen wie allgemeine Kompatibilität und Skalierung. Es ist ja nicht so, dass der Kram Out-of-the-Box ein steter Quell der (ungleichmäßig :evillol:) hohen Frameraten wäre. Die Treiberabteilungen sind da ordentlich am Stricken und Frickeln, bei Nvidia hat man durch die Profile allerdings weniger Probleme.
 
Die PCGH hat vor einiger Zeit Vergleichsvideos auf Ihre Heft-DVD gepackt die SEHR DEUTLICH den Unterschied zwischen Singel- und SLI-Lösungen zeigen.

Microruckler sind zumindest für mich deutlich zu sehen und keine alternative zu einer potenten Single-GPU Lösung.

Es ist aber auch verständlich, dass alle die hier schreiben man sehe die Microruckler nicht. Ich würde das auch schreiben, wenn ich Geld für eine Technik rausgeschmissen habe, die nicht ausgereift und für die es nach wie vor keine Lösung gibt.

Von daher sind alle Dual-GPU Lösungen für den Popo und zumindest für mich absolut uninteressant.
 
Seit dem neueren Treibern von ATI sehe ich keine Mikroruckler mehr.....
 
Das eine GTX 295 schneller sein wird als eine 4870x2 war teilweiße schon klar vor allem in den gezeigten spielen skaliert SLI doch sehr gut zumal die Treiber auch dafür optimiert sind, der Stromverbrauch der geringer sein soll als bei der 4870x2 ist auch kein wunder da schon 2xGTX260@SLI sparsamer sind wie die X2.

Mann kann sich also auf die Karte freuen(ausser die Leiute die wieder auf MR rummtrampeln) auf den Preis binn ich auch gespannt hoffentlich hatt NV aus den fergangenen Monaten gelernt.

Sonnst kann mann nur gespannt sein wie AMD aus dieses Modell reagieren wird, ich hoffe mit Preissenkung.
 
Zurück
Oben