News Nvidia kündigt offiziell die GeForce GTX 295 an

zitat von guru3d:

"Here's where things get a little interesting. Now the horrible performance at 2560x1600 has everything to do with a lack of frame buffer (graphics memory). In that resolution in combo with our image quality settings there's just so much HDD swapping going on that it ruins performance completely."
 
@domidragon: Nein, die GTX280 kriegt man teilweise auch schon unter 400 EUR.
 
mapel110 schrieb:
Crysis zeigt schon, dass der Karte der Ram ausgeht.

... immerhin mit aktiviertem 2x MSAA erst in 2560x1600. Trotzdem hätten der Karte als Reserve für die besonders ausgefeilten Bildquali-Modi mehr VRAM wohl durchaus bekommen (evtl. statt 2x896MB 2x1344MB sofern möglich? Aber da ist wohl das Platinendesign an seine Grenzen gekommen). Für die 9800GX2 war der eingesparte VRAM leider ziemlich ärgerlich, die äußerst hohe Rohleistung wurde gerade in den Bereichen limitiert, für die eine High-End<Karte interessant sein müsste.
 
Aufgrund des 448Bit-Speicherinterfaces sind runde 1GB aber nicht möglich. Deshalb ist ja auch die GTX 260 auf 896MB beschränkt. ;)
 
Sehe ich auch so. Die Preise sind bei jedem release bei nVidia gleich ~550 €
Also, stellt sich die Preisfrage doch eigentlich garnicht.

Grob gesagt starten die nVidia-Karten im Vergleich zu ATi bei ~100-150 € mehr. War schon immer so und wird immer so bleiben. Der Preis ist ja auch relativ. Bei 400-600 € scheint bei vielen noch nicht die Schmerzgrenze zu sein, es seidenn ATi und nVidia betreiben diesen Aufwand für 1000 Leute die so eine Karte kaufen :)

Back 2 Topic:
Habe mir den Test bei PCGH angesehen, finde den Leistungsunterschied schon enorm. Jedoch sollte man dabei nicht vergessen, dass der Vergleich von GTX 295 von 4870 X2 nicht so richtig funktioniert, da die ATi doch schon etwas älter ist und nicht gerade erst von den Entwicklungstischen kommt. Meiner Meinung sollte man dann schon einen Test abwarten, der ebenfalls eine neue X2 von ATi beinhaltet (so denn eine weitere kommen soll).
 
@IFR|Knuf
warum sollte man darauf warten, dass der Konkurrent ein neues Produkt entwickelt. Natürlich muss sie sich gegen die 4870X2 stellen, denn das ist im moment AMDs Top-Modell. Sonst kann man mit tests ja ewig warten und sich nie was neues Kaufen :freak:
 
Jedoch sollte man dabei nicht vergessen, dass der Vergleich von GTX 295 von 4870 X2 nicht so richtig funktioniert, da die ATi doch schon etwas älter ist und nicht gerade erst von den Entwicklungstischen kommt.
Die GTX 280 bzw. 260 gabs aber schon, als die X2 noch nicht verfügbar war ;)

cYa
 
"Von letzterem gibt es auch selbst im SLI-Modus effektiv nur 896 MB, da beide GPUs auf dieselben Daten zurückgreifen müssen."
Schön gesagt ^^
Die meisten meinen ja bei SLi zbsp 2x512MB = 1GB
 
Und wieder eine Karte mehr die die Welt nicht braucht Nvidia sollte vielleicht mal die seit Jahren vorhandenen Bugs in den Treibern fixen als wieder so ein Monstrum auf den Markt zu bringen aber was interessiert das Nvidia das ihre Schrottkarten bei einigen Usern nicht richtig laufen bzw so heiß werden das se anfangen runter zu takten.
Im übrigen sind diese Pretests allesamt für den Arsch weil das alles Spiele sind die eh bis zum Erbrechen auf Nvidia optimiert wurden.
 
1GB bzw. 1344MB Vram hätten der Karte wirklich gut getan. Somit bleibt Tri-SLI mit GTX 280 bzw. bald GTX 285 das Maß aller Dinge, wenns um maximale Qualität bei hohen FPS geht. Daran kann Quad SLI mit der GTX 295 auch nix ändern, der Vram bleibt bei der extremen Rohleistung einfach zu klein.

MfG Kasmo
 
Also ich kann da den deutlichen Vorsprung der bei PCGH propagiert wird nicht nachvollziehen. Der Test bei denen ist für die Tonne. War doch klar das bei 5 vorgegebenen Games von Nvidia die eigene Graka vorne ist. Wenn man jetzt mal COD5, Warhead und Left 4 Dead außen vorläst, sieht die Sache wieder ganz anderst aus. Dann heisst es nämlich 4870X2 ist fast gleich auf mit GTX295 und das für 150 Euro weniger.
Kann auch einen Test machen in dem ich die 5 besten Games raussuche mit der die 4870X2 performt und dann sagen die X2 ist x% schneller als die GTX295. Oder nur mit 8xAA testen. Oder... oder... oder...

Tja und nun können die Fanboys weiter flamen ;)
 
Auch das Thema Mikroruckeln werden wir genau beleuchten. Soviel vorab: Die GTX 295 stellt mit der aktuellen Treibersituation relativ wenig des ungewollten Ruckelns dar.
Als kleine Sensation kann man das schon bezeichnen, ist NV auf den richtigen Weg das µRuckeln als erster abzustellen? Dann könnte man endlich single GPU und Multi GPU Grafikkarten miteinander vergleichen ->It's about time ;)
MfG Kasmo
 
Zuletzt bearbeitet:
bor sry aber wer hat sich die bekackten diagramme auf guru3d in flash ausgedacht?!

solche aktionen sind echt unfassbar vorallem weil die diagramm trotz flash keinerlei interaktion bieten und der einziege sinn das "reinfaden" ist... so kann man auch künstlich traffic erzeugen und die cpus der user unnötig belasten -.-


@ topic...

mittlerweile wird es seitens nvidia immer schlimmer mit den benchmarks... es scheint ja bis ins kleinste detail vorgegeben zu sein wie man testen "darf" was die ergebnisse in meinen augen völlig unbrauchbar macht weil nvidia dann direkt selbst die benchmarks veröffentlichen könnte weil die ergebnisse ja mehr oder weniger vorgeschrieben werden...

damit das ganze dann glaubwürdiger aussieht lässt man diese "vorgefertigeten" ergebnisse von "unabhängigen" hardware seiten veröffentlichen... in meinen augen absolute kunden verarsche


die frage die ich mir zu diesem thema schon seit einer weile stelle ist auch ob dieses sponsoren von spieleschmieden nicht richtung unerlaubten wettbewerbsvorteil geht...
ganz einfach aus dem grunde weil man versucht über umwege und geld mitbewerber auszustechen...

wohlgemerkt mein ich hiermit nicht treiber optimierung auf bestimmte spiele die dann nur gebencht werden dürfen sondern eben schon spieleseitige optimierungen für hardware so das mitbewerber direkt nachteile erleiden
 
Zuletzt bearbeitet:
Auch wenn die Karte der 4870X2 auf niedrigeren Auflösungen davonzieht, glaube ich, dass der überwiegende Teil derer, die sich solch eine Karte leisten (können), auf höheren Auflösungen als 1280x1024 spielen. :)

Vielleicht sollte man bei dem Verbrauch dazuschreiben, wieviel die Karte kostet, wenn sie täglich zwei Stunden zu 100% gefordert wird. Da kommt was zusammen. :D
 
Aus dem Satz kann man wohl nicht sonderlich viel ableiten, dazu ist es doch (bewusst) arg schwammig formuliert. µ-ruckelt die Karte in CoD5 @100FPS? Oder µ-ruckelt sie nicht in Crysis @25-30FPS?

Jedenfalls erscheint das qualitativ zunächst nicht fundamental anders, was hier von CB bezüglich von Triple-SLI festgehalten wurde: https://www.computerbase.de/2008-11/test-spielen-auf-dem-intel-core-i7-nehalem/22/#abschnitt_beurteilung

Das Problem der Mikroruckler tritt ebenfalls bei 3-Way-SLI und bei CrossFire X auf. Allerdings sind die Frameraten beinahe durch die Bank dermaßen hoch, dass man von dem stockenden Spielverlauf nur selten etwas mitbekommt. In zukünftigen Spielen könnten die Mikroruckler ein größeres Problem werden, was aber nur schwer vorauszusagen ist. Bei den Tests konnten wir erneut feststellen, dass es im eigentlichen Spielfluss zwischen CrossFire und SLI nur kleine Unterschiede gibt – beide Technologien sind unserer Meinung nach gleichwertig, wenn ein gutes Multi-GPU-Profil vorhanden ist.

Anders sieht es dagegen aus, wenn man mehr als zwei Rechenkerne nutzen möchte. Dann hat 3-Way-SLI größere Vorteile, auch wenn man das in den eigentlichen FPS-Angaben nur selten bemerken kann. Denn die reinen Bilder pro Sekunde mit vier RV770-GPUs sind durchaus beeindruckend. Das, was man auf dem Bildschirm angezeigt bekommt, aber eher weniger. Mikroruckler sehen wir zwar nur selten, die Bildwiedergabe stockt in vielen Spielen vor allem in höheren Qualitätseinstellungen aber sichtbar. 3-Way-SLI hat dieses Problem dagegen so gut wie gar nicht.

Dass wie im Normalfall eigentlich obligatorisch (sein sollte), ein gutes SLI-Profil mitgeliefert wird, wenn nvidia eng mit dem Hersteller zusammengearbeitet hat, würde ich nicht als "revolutionär" bezeichnen. Solange AFR genutzt wird, solange wird auch das Thema µ-Ruckler ein Thema sein. ;)
 
Zurück
Oben