Bericht Bericht: Nvidia GeForce GTX 400

Wo sind 0,7 Sone doppelt so laut wie eine nicht gemoddete HD5870?
http://edel-grafikkarten.de/ATI/HD-5870/HD-5870-Prolimatech-MK-13-Edition
Gleichzeitig günstiger, wobei die 2GB Version noch fehlt, aber die kommt bestimmt auch bald. Wahrscheinlich wieder OC mit 0,3 Sone, wobei dann ist ja die gerade verlinkte OC stimmt. :rolleyes:

Dafür schluckt sie auch fast 100Watt mehr.
Wie gesagt die 2GB Versionen vernichten zum größten Teil den "Zukunfts Vorteil" der Tessellation von Fermi -> siehe Metro. + 100Watt mehr als ATI, jeder sagt dir die ganze Zeit schon -> und zurück damit. Zum Glück gibts das 14 Tage Rückgaberecht.
 
Zuletzt bearbeitet:
Die MK-13 Edition ist ja wohl gemoddet, schließlich ist das keine Referenz-HD5870.
 
Hier wird überhaup nichts "vernichtet" - Der Tessellation Vorteil bleibt bestehen sonst würde die 5870/2GB bei den anderen Tests auch weit aus mehr Framerates bringen - tut sie aber nicht. Hast du nicht den Test hier gelesen? Das Fazit sagt doch eindeutig das dass die GTX hier im Vorteil ist oder denkst du dass es hier nur um VRAM geht?

Zitat CB:
Beim Einsatz des DirectX-11-Features Tessellation zieht die GeForce GTX 480 geradezu Kreise um die Konkurrenz.

Das ändert die 2gb version auch nicht und wird sie auch nicht. Bei Metro unter extrem Bedingungen ging der alten 5870 einfach nur der VRAM aus mehr nicht :freak:

Trotzdem zeigt die 5870/2GB wirklich sehr gute Leistung und ist zu empfehlen.
 
Ja ist ja schon gut, bezog mich eigentlich auf den internen Edel-Grafikkarten Vergleich mit den MK-13, hab ganz vergessen das die HD 5870 MK-13 sogar OC auf 900MHz mit 0,3 Sone auftrumpft.

Das Fazit sagt doch eindeutig das dass die GTX hier im Vorteil ist oder denkst du dass es hier nur um VRAM geht?
Ja ich behaupte das der Vorsprung von Fermi fast schon innerhalb der Messtoleranzen liegt mit einer HD 5870 2GB erst recht mit OC dieser. In Spielen bleibt von der überlegenen Tessellation Leistung nicht viel über, weil eben auch noch andere Sachen gleichzeitig berechnet werden müssen. Insofern hab ich von der Tessellations Leistung von Fermi noch nie all zuviel gehalten... Rechnet man noch mit ein das die 2 GB ATIs 100Watt mehr verbrauchen dürften(per OC dann in Leistung umwandeln), dann sind sie sogar schneller als jede Fermi...
 
Zuletzt bearbeitet:
OC ist nicht ATI Exclusiv und inwiefern Dx11/Tessellation in zukünftigen Spielen angewendet wird weiß niemand von uns jedoch solltest du nicht vergessen das Unigine Heaven und Stonegiant keine simplen Techdemos sind sondern Engines die in Spielen Verwendung finden. Wir werden sehen - jedoch denke ich z.b an die technickfreaks Crytek und Crysis2 - ich bin mir eigentlich ziemlich sicher dass sie von Dx11 sehr gut gebrauch machen und da sie ja von NV ein neuses Spielzeug bekommen haben - werden sie sicherlich dies auch absolut auslasten.
 
technickfreaks Crytek und Crysis2 - ich bin mir eigentlich ziemlich sicher dass sie von Dx11 sehr gut gebrauch machen und da sie ja von NV ein neuses Spielzeug bekommen haben - werden sie sicherlich dies auch absolut auslasten.
Mal schaun in Crysis ist ja eine ATI auch auch schneller als eine NV, zugegeben ATI schummelt dabei mit dem AF Filter, aber das Crysis 2 mit einer NV schneller läuft als mit einer ATI muss sich erst noch zeigen.

Vorallem wenn die Gerüchte über den Tessellation Boost mit dem neuen Catalyst stimmen, sieht eine GTX 480 richtig alt aus...
 
Zuletzt bearbeitet:
warte erstmal ab mit dem Tess boost.Glaube ich nicht.Interview stammt vom 1 April
 
Die 480er ist halt etwas für Enthusiasten, und Enthusiasten ist es egal, wie laut oder wieviel Strom die Karte zieht, in Summe ist wichtig was dabei heraus kommt, und das sind eben ein paar % mehr an Frames ohne eine 5970er kaufen zu müssen, die Micro ruckelt wie nichts anderes *g*
 
Ich werf mal was gemeines in die Runde... mag sein das die GTX480 Leistungsvorteile in einigen Bereichen hat, allerdings gibt es davon ganze 8000 Stück (GTX470 und 480 zusammen).

Zugegeben, ATI hat vom Launch der GTX und der Radeon HD 5 im September letzen Jahres auch erst 6 Millionen einheiten verkauft. Oder kam die Gtx irgendwie Monate später weil nvidia die Welt mal wieder über Monate belogen hat? *grübel*

Nvidia hat Physx... hm... toll... man könnte auch Havok für Games nehmen, wird auch neben anderen offenen Physikengines die Zukunft sein. Cuda braucht man in Games nicht, das geht wie Physik auch über OpenCl.

So was bleibt da noch? 3d? ja dafür braucht man SLI, das wird teuer, dazu noch die 3D Brille + Monitor und ein richtig fettes Netzteil und einen Kühlschrank wo man das alles einbauen kann.

Mal davon ab das diese billigen 3D Brillen oft Übelkeit, Kopf- und/oder Augenschmerzen hervorrufen und wenns ganz dumm läuft zu epileptischen Anfällen führen können, sagen viele das es zwar nett ist, aber auch kein Kaufgrund, da es auf Dauer anstrengend ist und die Brille stört.

3d Brillen für die HD5k Serie kommen auch bald, nicht von Ati, sondern einer Firma die auch Brillen für TVs herstellen wird. Die kann man dann auch für was anderes als nur zum zocken nutzen.

Auf der andern Seite bietet die HD5k Serie Eyefinity was 1000x besser ist als 3D, da man einfach viel mehr sieht und somit noch eher in das Game eintauchen kann.

Klar man braucht 3 Monitore, klar haben die einen Rand (welche ohne Rand in einerm 3er Gehäuse kann sich keiner leisten) aber das wird sich mit der Zeit ändern. Das man einen mit Displayport braucht, bzw einen Adapter ist dumm gelaufen, der 2te Taktgeber sollte da noch rein, aber man wollte ja vor Nvidia auf dem Markt sein. Nur hat sich Nvidia dann ja gute 6 Monate Zeit gelassen und weiter die Stimmungs angeheizt.

Sowas wie Eyefinity hat Nvidia zwar auch, aber das geht wieder nur mit SLI per Software.

Der Stromverbrauch ist eine Sache, die Hitze und die Lautstärke eine ganz andere. Ich will beim zocken nicht genervt werden, und die GTX-Karten nerven gewaltig. Dafür das man einen hübschen Batzen mehr Geld dafür hinlegen muss ist das schon arm.

Eine trippleslotkarte wäre eventuell leise zu bauen, da es aber nur 8000 Chips bisher gibt, wird sich keiner diese Mühe machen. Außerdem wäre das für viele ein No-Go

Die Mehrleistung muss im Moment verdammt teuer erkauft werden, für den Preis bekommt man ja eine aktuelle Ati Karte und noch eine der nächsten Generation. Was ist da wohl zukunftssicherer?

Tesselation gab es erstmal in der HD2900. Seit dem ist das nicht genutzt worden. ob sich das auf breiter front durchsetzen wird ist fraglich, da Konsolen damit nicht viel anfangen können. Die Xbox sollte es können, da ja ein Ati Chip drinsteckt (bevor jetzt einer daherkommt mit den defekten Chips, Microsoft hat das versaut, die haben das Design von Ati erworben, überall gespart und damit die Selbstmörderchips geschaffen) aber viel Tessalationleistung steckt da wohl auch nicht drin.

Bei allem Fortschritt muss man bedenken das für die Spieleentwickler auch die Kunden mit Mittelklassekarten eine wichtige Rolle spielen und da ist die Tesselationleistung sehr mau. Auch bei den kleinen GTX wird die sehr bescheiden ausfallen.

Anhand der Stückzahlen wird sich die Entwicklung eher an den Ati Karten orientieren.

6 Millionen zu 8000 ist ja wohl eindeutig.

Das Zukuntfsgerede ist also quark, zumal keiner weiß was die nächste Generation von Ati leistet. Die GTX ist neu und tritt gegen eine mehrere Jahre alte Architektur an und schlägt diese hier und da.

Und was wenn Ati jetzt was rausbringt was Fermi um 1,5 fache schlägt?

Wie zukuntfsfähig Hardware ist, kann man nur im Nachhinein sagen, wenn man weiß wie sich über die Jahre gehalten hat und nicht vorher.

Von Ati kommt Ende dieses Jahres schon was neues (neuer Kern + alte Shaderarchitektur), ob Nvidia vorher mal die Mittelklasse draußen hat? Und im Q1 oder Q2 des nächsten Jahres kommt wieder was neues.... (diesmal komplett neuer Chip)

Sehn wir mal was von den 8000 Fermis dann noch übrig bleibt.
 
@wattebaelchen

Schön viel geschrieben, aber halt sehr stark durch die rote Brille. In diesem Fall hätte es auch gereich wenn Du geschrieben hättest, I love Ati and I hate Nvidia.
Alles was Nvidia macht schreibst DU schlecht, sei es die Physx Funktion 3d Funktion oder dergleichen.
Du schreibst was von irgend einem Hersteller, der irgendwann irgendwelche Brillen bringen wird, nur wann liest man nirgends.
Ausserdem weiß niemand ob es wirklich nur 8000Stk Karten sind, das sind alles eher Vermutungen und daher nicht haltbar, jeder der eine GTX wollte hat auch eine bekommen, kann man in anderen Foren sehr gut nachlesen. ALso mit verlaub ein Text voller Irrsinn.
 
Anhand der Stückzahlen wird sich die Entwicklung eher an den Ati Karten orientieren.
Solange es NVs TWIMTBP Programm gibt und NV massig Karten + Mitarbeiter zu den Entwicklern schickt, wird auch auf Nvidia Karten programmiert, da spielt es überhaupt keine Rolle wie toll, oder günstig die ATI Hardware ist. Solange die da nicht auch mal was ordentliches auf die Beine stellen, wird hier NV vorne sein.

Könnt ihr euch noch an das GTA 4 und ATI Karten erinnern, jetzt beim Add on hätten sie mal zeigen können das es mit den ATI Treibern trotzdem klappt beim 2. Anlauf wenigstens -> schon wieder ins Fettnäpfchen getreten:
gelegentliche Grafikfehler auf ATi- Systemen (PC)
http://www.4players.de/4players.php...nd_Theft_Auto_Episodes_from_Liberty_City.html

Also mal ehrlich ATI scheint überhaupt kein Interesse zu haben ihren schlechten Ruf bei den Treibern bzw. Treiberqualität zu erhöhen, ich seh da nicht mal ein bemühen... Muss man hald wieder warten bis der Fix dann irgend wann mal eintrifft, ist auch kein Ding, man hat ja nur ein paar hundert € gezahlt, macht man ja gerne... :rolleyes:
 
Zuletzt bearbeitet:
Der Fehler lag bei dem Beispiel wohl nicht bei ATI.
Zudem lief GTA IV auf geschätzt 90% der Rechner nicht ordentlich. Unabhängig von der Karte im Rechner.

edit:
Das Einzige was man ATI vielleicht vorwerfen kann ist, dass sie nach wie vor Samples beim AF(heute mal mit der HD4850 Grid gespielt und das Flimmern hat mich angekotzt ) sparen, was sich mit der HD5k scheinber gebessert hat.
Dafür kostet es dann aber acuh weniger Leistung und man hat mehr FPS .
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Also mal ehrlich ATI scheint überhaupt kein Interesse zu haben ihren schlechten Ruf bei den Treibern bzw. Treiberqualität zu erhöhen, ich seh da nicht mal ein bemühen... Muss man hald wieder warten bis der Fix dann irgend wann mal eintrifft, ist auch kein Ding, man hat ja nur ein paar hundert € gezahlt, macht man ja gerne... :rolleyes:

Das kann man so nur unterschreiben, es gibt genug Threads wo sich die Leute bezüglich der Leistung Ihrer 5970 beschweren. Die haben laut Fraps zwar 140 Bilder die Sekunde, aber trotzdem ruckelt es die ganze Zeit. Was bei Bad Company 2 abgeht oder abging braucht man auch nicht erwähnen.
Mit einer Nvidia Karte hat man in Summe einfach weniger Probleme, weswegen Sie auch heute noch gerne gekauft werden, Stromverbrauch hin oder her, gut ist es sicher nicht, aber der Stromverbrauch ist mir persönliche wesentlich mehr egal als wie wenn ich die ganze Zeit Probleme mit dem Treiber hätte. Physx und die 3D option sind nette Features und wenn man Sie dazu bekommt, Warum nicht ?

5970er Thread
 
Zuletzt bearbeitet:
Das hat aber dann eher was mit dem CF zu tun. Beim SLI sollte man ähnliche Probleme haben.
CF bzw SLI sind nach wie vor Nischenlösungen und es ist recht normal, dass mal nicht alles funktioniert.
Die meisten versuchen aber auch nicht eventuell mal mit dem nHancer zu optierem. Stattdessen posten sie zuerst ihrem Unmut in Foren und heizen die Stimmung noch an.
 
@ Maeximum

ich weiß nicht wo du rausliest das ich alles schlecht mache...

3 Monitorbetreib bei nvidia geht nur über SLI
3d geht nur über SLI

Das kostet einen Haufen Geld und hat halt viele Nachteile. Ist einfach so, das hat nicht mit schlecht machen zu tun, es ist schlecht.

Das 3D Brillen nocht nicht auf dem Markt sind weiß ich auf, die kommen aber, und die TV Brillen werden auch größtenteils mit der Ati Hardware laufen. Dann kann man sich seine Brille aussuchen... Nvidia hat 3D auch nur von Elsa gekauft und es gibt nur eine Brille. Da hat man keine Auswahl.

Physx bringt keine Vorteile gegenüber andern Physikengines und über kurz oder lang wird Physx an Relevanz verlieren. Es gibt halt (bessere) Alternativen. Ebenso für Cuda. Es ist halt technisch überholt und nichts anderes.

Mag sein das die reine Grafikleistung besser ist, gegen eine alte Architektur, aber in Sachen Innovation ist Eyefinity einfach nutzerfreundlicher.
 
Ich spiele mich immer mit dem Nhancer, und kann dieses Programm nur jedem Nvidia User empfehlen

Edit : @Wattebaellchen, ich mein das nicht böse oder so, man liest nur relativ rasch welcher Hersteller Dir eher zusagt, ich bin ja ganz offen und ehrlich ein grüner, warte aber trotzdem noch auf einen Refresh der neuen Generation, und natürlich interessiert mich der 200er Treiber der bald kommen sollte.
 
Zuletzt bearbeitet:
Naja,
3D (3D Vision Surround) bei Nvidia bedeutet 2 Grafikkarten
3D bei AMD bedeutet eine Grafikkarte
Und funktionieren tut das 3D von AMD, dass hat man auf der Cebit gesehen...

Mehrmonitorbetrieb>2 bedeutet bei Nvidia 2 Grafikkarten
Mehrmonitorbetrieb>2 bedeutet bei AMD 1 Grafikkarte
Mehrmonitorbetrieb>4 bedeutet bei AMD 1 Grafikkarte (Nur mit Eyfinity Version, ist aber sowieso Nische..)
Mehrmonitorbetrieb>4 bedeutet bei Nvidia 3 Grafikkarte (Aber wie gesagt Nische)
 
Zuletzt bearbeitet:
Hm,
3DVision sollte glaube ich auch nur mit einer Nvidia Karte gehen. Laut der Beschreibung geht das auch mit älteren Karten.
 
Die 3D Demonstration von nvidia mit einem monitor lief aber auch auf einem SLI System?!
 
Zurück
Oben