News nVidia NV30 (GeForce 5) Benchmarks im Netz?

Also bevor Ihr Euch hier weiter über ATI und NV streitet kann ich Euch gleich versichern:

Diese Benchmarks sind definitiv falsch!

Warum? Ganz einfach. Seht Euch doch mal die Geschichte der Grafikkarten ganz genau an. Sowohl bei NV, ATI oder 3DFX.

Wenn eine Grafikkarte sagen wir mal im SpielX 50 Frames schafft, so holt die nächste Generation in den selben Settings ca 70 Frames raus. Und die nächste Generation ca 90 Frames.

Die einzelnen Verbesserungen sind nur auf bestimmten Gebieten (höhere Auflösung, FSAA oder AF) stärker zu merken.

Ansonsten bringt jede weitere Generation max. 25 % Mehrleistung. MAXIMAL!.

Doch diese Benchmarks versuchen zu sagen das NV nächster Chip also alles was da war um das ca. 2,5 fache schlägt. Also 250 % Mehrleistung bringt.

Das ist definitif ein Fake!

Warum sollte NV das auch tun. Man will doch mit jeder Generation sein Geld verdienen. Und das geht nun mal nicht wenn man gleich 2 oder 3 Generationen überspringt.
 
Diese Benchmarks sind sicher nicht richtig.
Ich glaub zwar dass der NV30 stärker sein wird als der R300 aber nur um 20 - 30%!
Aber beim FSAA könnte er wirklich gut werden! In einem der beide GPUs befindet sich der M-Buffer (weiterentwickelter T-Buffer von 3Dfx ). Dadur ist FSAA ohne Performance Verlust möglich!
Nvidia hat bessere Treiber, er wird in 130nm Technik gebaut und er wird höhere Taktraten haben!
Ich rechne beim Chip zwischen 350 und 400 Mhz und bei der Ram (256 Bit) mit 350 bis 450 Mhz!
Die TT&L Engine ist sicher ebenfals stärker (ca. 400 - 500 Millionen Polygone)!
Aber Karten mit dem Chip werden sicher über 500 Euro kosten.
Dann kannst ne R300 Karte (128 MB) für 350 bis 400 Euro haben.
 
absolut lächerlich und ein zeichen dafür wieviel angst nvidia wirklich hat die marktführung zu verlieren. ich steige nun jedenfalls um, genau wie ich es damals von 3dfx zu nvidia getan habe. ati hat nvidia nunmal überholt.
 
2-x mal schneller kann schon sein, die Frage ist nur im Bezug auf was? Der Speicher eines NV30 kann 2x schneller sein als der eines NV25. Der Pixel- oder Vertexshader kann x mal schneller sein. Das alles heißt aber nicht, dass auch die GESAMT Performance 2x oder 4x schneller ist. Zudem gibt es auf absehbare Zeit nicht ein einziges Argument sich eine ATI 9700 oder NV30 zu kaufen. DX9 wird erst im Herbst/Winter erscheinen. Bis das die ersten Spiele und Anwendungen auf DX9 Basis kommen, wird wohl noch sehr sehr viel Wasser dem Rhein runter fließen. Wozu also dieser ganze Aufstand? Zudem sollte man eh die Finger von ungeraden GeForce Modellen lassen. Den erst die geraden Modelle können das umsetzen was bei den ungeraden versprochen wurde.
 
wieso steht diese lachhafte meldung eigentlich als topnews da, während die seriösen berichte zum r300 nur unter den normalen news stehn ?
 
Radeon 9700 oder GeForce 5?
Wer brauch denn sowas?
Kann ein Spiel denn mehr als flüssig laufen?
 
Mein Neverwinter Nights läuft auf meiner TI4600 gerade so in 1024x768 mit 4x Antialiasing und Anisotropen Filter flüssig...
Meiner Meinung nach ist die Rohpower der neuen Chips bei aktuellen Spielen auf jeden Fall noch von Nutzen. Ob dies jedoch 600 € Wert ist, sollte jeder für sich eintscheiden!
 
...das ist doch mal ein netter sehr verspäteter Aprilscherz ;)
Die Beiträge von Nicky und Fuzzy fassen ganz gut zusammen, was überhaupt MAXIMAL möglich ist.
Diese über 10k Punkte Differenz kommen schon allein deshalb nicht in Frage, da ein für solche highend Grakas nicht gerade moderner Benchmark wie 3DMark2001 doch auch stark CPU-limitiert ist.

Dass Jan hier aber "Die Benchmarks entsprechen der Wahrheit" als Möglichkeit auflistet... *kopfschüttel*
 
NV30 kann ja mit ein ganz anderen Testsys. getestet worden sein, als ATI, also die Bench Ergebnisse sind von keiner großen Bedeutung. Obwohl ich für NVidia tendiere, das die der ATi Radeon 9700Pro trotzdem überholen wird mit den NV30 Chip, den NVidia setzt meist auf arge Roh-Power, nicht so kleckerweise wie es ATi immer tut.
 
Die Benchmarks sind 100% richtig. Es handelt sich wahrscheinlich um den NV90 Chip. :) Glauben versetzt Berge.

PS: ATI vs. NVIDIA Round 2
 
eine Beobachtung die ich sehr interessant finde, ist die zunehmende Ablehnung von Unternehmen die die Marktführerschaft ergreifen
So befinden sich hier unzählige Nvidia-Hasser, die (davon bin ich zumindest überzeugt) noch vor 2 Jahren die allergrößten Nvidia-Verfechter waren.
Außerdem möchte ich noch bemerken, dass die Marketingabteilung von Nvidia wesentlich bessere Arbeit leistet, als Ati das tut bzw. tun sollte. Oder hat von euch schon irgend jemand extrem beeintruckende Videos bzw. hauseigene Leistungstest gesehen (wie z.B. das Wolf-Video?!?! von Nvidia bei der Vorstellung der Geforce4 oder die Unterwasserwelt des Matroxvideos).
Zudem hätte Ati im Vorfeld viel früher Informationen rausgeben müssen und Versprechungen machen müssen, die sämtliche interessierte Käufer schon vor dem eigentlichen Launch der Karte heiß machen (so wie damals als Nvidia die Geforce3 schon ein halbes Jahr vor der Auslieferung als Extrem-super-mega schnell darstellte - der Rest ist bekannt).

In dieser Beziehung kann ati von Nvidia somit noch einiges lernen.
 
14 bis 15k punkte hatten auch viele GF4 Ti4600 systeme (übertaktete). deswegen sehe ich die r9700 als nicht soooo toll wie sie gelobt wird.
ich bin ziemlich sicher dass die nv30 viel schneller wird, ob DIESE benchmarks stimmen weiss ich nicht.
 
Die Ergebnisse sind bestimmt ein Fake.
Trotzdem würde ich noch auf den NV 30 warten oder eine GF4 Ti 4600 für 350€ (bald weniger) kaufen.
Mit Nvidia ist man immer auf der sicheren Seite.
(BSP: Aquanox mit der Radeon 8500)
 
Toll Aquanox DAS REFERENZ Spiel schlechthin... :D
Wird wohl von jedem NV-Fanatiker immer wieder gern zitiert?!
Da kann ich auch sagen kauft euch Grakas von 3dfx (R.I.P) dann seit ihr auf der sicheren Seite (Bsp. Ultima 9 auf nicht Glide Grakas)

Hab ne ATi und bin voll zufrieden.. Alles läuft und nix ruckelt, was will man mehr?!

PS.: Ich bin damals auch auf die Versprechungen von NV reingefallen und hab mir ne GayFurz2 geholt, die von meiner Voodoo2 in GLIDE locker überholt wurde... *grr*
Alles Marketing Geblubber!!

Kauft euch einfach das was für euer Geld grad schnellstes (nach wahren Benchmarks) auf dem Markt ist und ihr werdet glücklich sein...
 
Ich hab auch einen Chip entwickelt. Der existiert zwar auch nur auf dem Papier ist aber ungefähr doppelt so schnell wie der NV30...
Das ist natürlich keine Ente und entspricht der Realität...
Vielleicht sollte man bei Computerbase einfach nur sgaen: "Die Benchmarks sind offensichtlich nicht zu beweisen, von daher sehen wir von einer Veröffentlichung ab." Wäre jedenfalls um einiges vernünftiger als diese Sensationsgier und aus dunklen Quellen hervortretenden Gerüchte auch noch zu unterstützen. Bitte nehmt das als begründete Kritik auf.
 
Crazy_Bon ohne Spinat:
Kraft ===

Crazy_Bon mit Spinat:
Kraft ==========

Resultat: Esst mehr Spinat und ihr werdet so stark wie ich. ;)
 
MEINE MEINUNG:

Wir haben ja in den letzten Jahren immer wieder Hoax-Meldungen gehabt, die in diese Richtung gehen. Sicherlich wird der NV30 stärker werden, aber das ist der Lauf der Dinge.
Außerdem darf man nicht vergessen, dass ATi und NVidia solche Benchmarks immer auf den teuersten Karten basieren lassen - und die sind wieder hundsteuer.

Ich für meinen Teil bin bis Sommer 2003 mit meiner GeForce 4 Ti4400 auf alle Fälle ausreichend versorgt. Bis dahin wird man über solche Meldungen wahrscheinlich nur lachen können...

XStoneX
 
Ich halte diese Werte gar nicht für unrealistisch. Letztlich waren die folgenden Grafikgenerationen immer bis zu 4x so schnell wie die vorherige. Da sich nVidia viel Zeit lässt, glaube ich das ATi Weihnachten vergessen kann.
Das die Werte hier natürlich gefakt scheinen und sind ist wohl klar, denn der NV30 ist immer noch in der Entwicklungsphase.
Dennoch soll der NV30 mit 350 Mio. Polygonen (3x so viel wie GF4 Ti4600) und bei 1600x1200 und FSAA 4x ohne Verluste zum normalen Modus laufen (und das ist offiziell von nVidia). Nicht zu vergessen die 2. GPU die exclusiv zur Vertex- und Pixelshader-Berechnung gut sein soll...
Ich wette, nVidia hat Weihnachten die Performance UND Technologie-Krone wieder inne!
 

Ähnliche Themen

Antworten
127
Aufrufe
15.535
Anonymous
A
Zurück
Oben