News nVidia schimpft über 3DMark03

nVidia sollte 'einfach' versuchen das Speicherinterface auf 265bit aufzustocken, dann ziehn' die Weit anner 9700pro vorbei

(
 
@ Herrn Michael Slomma
>>>..den zahlreichen Niederlagen, die dieser Chip gegenüber der relativ betagten Radeon9700 hat einfahren müssen und dem Zugeständnis, daß die GeForce FX nicht mit dem geplanten Chiptakt von 500MHz produziert wird,..>>>

Guten Tag,
es ist doch hausgemacht wenn man von Niederlagen spricht die mit z.B. einen Benchmark von Unreal Tournament gemacht werden spricht. So etwas ist keine Niederlage, sondern eben hausgemacht. Eine echte Niederlage hat es nie gegeben und wird es auch nie geben. Wie sollte die auch aussehen?
Es ist doch so dass die Macher von 3D Mark jetzt ATI bevorzugen! Wer könnte von einer Niederlage sprechen wenn etwas so offensichtlich ist?
Desweiteren, ist die zweite Aussage total falsch. Der Chip wird vielleicht in nur geringen Mengen produziert aber er wird!

Welchen Wert soll also eine derart Firmengesteuerte News haben?
3 DMark ist und war ein "Mist Mark". Jeder weiß dass, nur die Fans des jeweiligen Spitzenreiters nicht. Zumindestens solange bis es einen neuen Spitzenreiter gibt.
 
Das ist hier echt wie im Kindergarten. Warum meckern alle auf die GeForceFX herum??? Keiner von euch hat sie in seinem PC und deshalb hat auch keiner von euch dafür Geld ausgegeben.
Gut mit der FX sieht´s nunmal nicht ganz so gut aus wie mit den vorherigen Grafikchips von nVIDIA. Aber ATI hat eine ganze Zeit lang auch nur Schrott gebaut der zu nichts zu gebrauchen war (ATI Rage-Serie). Ich hatte auch mal eine ATI-Karte (ATI Xpert 2000). Die Bilddarstellung konnte man ja noch so durchgehen lassen, aber die Performence konnte man total in die Tonne kloppen. Ausserdem gab es bei ATI große Treiberprobleme was sich in der Zeit angeblich gelegt haben soll (kann ich nicht beurteilen, da ich keine ATI-Karte mehr besitze und auch nie mehr besitzen werde :-)). Ich war immer sehr zufrieden mit den Karten von nVIDIA die ich mir gekauft habe und glaubt mir das waren nicht wenige (nVIDIA Riva, nVIDIA TNT2, nVIDIA GeForce2 GTS, nVIDIA GeForce4 Ti 4600).
 
Hehe,

da zeigt sich wieder mal, dass NVidia mit der Situation nicht umgehen kann und die Nerven ein wenig blank liegen im Moment, anders kann ich mir diese Pressemitteilung nicht erklären.

Schon schade, aber wer will schon nen Hochleistungsfön für 500€ in seinem Rechner haben? Bei Aldi haben se grad einen mit 1800 Watt für 8,99€ und der macht sogar noch mehr Power als die FX ;-)

Gruss
 
als ob ich nicht gesagt haette, aber ich korrigiere mich gern, nicht die ati-fanatiker schimpfen diesmal sondern die nv-juenger !
*ATOMLOL*

fand den kommentar auf 3dcenter gut, mal warten was passiert wenn neue nv-chips aufeinmal besser beim 3dmark03 abschneiden.

btw: das der bench jenseits aller aussagekraft ist liegt doch auf der hand, oder warum macht ne 4600 weniger punkte als ne 9500, nur wegen dem dx9-test, der damit wohl "etwas" ueberbewertet sein duerfte

btw: auch diesen test werde ich genauso nicht installieren wie ichs mit dem 01er nicht gemacht hab. :D Was bringt nçmir nen bench, wenn die realitaet in den games anders aussieht.
 
als ob ich nicht gesagt haette, aber ich korrigiere mich gern, nicht die ati-fanatiker schimpfen diesmal sondern die nv-juenger !
*ATOMLOL*

fand den kommentar auf 3dcenter gut, mal warten was passiert wenn neue nv-chips aufeinmal besser beim 3dmark03 abschneiden.

btw: das der bench jenseits aller aussagekraft ist liegt doch auf der hand, oder warum macht ne 4600 weniger punkte als ne 9500, nur wegen dem dx9-test, der damit wohl "etwas" ueberbewertet sein duerfte

btw: auch diesen test werde ich genauso nicht installieren wie ichs mit dem 01er nicht gemacht hab. :D Was bringt nçmir nen bench, wenn die realitaet in den games anders aussieht.
 
du sagt es 44 & 45, ich installier mir 3d mark lediglich, weil ich spass daran habe, grafikdemos zu sehen :D
 
uups, bitte loeschen diesen und den doppelten loeschen, war keine absicht, dachte die seite waere noch nicht aufgebaut gewesen - sorry
 
Also der 2001er war ja auch kein guter Benchmark. Nur da war es NVidia noch egal. Es wurde immer mit 3DMarks 2001 von xxxxx geworben.

NVidia überholt alle...

Da war der Benchmark auch schon mist. Das habe ich als noch aktueller NVidia nutzer (dem schon bei einer abgespeckten NV31 angst und bange wird) schon immer gesagt.

Nur der 3DMark ist, wie z.B. Zewa bei Taschentüchern und auch mit NVidias Hilfe, zu einem Benchdenkmal geworden.

Und wenn eine NV31 jetzt kommt, die die Leistung der TI4600er haben soll und nur bei AA usw nicht mehr so stark einbricht, was bringt die?

Die kann kein DX9.0+ der GF FX und dürfte bei echten Shader 2.0 Nutzern auch wohl hinter ATI 9700 liegen. Dann zum Preis der jetzigen Ti4200 (Also 160-250Euro). Für 249Euro gibt es die Connect 3D ATI 9700. Da bekomme ich DX9 Leistung für den NVidia NV31 Preis, die ja laut NVidia TI4600er Leistung bringen soll.
 
So, nVidia hackt also auf einen Bench rum der dazu da is GRAKAS zu testen!
und nu hacken se rum weil Futuremark neben PS 1.1 auch optional PS 1.4 der R200 und R300 unterstützt. wnen der Mark halt PS 1.4 erkennt werden soweit ich bisher gelesen hab' weniger Poly's benötigt und entlasten damit die GraKa. also müssen DX 8.0 Karten mehr ackern.
also sind se sauer das die Ati's durch mehr features schneller sind. was wnen se im NV25 auch PS1.4 anstatt 1.3 verwendet hätten? sonst war doch nV zuerst immer darauf fixiert den treiber für den Mark zu optimieren anstatt auf Spiele (soviel zum thema Spiele anstatt benches zu nehmen.)

ich würd erstmal sagen warten wa erstmal auf neue Treiber mit Optimierungen für den Mark.
Irgendwo finde ich das mit den wenigen Punkten aber nicht schlecht.Gerade beim GraKa kauf hat man ne gute vergleichsmöglichkeit was GraKas in zukünftigen spielen bringen werden, ergo mehr entwicklung und mehr nachfrage nach top Produkten. Selbst wnen jetzt DX8 karten runtergeputzt werden(DX7 ja schon siet dem 2k01).
 
Was soll man mit nem Benchmark der einem sagt nen 1000 Thunderbird mit Radeon 9500 ist schneller wie nen XP2700+ mit Geforce4Ti... Weiter von der Realität entfernt kann man doch gar nicht mehr sein! Und wenn der Pixelshader 1.4 nicht von Nvidia unterstützt wird dann wird denauch kein Spieleprogrammierer eisetzen, ihm würden viel zu viele Potentielle Kunden wegfallen! Ausserdem hätte ich mir für nen 177MB Benchmark mehr Tests mit Aha Effekt gewünscht, die paar Sachen die da drin sind sind doch nen Witz!
 
Und da predigt NVidia noch den Unsinn mit 128 Bit Präzision. Fakt ist, dass diese nicht pro Farbkanal gelten, sondern pro Pixel. Also 32 Bit pro Farb- und Alphakanal. Nimmt man weiterhin dazu, dass das menschliche Auge selbst mit 8 Bit Farbtiefe überfordert ist und dass selbst für Oversampling ohne Performanceverlst bei intelligenter Programmierung nur 9 Bit benötigt werden, und selbst absolute DAUs sowas mit 12 Bit hinbekommen... Nimmt man weiter hinzu, dass selbst ein übelstes 1024-Byte-Shaderproggi höchstens einen Rundungsfehler von 4 Bit generiert, würden 16 Bit FP also vollkommen ausreichen - auch für den Alphakanal bzw. Texture Adresser.
NVidia hat 128 Bit realisiert, aber wenn sie die tatsächlich notwendigen 64 Bit nutzen würde, wäre sie aufgrunde der Parallelisiernug DOPPELT SO SCHNELL. Zieht euch das mal rein - nur eine einfache Änderung im Chip-Design, neue Spezifikation und plötzlich rast sie der 9700pro meilenweit voraus.

Deshalb mein Slogan: NVidia - ungenutzte Chancen.
 
Tja Nvidia, nicht maulen sondern verbessern. Nach jeder Scheiße geht´s aufwärts. Außerdem ist es doch geil, wenn man ne DX9-Karte hat die nicht mal alle DX9-Funktionen verarbeiten kann :D damit wäre ne Werbung als

"Erste DX 8,5 Karten verfügbar!" wohl besser :D :D :D

LoL Nvidia
 
LOL
jetzt bringt nvidia bald nen neuen deto raus und schon kriegt man mit ner gefoce 2 mx wieder 6000 punkte
LOL
 
Erstmal nicht so aufregen welche Karten nun besser sind.
Denkt man an den Release der ATI-Karten zurueck, dann waren die damals ziemlich besch...eiden,dank schlechter Treiber.
NVidia braucht erst noch richtig gute Treiber für die FX.
Und das Lärmproblem werden sicher die GraKa-Hersteller in den Griff bekommen.
Ich sehe deshalb dem Ganzen ziemlich gelassen entgegen.
Vorallem da schon die nächste GraKa-Generation in den Startlöchern steht.
 
Naja, sooooo neu sind die Treiber für die FX auch net (Verzögerte Produktion, interne Tests). Die sind schon lange aus der Beta-Phase raus.

Öhm, wie willst das Lärmproblem in den Griff bekommen? Die extreme Abwärme macht es ja fast unmöglich die Karte, außgenommen WaKü, leise zu kühlen.

Neues Spiel, neues Glück
 
@seppig

Vorteil höherbittigen Renderings sind vielmehr das dadurch Rundungsfehler bei z.b. Alpha-Opertaionen vermieden werden können weil insgesammt mehr Werte pro Farbkanal zur Verfügung stehen.Falschfarben oder Beleuchtungsprobleme durch Rundungsfehler können dadurch besser vermieden werden, es geht nicht primär um die mehr-möglich-darstellbaren Farben, mehr um die interne Berechnung dieser.
Die Farbe wird bestimmt durch RGB + ein Alpha-Kanal. RGB = Rot,Grün,Blau (aus der Kombination/Mischung dieser Farben lassen sich ja dann bekanntlich alle Farben darstellen) wobei 8bit pro 4Kanäle verwendet werden. 3 x 8Bit für die Farben (RGB)
und nochmal 8Bit für den Alpha-Wert, macht insgesammt 4x8=32Bit.

Für Truecolor reicht also 24Bit, 32bit weil eben noch die 8bit-Alpha-Werte hinzukommen

Alpha = die Transparenz die jetzt noch zusätzlich quasi
als "Effekt" oer "Vermischer" den Farben auferlegt werden kann. (Z.b. "halbdurchsichtige" Texturen mittels
Alpha-Belding.)

Bei höherbittigen,internen Rendern (z.b. höhere 128 Bit Präzision) kann jetzt nun genauer (weil insgesammt höherbitiger) gerechnet werden was ansonsten zwangsläufigen Rundungsfehler vermeidet, es stehen auch mehr Bits für den Alpha-Kanal zur Verfügung.Durch solch Rundungsfehler zu dunkle Räume, schircher-grünverzert-gerasteter Rauch zum Beispiel oder schirche Render-Abgrenzungen allgemein können so vermieden werden weil besser und genauer berechnet werden kann was Farbabstufung/Transparenz und anderes mehr betrifft.

Dazu gibts nen guten Link mit Beispielbildern :
http://www.3dcenter.de/artikel/2002/01-04_a.php

cu
 
man kann doch nur froh sein, dass nvidia mal nicht die schnellste karte hat. konkurenz belebt das geschäft ! Ati hatte auch lange nix zu bieten bis die radeon 8500 kam !
 

Ähnliche Themen

Antworten
47
Aufrufe
9.308
Anonymous
A
Zurück
Oben