Erste unabhängige (?) NV-30 Benchmarks

Also wie manche User übertreiben finde ich auch nicht richtig die Spammen das ganze Gästebuch bei denen zu und meckern dann das ihre Einträge gelöscht werden. Finds zwar auch net richtig was da abgezogen wurde abre man muss es ja net gleich übertreiben. Tomshardware hatte damals auch nen Test gefaked und da wurde auch nicht so übertrieben.
 
Wir sehen nur das feinste vom Feinen, wobei man ja alles schreiben kann, solange es sich nicht nachweisen läßt!

Da kein Link zu einem 3DMark-Projekt vorliegt, das die Richtigkeit der Angaben zu CPU + RAM + Graka aufzeigen oder widerlegen würde, ist das nichts weiter als reine Augenwischerei.

Hinzu kommt noch, daß der i850 nur einen FSB von 400Mhz hat - und nicht von 533Mhz!
Desweiteren wird RAMBUS auch nicht mit CL222 betrieben und kein non-Server Board hat 4 Ramspeicherbänke für diese Module ! ! !

Da der Administrator nur sich als Mitarbeiter haben wird - wie ja sehr häufig der Fall ist, bei Ein-Mann-Unternehmen (wie soll der den auch bezahlen, wenn er keine Einnahmen hat!) - wird er diese "treulose Seele" auch nicht entlassen haben können.

Das ganze fällt unter die Kategorie:
"Ein kleiner Mann, der mal ganz groß sein wollte"

und

"15Minuten Ruhm"




Byteschlumpf
 
Nicht nur die Grafikkarte ist unrealistisch.
Der hat doch nie und nimmer 2x200GB HDD. :rolleyes:
Und seit wann passt Rambus auch in DIMMs ?
Und 33°C bei einem 3,55GHz P4 im Leerlauf íst auch mit Wasserkühlung unmöglich...
...und 533MHz FSB sind auch nicht möglich wenn man übrtaktet hat...

man man man.:lol:

mfg Tweaki4k
 
Original erstellt von Byteschlumpf
Wen interessieren schon 2xAA Benchmarks, wenn die 9700Pro mit 4xAA jede bisherige Nirvana-Karte aussticht?
Bildqualitätsmäßig? Hier bringt eine GeForce3 oder 4 Ti mit 8xS-FSAA mehr als ATIs 4x-FSAA. Zu welchem "Preis" (in Form von Leistungsverlust) steht auf einem anderen Blatt.
 
Original erstellt von Riptor
Insgesamt: GFFX MUSS die R9700 Pro schlagen!!!
Die Frage ist nur, wo. Von der reinen Füllrate her ist die FX einer 9700 Pro ziemlich überlegen. In füllratenkritischen Tests sollte sie die Radeon bequem überflügeln. Es wird sicher Benches geben, wo die Radeon vorne ist, und andere wo die FX vorne ist.

Natürlich ist die Rohpower beider Karten für heutige Spiele viel zu hoch, die sollte man in Bildqualitäts verbessernde Maßnahmen stecken. Ob die FX dann noch den Ton angibt, werden unabhängige Benchmarks (bitte auch mit Screenshots wegen der Bildqualität) zeigen müssen.
 
Original erstellt von Carsten
Zu 6xFSAA: siehe Kommentar zu Byteschlumpf: Bildqualität nicht direkt vergleichbar, also irrelevant, da bei der R300 ein rotated Grid zum Einsatz kommt, bei der GeForce dagegen ein Supersampling-Anteil.
<Krümelkackerei>

ATIs 6x ist kein Rotated Grid Muster. nVidias 8x hingegen ist ein Rotated Grid Muster, aber ein suboptimales. Weder für 6x noch für 8x gibt es "vernünftige" Rotated Grid Masken.

</Krümelkackerei>
 
Original erstellt von mr.e
ich gratulier computer-trend dazu, dass sie es selbst auf chip.de geschafft haben. in den news zu den benchmarks der FX wurde nämlich auch eine gewisse computer-trend seite erwähnt.
Witzig: Dabei hat CT von Chip.de auch noch ein Bild geklaut (und dann leicht verfremdet.)
 
Original erstellt von Corvin
Den Rahmen kann man ja noch verzeihen. Könnte ja ein Hinweis sein, dass man genau dahin gucken soll. Dann wäre aber der Pfeil überflüssig.
Aber das mit der Schriftart ist schon selten dämlich. :p
... und nicht das erste mal, dass ein Faker schlampt :) Ich erinnere mich an gewisse Voodoo5 6000-"Tests" wo ähnlich blöde Fehler unterliefen.
Original erstellt von Tweaki4k
Aber warscheinlich hat er sich dazu jetzt eines nVidia BIOS Editors bedient und einfach dort die Bezeichnung geändert. :rolleyes:
Man kann den Graka-String in der Regel bequem in der Registry ändern :)
 
Original erstellt von aths
Bildqualitätsmäßig? Hier bringt eine GeForce3 oder 4 Ti mit 8xS-FSAA mehr als ATIs 4x-FSAA. Zu welchem "Preis" (in Form von Leistungsverlust) steht auf einem anderen Blatt.
8xFSAA ??
Das beherrscht weder die GeForce4 ti noch die GeForce3.
Bei der GF3 hört bei 4x auf und beid er GF4 auch bei 4xS (SuperSample) :rolleyes:
Die Frage ist nur, wo. Von der reinen Füllrate her ist die FX einer 9700 Pro ziemlich überlegen. In füllratenkritischen Tests sollte sie die Radeon bequem überflügeln. Es wird sicher Benches geben, wo die Radeon vorne ist, und andere wo die FX vorne ist.
Ich denke schon, dass die GFFX die Radeon9700pro in nahezu allen Tests schlagen kann,
denn sonst wäre das ein zu großer Verlust für nVidia.
Auch wenn vom Speicherinterface her die Radeon überlegen ist (16GB/s zu 19GB/s)
hat nVidia deutlich bessere Bandbreitenschonmaßnahmen.

Höchstens bei sehr hohen Auflösungen könnte die Leistung der R9700pro bei aktiviert FSAA besser sein als die von nVidia.
Nur was nützt einem FSAA bei einer Auflösung von mehr als 1280x1024 oder so ?
Garnix, weil man den Unterschied nähmlich garnicht erkennen außer auf einem Screenshot oder Standbild. rolleyes
Zumindest in Shootern ist FSAA völlig uninterressant. :rolleyes:

Viel wichtiger sehe ich die Asontropische Filterung, denn nur da kann man auch wirklich im Spiel die Unterschiede erkennen. :D

mfg Tweaki4k

btw.@aths : Hier findest du Tipps wie man mehrere Zitate in einen Post stecken kann. https://www.computerbase.de/forum/help/bb-codes/
Mehrfachposts werden hier von den wenigsten gerne gesehen.
Danke. :)
 
Original erstellt von Tweaki4k
8xFSAA ??
Das beherrscht weder die GeForce4 ti noch die GeForce3.
Bei der GF3 hört bei 4x auf und beid er GF4 auch bei 4xS (SuperSample) :rolleyes:
Ab Detonator 40.72 sind 6x und 8x aktiv. Mit aTuner (siehe Signatur) lassen sich diese Modi dann auch einstellen, sofern man eine GeForce3 oder GeForce4 Ti hat.

Original erstellt von Tweaki4k
Auch wenn vom Speicherinterface her die Radeon überlegen ist (16GB/s zu 19GB/s)
hat nVidia deutlich bessere Bandbreitenschonmaßnahmen.
Das ist nur eine Vermutung und nicht erwiesen. Beispielsweise funktioniert Early Z auf GeForce4 Ti nicht mehr so wie bei der GeForce3: Diese kann noch Füllrate sparen, GeForce4 Ti nicht mehr. (Die GF4 MX dann aber wieder doch.) R300 hat afaik ein entsprechendes Early Z System. Ob GeForce FX das hat, werden Tests dann zeigen.

Original erstellt von Tweaki4k
Nur was nützt einem FSAA bei einer Auflösung von mehr als 1280x1024 oder so ?
Garnix, weil man den Unterschied nähmlich garnicht erkennen außer auf einem Screenshot oder Standbild. rolleyes
Gerade in Bewegung sieht man Aliasing-Artefakte gut: "Rollende" Treppenstufen etc. Auf meinem 19-Zoll-CRT kann ich 2x AA bei 1600x1200 noch gut ausmachen.
Original erstellt von Tweaki4k
Zumindest in Shootern ist FSAA völlig uninterressant. :rolleyes:
Hm. Das wird gesagt, weil FSAA in Shootern die Leistung zu sehr gedrückt hat. Ich persönliche spiele alles, auch Shooter, auch in LAN-Gefechten, nur mit FSAA+AF.
Original erstellt von Tweaki4k
btw.@aths : Hier findest du Tipps wie man mehrere Zitate in einen Post stecken kann. https://www.computerbase.de/forum/help/bb-codes/
Mehrfachposts werden hier von den wenigsten gerne gesehen.
Danke. :)
Ich antworte gerne Posting für Posting, in meinem "Stammforum" ist das so üblich. Wenn ich auf diverse Leute in einem einzigen Posting antworte, besteht eher die Gefahr dass sie die ihnen zugedachten Zeilen übersehen. Bislang fiel mir nicht auf, dass hier auf mehrere Leute in einem Posting geantwortet wird, werde mal drauf achten.
 
Zuletzt bearbeitet:
Original erstellt von aths
Ab Detonator 40.72 sind 6x und 8x aktiv. Mit aTuner (siehe Signatur) lassen sich diese Modi dann auch einstellen, sofern man eine GeForce3 oder GeForce4 Ti hat.

Das ist nur eine Vermutung und nicht erwiesen. Beispielsweise funktioniert Early Z auf GeForce4 Ti nicht mehr so wie bei der GeForce3: Diese kann noch Füllrate sparen, GeForce4 Ti nicht mehr. (Die GF4 MX dann aber wieder doch.) R300 hat afaik ein entsprechendes Early Z System. Ob GeForce FX das hat, werden Tests dann zeigen.

Gerade in Bewegung sieht man Aliasing-Artefakte gut: "Rollende" Treppenstufen etc. Auf meinem 19-Zoll-CRT kann ich 2x AA bei 1600x1200 noch gut ausmachen.
Hm. Das wird gesagt, weil FSAA in Shootern die Leistung zu sehr gedrückt hat. Ich persönliche spiele alles, auch Shooter, auch in LAN-Gefechten, nur mit FSAA+AF.
1.Wow echt klasse. 8xFSAA auf einer GF3 rockt bestimmt. ;) :lol:

2.Ich dachte auch mehr so insgesamt an LMA/LMA II... :)
Fakt ist, dass die Radeon9700 laut einigen Test nicht so wahnsinnig mit 256bit Interface anfangen kann genauso wenig wie eine Parhelia.
nVidia wird sich schon was bei gedacht haben nur ein "128bit" Interface zu nehmen.
Weil ein "128er" (4x32) nunmal effektiver ist.

3.Glaub ich dir nicht, denn Spiele alá Quake3 oder UT/UT2003 sind einfach viel zu schnell vom Gameplay her als das man während des Spiels sowas merkt.
Da muss man schon gezielt drauf achten und langsam gehen um den Unterschied festzustellen.
Und wenn in dem Augenblick auch noch nen Gegner kommt wars das sowieso mit der schönen Aussicht... :lol:

Höchstens in mies programmierten Spielen wie OPF oder BF1942 hat man was von FSAA. :rolleyes:

4.Schön das du deine Shooter mit FSAA und AF spielst. Aber warum ?
Spielst du damit weil du die "aufgepushte" Grafik bewundern willst, weil ein Spiel so schlecht programmiert wurde,
dass man sowas braucht, oder spielst du dadurch besser. :confused_alt:

mfg Tweaki4k
 
Twaeki4k:
Es muss nicht das Spiel dran schuld sein, wenn es schlecht aussieht. Jeder Hersteller schummelt so einwenig um gute Performance mit ein kleinwenig Einbussen in der Bildqualität.
Ganz vorne auf der schwarzen Liste steht da SiS mit ihren Xabre-Karten, obwohl man in den Einstellungen auf Quality einstellt, wird in Wirklichkeit eine schlechtere (bzw. schnellere) Mipmapstufe genommen. Das ist schlichtweg einfach eine Schummelei, im direkten Verlgiech zu ATi und Nvidia schneidet die BQ schlecht ab.
Konnte man auf 3dcenter vor ein paar Tagen lesen.
 
Original erstellt von aths
Ich antworte gerne Posting für Posting, in meinem "Stammforum" ist das so üblich. Wenn ich auf diverse Leute in einem einzigen Posting antworte, besteht eher die Gefahr dass sie die ihnen zugedachten Zeilen übersehen. Bislang fiel mir nicht auf, dass hier auf mehrere Leute in einem Posting geantwortet wird, werde mal drauf achten.
Hier ist es eher üblich, nur so viele Posts zu machen wie unbedingt nötig und notfalls zusammenzufassen. Das resultiert aus der stets äußerst regen Beteiligung und aus dem Umstand, daß wir keine Baumstruktur, sondern ausschließlich Brettstruktur in den Threads verwenden. ;)

Zum Thema:
Computer-Trend hat sich hier bei uns mal gründlich blamiert, später aber nach einer Entschuldigung eine zweite Chance bekommen. Nach dieser Aktion wollen wir hier keinen von der Bande mehr sehen (gesetzt den Fall, es gibt tatsächlich mehr als einen, wir vermuten ja schon länger, daß das ein Einzelgänger ist).

Und zur GFFX: Ich finde nVidia ziemlich langweilig. Fällt denen eigentlich zu irgendeinem Problem auch mal was anderes ein als mehr Füllrate? :lol:
 
Zuletzt bearbeitet:
Original erstellt von Tweaki4k
1.Wow echt klasse. 8xFSAA auf einer GF3 rockt bestimmt. ;) :lol:
Auf meiner Ti 4600 ist es bei 800x600 zu gebrauchen, und sieht wirklich lecker aus. In Grafikdemos rockt es, in UT2003 braucht man über die Performance natürlich nicht zu sprechen, hier ist nur 2x MSAA drin. Spiele wie AoM oder auch Morrowind sind wiederum eine Anwendungsmöglichkeit für höhere Modi. Damit 8x richtig nützlich wird, ist natürlich noch mehr GPU-Power erforderlich, welche die FX aber bringen sollte.
Original erstellt von Tweaki4k
2.Ich dachte auch mehr so insgesamt an LMA/LMA II... :)
Fakt ist, dass die Radeon9700 laut einigen Test nicht so wahnsinnig mit 256bit Interface anfangen kann genauso wenig wie eine Parhelia.
nVidia wird sich schon was bei gedacht haben nur ein "128bit" Interface zu nehmen.
Weil ein "128er" (4x32) nunmal effektiver ist.
Es ist etwas effektiver. Ohne Early Z nutzt der GeForce FX das allerdings recht wenig, da die Radeon hier einen (je nach Spiel unterschiedlichen) Vorteil hat. Ob die FX Füllraten sparendes Early Z hat, weiß ich nicht.

Es ist gut, wenn man Bandbreite sparen kann. Noch besser ist es, Füllraten-Verschwendung zu minimieren. Das spart nebenbei Bandbreite, und zusätzliche wertvolle GPU-Takte.

Parhelia ist kein gutes Beispiel für ein 256-Bit-Interface, da sie es ziemlich schlecht ausnutzt. Radeon9700 kann das 256-Bit-Interface afaik recht gut verwenden, siehe den erträglichen Einbruch bei selbst 6x MSAA.

Man kann der FX einen Vorteil zugestehen, weil sie kleinere Segmente verwendet. Dafür hat die Radeon mehr Rohbandbreite. Wie es um die Gesamteffizienz bestellt ist, können nur Benchmarks zeigen.
Original erstellt von Tweaki4k
3.Glaub ich dir nicht, denn Spiele alá Quake3 oder UT/UT2003 sind einfach viel zu schnell vom Gameplay her als das man während des Spiels sowas merkt.
Da muss man schon gezielt drauf achten und langsam gehen um den Unterschied festzustellen.
Und wenn in dem Augenblick auch noch nen Gegner kommt wars das sowieso mit der schönen Aussicht... :lol:
Die Wahrnehmung ist von Person zu Person unterschiedlich. Ich bin beispielsweise sehr "anfällig" für Aliasing.
Original erstellt von Tweaki4k
Höchstens in mies programmierten Spielen wie OPF oder BF1942 hat man was von FSAA. :rolleyes:
Aliasing ist ein generelles Problem bei der Digitalisierung, durch "gute" Programmierung kaum zu umgehen.

2x RG ("rotated Grid") AA hat eine EER von 2x2, das heißt, es liefert eine Kantenglätte vergleichbar mit einem Bild mit doppelt so hohen Auflösungen auf beiden Achsen. Bei 1024x768 eine Kantenglätte à la 2048x1536 zu haben, macht für mich optisch einen deutlich wahrnehmbaren Unterschied. Ich opfere im allerschlimmsten Fall 30% Leistung für dieses Qualitätsplus. Da ich aber eigentlich nie in 1600x1200 spiele, meistens "nur" in 1024x768, ist der Leistungs-Einbruch in der Praxis noch deutlich geringer. Da nehme ich FSAA doch gerne.
Original erstellt von Tweaki4k
4.Schön das du deine Shooter mit FSAA und AF spielst. Aber warum ?
Spielst du damit weil du die "aufgepushte" Grafik bewundern willst, weil ein Spiel so schlecht programmiert wurde, dass man sowas braucht, oder spielst du dadurch besser. :confused_alt:
Wie gesagt, mit schlechter Programmierung hat das nichts zu tun. Ich spiele mit AA+AF nicht besser, dafür schöner :)

"Anti-Aliasing" spielt auch in der Sound-Technik bei der Digitalisierung eine wichtige Rolle. Da ist keine "schlechte Musik" dran schuld, bei diesem generellen filtertheoretischen Problem mit digitalisierten Daten. Texturen werden längst "geantialiast", warum sollte man die Kanten nicht verbessern? Den Treppen-Effekt alleine durch hohe Auflösung zu bekämpfen frisst pro Nutzen mehr Leistung als anständige Kantenglättung.

Die ganze Mathematik ist mir aber wurscht wenn ich die Grafik mit und ohne FSAA vergleiche: Für wenig Leistungeinbußen kriege ich für meine Bedürfnisse deutlich bessere Grafik.
 
Zuletzt bearbeitet:
Zurück
Oben