Bericht Bericht: nVidias G70 (Update 31.08.05)

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.531
Der G70-Chip von nVidia wurde in den ersten Tests aufgrund einer hervorragenden Hardware zurecht gelobt. Wie sich nun jedoch langsam herauskristallisiert, ist nicht alles besser geworden. So haben die Kalifornier – wie schon so oft zuvor – erneut die Qualität des ansiotropen Filters gesenkt. Wir haben entsprechende Videos genauer analysiert und eigene Untersuchungen durchgeführt.

Zum Artikel: Bericht: nVidias G70 (Update 31.08.05)
 

Dominator

Lt. Junior Grade
Dabei seit
Juli 2004
Beiträge
447
SChön das ihr das Thema auch behandelt.:)

Hoffentlich macht NV wirklich was dagegen.

1A Review.:daumen:
 
Zuletzt bearbeitet:

35712

Ensign
Dabei seit
Nov. 2004
Beiträge
227
Danke Wolfgang für die schnelle Umsetzung! Da scheint Winken bei euch ja noch was zu bewirken :p

Edit: Sehr gut geschrieben, vor allem hast du keinen Hype daraus gemacht und immer wieder betont, wie es in Wirklichkeit wohl aussehen wird.
Allerdings ist es schon erschreckend zu sehen, dass die Performanceunterschiede so krass aussehen können. Ich bin gespannt, wie das erst mit den neuen Treibern ausfällt.

Der R520 ist auf jeden Fall mein!
 
Zuletzt bearbeitet:

Faint

Lt. Commander
Dabei seit
Sep. 2004
Beiträge
1.495
naja die graka mit alten treibern zu testen zeigt ja wohl nur das sie auch nciht flimmern kann und zeigt nicht die wirkliche leistung.
 

TheShaft

Lt. Commander
Dabei seit
Juli 2001
Beiträge
1.939
25-30% perfomanceverlust ? und schon wird aus dem wunderchip eine 0815-Weiterentwicklung...:o
 

snaapsnaap

Captain
Dabei seit
Apr. 2005
Beiträge
3.935
meine laufentscheidung ist jez verdorben! statt einer 7800gt wart ich auf die r520 vllt ist sie etwas langsamer als ne gtx aber die hat bestimmt keine optimierungen! und wenn man alle optiemierungen abstellt is sie so schnell wie ne 6800ultra oder? weis es net genau aber so schnell is die gtx ja dann garnet mehr! hoffentlich kommt atis chip vllt sogar fuer agp dann muesste ich net mal auf pcie umsteigen!
 

XeonPower

Lt. Junior Grade
Dabei seit
Juli 2004
Beiträge
350
Na wer hätte das gedacht. Also wenn beim nächsten Treiber das Flimmern beseitigt wird, glaub ich kaum dass Nvidia die gleiche Performance behalten wird wie jetzt. Mann könnte fast von einem ’’betrug’’ sprechen.
Man kauft ein über 500€ teures Produkt und ist voll begeistert von der Performance, und Plötzlich sinkt die Power beim nächsten Treiber in den Keller. (Hoffentlich wird das nicht der fall sein) .Zum glück hab ich keine Gekauft und dabei bleibt es auch jetzt. Erst mal abwarten wie das mit ATI’s R520 sein wird und wie die neuen Treiber aussehen.
 

AndrewPoison

Admiral
Dabei seit
Jan. 2005
Beiträge
8.191
Mh... CB, hättet ihr das ned machen können, sobald der neue Treiber da ist? So muss man das jetz noch "hinterherprüfen".
 

Wolfgang

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.531
Zitat von AndrewPoison:
Mh... CB, hättet ihr das ned machen können, sobald der neue Treiber da ist? So muss man das jetz noch "hinterherprüfen".
Nunja, das Problem besteht jetzt und die jetztigen Käufer haben absolut nichts von Versprechungen, wo man noch nichtmal weiß, ob das Problem dann überhaupt komplett gelöst ist.

Und ob wir mit den Treiber-Defaults weiterbenchen solange das Problem besteht - eine gute Frage.
 

AndrewPoison

Admiral
Dabei seit
Jan. 2005
Beiträge
8.191
Zitat von Wolfgang:
Nunja, das Problem besteht jetzt und die jetztigen Käufer haben absolut nichts von Versprechungen, wo man noch nichtmal weiß, ob das Problem dann überhaupt komplett gelöst ist.

naja die GTX is ja ned erst letzte Woche auf den Markt gekommen...

btw: ma ne Frage, wieviele GTX habt ihr bei euch für Tests etc. rumliegen?
 

Christoph

Lustsklave der Frauen
Dabei seit
Jan. 2002
Beiträge
3.099
Im Moment habe ich zumindest keine, weil ich gesundheitlich angeschlagen bin und mir zusätzlich dank der Uni auch noch die Zeit fehlt. Aber die Dinger lassen sich ja bei Bedarf schnell besorgen.
 
Zuletzt bearbeitet:

RogueHarlequin

Lt. Junior Grade
Dabei seit
Feb. 2005
Beiträge
400
Sehr guter Artikel, weiter so.

Endlich geht es mal nicht nur um frames und Shader3, sondern es wird hinterfragt, wie sich dieser angebliche Vorsprung erkauft wird.

Zudem möchten wir alle Käufer und Redakteure bitten, in der Zukunft ein größeres Augenmerk auf die Bildqualität zu legen. Ansonsten wird es, den Entwicklungen nach zu folgen, in ein paar Jahren nur noch eine bilineare Filterung geben.
Besonders dieser Satz hat mir gefallen. :daumen:
Bei neuen Grafikkartentests nicht immer nur von Balkendiagrammen erschlagen zu werden, aus denen selten bis nie ersichtlich wird, ob die Qualität wirklich besser ist, wäre schon ein kleiner Traum.
Schließlich sollte man nicht jeden Fehler durch einen Blendeffekt verstecken müssen.
 

Zock

Commodore
Dabei seit
Mai 2001
Beiträge
4.228
Ich habe jetzt mal einiges getestet mit meiner 6800er da ich meine GTX 7800 noch nicht nutzen kann.

Also ich habe natürlich HL² benutzt , mit meiner 6800 Ultra habe ich alles auf Hohe Qualität gezockt da ich zu zeit "nur" über eine normale 6800 128 MB Ram verfüge zocke ich alles auf dem normale Qulität Modus und wenn es mir keiner gesagt hätte wäre es mir auch nicht sonderlich aufgefallen.

OK der unterschied zwischen Hohe Leistung und Hoher Qualität ist schon sehr klar zu sehen wie auch im test habe ich diese sogenannte Bugwelle und man erkennt vorallem in sehr dunklen Räumen diesen Filter effeckt man kann es schlecht beschreiben aber es sind mehrere Texturwellen zu sehen wenn man die Maus im Kreis bewegt also es ist nicht so toll.

Aber der unterschied zwischen Normaler Qualität zu der Hohen Qualität ist eigentlich sehr gering was mich eigentlich so gut wie nicht stört aber für eine Grafikarte in diesem Preis segment sollte man schon den Hohen Qualitäts Modus anbieten.

Ich finde es nicht sonderlich schlimm zumal ich eben noch Call of Duty gezockt habe und man dort keinen unterschied zwischen dem Normalen und dem Hohen Modus ausmachen kann.

Ich habe seit wenigen tagen die DEMO von GTLegens und auch dort habe ich den normalen und den Hohen Filter Modus getestet ich konnte wärend dem Fahren keinerlei unterschiede ausmachen.

Wenn Nvidia den Treiber so hinbekommt das die 7800 GTX wie die 6800 Ultra Filtert bin ich absolut zufrieden.

Aber diesen treiber vergleich den CB hier abliefert finde ich persönlich als nicht sehr informativ, wenn ich bei einer 6800 Ultra umschalte von Hoher Qualtität zur normalen Qualität geht mir nur ganz gering die Leisung verlohren. Warum sollte die leistung um bis zu 30 % bei einer 7800 GTX einbrechen die auch noch eine viel höhere Füllrate hat als eine 6800 Ultra ?

Ich denke man sollte unbedingt abwarten bis Nvidia die neuen treiber bringt mehr als 3-5 % wird die leistung nicht runtergehen so war es bei der 6800 auch.

Und wer auf ATIs wunder warten will soll warten bis dahin haben wir wenigstens schönen Seegang :D
 
Zuletzt bearbeitet:

rTg.Hunter

Cadet 1st Year
Dabei seit
Jan. 2005
Beiträge
8
So stark wie einige jetzt hier tun ist das grieseln gar nicht und fast nicht zu merken bei qualität. Ich spiele eh immer im qualitäts modus und mit 8 al und 16 af also erst mal abwarten. Und was mich noch wunderd ist jede seite hatte die karten getestet und nix großartig bemängelt also immer locker bleiben und abwarten:p.
 

Wolfgang

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.531
Zitat von Zock:
Aber diesen treiber vergleich den CB hier abliefert finde ich persönlich als nicht sehr informativ, wenn ich bei einer 6800 Ultra umschalte von Hoher Qualtität zur normalen Qualität geht mir nur ganz gering die Leisung verlohren. Warum sollte die leistung um bis zu 30 % bei einer 7800 GTX einbrechen die auch noch eine viel höhere Füllrate hat als eine 6800 Ultra ?

Ich denke man sollte unbedingt abwarten bis Nvidia die neuen treiber bringt mehr als 3-5 % wird die leistung nicht runtergehen so war es bei der 6800 auch.
Wenn du dir das hier ansiehst, wirst du schnell feststellen, dass der Unterschied doch bedeutend größer ist. https://www.computerbase.de/2005-04/bericht-af-optimierungen-unter-der-lupe/7/#abschnitt_3dmark2001_se

Und gerade in HL2 erkennt man die Unterschiede bereits zwischen HQ und Q ohne Optimierungen sehr gut. Wie jedoch gesagt, ist dies alles recht subjektiv.
 

John5

Lt. Junior Grade
Dabei seit
Mai 2005
Beiträge
309
mit diesem problem hat nvidia sicher eine harte nuss zu knacken

zum einen wird dann durch negative propaganda diverser medien diese sache noch
zusätzlich verstärkt und aufgebaut

fakt ist wie man in diesem unparteischen sachbezogenem bericht hervorgeht
dass dieses problem von flimmernden texturen tatsächlich besteht

da sich das texturflimmern mittels älterer treiberversionen beheben lässt
ist davon auszugehen dass bald ein entsprechendes update verfügbar sein wird

und um die frage welcher hersteller die bessere taktik hat lässt sich streiten

ob man eine leistungsstarke karte vorstellt die dann kleine schwachstellen aufweist
aber die zum kauf verfügbar ist

oder ob man eine leistungsstarke karte vorstellt bei der dann aber aufgrund von schwierigkeiten nur immer wieder der releasetermin verschoben wird und niemand
sagen kann ob und wann sie verfügbar ist


ich hoffe dass sich diese ungereimtheiten bald klären und es
wieder einen fairen konkurrenzkampf mit makellosen produkten beider hersteller gibt
 
Zuletzt bearbeitet:

Zock

Commodore
Dabei seit
Mai 2001
Beiträge
4.228
@Wolfgang

Was ich dort sehe ist das in der Auflösung 1600*1200 4*AA und 16 AF ein unterschied von 2 % besteht zwischen dem Modus Normal und Hoher Qualität. Also dann nochmal warum sollte eine 7800 GTX hier 30 % Langsamer sein ? Wie kommt man auf solch ein gerücht diesen treiber vergleich sollte man aus dem Artikel streichen.

Ich finde es auch eine schweinerei wenn man eine Grafikarte für über 500 € besitzt diese aber nicht die volle Bildqualität liefert. Der Artikel ist ja auch so ziemlich gelungen sag ich ja nichts dagegen aber der Treiber vergleich stellt nicht annähernd einen realen wert da.

Sin macht das ganze sowieso erst wenn der neue Treiber rauskommt. Bin mal gespannt was ATI in ein zwei Monaten so abliefert , auch wird intresannt sein ob die Karte voll SM 3.0 kompatibel ist.

Ich habe mal ein Bild mit hinzugefügt dort sieht man die unterschiede.
 

Anhänge

Zuletzt bearbeitet:

Wolfgang

Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.531
Dann Blätter einfach mal etwas weiter, da kommen noch viel größere Unterschiede. Du kannst nur schlecht vom optimalen Fall ausgehen.

Und ich habe sicherlich nicht umsonst unter die Behcnmarks geschrieben, dass das ganze relativ zu sehen ist und das es in wirklichkeit wohl nicht ganz so drastig ist.
 

Webstar1984

Cadet 1st Year
Dabei seit
Jan. 2004
Beiträge
10
Ich hab glaub ich die krasseste Auswirkung dieser Optimierungen gefunden:
Wenn man im Treiber AF für Herr der Ringe - Schlacht um Mittelerde anschaltet, dann wird alles komplett unscharf. Es sieht richtig übel aus, bei meiner Radeon 9800 Pro war alles bei gleichen Eintstellungen super scharf, bei der 7800 schaut alles wirklich nur noch besch... aus.
Das kotzt mich wirklich sehr an.
Ich hoffe doch sehr dass NieVIDA das behebt. Ich bisher lange nur Radeons gekauft, aber nachdem die jetzt mit dem R520 so lange brauchen und die Benches der 7800 GTX so gut waren, hab ich den Schritt doch gewagt. Vielleicht hätte ichs besser lassen sollen, die Bildqualiät war vorher besser.
 
Top