Bericht ATi gegen Nvidia in Doom 3: Die GeForce 6800 GT wurde allen Radeon zum Verhängnis

Damals habe ich noch bei meiner Geforce 6800 LE die 6 Vertex- und 16 Pixel-Pipelines freischalten können. Für wenig Geld, deutlich mehr Leistung.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Öcher Tivoli, vybz und 2 andere
[F]L4SH schrieb:
War die GeForce 6000er nicht genauso wie die 7000er Serie ein extremer Qualitätsbetrüger und hat AF und AA zugunsten langer Balken deutlich schlechter beherrscht? Oder kam das wirklich erst mit der 7000er Serie bzw. war die X800 noch nicht so über jeden Zweifel erhaben wie die X1000 Serie?

So weit mich mein Gedächtnis nicht trügt, hat sich damals nVidia oft an die Spitze geschummelt.


Genau so nicht, die 6000er waren zwar auch schon massiv am Schummeln, aber noch nicht so sehr wie die 7000er. Die X800 waren aber in jedem Fall deutlich besser, dazu brauchte es die X1000er nicht.
NVidia hatte zu dem Zeitpunkt das letzte mal mit der FX ne vernünftige Bildqualität, aber da war die Leistung ja indiskutabel, dazu kam der berühmte Föhn. Und da man auch mit der 6000er und 7000er bei vernünftiger Bildqualität kein Land gesehen hätte musste man zur Schummelei greifen.

Man kann sagen, dass Ati mit dem Release der 9700 Pro für eine ganze Weile alternativlos wurde. Erst hatte nVidia bei der Leistung nichts entgegenzusetzen (FX), dann hat man geschummelt (6000er und speziell 7000er) um wenigstens bei der Leistung wieder gleichauf zu sein, auch wenn später selbst das nicht mehr geholfen hat und man Dual-GPU-Karten brauchte, um mithalten zu können. Damals musste man schon seltsam drauf und sehr flimmerresistent sein, um nVidia zu kaufen.
Wobei das deutliche Hinterherhinken über drei Generationen auch zum G80 geführt haben dürfte, mit dem dann auch die Bildqualität wieder konkurrenzfähig war, zur Leistung muss man sowieso nichts sagen.
 
  • Gefällt mir
Reaktionen: cbmik, up.whatever und ThePlayer
Ich hatte damals DIE 6800 GT, Gainward 6800 GT Goes Like Hell Golden Sample, war im Prinzip eine 6800 Ultra mit reduzierten Takt.
Der Takt ließ sich mit dem Expert Tool locker auf 6800 Ultra Takt anheben und sogar darüber hinaus.

Der Name GLH hat da noch gepasst, die Karte allerdings auch Loud like Hell und Hot like Hell und es war die Karte die einen anderen Kühler bekam, da kam ein Arctic Cooling Silencer 5 drauf und schon war Ruhe im Case.
 
  • Gefällt mir
Reaktionen: aklaa
[F]L4SH schrieb:
War die GeForce 6000er nicht genauso wie die 7000er Serie ein extremer Qualitätsbetrüger und hat AF und AA zugunsten langer Balken deutlich schlechter beherrscht?

Das Schummeln betraf damals nur bestimmte Benchmarks. Daran, dass auch in Spielen derartig "optimiert" wurde, erinnere ich mich nicht. (Ich glaube Jahre später gab es etwas in der Richtung bezüglich Tessellation?)

Es waren übrigens beide GPU-Hersteller, die sich damals nicht korrekt verhalten haben. Interessant, dass Nvidias Schummelversuche stärker im Gedächtnis geblieben zu sein scheinen. 🙂

https://www.computerbase.de/2003-05/patch-ati-und-nvidia-cheaten-im-3dmark03/
 
  • Gefällt mir
Reaktionen: brabe und konkretor
...und was für eine Enttäuschung beim Spielspaß. Alles nur dunkel, grau/braun, langweilig...
 
Herdware schrieb:
Interessant, dass Nvidia stärker im Gedächtnis geblieben zu sein scheint.
Liegt vllt. daran, dass man bei ATi nach fragwürdigen Treiber-Optimierungen mit der Lupe suchen musste, während bei nVidia die Optimierungen einem ungefragt ins Auge sprangen. :D
 
  • Gefällt mir
Reaktionen: Schmarall, cbmik und up.whatever
Einmalig schrieb:
Liegt vllt. daran, dass man bei ATi nach fragwürdigen Treiber-Optimierungen mit der Lupe suchen musste, während bei nVidia die Optimierungen einem ungefragt ins Auge sprangen.

Bedeutet das, dass ATI schlechter im Schummeln war als Nvidia, oder besser? :lol:
 
Einmalig schrieb:
Liegt vllt. daran, dass man bei ATi nach fragwürdigen Treiber-Optimierungen mit der Lupe suchen musste, während bei nVidia die Optimierungen einem ungefragt ins Auge sprangen. :D
Demzufolge wäre ersteres ja sogar schlimmer. :D Nvidia hats wohl nicht mal versucht zu vertuschen.:freaky:
 
Gab es nicht im selben Jahr auch Far Cry?
Ich war einmal beim Kumpel gewesen und der hatte voller Stolz Far Cry mit seinem neuen PC gedaddelt. Ich hab’s mir direkt in der Videothek geliehen gehabt und war total frustriert, dass auf meiner GF Karte das Wasser schwarz war ^^.
Doom 3 hatte ich nur mal angedaddelt, um die Grafik zu begutachten ^^. Da ich Doom als schnellen Shooter kannte, war das langsame Dunkel und Düster Design nichts für mich.
Ich glaube zur der Zeit gab es dann auch den Half-Life 2 Sorce-Code Leak. Den hatte eine Kumpel von dessen Kumpel von dessen Cousine um drei Ecken ^^ bekommen und wir waren damals schon von dem Leak und der Grafik baff.
 
Herdware schrieb:
Das Schummeln betraf damals nur bestimmte Benchmarks. Daran, dass auch in Spielen derartig "optimiert" wurde, erinnere ich mich nicht. (Ich glaube Jahre später gab es etwas in der Richtung bezüglich Tessellation?)

Es waren übrigens beide GPU-Hersteller, die sich damals nicht korrekt verhalten haben. Interessant, dass Nvidias Schummelversuche stärker im Gedächtnis geblieben zu sein scheinen. 🙂

https://www.computerbase.de/2003-05/patch-ati-und-nvidia-cheaten-im-3dmark03/


Nein, das betraf grundsätzlich das AF, das ab den 6000ern einfach kaputt war und spätestens mit den 7000ern quasi nicht mehr funktioniert hat. Das hat mit Cheaten in bestimmten Benchmarks nichts zu tun gehabt, das galt ja immer, wenn es Texturen zu filtern galt.

Und nVidia ist natürlich stärker im Gedächtnis geblieben, weil Ati diese Schummelei eben nicht gemacht hat, also gabs da auch nichts, was im Gedächtnis bleiben konnte.
 
  • Gefällt mir
Reaktionen: Schmarall
@Herdware & @Kasjo
Ich beziehe mich auf den Artikel, den @Herdware gepostet hat. Während man bei nVidia mehrere Optimierungen ausfindig machen konnte, die dann auch für einen krassen Punkte-Boost gesorgt haben, gibt es für ATi grade mal 2% mehr dank Optimierungen.

Nun kann ein jeder selbst entscheiden, wer schlimmer betrogen hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cbmik und ThePlayer
Warum hat das „Damals“ ein „TM“ nachgestellt?
 
Glaube bei der Winfast konnte ich sogar via Riva Tuner die abgeschalteten Pipelines reaktivieren - Performance hat es ein bisschen geliefert (für den Benchmark E-Penis) in Spielen selber war es kaum spürbar.
 

Die GeForce 6800 GT wurde allen Radeon zum Verhängnis​


Für mich nicht direkt "die 6800 GT", sondern die 128 MB-Version für 329€.

Die Neuheiten beider Hersteller waren anfangs ärgerlich teuer geraten (>400€), und besagte Asus-Karte mit halbem Speicher war der einzige Ausweg. Damit war ATI raus.
 
Nighteye schrieb:
Meine letzte Geforce kaufte ich im Jahre 2006. War eine 8800GTS 640mb welche nach 6 Monaten verstarb, seit dem nur noch Radeons verbaut.
Nein Du lügst das kann nicht sein!!!!!! ;)
Was @Slashchat sagt kann doch nur stimmen. Jetzt ist bestimmt sein Weltbild total zerstört :evillol:

@SV3N danke für die Retro Ausgabe. Vielleicht könntest Du noch was dazu schreiben wie das mit dem Mogeln beim AA/AF war bei Nvidia. Ich habe das damals nicht so mitbekommen. Da ich noch nicht so viel in Foren unterwegs war.
Was mir aber immer wieder auffällt das solche "Fehler" in Tests bei Hardware und Software nicht auffallen und erst der dumme Kunde das bei sich Zuhause merkt.

Hmm weiß nicht mehr welche Karte ich zu der Zeit im Rechner hatte. Ich glaube es war die Radeon 9800 XT.
Das ging mit der Karte ganz gut in 1280x1024 sogar mit allen Reglern auf Max. Nur AA auf 2x und AF auf 4x.
 
  • Gefällt mir
Reaktionen: DannyA4
Hatte damals auch für Doom eingekauft, eine 6800GT. War top, die Karte. Ich glaube es war ne PNY und eine Meerjungfrau auf dem Kühler zu sehen.

Ich muss sagen, ich vermisse die Zeit irgendwie ein wenig. Die Hardware sah noch richtig cool aus und man hat halt ne CPU und ne GPU gekauft und hatte halt nen Monitor. Heute ist das Spielerlebnis viel besser, aber auch viel komplizierter :D
 
  • Gefällt mir
Reaktionen: Hardy_1916
Bierliebhaber schrieb:
Und nVidia ist natürlich stärker im Gedächtnis geblieben, weil Ati diese Schummelei eben nicht gemacht hat, also gabs da auch nichts, was im Gedächtnis bleiben konnte.

Ich würde sagen, das sind zwei verschiedene Dinge.

Das eine ist absichtliche Schummelei, um in Benchmarks höhere Zahlen zu erreichen. Das haben beide Hersteller gemacht, mehr oder weniger effektiv/offensichtlich.

Das andere ist die damals schlechtere Bildqualität bei Nvidia. Das würde ich nicht als Schummelei ansehen, Nvidia hat einfach FPS vs. Qualität anders bewertet als ATI.

Wenn ich mich richtig erinnere, haben die relativ großen Qualitätsunterschiede im "High Quality"-Preset dafür gesorgt, dass ATI- und Nvidia-Karten (zeitweise) mit unterschiedlichen Qualitätseinstellungen getestet wurden, um halbwegs vergleichbarere Ergebnisse zu liefern.

Aber das ist halt grundsätzlich ein schwieriges Thema, wenn man unterschiedliche GPUs miteinander vergleicht.
Z.B. konnte man es bei den alten 3dfx-Karten als mehr oder weniger großen Nachteil ansehen, dass sie im Gegensatz zur Konkurrenz nur 16Bit- statt 32Bit-Farbtiefe beherrschten.
Und auch heute noch kann man ganze, mehrere Seiten lange Artikel damit füllen, DLSS und FSR miteinander zu vergleichen usw.

Im Gegensatz zu FPS ist Bildqualität nur sehr schwer zu messen und zu bewerten.
 
Mystique_ schrieb:
Warum hat das „Damals“ ein „TM“ nachgestellt?
Damals ist ein eingetragenes Warenzeichen der "Retro-Artikel GmbH" und der "Retro-Services-Corporation of America"

Artikel, mit einem direkten Bezug zu Retro Hardware müssen dieses Warenzeichen lizenzieren
 
  • Gefällt mir
Reaktionen: testwurst200, Fry[CH], konkretor und 2 andere
Herdware schrieb:
Im Gegensatz zu FPS ist Bildqualität nur sehr schwer zu messen und zu bewerten.

Herdware schrieb:
Das andere ist die damals schlechtere Bildqualität bei Nvidia. Das würde ich nicht als Schummelei ansehen, Nvidia hat einfach FPS vs. Qualität anders bewertet als ATI.
Damit redest Du es nur schön. Es ist trotzdem geschummelt.
Bei CB wurde damals doch früher bei Games auch die Bildqualität verglichen. Und ich finde die auch sehr wichtig.
Sonst könnte ich im Game die Auflösung auf 720p stellen und alles nach links und mich immer an 200+ FPS erfreuen. Und jedem erzählen wie viel schneller meine 6800xt als eine 6900 oder 3090 ist. Dabei ist dann die Bildqualität und Auflösung aber viel schlechter.
Selbst wenn man die Auflösung gleich hat, bei den drei hier genannten Karten.
Und das ist doch im Endeffekt schummeln was Nvidia da gemacht hat.
Ja wir haben 8xAA und 16xAF aber es sieht kacke aus weil wir nicht so genau rechnen damit hinten mehr FPS raus kommen. Aber erzählen es keinem. Aber so ist das doch immer wieder bei Nvidia wenn man sich die GTX970 3,5GB Edition ansieht.
 
  • Gefällt mir
Reaktionen: up.whatever
Zurück
Oben