Betrügen die Grafikchiphersteller?

Cheaten Grafikchiphersteller um besser in der Presse dazustehen?

  • Ja, das was nVIDIA tut, ist Verdummung der Kunden

    Stimmen: 28 32,2%
  • Nein, nVidia steigert dadurch nur die Aussagekraft von synth. Benchmarks

    Stimmen: 19 21,8%
  • Ja, das was ATi tut, ist Verdummung der Kunden

    Stimmen: 1 1,1%
  • Nein, ATi steigert dadurch nur die Aussagekraft von synth. Benchmarks

    Stimmen: 0 0,0%
  • Ja, das was die ALLE tun, ist Verdummung der Kunden

    Stimmen: 13 14,9%
  • Nein, die steigern ALLE dadurch nur die Aussagekraft von synth. Benchmarks

    Stimmen: 1 1,1%
  • Synthetische Benchmarks sind eh SCH****E

    Stimmen: 25 28,7%

  • Umfrageteilnehmer
    87
Das ist mir sowas von schei**egal! ;)
Ob der eine oder andere nun 2-5% schneller ist - bei der momentanen Rohleistung der Grafikkarten, die jenseits fast aller Anforderungen liegt.


Übrigens "The Counter" bisschen selektiv deine Reviewliste in der Sig , ich meine ein Review auf CB gelesen zu haben, wie ich zugeben muss das einzige, da aktuelle Grafik-Hardware für mich nicht wirklich brennend interessant ist - ausser natürlich neue OpenGL-Karten, aber die bekommen wir dann eh früher oder später.
Ausserdem ist es meiner Meinung nach völlig überflüssig, so einen Quatsch von wegen "9800 vs 5900" in der Sig zu haben - wen's interessiert, der wird eh vorher den ein oder anderen Test lesen bzw. gleich ganz darauf pfeifen, die Meldungen sind doch eh meist dieselben: Neue Grafikarte von "A" wieder schneller als alte von "B"! *rofl* Das ist nunmal die Entwicklung. (Daher stört mich auch so ein "Cheat" nicht - btw: Wer definiert was "Cheat" und was sinnvolle Optimierung ist?!
Vielmehr sollte endlich in den Vordergrund rücken endlich stromsparende Lösungen zu präsentieren. Daß mehr Leistung bei gleichzeitiger Stromverbrauchreduktion möglich ist zeigt Intel (bitte haut mich jetzt nicht ;) ) ja wohl deutlich mit dem Banias.

Hab jetzt von meiner Firma ein T40p-2373G3G und muß klar sagen, das ist das beste Stück Hardware was ich je besessen habe. 7Std Akku-Laufzeit und Leistung satt und reichlich.
 
Original erstellt von Hamlet
Übrigens "The Counter" bisschen selektiv deine Reviewliste in der Sig , ich meine ein Review auf CB gelesen zu haben, wie ich zugeben muss das einzige, da aktuelle Grafik-Hardware für mich nicht wirklich brennend interessant ist - ausser natürlich neue OpenGL-Karten, aber die bekommen wir dann eh früher oder später.
Ausserdem ist es meiner Meinung nach völlig überflüssig, so einen Quatsch von wegen "9800 vs 5900" in der Sig zu haben - wen's interessiert, der wird eh vorher den ein oder anderen Test lesen bzw. gleich ganz darauf pfeifen, die Meldungen sind doch eh meist dieselben: Neue Grafikarte von "A" wieder schneller als alte von "B"! *rofl* Das ist nunmal die Entwicklung. (Daher stört mich auch so ein "Cheat" nicht - btw: Wer definiert was "Cheat" und was sinnvolle Optimierung ist?!

Ähm, da kommen noch einige dazu, das sind die ersten 3 von ca. 35 Reviews die ich on habe:

http://www.hx3.de/benches/show_benches.php

Was ich in meine Sig tue is ja immernoch mir überlassen oder (Solange sie nicht zu lang/groß ist)? :D
 
Die Umfrage an sich scheint ja nicht so wirklich viel mit dem Artikel bei THG zu tun zu haben.

Dort wird nämlich nicht explizit nur von nVidia geredet und insofern erlaube ich mir jetzt einfach mal, sowohl Umfrage, als auch Threadtitel etwas neutraler zu gestalten.

edit:
Und damit's was bringt, habe ich den Zählerstand (vorher 19 zu 19 bei den Originalantworten) zurückgesetzt.
 
Zuletzt bearbeitet:
Original erstellt von TheCounter
Ich wollte damit sagen: Wer nVidia als Cheater beschimpft, aber denkt das ATI ein unbeschriebenes Blatt ist, der ist reichlich dumm!

Klar, dass du jetzt wieder auf die Schiene: "ATI ist nicht besser" gehen musst, wäre ja auch schlimm, wenn nur nVidia so böse, böse sei... Findest du es nicht ein wenig übertrieben, wie du mit diesem Fangehabe umgehst?
 
Die Frage ist doch, findest Du es nicht ein wenig untertrieben, wenn man nicht darauf hinweisen würde?
 
Original erstellt von Riptor
Klar, dass du jetzt wieder auf die Schiene: "ATI ist nicht besser" gehen musst, wäre ja auch schlimm, wenn nur nVidia so böse, böse sei... Findest du es nicht ein wenig übertrieben, wie du mit diesem Fangehabe umgehst?

Sei bitte nicht gleich gekrängt wenn ich dein ATI angreife ;)

Ich lege Tatsachen auf den Tisch, einerseits wollt ihr das alle immer, aber andererseits seid ihr sofort in irgend einer Weise leicht gekrängt wenn es gegen euren Hersteller geht den ihr mögt.
 
Original erstellt von TheCounter
Sei bitte nicht gleich gekrängt wenn ich dein ATI angreife ;)
Ich lege Tatsachen auf den Tisch, einerseits wollt ihr das alle immer, aber andererseits seid ihr sofort in irgend einer Weise leicht gekrängt wenn es gegen euren Hersteller geht den ihr mögt.

Tatsachen auf den Tisch legen kann man auch etwas dezenter ausdrücken, um nicht gleich den Eindruck zu entwickeln, dass mal wieder eine nVidia vs. ATI Thread entstehen muss... ;) Du weißt glaube ich GANZ genau, was ich meine, was andere erwartet ich aber auch nicht mehr, ehrlich gesagt...

@ GRAKA0815: Klar, du hast recht, nur so ganz pauschalisieren muss man ja nicht immer gleich alles, oder?
 
Original erstellt von TheCounter
Ok, immerhin hat ATI ihre optimierungen im Source von 3DMark03 drin und nVidia nicht, alleine deswegen lässt sich der Benchmark nichtmehr gebrauchen. Würde Futuremark jetzt die Optimierungen von ATI auch rausmachen, dann könnte man wenigstens wieder richtig vergleichen.

würde NV auch PS1.4 verwenden wie er in DX8.1 und DX9 drin ist, würde keiner nen Aufstand machen...aber den Text press ich wohl in jedem Thread der um diese Tech-Demo geht und dann noch meist auf Antworten von unserem TheCounter ^^ mit der Rosa-NV-Brille ;)

Mir ist es sowas von Rille, was für nen Grafikchip ich drin hab. Preis/Leistung muß passen, dann nehm ich auch nen SiS oder nen Newcomer. Hätte damit Null-Probleme. Neue Chips kaufe ich mir eh nicht, ich steck denen doch nicht halbjährlich Kohle in den Ar***. Drum bleibt meine GF3 noch ein wenig drin, bis es wieder zum günstigen Aufrüsten geht.

Gruß
Dia
 
gut dass die Umfrage neutraler gemacht wurde :)

Ich fand den Artikel auf THG auch sehr interessant. (und Gott sei Dank nicht parteiisch. auch wenn es doch etwas mehr um nVidia ging - aber nVidia war letztens auch heftiger in die Schlagzeilen wegen der Optimierungen)

Schade dass die Firmen meinen, sie müssten soviel Energie und Geld in Marketing stecken, und es für nötig halten, praxisferne "Optimierungen" durchzuführen.
Das bringt einerseits zwar Kunden, die sich durch ein paar Zahlen beeindrucken lassen und dem Marketing glauben, um sich dann wahnsinnig toll vorzukommen, DAS Produkt erworben zu haben (nen wirklichen Unterschied würden die meisten doch eh nicht merken...) - aber auf der anderen Seite kann sich ein Unternehmen auch sehr viel damit schaden, wenn die Kunden sich langsam verarscht vorkommen und die Firma unglaubwürdig wird. (man sollte es nicht übertreiben...)
Es gibt sicher genug Lemminge, die lange blind einem Hersteller hinterherrennen - aber ist der Ruf erst mal im Eimer, hat man den ne Weile weg und verliert viele Kunden.

Nachdem nVidia den neuen Futuremark heftig als nicht praxisnah und unrelevant dargestellt hatte, hätten sie nicht anfangen sollen, diesen auf Teufel komm raus zu optimieren. (ich will hier nicht mal cheaten unterstellen) Sowas find ich macht unglaubwürdig.
Wisst ihr was ich cool gefunden hätte? Wenn nVidia statt die Ergebnisse hochzupushen (offiziell ja, um zu zeigen, wie manipulierbar der Bench ist), die Treiber in die entgegengesetzte Richtung verändert hätte. Also so, dass mit der FX z.B. ein paar hundert Punkte rausgekommen wären. Wäre das denn theoretisch möglich? Oder findet ihr die Idee überhaupt total bescheuert? :affe:
Damit hätte nVidia auch gezeigt, dass der 3DMurks03 treiberseitig manipulierbar ist - und kaum einer wäre auf die Idee gekommen, die 3DMark-Werte einer FX mit z.B. denen einer Radeon 9700 zu vergleichen. Der 3DMurks03 wäre somit für vergleichende Benches tatsächlich irrelevant, und nVidia müsste sich keine Cheat-Vorwürfe gefallen lassen.
(eine Ti 4600 kann man auch schlecht mit ner DX9-Karte von ATi über die Punktzahl bei 3DMurks03 vergleichen - und macht meines Wissens ja auch keiner, oder?)
Und alles wäre gut. :heilig: Jo, vielleicht spinn ich auch. *ggg*

Tschö, und habt euch liep! :D

Bye,
Süpi

P.S.: Ich bin dafür, dass TheCounter jeden Beitrag mit "****DAUERWERBESENDUNG****" beginnen muss. :rolleyes:
 
Original erstellt von Supiman
Wisst ihr was ich cool gefunden hätte? Wenn nVidia statt die Ergebnisse hochzupushen (offiziell ja, um zu zeigen, wie manipulierbar der Bench ist), die Treiber in die entgegengesetzte Richtung verändert hätte. Also so, dass mit der FX z.B. ein paar hundert Punkte rausgekommen wären. Wäre das denn theoretisch möglich? Oder findet ihr die Idee überhaupt total bescheuert? :affe:
Damit hätte nVidia auch gezeigt, dass der 3DMurks03 treiberseitig manipulierbar ist - und kaum einer wäre auf die Idee gekommen, die 3DMark-Werte einer FX mit z.B. denen einer Radeon 9700 zu vergleichen. Der 3DMurks03 wäre somit für vergleichende Benches tatsächlich irrelevant, und nVidia müsste sich keine Cheat-Vorwürfe gefallen lassen.

Da die meisten Käufer nichts von der Materie verstehen würde, sich nVidia hier ins eigene Fleisch schneiden, weil die Unwissenden dann denken das die Karte wirklich so schlecht ist, logisch oder?

nVidia hat auch so gezeigt das 3DMark03 per Treiber manipulierbar ist ;)

Wie gesagt kann man den 3DMark03 sowieso vergessen, weil es einfach unfair ist wenn einer die Optimierungen im Source drinhat und der andere eben nicht.

Weil es kann nicht sein das die nVidia Karten im 3DMark03 so schlecht sind aber in den Spielen mindestens so gut wie die ATI Karten sind, da MUSS was fauel sein.
 
Zuletzt bearbeitet:
Beim 3dM2001 da gab es doch so ne Option, wo man den Renderpfad einstellen konnte(Software T&L, Hardware T&L, Pure Hardware T&L?). Wäre es da nicht sinnvoll, wenn Futuremark diese Option in ihren Benchmarks beibehalten hätte? Jeder Graka Hersteller der Interesse hat schreibt ein optimiertes Plugin für den Benchmark und der Kunde kann optimierte und nichtoptimierte Einstellungen wählen/vergleichen. Das ist aber zu schön um wahr zu sein. An einen unabhängigen Benchmark glaub ich erst , wenn der 3DMark auf Sourceforge liegt.

Noch ein Wort zur 'Nvidia cheatet vs Ati cheatet,nänänäänänänä Fraktion'. Wenn ihr nicht mit dem einverstanden seid was die Entwicklungs und Marketingabteilungen von Großkonzernen so machen, dann kauft doch Nischenprodukte von Kyro, SIS, Matrox, ...
 
Original erstellt von TheCounter
Da die meisten Käufer nichts von der Materie verstehen würde, sich nVidia hier ins eigene Fleisch schneiden, weil die Unwissenden dann denken das die Karte wirklich so schlecht ist, logisch oder?
Weiss net... wenn sie es extrem genug machen würden...

nVidia hat auch so gezeigt das 3DMark03 per Treiber manipulierbar ist ;)
Jo, aber vielleicht hätten sie es bei ein mal belassen sollen.

Wie gesagt kann man den 3DMark03 sowieso vergessen, weil es einfach unfair ist wenn einer die Optimierungen im Source drinhat und der andere eben nicht.
Weil es kann nicht sein das die nVidia Karten im 3DMark03 so schlecht sind aber in den Spielen mindestens so gut wie die ATI Karten sind, da MUSS was fauel sein.
*lol* Ich glaub da muss ich jetzt nicht weiter drauf eingehen... Hast du deine Benches in der Sig. eigentlich noch nicht mit CB, den neuen Firingsquad, UKGamer usw. aktualisiert? *stichel*

S. =;-]
 
Darum geht es gar nicht Vander, das Problem sind nicht die Chiphersteller, sondern Futuremark selber!

War der 3DMark2001 schon fern ab jeder Realität, so wurde er von 3DMark2003 nochmals um LÄNGEN übertroffen. Alleine der Anspruch von Futuremark ein "The Gamers Benchmark" zu sein ist schon so lächerlich, dass es kaum mehr zu überbieten ist.
Es ist Futuremark selbst, welche durch ihre Vormachtstellung als Benchmark die Käuferschicht bei Grafikkarten beeinflußen. Doch wo bleibt die Realität dabei? Welches Spiel nutz denn den Shader 1.4? Warum wurde zunächst ganz pauschal die am weitest verbreiteten und auch genutzten Shader 1.1 / 1.3 herausgelassen? Schon alleine dadurch bekam eine Radeon 8500 bessere Punkte als eine deutlich schnellere TI4400/4600. Hurra die Enten.
 
Original erstellt von Supiman
*lol* Ich glaub da muss ich jetzt nicht weiter drauf eingehen... Hast du deine Benches in der Sig. eigentlich noch nicht mit CB, den neuen Firingsquad, UKGamer usw. aktualisiert? *stichel*

Hab leider noch nicht alle Reviews oben, kommen natürlich noch jede Menge dazu, so das man am Ende nen Endergebnis hat (Der Sinn dabei ;)).
 
Original erstellt von TheCounter
Hab leider noch nicht alle Reviews oben, kommen natürlich noch jede Menge dazu, so das man am Ende nen Endergebnis hat (Der Sinn dabei ;)).

Ist der Sinn, den du dabei verfolgst, nicht eher zu "beweisen", dass die FX5900 schneller ist als die 9800Pro?! - natuerlich jetzt ohne dir irgendetwas unterstellen zu wollen.

btw: "Das ist mir schei**egal! hat Hamlet ja schon so treffend geschrieben, diese Meinung kann ich nur unterstuetzen. Auch wenn eher aus der Sicht, dass es mir schnurzpiepegal ist ob ATI oder NV nun ein bisschen schneller ist, fuer mich zaehlt eh immer das Gesamtpaket.

Waer ja auch traurig, wenn es wieder wie zu alten NV-"Monopolzeiten" (3dfx geschluckt + ATI im aktuellen Sektor weit abgeschlagen) werden wuerde, zu diesem Zeitpunkt hat NV naemlich diese horrenden Preissteigerungen fuer Grafikkarten lanciert. (Daher hat NV fuer mich immer noch einen gewissen Beigeschmack, der bei gleicher Leistung fuers Geld klar den Ausschlag zu ati gibt, wobei die was Preise angeht NV ja nur noch gering nachstehen.
 
Original erstellt von Leisetreter
Ist der Sinn, den du dabei verfolgst, nicht eher zu "beweisen", dass die FX5900 schneller ist als die 9800Pro?! - natuerlich jetzt ohne dir irgendetwas unterstellen zu wollen.

Nö, ich will einfach nur das es alle Reviews auf einer Seite gibt (Zumindest die Ergebnisse), damit man vergleichen kann, man braucht halt net auf unzählige Seiten gucken.

Ich freu mich schon auf ende 2003, wenn beide Hersteller die neuen Grafikkarten bringen, da werden die Preise wieder fallen.

3DMark kann man eher dazu verwenden um zu gucken wie gut man übertaktet hat.
 
ich dnke da gibt es überall schwarze schafe.

p.s. sch***e schreibt man mit ß und nicht mit ss
 
Original erstellt von TheCounter
Nö, ich will einfach nur das es alle Reviews auf einer Seite gibt (Zumindest die Ergebnisse), damit man vergleichen kann, man braucht halt net auf unzählige Seiten gucken.
Öh, wär etwas wenig tiefgründig, nur die Pünktchen anzugucken? (v.a. wenn UT2K3, 3DMurks u. Quake3 x-mal bei den Punkten enthalten sind)
Nur als Vorschlag: Wär auch interessant, alternativ nur verschiedene Benches zu werten, also 3DMurks z.B. nur 1x in die Wertung eingehen zu lassen.
Oder wie wär's zu jeder Seite, die die Benches gemacht hat, noch kurz das Fazit dazu?

Ich freu mich schon auf ende 2003, wenn beide Hersteller die neuen Grafikkarten bringen, da werden die Preise wieder fallen.
Preise fallen doch ständig... Ende 2003 sind die Karten eh noch lang net erhältlich; und dann kannst auch schon wieder sagen "in nem halben Jahr kommen wieder neue Karten".
Wolltest dir net Ende Juni/Juli dann ne 5900U holen?

3DMark kann man eher dazu verwenden um zu gucken wie gut man übertaktet hat.
Stümmt... oder um mit Leuten zu vergleichen, die das gleiche System haben.

Sorry, fast wieder alles OT... :D

Ich empfehle mal allen die neuesten News anzuschauen und den Artikel auf Digit-Life anzuschauen.
Alle "cheaten" um die Wette...

S. =;-]
 
Jetzt muss ich doch auch noch mal meinen Senf dazugeben.

Fakt ist doch, daß sowohl Nvidia als auch ATI immer wieder mit dem 3DMarkXXXX verglichen werden und beide deshalb in den letzten Jahren sich durch unlautere Treiberoptimierungen einen Vorteil verschafft haben.

ATI und NVidia sind nunmal die grössten Hersteller und haben es dank des 3DMark geschafft kleinere Hersteller mit guten Konzepten (z.B. Kyro) vom Markt zu verdrängen oder einfach auzukaufen (3DFX).

Es ist numal so, daß die meisten Käufer eben auf die Zahlenwerte des 3Dmark abfahren und die "Fachpresse" haut in die gleiche Bresche.
Ich kann mich noch erinnern, daß eine KyroII im 3DMark2001 Werte lieferte die auf dem Niveau einer GF2MX lagen in Spielen wie Q...3, UT und anderen aber tatsächlich in den Regionen einer GF2GTS mitspielte. Da die "Fachpresse" diese aber nur selten zu Sprache brachte ist diese Karte (leider) bei den meisten Usern erst gar nicht in die engere Wahl geraten und somit nur bei Insidern zu finden.

Ich finde es müssig zum jetzeigen Zeitpunkt über cheaten zu diskutieren bei wobei die derzeitige Prozessor-/Grafikkartenpower dermassen über der tatsächlich notwendigen liegt, daß es nur lustig ist wie sich manche der Marketingpolitik "ihres" Herstellers angeschlossen haben.

Es ist doch so, daß im Moment eine Grafikkarte jenseits der Performance/Preisklasse einer GF5600 oder Radeon9600 nur rausgeschmissenes Geld ist und nur für die interessant ist der immer die schnellste Grafikkarte, den schnellsten Prozessor etc. haben wollen.

Solange es Käufer für die völlig überteuerten Flagschiffe der Grafikkartenindustrie gibt die bereit sind für 5-10% reellen Leistungsplus lieber 500-600€ ausgeben als sinnvolle 200-250€ für die völlig ausreichende Variante werden beide Hersteller versuchen sich durch mehr oder minder korrekte Aktionen, Optimierungen oder was auch immer, ins rechte Licht zu rücken.

Das "Problem" liegt meiner Meinung nach nicht bei NVidia/ATI sondern an den Käufern die dieses Produkt verlangen und es bezahlen.
 
Zurück
Oben