Betrügen die Grafikchiphersteller?

Cheaten Grafikchiphersteller um besser in der Presse dazustehen?

  • Ja, das was nVIDIA tut, ist Verdummung der Kunden

    Stimmen: 28 32,2%
  • Nein, nVidia steigert dadurch nur die Aussagekraft von synth. Benchmarks

    Stimmen: 19 21,8%
  • Ja, das was ATi tut, ist Verdummung der Kunden

    Stimmen: 1 1,1%
  • Nein, ATi steigert dadurch nur die Aussagekraft von synth. Benchmarks

    Stimmen: 0 0,0%
  • Ja, das was die ALLE tun, ist Verdummung der Kunden

    Stimmen: 13 14,9%
  • Nein, die steigern ALLE dadurch nur die Aussagekraft von synth. Benchmarks

    Stimmen: 1 1,1%
  • Synthetische Benchmarks sind eh SCH****E

    Stimmen: 25 28,7%

  • Umfrageteilnehmer
    87
Original erstellt von Kongo-Otto
Jetzt muss ich doch auch noch mal meinen Senf dazugeben.
Warum nicht? :D

Original erstellt von Kongo-Otto
Fakt ist doch, daß sowohl Nvidia als auch ATI immer wieder mit dem 3DMarkXXXX verglichen werden und beide deshalb in den letzten Jahren sich durch unlautere Treiberoptimierungen einen Vorteil verschafft haben.
Naja! Nach dem Bericht auf CB von heute relativiert sich aber auch einiges. Zudem haben meiner Meinung nach die Cheats zumindest bei dem 3DMark ansich doch erheblich dazubeigetragen, dass mehr User einmal nachdenken!

Original erstellt von Kongo-Otto
ATI und NVidia sind nunmal die grössten Hersteller und haben es dank des 3DMark geschafft kleinere Hersteller mit guten Konzepten (z.B. Kyro) vom Markt zu verdrängen oder einfach auzukaufen (3DFX).
Das ist so nicht richtig. 3DFX hat es versäumt die Zeichen der Zeit zu erkennen, zudem war es ein imenser Fehler den Chip nur noch an STB zu verkaufen anstatt wie vorher an alle Hersteller die ihn wollten. Sag was Du willst, 3dfx hat sich das eigene Grab geschaufelt. Und der Kyro litt nicht unter einem Mangel an Käufern, sondern ausschließlich an Nachfolgern! Wo bitte ist der Nachfolger des Kyro2 bis heute?

Original erstellt von Kongo-Otto
Es ist numal so, daß die meisten Käufer eben auf die Zahlenwerte des 3Dmark abfahren und die "Fachpresse" haut in die gleiche Bresche.
Ich kann mich noch erinnern, daß eine KyroII im 3DMark2001 Werte lieferte die auf dem Niveau einer GF2MX lagen in Spielen wie Q...3, UT und anderen aber tatsächlich in den Regionen einer GF2GTS mitspielte. Da die "Fachpresse" diese aber nur selten zu Sprache brachte ist diese Karte (leider) bei den meisten Usern erst gar nicht in die engere Wahl geraten und somit nur bei Insidern zu finden.
Auch das ist nur bedingt richtig, spätestens hier hatten viele geschnallt, dass es nicht nur um den 3DMark geht. Der Hype um den Kyro2 war sehr groß!

Original erstellt von Kongo-Otto
Es ist doch so, daß im Moment eine Grafikkarte jenseits der Performance/Preisklasse einer GF5600 oder Radeon9600 nur rausgeschmissenes Geld ist und nur für die interessant ist der immer die schnellste Grafikkarte, den schnellsten Prozessor etc. haben wollen.
Das ist so nicht richtig. Die 5600er kannste in die Tonne kloppen, weil selbst eine TI4200 oftmals schneller ist. Von einer TI4400/4600/4800SE red ich erst gar nicht.
Die 9600Pro ist im Gegensatz zur 9500Pro Kundenverarsche unter aller Sau.
Effektiv taugen lediglich die 9700, 9800 (wenn es die mal gibt) 5800 und 5900 Karten (alle ohne Pro/Ultra) etwas. Hier ist das Preis-Leistungsverhältnis noch am besten wenn man seine Karte für ca. 2 Jahre einplant.

Original erstellt von Kongo-Otto
Solange es Käufer für die völlig überteuerten Flagschiffe der Grafikkartenindustrie gibt die bereit sind für 5-10% reellen Leistungsplus lieber 500-600€ ausgeben als sinnvolle 200-250€ für die völlig ausreichende Variante werden beide Hersteller versuchen sich durch mehr oder minder korrekte Aktionen, Optimierungen oder was auch immer, ins rechte Licht zu rücken.
Wieviele kaufen denn die Flaggschiffe? Das sind nur Marketing Gags die es zu kaufen gibt. Der Anteil dürfte sich bei etwa 1-1,5% bewegen am gesamt Volumen einer Grafikkartenreihe.

Original erstellt von Kongo-Otto
Das "Problem" liegt meiner Meinung nach nicht bei NVidia/ATI sondern an den Käufern die dieses Produkt verlangen und es bezahlen.
Wie gesagt, die Masse kauft ja nicht die Flaggschiffe.;)
 
Original erstellt von Kongo-Otto
so, daß im Moment eine Grafikkarte jenseits der Performance/Preisklasse einer GF5600 oder Radeon9600 nur rausgeschmissenes Geld ist und nur für die interessant ist der immer die schnellste Grafikkarte, den schnellsten Prozessor etc. haben wollen.

Öhm, naja zogg mal Splinter Cell & Co. dann weiste warum viele die neuen Grafikkarten kaufen :)

Ab September dann sowieso, weil da gehts los:

30. September: Half-Life 2
16. November: FarCry
Dezember 2003: DeusEx 2, Doom3

Wenns schon die Spiele gibt will ich die auch mit ner angenehmen FPS Zahl und allen Effekten/Details spielen.

Bis zum September bekommste sowieso die FX5900/R9800Pro für unter 300€, die sind ja jetzt schon bei fast 350€ angelangt.
 
Alle Bescheißen

Es ist vieleicht (oder bestimmt) so dass ATI und Nvidia Benchmark-Ergebnisse schönen. Aber seine Produkte besser zu machen als sie sind gehört halt zum Geschäft. Und zwar zu JEDEM Geschäft. In jeder Industrie werden Produkte besser dargestellt als sie sind (NUR Colgate macht ihre Zähne weiß). Es gehört sozusagen dazu. Also ist es nicht falsch was ATI/Nvidia machen, sondernein (wenn auch schlechter) Industriestandart.
 
Wieviele kaufen denn die Flaggschiffe? Das sind nur Marketing Gags die es zu kaufen gibt. Der Anteil dürfte sich bei etwa 1-1,5% bewegen am gesamt Volumen einer Grafikkartenreihe.

Ich gebe dir ja recht daß es nur ein kleiner Teil ist.
Aber wenn die weltweit sagen wir mal 500.000 GK absetzen mit eine Stückgewinn von sagen wir mal 150-200€ ist das schon ein batzen!

Da ergeben sich für mich doch einige Fragen:
1.) Warum kostet eine 9700Pro/9800Pro/GF5900U/GF5800U ca.150-200€ mehr als ne 9500Pro/9600Pro/GF5600U wenn man diese auf selbiges Takt-/Leistungsniveau bringen kann?
2.) Warum kommen erst die dicken Karten und dann erst die "Kleinerern" Preis-/Leistungsmässig sinvollen auf den Markt?

Öhm, naja zogg mal Splinter Cell & Co. dann weiste warum viele die neuen Grafikkarten kaufen
Wenn man seine Kiste vernünftig eingestellt hat läuft zum Beispiel Splintercell auf nem TB1400c auf nem K7S5A mit 512MB SDRam und ner TI4400 (Rechner meines Bruders) in 1024x768 und AA und AF mit 30-40fps und wem das nicht reicht dem ist eigentlich auch nicht mehr zu helfen!
 
Original erstellt von Kongo-Otto
1.) Warum kostet eine 9700Pro/9800Pro/GF5900U/GF5800U ca.150-200€ mehr als ne 9500Pro/9600Pro/GF5600U wenn man diese auf selbiges Takt-/Leistungsniveau bringen kann?

LoL, zeig mir mal ne FX5600U die so schnell wie ne R9800Pro/FX5900U(o. non U) wird nur durchs übertakten. Sorry, aber das ist schmarn! (Is net böse gemeint) :)

Original erstellt von Kongo-Otto
2.) Warum kommen erst die dicken Karten und dann erst die "Kleinerern" Preis-/Leistungsmässig sinvollen auf den Markt?

Also bei der FX5900 war als erstes die non Ultra verfügbar, dann die Ultra (Die jetzt so langsam verfügbar wird). Normalerweise wird das gemacht weil die immerhin auch sehr gut verkauft werden.

Original erstellt von Kongo-Otto
Wenn man seine Kiste vernünftig eingestellt hat läuft zum Beispiel Splintercell auf nem TB1400c auf nem K7S5A mit 512MB SDRam und ner TI4400 (Rechner meines Bruders) in 1024x768 und AA und AF mit 30-40fps und wem das nicht reicht dem ist eigentlich auch nicht mehr zu helfen!

Dann poste hier bitte 2-3 Beweisscreenshots, mit FSP Zahl aber (Kann man FRAPS benutzen). Denn das glaub ich eher nicht das das mit 30-40 FPS läuft und dann auch noch mit AA/AF auf vollen Details (Wovon man wohl ausgeht!)

//Edit

http://forum.gamesweb.com/forums/showthread.php?threadid=209015

Mach das bitte mal und dann Screens mit Ergebnissen!
 
Zuletzt bearbeitet:
Original erstellt von Kongo-Otto
1.) Warum kostet eine 9700Pro/9800Pro/GF5900U/GF5800U ca.150-200€ mehr als ne 9500Pro/9600Pro/GF5600U wenn man diese auf selbiges Takt-/Leistungsniveau bringen kann?

Leistungsniveau schon mal GAR nicht. ;) Takt-Niveau ist eine andere Sache, bei halbe Pixel-Pipelines Anzahl kann man aber noch so viel takten, eine R9600 Pro wirste nur unter extremen Bedingungen auf das Niveau einer R9700 Pro bringen... Doch was kann man mit der R9700 Pro machen? :) Sie AUCH übertakten?
Und zu deiner Frage, warum die 150-200€ mehr kosten: Weil eine R9800 Pro oder eine FX5900 eben deutlich teurer herzustellen sind! Dazu gehört in erster Linie ein funktionierendes Pixel-Pipeline und 256-Bit breites Speicheranbindungssystem gepaart mit sehr schneller RAM und dazu noch ein so guter Chip, der den Standard-Takt ohne Probleme aushalten muss!

2.) Warum kommen erst die dicken Karten und dann erst die "Kleinerern" Preis-/Leistungsmässig sinvollen auf den Markt?

Weil die größeren Karten die Basis bilden, auf denen sich die "Kleineren" Karten bilden! Zudem muss eine gewisse Massenproduktion ENTSTEHEN, damit diese billigeren und kleineren Karten auch in angemessenen Stückzahlen verkauft werden! Ein Beispiel: Eine R9700 Pro kam im September letzten Jahres heraus. Der Anteil der Käufer einer solchen Karte liegt bei 3-5% der Gesamtverkäufe. Da der Anteil der Low-Cost-Karte aber bei über 50% liegt, hätte es ATI niemals geschafft, genügend Karten für den Low-Cost-Markt bereit zu stellen. Desweiteren muss man eine stabile Grundlage erschaffen und am Martk testen, und das geht eben mit High-End Karten natürlich deutlich besser und ist auf sehr wichtig fürs Image. DANACH kann man dann beschneiden und kürzen und dann kann man die "kleineren" Karten auf den Makrt werfen! Außerdem: Es gibt ja noch "ältere" Karten (bei nVidia sind das z.B. die GF4Ti/GF4MX-Karten) die nicht einfach so in 2-3 Tagen aus den Regalen verschwinden, weil die Stückzahlen eben deutlich größer sind, die gesamte Situation ist also deutlich "träger" und nicht so leicht zu steuern, wie dies mit einer kleinen High-End Produktion möglich ist.

Wenn man seine Kiste vernünftig eingestellt hat läuft zum Beispiel Splintercell auf nem TB1400c auf nem K7S5A mit 512MB SDRam und ner TI4400 (Rechner meines Bruders) in 1024x768 und AA und AF mit 30-40fps und wem das nicht reicht dem ist eigentlich auch nicht mehr zu helfen!

Das glaub ich dir jetzt nicht wirklich, möchte gern mal Screenshots + Fraps sehen... 30-40 FPS MIT FSAA/AF auf einer GF4Ti ist einfach ein Wunschdenken... FSAA bei SC sowieso, aber das ist eine andere Geschichte. :D

Original erstellt von TheCounter
Also bei der FX5900 war als erstes die non Ultra verfügbar, dann die Ultra (Die jetzt so langsam verfügbar wird). Normalerweise wird das gemacht weil die immerhin auch sehr gut verkauft werden.

Jein. Das wird aus obigen Gründen gemacht. NV36 wird auf dem NV35 basieren und die "FX5700" sag ich jetzt mal darstellen. Dazu muss aber erst eine Grundlage da sein. Warum die FX5900 VOR der FX5900 Ultra erschied, ist wohl aus Zeitgründen entstanden, da vor jedem Release auch ausreichend Karten verfügbar sein müssen und da die FX5900 weniger "Anforderungen" an die Hardware hat, werden mehr zertifiziert, als es Ultra-Versionen schaffen. Sehr gut verkauft ist relativ, verglichen mit dem OEM/Low-Cost-Markt ist das ganze her eine Mini-Palette... :)
 
Zuletzt bearbeitet:
Original erstellt von Kongo-Otto
Ich gebe dir ja recht daß es nur ein kleiner Teil ist.
Aber wenn die weltweit sagen wir mal 500.000 GK absetzen mit eine Stückgewinn von sagen wir mal 150-200€ ist das schon ein batzen!
Äh, und was ist so schlimm dran? Das ist eben Kapitalismus... Keiner muss das kaufen.
Wobei ich auch nicht an einen Stückgewinn von 150-200€ glaube.

Da ergeben sich für mich doch einige Fragen:
1.) Warum kostet eine 9700Pro/9800Pro/GF5900U/GF5800U ca.150-200€ mehr als ne 9500Pro/9600Pro/GF5600U wenn man diese auf selbiges Takt-/Leistungsniveau bringen kann?
Das hinkt gewaltig...
1. kriegst du das nicht einfach so auf das Leistungsniveau (ohne Geld in extra-Kühlung zu stecken und Garantie zu verlieren eh nicht)
2. kannst du das Leistungsniveau/die Taktraten bei den High-End-Karten auch anheben - also hast du im Endeffekt doch wieder den gleichen Leistungunterschied

2.) Warum kommen erst die dicken Karten und dann erst die "Kleinerern" Preis-/Leistungsmässig sinvollen auf den Markt?
Ich denke:
1. Prestigeobjekte
2. ist der Chip einer Serie normal identisch - zuerst kommt die High-End-Karte, und aus dem "Ausschuss" der Produktion, die nicht die hohen Spezifikationen mitmachen, werden dann die niedriger getakteten/beschnittenen Karten gemacht

Wenn man seine Kiste vernünftig eingestellt hat läuft zum Beispiel Splintercell auf nem TB1400c auf nem K7S5A mit 512MB SDRam und ner TI4400 (Rechner meines Bruders) in 1024x768 und AA und AF mit 30-40fps und wem das nicht reicht dem ist eigentlich auch nicht mehr zu helfen!
*totlach* Sorry, aber das ist wirklich lächerlich!
30-40 fps? wenn du direkt vor ner Wand stehst? nein, nicht mal da... wenn ich bei Benches so sehe was High End Karten in Splinter Cell gerade mal schaffen...

Ausserdem halt ich so Diskussionen für überflüssig, dass doch kein Schwein High-End Karten braucht etc.
Jeder muss wissen was er sich leisten kann/will... Ist doch mit allem anderen das selbe... Handys, Autos...

S.
 
Original erstellt von Supiman
Ausserdem halt ich so Diskussionen für überflüssig, dass doch kein Schwein High-End Karten braucht etc. Jeder muss wissen was er sich leisten kann/will... Ist doch mit allem anderen das selbe... Handys, Autos...

Absolut. Auch wenn ich mir Grenzen setze, bis wohin ich gewisse "Technik" kauf: Ein Ferrari ist einfach geil, eine 500€-Grafikkarte eventuell auch... ;)
 
Original erstellt von Riptor
NV36 wird auf dem NV35 basieren und die "FX5700" sag ich jetzt mal darstellen.

Das halte ich für ein nicht tragfähiges Gerücht. Schon alleine weil der NV36 nur "4" Pipes haben wird und keine "8" wie der NV35. Von daher ist es schon ein ganz anderer Chip der anders gefertigt wird!
 
Original erstellt von GRAKA0815
Das halte ich für ein nicht tragfähiges Gerücht. Schon alleine weil der NV36 nur "4" Pipes haben wird und keine "8" wie der NV35. Von daher ist es schon ein ganz anderer Chip der anders gefertigt wird!

Nun, kleiner Exkurs:

NV30: Mischung aus 4x2 und 8x1, 128 Bit Speicheranbindung

Beispiel: NV34: Mischung aus 2x2 und 4x1, 128 Bit
"[...] Dafür musste der NV34 gegenüber der originalen GeForceFX 5800 /Ultra (NV30) jedoch gewaltig Federn sprich Transistoren lassen, der NV30-Chip ist in diesem Sinne nicht wiederzuerkennen. Als Abspeckungen zur originalen GeForceFX 5800 /Ultra gibt es zum einen nur noch 4 Rendering-Pipelines mit je einer Textureinheit (oder 2x2, je nach Betrachtungsweise), desweiteren wurde der Vertex Shader wohl komplett durch einen dramatisch leistungsschwächeren ersetzt. Gänzlich weggekürzt wurde zudem die Kompression der Farb- und W-Werte. Der Wegfall der Farb-Kompression wird vor allem die Leistung unter Anti-Aliasing wesentlich schlechter als bei den anderen GeForceFX-Chips ausfallen lassen."

NV31: Mischung aus 2x2 und 4x1, 128 Bit
"Nicht so dramatisch beschnitten wurde dagegen die GeForceFX 5600 /Ultra auf Basis des NV31-Chips. Jener DirectX9-Chip für den Mainstream-Markt wird somit die direkte Konkurrenz zu ATi´s neuer Radeon 9600 / Pro antreten - und auch außerhalb des Namens ähneln sich beide Chips: Bei beiden kommt eine 4x1 Architektur zum Einsatz, welche eine Abspeckung der 8x1 Architekturen der jeweils größeren Brüder darstellt (nVidia: je nach Belieben auch als 2x2 bzw. 4x2 zu bezeichnen), beide nutzen ein 128 Bit DDR/I Speicherinterface, beide sind technologisch ansonsten kaum gegenüber den großen Brüdern abgespeckt. Ergo sind in der GeForceFX 5600 /Ultra alle Features der GeForceFX 5800 /Ultra enthalten, ganz im Gegensatz zur GeForceFX 5200 /Ultra. Einzig allein der Vertex Shader soll drastisch reduziert worden sein, so daß die Vertex Shader Leistung auf ein Drittel zurückging. Dies war wohl aus Gründen der Reduktion der Transistorenmenge notwendig, außerhalb von Spielen mit massivem Vertex Shader Einsatz sollte dies kaum auffallen."

FAZIT: NV30 die Basis, NV31 abgespeckt, NV34 NOCH mehr!

Beispiel NV36:

"Der NV36 soll gemäß bisherigen Gerüchten/Vermutungen den NV31-Chip (GeForceFX 5600 /Ultra) im Mainstream-Segment beerben und wird derzeit als halbiere Version des NV35 (GeForceFX 5900 /Ultra) gesehen, ergo die die Häfte der Rendering-Pipelines und ein abgespeckter Vertex Shader. Allerdings gibt es zur Markt-Positionierung auch schon wieder eine andere Ansicht, welche den NV36 leistungsmäßig deutlich oberhalb des NV31 sieht (allerdings noch knapp im Mainstream-Segment und damit unterhalb des NV35-Chips), womit zum einen der bisherige NV31-Chip weiterhin seine Existenzberechtigung haben würde und zum anderen nVidia natürlich einen erneuten Angriff auf die Mainstream-Chips von ATi (RV350 und später RV360) starten würde." [Quelle]

Ergo: NV36 basiert klar auf dem NV35-Chip, ist schnellerals NV31, aber wahrscheinlich auch langsamer als NV30, deswegen habe ich nur mal so den Namen FX5700 gewählt... Was ist jetzt daran "falsch"? Ich mein: nVidia macht doch nicht gleich 3 komplett neue Chips, NV31 und NV34 sind beschnittene NV30-Chips, NV36 wird so wie es derzeit ausschaut ein beschnittener NV35! Logisch oder nicht?

-->
Neuer Grafikchip im Sommer
"NVIDIA überarbeitet allerdings nicht allein bestehende Grafikchips, für den Sommer plant der Grafikriese den Start des NV36. Anders als zu vermuten ist dieser Chip kein High-End-Nachfolger des NV35, sondern lediglich ein Mittelklasse-Chip.
Der NV36 basiert auf dem NV35, der für die Mittelklasse-Version derzeit abgespeckt wird." [Quelle]
 
Original erstellt von GRAKA0815
Das halte ich für ein nicht tragfähiges Gerücht. Schon alleine weil der NV36 nur "4" Pipes haben wird und keine "8" wie der NV35. Von daher ist es schon ein ganz anderer Chip der anders gefertigt wird!
Öh, aber die Radeon 9500 hat im Gegensatz zur 9500 Pro auch nur 4 Pipes statt 8 - 4 sind deaktiviert, weil min. eine defekt ist. Der Chip ist der gleiche.
Ich denke das entspricht den gleichen Pipes, die du meinst, oder? *auch nicht sooo wahnsinnig auskenn*

Grüsse,
S.
 
Original erstellt von Riptor
Ergo: NV36 basiert klar auf dem NV35-Chip, ist schnellerals NV31, aber wahrscheinlich auch langsamer als NV30, deswegen habe ich nur mal so den Namen FX5700 gewählt... Was ist jetzt daran "falsch"? Ich mein: nVidia macht doch nicht gleich 3 komplett neue Chips, NV31 und NV34 sind beschnittene NV30-Chips, NV36 wird so wie es derzeit ausschaut ein beschnittener NV35! Logisch oder nicht?
-->

Der NV34 ist zudem noch in 15nm und nicht in 13nm wie alle anderen (NV30,31,35)
Der NV36 wird sicherlich auch ein 13nm werden. Trotzdem ist es ein anderer Chip als ein NV35. So ganz grob gesehen, sind alle auf dem NV30 aufgebaut. Aber auch nur GANZ grob. Klar ist die 5900 nur ein 5900Ultra der evtl. die Spec. nicht ganz erfüllt, aber nvidia macht bestimmt nicht den kostspieligen fehler wie ATI mit der 9500! Es wird ein anderer Chip sein und kein NV35 value.
Wo sich der NV36 positionieren wird, bleibt spannend. Da der neue NV31 Ultra nun nochmal um 50MHz Core und 50MHz Speicher hochgetaktet wurde, liegt er jetzt in etwa gleich auf mit einer 9600Pro. Ich denke aber, das sich der NV36 eher in Richtung 9500Pro bewegen wird. Macht aber dann wenig sinn, weil sich somit der NV31 erledigt hätte. Wäre praktisch Konkurenz im eigenen Haus. Als zwischen Ding zwischen NV31 Ultra und NV30 non Ultra könnte er nur dann bestehen, wenn er annähernd an die Werte einer 5800 non Pro kommt, stärker ist als eine 5600Ultra neu und trotzdem kaum teurer. Oder Nvidia läßt jetzt den NV30 und NV31 gänzlich sterben und durch NV35 u. 36 ersetzen wie ATI den R300 durch R350. Macht auch einen Sinn, wäre aber wahrscheinlich zu teuer. Wie gesagt, es bleibt spannend.
 
Original erstellt von GRAKA0815
Der NV34 ist zudem noch in 15nm und nicht in 13nm wie alle anderen (NV30,31,35)

Das hat auch seine Gründe. ;)

Der NV36 wird sicherlich auch ein 13nm werden. Trotzdem ist es ein anderer Chip als ein NV35. So ganz grob gesehen, sind alle auf dem NV30 aufgebaut. Aber auch nur GANZ grob. Klar ist die 5900 nur ein 5900Ultra der evtl. die Spec. nicht ganz erfüllt, aber nvidia macht bestimmt nicht den kostspieligen fehler wie ATI mit der 9500! Es wird ein anderer Chip sein und kein NV35 value.

Das ist mir auch klar, aber darum gehts nicht. Mir ging es darum, dass sich die Chips NV30/31/34 ähneln und der NV36 der kleine Bruder des NV35 ist, wobei ihm die Hälfte des Speicherinterfaces genommen wird und vllt noch ein paar andere Kleinigkeiten, so wie das schon bei NV30 zu NV31 der Fall war.

Oder Nvidia läßt jetzt den NV30 und NV31 gänzlich sterben und durch NV35 u. 36 ersetzen wie ATI den R300 durch R350. Macht auch einen Sinn, wäre aber wahrscheinlich zu teuer.

Doch macht Sinn, denn die Produktion des 0.13 micron NV30 ist schon eingestellt, die NV31-Schiene wird runtergefahren und zugunsten der "neuen" Basis NV35 wird der NV36 "kreirt", wenn man das so auf deutsch sagen darf. Was anderes wäre nich logisch und nVidia BRAUCHT eine bessere Karte als die FX5600 Ultra, damit sie sich besser gegen R9600 Pro und R9700 (bald wahrscheinlich R9800SE oder LE) durchsetzen kann...
 
Original erstellt von Riptor

Doch macht Sinn, denn die Produktion des 0.13 micron NV30 ist schon eingestellt, die NV31-Schiene wird runtergefahren und zugunsten der "neuen" Basis NV35 wird der NV36 "kreirt", wenn man das so auf deutsch sagen darf. Was anderes wäre nich logisch und nVidia BRAUCHT eine bessere Karte als die FX5600 Ultra, damit sie sich besser gegen R9600 Pro und R9700 (bald wahrscheinlich R9800SE oder LE) durchsetzen kann...

Nein, der FX 5800 non Ultra ist nach wie vor erhältlich und wird auch produziert!
Den NV31 werden die bestimmt nicht einstellen, wollten die das, hätten die sen FX5600Ultra nicht noch einmal aufgebohrt! Das der FX5800 nun auch eingestellt wird ist möglich, wäre auch der einzig nachvollziehbare Schluß, wenn der NV36 sich in der Performance "deutlich" vom NV31 abhebt. Aber da glaube ich nicht so ganz dran. Das wird sehr schwierig mit nur 4 Pipes! Außer man spendiert ihm 256bit Speicheranschluß aber selbst das würde nur in ganz großen Auflösungen sich bezahlt lassen. Echt schwierig was nvidia nun mit dem NV36 vor hat!
 
Nun ja, auch wenn der Name und das Verhältnis (+1) zum nV35 einen nV31-Nachfolger nahelegt, denke ich eher, dass hier der nV34 abgelöst bzw. ersetzt wird. Dieser soll ja das preiswerte Grundgerüst für den Massenmarkt bilden.

nV36:
-Shrink auf 0,13, dadurch billiger herzustellen
- Kürzung zweier separater TMUs und einer herkömmlichen Pipeline
- Zusätzilch eine PS2.0-ALU
- Vielleicht noch FB-Kompression
- Produktion bei IBM
__________________________
Leistungsfähiger Nachfolger des nV34, billig und schnell...

Natürlich alles hochspekulativ.
 
Na ja Carsten, unmöglich ist nichts bei nvidia.
Halte ich pers. aber für wenig sinnvoll, da der FX5200 sich sehr gut verkauft. Nur der FX5200Ultra ist ein Rohrkrepierer genauso wie der FX5600 non Ultra.
Der NV34 Ultra ist zu teuer und oft einer NV31 non Ultra überlegen welcher zudem für sein Geld viel zu schwach auf der Brust ist von seiner Leistung her.
Wir können gespannt sein. Mitte August ist ja nicht mehr weit!;)
 
Original erstellt von GRAKA0815
Nein, der FX 5800 non Ultra ist nach wie vor erhältlich und wird auch produziert!


:D Ja, Restbestände! Denn schau mal auf http://www.nvidia.com/ und such mal, ob du noch irgendwo eine FX5800 bzw. FX5800 Ultra findest! :D

--> Es werden FX5200, FX5600 und FX5900 angeboten, FX5800/Ultra wurden vor ein paar Wochen still und heimlich von der Seite entfernt und es gab auch ein offizielles Statement, dass der NV30 nicht mehr produziert wird. ;)

Den NV31 werden die bestimmt nicht einstellen, wollten die das, hätten die sen FX5600Ultra nicht noch einmal aufgebohrt!

Sehs doch mal so: Was bringt, es wenn die Produktion auf NV35-Basis läuft, man aber noch für den NV31 eine andere Basis in 0.13 micron benötigt? Für nVidia ist es deutlich sinnvoller, den NV36 in wenigen Monaten zu bringen und den NV31 damit abzulösen, es spricht kaum was dafür, weiterhin auf den NV30/NV31 zu setzen, wenn die Nachfolger schon fertig sind und verkauft werden (NV35) und der NV36 sein Tape-Out in wenigen Wochen hinter sich hat. NV31 läuft eben so langsam aber sicher aus, wird noch billiger verkauft und im Herbst isser wahrscheinlich weg:

"Up to $200 - NV36 the true half of NV35
NV36 is a true half slice of the the NV35 - with 2?2 or 4?1 modes. Pixel power is half as low but the vertex power is pretty much the same as the NV35."

und

"Vor einiger Zeit berichteten wir über den NV40 der vermutlich bei IBM in New York, Fishkill - einer der Modernsten Foundrys - gefertigt werden soll. Grund dafür sind die Überlegenheit IBMs in der Fertigung und deren Techniken gegenüber der Konkurrenz. Denn als nVidia den NV30 zwanghaft auf 130nm bei TSMC zu produzieren versuchte, leistete man viel Pioniersarbeit in dieser Technik mit großen GPUs. Viel Zeit und Geld gingen dabei verloren und der NV30 verspätete sich enorm. Weiterhin kommen die Erfahrungen, die TSMC dabei macht dem Konkurrenten zugute. Somit schwebte natürlich ein Foundrywechsel vor. Jedoch, nach aktuellen Informationen zufolge, soll derzeit nur der NV36 bei IBM gefertigt werden (Nachfolger der FX5600). Dies ist scheinbar ein großer Test - je nach Ergebnis wird man entsprechend reagieren -. Denn nVidia hat anscheinend genug von zu großen Risiken. Hier passen die Erfolgsmeldungen von TSMC exakt ins Bild. TSMC scheint den Low K Dielectric Prozess nun zu beherrschen (für NV30 geplant letztendlich nicht realisiert). Weiterhin hat TSMC im GPU Prozess mehr Erfahrung als IBM. Es sieht also so aus, als würde der NV40 bei TSMC produziert werden. Es ist noch kein Tapeout raus gegangen, der NV36 jedoch wird in den nächsten Wochen produziert.
Somit wird nVidia seine Produktpalette neu gestallten. Der NV34 (GeforceFX5200) bleibt im Low Cost Segment im Sub100$ Bereich, die FX5200Ultra, deren Preisleistungsverhältnis sowieso fraglich war, wird wohl in der Versenkung verschwinden. Der NV31, jedoch nur die neue FlipChip 400Mhz Variante, wird erhalten bleiben und im 150$ Segment bleiben. Der NV36 wird (halbierter FX5900/NV35) die Ultra Version ersetzen. Wie gehabt wird die FX5900 im 350-400$ und die FX5900 um die 450-500$ rangieren."

+

"Die aktuellen Produkte von nVidia im Performance-Bereich heißen GeForce FX5600 (NV31 Grafikchip) und FX5900 (NV35 Grafikchip), die es beide auch als Ultra-Versionen gibt bzw. geben wird. Aber wie geht es danach weiter? Dazu sind in letzter Zeit verschiedene inoffizielle Informationen und Gerüchte aufgetaucht.
Im mittleren Segment wird nVidia auf den NV31 den NV36 folgen lassen, der bekanntlich eine etwas abgespeckte Variante des aktuellen High-End Grafikchips NV35 mit nur halb sovielen Pixel-Pipelines (4 statt 8) darstellt. Entgegen ersten Meldungen soll der NV36 aber nun doch als erster Chip vom neuen nVidia-Partner IBM in 130nm Technologie gefertigt werden. Die neue Grafikeinheit hat angeblich bereits ihr Tape-Out hinter sich, d.h. das Design ist fertig und nun wird die Massenproduktion vorbereitet. Dies dauert üblicherweise zwischen drei und vier Monate, so dass erste Grafikkarten mit dem NV36 (GeForce FX5700?) wie erwartet im Herbst erscheinen könnten."

Möglich wäre also gerade noch, den NV31 parallel zum NV36 laufen zu lassen, allerdings glaube ich kaum, dass das noch lange so gehen wird. ;)

Das der FX5800 nun auch eingestellt wird ist möglich, wäre auch der einzig nachvollziehbare Schluß, wenn der NV36 sich in der Performance "deutlich" vom NV31 abhebt. Aber da glaube ich nicht so ganz dran. Das wird sehr schwierig mit nur 4 Pipes! Außer man spendiert ihm 256bit Speicheranschluß aber selbst das würde nur in ganz großen Auflösungen sich bezahlt lassen. Echt schwierig was nvidia nun mit dem NV36 vor hat!

Finde ich jetzt nicht wirklich! Schon jetzt solls bald den NV31 mit höherem Takt geben (400/400), aber dieser wird nicht von allen Herstellern akzeptiert, da der Name ja gleich bleibt und wer will für 2-3 Monate noch so ein Nischenprodukt, wobei eine SE-Edition vllt eine Lösung wäre. Der NV36 kann auf 400/400 betrieben werden, dazu die Verbesserungen des NV35 und ein 128-Bit Speichersystem. Es spricht einiges dafür, das der NV36 den NV31 locker in der Performance das Wasser reichen kann (stärkere Vertex-Shader, ein wahrscheinlich leicht höherer Takt), was anderes wäre auch nicht sinnvoll, möchte ja auch ATI mit dem kommenden RV360 die Taktraten weiter anheben, und somit hätte die FX5600 Ultra noch weniger Chancen.

@ Carsten: Das klingt eher nach nem FX5600/Ultra Nachfolger... ;) Allein schon die Tatsache, dass die Preiskategorie von ca. 200$ angestrebt wird... ABER: Es ist sehr gut möglich, dass uns dann auch der "NV39" erwartetm in 0.13 micron und auf Basis des NV35, wäre eigentlich eine logische Folgerung, denn diese Bauweise wäre noch billiger, als die 0.15 micron Fertigung. Vorraussetzung sind allerdings eine hohe Erfolgsquote bei der 0.13-Fertigung, das sollte aber bis zum Herbst und dank IBM kein großes Problem mehr sein. :)

Das die FX5600 aber ein Rohrkrepierer ist, kann ich nicht ganz nachvollziehen. Die Karte gibts mit 128MB und ViVo für 123€ und ist damit genau auf Niveau der R9600, performance- UND preistechnisch!
 
Zuletzt bearbeitet:
Ich kann es mir nicht vorstellen, dass wenn der NV36 gänzlich den NV31 ablösen sollte, man jetzt noch mitte Juli eine verbesserte Version des NV31Ultra bringt. Mal ehrlich, dass wäre doch schwachsinn. Ich würde das ganze ja noch unterschreiben wenn man ihn nicht mehr aufgebohrt hätte. Für was auch? Wegen 4-8 Wochen? Ich denke eher, dass sich der NV36 am oberen Ende des Mid-Range Preises bewegen wird und der NV31 eben am unteren Ende um somit die Leistungslücke zwischen NV31 und NV35 zu verkleinern.

Klar ist die FX5600 ein krepierer. Der schafft es ja so gut wie überhauptnicht einer TI4200 das Wasser zu reichen geschweige denn einer TI4800SE. Zumindest was die Standardsettings angeht kann man die FX5600 Serie vergessen. Da greif ich aber allemal lieber zu einer TI4800SE die günstiger ist im Preis und in Standardsettings einer FX5600 überlegen.
 
Original erstellt von GRAKA0815
Ich kann es mir nicht vorstellen, dass wenn der NV36 gänzlich den NV31 ablösen sollte, man jetzt noch mitte Juli eine verbesserte Version des NV31Ultra bringt. Mal ehrlich, dass wäre doch schwachsinn. Ich würde das ganze ja noch unterschreiben wenn man ihn nicht mehr aufgebohrt hätte. Für was auch? Wegen 4-8 Wochen? Ich denke eher, dass sich der NV36 am oberen Ende des Mid-Range Preises bewegen wird und der NV31 eben am unteren Ende um somit die Leistungslücke zwischen NV31 und NV35 zu verkleinern.

Naja, da sag ich ja auch nicht so viel anderes. ;) Mir gings eigentlich darum:

Ich: "NV36 wird auf dem NV35 basieren und die "FX5700" sag ich jetzt mal darstellen."

Du: "Das halte ich für ein nicht tragfähiges Gerücht. Schon alleine weil der NV36 nur "4" Pipes haben wird und keine "8" wie der NV35. Von daher ist es schon ein ganz anderer Chip der anders gefertigt wird!"

Aber ich glaub, wir sind jez ein wenig OT... :D

Klar ist die FX5600 ein krepierer. Der schafft es ja so gut wie überhauptnicht einer TI4200 das Wasser zu reichen geschweige denn einer TI4800SE. Zumindest was die Standardsettings angeht kann man die FX5600 Serie vergessen. Da greif ich aber allemal lieber zu einer TI4800SE die günstiger ist im Preis und in Standardsettings einer FX5600 überlegen.

Ich ja AUCH nicht... ;) Aber verglichen mit ner R9600 ist sie nich übel... Wobei der Favorit die 128MB GF4Ti4200 Albatron für 107€ ist... :D

/e: Wobei die 69€ Ti4200 64MB das noch bessere Preis-Leistungsverhältnis darstellt! :)
 
Zuletzt bearbeitet:
Zum eigentlichen Thema:
Ich halte auch nicht viel von 3D Marks usw., sondern verfahre eher nach den Prinzip Spielen und Einstellungen möglichst hoch schrauben. Wenn es mir dann gefällt, ist die Karte gut und basta! Außerdem sollte man auch auf die 2D-Qualitäten achten (Schärfe, ...). Die gehen doch in dem ganzen 3D-Hype völlig unter. Wenn ich das Bild einer MSI GF 4800 TI bei einem Bekannten sehe, wird's mir schwummrig vor den Auge; die GF2MX 400, die vorher drin war, ist zwar inzwischen nicht mehr besonders zum Zocken geeignet, aber dafür deutlich schärfer.
Schade, dass Matrox keine brauchbaren 3D-Chips mehr im Programm hat. Meine gute alte G200 vermisse ich schon ein wenig, aber aktuelle Spiele laufen halt nicht. :(
 
Zurück
Oben