Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia macht Druck auf Grafikkartenhersteller
- Ersteller Volker
- Erstellt am
- Zur News: Nvidia macht Druck auf Grafikkartenhersteller
MacroWelle
Commander
- Registriert
- Apr. 2006
- Beiträge
- 2.239
Tja nur leider geht das vielen Leuten anders. Direct X 10 ist kein Argument, schließlich ist man mit einer DX10-fähigen Karte noch nicht automatisch gezwungen, solche Spiele auch zu spielen.T-DSC schrieb:Also vor der neuen 8800GTS 512Mb kommt mir nix neues in den Rechner das lohnt einfach nich.
Die komplette 8600er-Serie ist für mich nicht Mittelklasse, da die wichtige Shaderleistung zu gering ist und der Speicherbus zu schmal ausgefallen ist (aber das ist Absicht von Nvidia). Oben beschwerst du dich noch über die "nicht lohnenswerten" Produkte und hier reicht eine sehr schwache Karte plötzlich aus zum "bisschen zocken"?? Und für nen HTPC reicht meist jede moderne, sparsame Low-End-Karte für 70 €.T-DSC schrieb:@MacroWelle Also für mich is ne 8600GT aber auch midrang bzw ne 8600GTS für en Media PC und bisschen zocken reicht die auch!
Es gibt noch mehr Gründe, die gegen eine Mittelklasse-Karte sprechen:
- die Leistung liegt etwa bei einem viertel der Topmodell (8800er-Serie), das ist zuwenig, normal sind etwa 50-70%
- die 8600er-Serie wird in der Regel von einer Radeon 1950Pro (<-- Mittelklasse) platt gemacht
- zwischen der 8600 GTS und der kleinsten 8800er war vor der 8800 GT ein in jeder Hinsicht eine rießige Lücke, da hätten noch drei bis vier Modelle reingepasst
- Nvidia hatte kaum einen Grund, eine Mittelklasse anzubieten, da Konkurrent ATI geschwächelt hat, so konnte man über lange Zeit alle Käufer, die etwas mehr GPU-Leistung haben wollten, mit der teuren 8800er-Serie abzocken und alle anderen mit der schwachen, günstig produzierten 8600er (z. B. in OEM-Rechnern) verarschen.
Dafür kriegt Nvidia jetzt die Quittung, wie ich vorher schon geschrieben habe.
Das Problem bei der News hier ist, dass es sich ausschließlich um Gerüchte und Interpretationen handelt. D. h. wir wissen nicht, was eigentlich genau das Problem ist.
Zuletzt bearbeitet:
Für all diejenigen die sich bei der Wahl Ihrer Grafikkarte sehr leicht blenden lassen mal folgendes Grundlegendes zur Kaufüberlegung! 
Wer sich ein wenig mit Elektronik auskennt sei es privat oder auch beruflich, wird sicherlich wissen, was es bedeutet eine Platine von 10 auf 6 Layer abzuspecken!
Nvidia versucht derzeit Möglichkeiten auszuschöpfen, um den Absatzmarkt der G92 Karten zu steigern oder bzw. halbwegs konstant zu halten. Desweiteren zählt in diesem Unternehmen ( wie in anderen Branchen auch ) in erster Linie der Umsatz und nicht unbedingt die absolute Zufriedenheit des Kunden!
Denn der Aktionär investiert nun mal nicht gerade gern in falsche Versprechungen.
Da Nvidia in diesen Falle nur den Grafik-Chip zur Verfügung stellt, ist es dem Unternehmen natürlich relativ egal, sich anschließend um etwaige Garantieansprüche zu kümmern.
Diese werden ja nun einmal über die Boardpartner und Distributoren abgewickelt, die dann den schwarzen Peter tragen.
Ich sprach es oben bereits schon einmal an:
Wer sich mit Elektronik auskennt weiß bereits jetzt schon worauf ich hinaus will.
Beispiel: Harman/Kardon (renomierter Hersteller von Hifi Produkten) hatte dieses Problem ebenfalls vor ein paar Jahren mit einem DSP Sound-Prozessor.
Der 7.1 Dolby-Digital Verstärker fand anfangs sehr guten Absatz, allerdings waren die Produktionskapazitäten des Unternehmens begrenzt und folgedessen sparte man an der Platine um den Output zu steigern.
Bedingt dadurch, dass ein Verstärker unter Last auch nicht gerade einen kühlen Kopf behält, löteten sich einige Leistungsendstufen von selbst aus.
Der Grund: Die starke Hitzeentwicklung und dem damit verbundenen enstehen von Spannungen im Gefüge der Hauptplatine.
Da diese ja bekanntlich aus Epoxydharz-Komponennten besteht, war das abzusehende Ende bereits vorhersehbar.
Die Geräte der Zweiten Generation gerieten somit in einen Preisverfall und wurden letztendlich eingestellt.
Deshalb hat man mit diesem Modell auch bei ebay nicht mehr sehr viel Glück.
Da auch Garfikkarten mittlerweile ja die 80-90 Grad Marke knacken, brauche ich wohl hierzu nicht mehr viel zu sagen.
Wer also eine G92 Karte mit 10 Layern bereits jetzt schon sein eigen nennen kann, sollte sich also freuen.
Alle anderen sollten genau schauen, was Ihnen Angeboten wird.
Ich bin eher bereit 10-20 Euro mehr zu bezahlen und eine Karte mein eigen zu nennen, welche zuversichtlich ihren Dienst verrichtet, als mich mit Service-Hotlines herumzuschlagen und wochenlang einen schwarzen Bildschirm
anzustarren.
Gruß
sagitare
Wer sich ein wenig mit Elektronik auskennt sei es privat oder auch beruflich, wird sicherlich wissen, was es bedeutet eine Platine von 10 auf 6 Layer abzuspecken!
Nvidia versucht derzeit Möglichkeiten auszuschöpfen, um den Absatzmarkt der G92 Karten zu steigern oder bzw. halbwegs konstant zu halten. Desweiteren zählt in diesem Unternehmen ( wie in anderen Branchen auch ) in erster Linie der Umsatz und nicht unbedingt die absolute Zufriedenheit des Kunden!
Denn der Aktionär investiert nun mal nicht gerade gern in falsche Versprechungen.
Da Nvidia in diesen Falle nur den Grafik-Chip zur Verfügung stellt, ist es dem Unternehmen natürlich relativ egal, sich anschließend um etwaige Garantieansprüche zu kümmern.
Diese werden ja nun einmal über die Boardpartner und Distributoren abgewickelt, die dann den schwarzen Peter tragen.
Ich sprach es oben bereits schon einmal an:
Wer sich mit Elektronik auskennt weiß bereits jetzt schon worauf ich hinaus will.
Beispiel: Harman/Kardon (renomierter Hersteller von Hifi Produkten) hatte dieses Problem ebenfalls vor ein paar Jahren mit einem DSP Sound-Prozessor.
Der 7.1 Dolby-Digital Verstärker fand anfangs sehr guten Absatz, allerdings waren die Produktionskapazitäten des Unternehmens begrenzt und folgedessen sparte man an der Platine um den Output zu steigern.
Bedingt dadurch, dass ein Verstärker unter Last auch nicht gerade einen kühlen Kopf behält, löteten sich einige Leistungsendstufen von selbst aus.
Der Grund: Die starke Hitzeentwicklung und dem damit verbundenen enstehen von Spannungen im Gefüge der Hauptplatine.
Da diese ja bekanntlich aus Epoxydharz-Komponennten besteht, war das abzusehende Ende bereits vorhersehbar.
Die Geräte der Zweiten Generation gerieten somit in einen Preisverfall und wurden letztendlich eingestellt.
Deshalb hat man mit diesem Modell auch bei ebay nicht mehr sehr viel Glück.
Da auch Garfikkarten mittlerweile ja die 80-90 Grad Marke knacken, brauche ich wohl hierzu nicht mehr viel zu sagen.
Wer also eine G92 Karte mit 10 Layern bereits jetzt schon sein eigen nennen kann, sollte sich also freuen.
Alle anderen sollten genau schauen, was Ihnen Angeboten wird.
Ich bin eher bereit 10-20 Euro mehr zu bezahlen und eine Karte mein eigen zu nennen, welche zuversichtlich ihren Dienst verrichtet, als mich mit Service-Hotlines herumzuschlagen und wochenlang einen schwarzen Bildschirm
anzustarren.
Gruß
sagitare
paxtn
Captain
- Registriert
- März 2007
- Beiträge
- 3.694
@ sagitare
Danke für diese Erklärung. Dennoch weiß ich nicht, was Layer überhaupt sind. Ich bin noch jung (17) und habe von solcher Technik so gut wie keine Ahnung, beschäftige mich zwar schon relativ viel mit PC, aber das noch net lange.
Könnte mir vielleicht mal netterweise jemand erklären, was Layer überhaupt sind?
Ich habe durch sagitare jetzt so viel verstanden, dass bei nur 6 die Grafikkarte noch heißer wird und die Wahrscheinlichkeit für eine Überhitzung steigt. Aber was sind denn Layer? Habe im Internet noch keine verständliche Antwort auf diese Frage gefunden.
MfG paxtn
Danke für diese Erklärung. Dennoch weiß ich nicht, was Layer überhaupt sind. Ich bin noch jung (17) und habe von solcher Technik so gut wie keine Ahnung, beschäftige mich zwar schon relativ viel mit PC, aber das noch net lange.
Könnte mir vielleicht mal netterweise jemand erklären, was Layer überhaupt sind?
Ich habe durch sagitare jetzt so viel verstanden, dass bei nur 6 die Grafikkarte noch heißer wird und die Wahrscheinlichkeit für eine Überhitzung steigt. Aber was sind denn Layer? Habe im Internet noch keine verständliche Antwort auf diese Frage gefunden.
MfG paxtn
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
Die Leiterbahnen verlaufen auf der Karte, z.b. vom Grafikchip zum Ram und so weiter.
Bei 6 Layern bedeuted das, das es 6 mehr oder weniger unabhängige Schichten davon gibt, bei 10Layern halt 10.
Der Nachteil an 6 Layern ist nun, das dieselbe Anzahl an Leiterbahnen auf viel weniger "Fläche" wie bei 10 layern verteilt werden muss.
Dadurch rückt alles praktisch ein bischen näher zusammen.
Das dies nicht unproblematisch ist zeigt allein die Tatsache, das diese Karten normalerweise eben nicht mit 6 Layern gefertigt werden, obwohl dies billiger wäre.
Bei 6 Layern bedeuted das, das es 6 mehr oder weniger unabhängige Schichten davon gibt, bei 10Layern halt 10.
Der Nachteil an 6 Layern ist nun, das dieselbe Anzahl an Leiterbahnen auf viel weniger "Fläche" wie bei 10 layern verteilt werden muss.
Dadurch rückt alles praktisch ein bischen näher zusammen.
Das dies nicht unproblematisch ist zeigt allein die Tatsache, das diese Karten normalerweise eben nicht mit 6 Layern gefertigt werden, obwohl dies billiger wäre.
Ähnliche Themen
- Antworten
- 22
- Aufrufe
- 3.023
- Antworten
- 307
- Aufrufe
- 30.922
- Antworten
- 85
- Aufrufe
- 11.316