News Benennt Nvidia erneut Grafikkarten um?

naja ich denke und hoffe, dass sich das auf dauer mal ändern wird... experimentiere selbst ganz gern mal mit linux rum und aktuell hab ich halt ne radeon^^
ok gezockt hab ich unter linux schon lange nicht mehr. (obwohl es n paar tolle tux-spiele gibt :D ) aber es kann linux nicht schaden, wenn die spielbarkeit auch mit ati-karten gegeben ist.
 
Solange auf den Kartons der Retail-Hardware auch weiterhin GeForce 9800GTX+ steht, kanns einem halbwegs egal sein.

Nichtsdestotrotz ist mir aufgefallen, dass auch Schottenland.de dem Wirrwarr langsam nicht mehr Herr wird.
So existiert seit Kurzem ein Eintrag über eine neue GT100-Serie NEU! mit dem G92/G94/G96 Chip.

Man schaue sich die Trauermähr mal genau an:
GeForce GT100 Serie NEU! mit dem G92/G94/G96 Chip
GeForce 9800 Serie mit dem G92 GX2 und G94/D9E Chip
[...]
GeForce 8800 Serie mit dem G80/D8P (G92/G96) Chip


http://www.hardwareschotte.de/hardware/preise/catid_24/preis_Grafikkarten
 
ich find das ist schon ne frechheit

unwissende leute geben dann eventuell noch mehr geld füe eine 9800gt aus weil sie denken sie is ja besser als ne 8800 gt
 
So mal meine Meinung dazu, ich kann`s nachvollziehen das sie schon wieder die Namen der alten Karten erneuern, macht auch sinn(NV selber schuld). Dies dann aber klammheimlich zu tun und Kunden, die nicht auf CB oder anderen HW-Seiten im Netz lesen, quasi mit dem Messer in den rücken zu fallen, da es kein neues Produkt ist sondern "nur" die alte Ramschware, die sie dank neuem Namen wieder verkaufen können, ist eine Frechheit.
Ich für meinen teil weiß bescheid, und werde vorerst auch bei NV bleiben, würde ich mich nicht schon über Jahre mit dem Thema HW beschäftigen und würde sowas durch zufall lesen hätte NV nen Kunden verloren, ganz einfach.

Mensch wenn dann alles Umbennen, und zwar so das es Sinn macht, dass sollte für nen Verein in der Größe NV`s kein problem sein, von daher finde ich es traurig das dies so tolleriert wird. MAN DARF KEIN ALTES PRODUKT OHNE HINWEIS ALS NEUES VERKAUFEN, DENN DAS IST VERARSCHE!!!!

GeForce 8800 GT -> GeForce 9800 GT -> GeForce GTS 240 -> OMG, 3 Generationen! Diese Karte wird es wohl in 10 Jahren noch geben :freak:

:evillol: NV :evillol:
 
Zuletzt bearbeitet:
Nun, das Thema sollte auch mal von CB hier groß besprochen werden, denn es geht ja jeden was an. Genauso wie der Einfluss der Temperatur auf den Verbrauch. Schnell sind mal 20W und mehr an Verbrauch drin, nur weil ein Produkt 20°C kühler gehalten werden soll der Ruhe wegen. Da macht sich ne Wakü auch bezahlt in der Hinsicht.

Daher wünsche ich mir auch mal seitens CB einen solchen Artikel, von mir aus auch auf diese Daten rückgreifend, aber damit mal leser die nur hier lesen auch diese Dinge erfahren.

@mace1978
Nun, Furmark belastet die Grafikkarte bis ans Limit was die Erwärmung angeht und da steigt der Verbrauch nun mal massiv an. Spiele belasten die GPU unterschiedlich stark, das ist richtig und daher wäre auch ein Spielenaher Test interessant, aber extrem (zeit-)aufwändig. Aber die Schweinerei dabei ist ja, dass die Kühler anders dimensioniert werden, als es der Extremfall zulässt. Stell dir doch mal vor Ferrari verbaut nur noch Reifen bei ihren Autos die bis 120KM/h mitmachen, aber gefahren werden kann ja mit solch einem Auto bis zu 300KM/h. Ein solches Problem wirdt nämlich die TDP auf, das zeigen Kühler von Drittherstellern da diese u.a. die Spawas extrem heiß werden lassen (wie das Thermalright Teil für die GTX Serie) und anscheinend reichen die Hersteller (nVidia und ATi) eben nur die TDP Daten weiter und nicht die Daten des tatsächlichen Verbrauchs. Es besteht aber hierbei noch Uneinigkeit und daher kann ich dir nur den Artikel, bzw. das Rewiev in meiner Signatur ans Herz legen. Da wird einiges hinterleuchtet und krasses bei festgestellt...

Die Leistungsaufnahme einer Grafikkarte wird von zahlreichen Faktoren beeinflusst. Einer dieser Einflussfaktoren ist die GPU-Temperatur. Mit steigender Temperatur erhöht sich auch die Stromaufnahme. Die Ursache hierfür dürfte in erster Linie auf die steigenden Leckströme bei hohen Temperaturen sowie dem negativen Temperaturkoeffizienten (niedrigerer Widerstand bei höheren Temepraturen) der Transistoren zurückzuführen sein.

[...] Es ist an dieser Stelle nun mehr alles andere als verwunderlich, warum AMD derartige Vorkehrungen für den FurMark trifft. Die Karte ist der Belastung schlichtweg nicht gewachsen. Während sich die GPU-Temperatur in absolut undenklichen Gefilden bewegt, steigt die Temperatur der Wandler ins Unermessliche. Mittlerweile ist auch das Datenblatt zum Wandler von Vitec Electonics verfügbar, welches die maximal Betriebs-Temperatur mit 125°C angibt.
Mittels FurMark erreichten wir laut RivaTuner bereits binnen weniger Minuten eine Temperatur von 125°C, womit eindeutig bestätigt ist: Die Radeon HD 4870 hat ein Problem mit der Wandler-Temperatur, und zwar ein gewaltiges. Sicherlich ist der Furmark ein Worst-Case-Szenario, das in dieser Form in aktuellen Spielen auf diese Art nicht oder kaum anzutreffen ist. Aber es verdeutlicht, dass die Wandler der Karte schnell am Rande der Spezifikationen – und in speziellen Fällen eben auch darüber hinaus – arbeiten.

Was im Übringen genauso auf die GTX2x0 Serie zutrifft und nicht nur die HD4870!

Den ein oder anderen mag es vielleicht wundern, dass zwei Netzteile in der Testumgebung auftauchen. Der Grund hierfür ist recht schnell genannt: Das be Quiet! Dark Power Pro 600 Watt konnte den Stromanforderungen der Dual-GPU-Karten Radeon HD 4870 X2 und GeForce GTX 295 unter Furmark nicht standhalten. Schon unmittelbar nach dem Start von Furmark ging das System in die Notabschaltung!

Um nur mal ein paar Dinge anzureißen, die schon extrem sind.

Quelle: HT4U.NET
 
Ich kann die ganzen Leute, die mit Dingen kommen wie "jetzt kauf ich nur noch ATI" nicht verstehen.

Ich meine, jeder der auch nur 10 Minuten in CB reinguckt, sieht welche Karte wo steht, und kauft das was am besten für den Preis ist, den man ausgeben will. Ob da jetzt nen ATI oder NVidia Aufkleber drauf ist interessiert doch eh kein Schwein.

Und, mich persönlich juckt die Namensänderung nicht. Ich finde sie sogar logischer.

Und wer eben einen hohen 3-stelligen Betrag ausgibt nur wegen ein paar Zahlen ohne sich vorher zu informieren, ist sowieso selber Schuld.
 
Unyu schrieb:
Schnitz
So wie die 7900 GTX Besitzer die Läden wegen der 8500 GT / 8600 GT gestürmt haben?
Oder was ist mit den 6800 Ultra nach 7500 LE / 7600 GS Umsteiger?

Das kann man doch nicht vergleichen? Das waren wirklich chips der neuen generation und nicht einfach umgelabelte alte.


km52 schrieb:
Jetzt hab ich vor meinem Post 4 Seiten fast ausschließliche ATI-Fanboy-Bullshit-Kacke mit äußerst reifen Aussagen wie z.B.

...

Himmel-Arsch-und-Zwirn, Namen sind Schall und Rauch und euer ganzes Gelaber über Kundenverarsche nur lächerlich.



Ja also dein Kommentar macht nun wirklich einen sehr reifen Eindruck.

Wenn namen völlig egal wären würde sie Nvidia nicht ändern oder? Das was bemängelt wird ist doch die Intention die hinter dem ganzen steht:
Man vermarktet alte ware unter neuem Namen um dem Durchschnittskunden eine höhere Wertigkeit zu suggerieren. Ob einem sowas nun völlig egal ist oder man eben gewisse Prinzipien hat und ein solches kundenunfreundliches Verhalten versucht zu meiden ist wohl jedem selbst überlassen.

km52 schrieb:
Im übrigen: das neue Schema ist doch unverkennbar an dem akutellen CPU-Schema ausgerichtet: G GT GTS & GTX sind die Serien, die Zahlen geben die relative Leistung innerhalb einer Serie an

Am neuen Namensschema wäre nichts auszusetzen - aber du sagst es ja schon selbst "innerhalb einer Serie" - bei Nvidia müsste es dann wohl eher "innerhalb von 3 Serien" heißen.
 
Tja, marketingtechnisch eine grandiose Aktion. So können OEM PCs mit "brandaktuellen" Grafikbeschleunigern ausgerüstet werden, während NVIDIA respektive Händler ihre Lager leerbekommen. Moralisch ist das ganze natürlich fragwürdig, aber da hat NVIDIA schon heftigere Sachen gebracht (siehe auch hier: ftp://ftp.tomshardware.com/pub/nvidia_on_kyro.pdf). Naja, die Firma ist mir persönlich zu kapitalistisch sprich unbedingt gewinnorientiert eingestellt, aber das "muss" man wohl wohl sein auf dem Weltmarkt.
 
Man, man, man das ist die absolute Verdummung der Kundschaft. Altes Gerät zu neuem "höheren" Preis.
 
Ohjeh, wie erbärmlich...

Ich bin ja eher pro NV, aber inzwischen geht das wirklich zu weit.
So ein Schwachsinn! Das ist doch Kundenverarsche in 10. Potenz!

Ernsthaft - welch ein ARMUTSZEUGNIS!
WANN kommen NEUE Karten im Midrange- und Performance-Bereich?


Ein Chip über 3 Generation zu verbauen und jeweils unter einem neuen
aufhübschenden Namen zu verkaufen ist echt schwach (und gleichzeitig frech).
 
Ich find´s gut. Sind doch nur Namen. Von der Leistungsklasse passt ja GTS250 (< GTX260/280/290) gut.
 
Anscheinend ist es günstiger den alten "High-End" Chip G92 für das neue Mainstreamsegment zu verwenden, als neue mid- lowrange Chips zu entwickeln.
Es ist ja Standard, dass High-End Chips der letzten Generation meist mindestens so schnell wie die Mittelklassechips der neuen Generation sind.
Nur produziert man aus Kostengründen meist neue Chips für diese Segmente.

Scheinbar hat NVidia nichts vergleichbares in der Mache und verwendet einfach alte Chips weiter.
Leistungsmäßig besteht ja auch keine Lücke, da z.B. eine hochgetaktete 9800 GTX mit 1024 MB (GTS250) nicht sonderlich viel Freiraum zur GTX260 lässt.

Schade ist, dass der Kunde trotzdem eigentlich betrogen wird, denn jeder der sich ohnehin mit der Materie beschäftigt konnte die Karten bisher schon zuordnen, aber einem Laien, wird etwas neues, besseres suggeriert, wo nichts neues dahinter steckt.
Ich meine früher hatte man beim Wechsel von altem High-End auf neue Midrange auch keine großen Leistungsvorteile, aber dafür zumindest neue technik, meist weniger Verbrauch - Abwärme und Preisvorteile!
 
Was NV hier abzieht ist einfach nur noch lächerlich! Für mich ist das Kundenverarscherrei hoch 100!

Den Leuten suggerieren eine Neue Karte zu haben, die jedoch schon bald 2 Jahre auf'm Buckel hat!

Und alle anderen, die es besser wissen, blicken bei dem Namenwirrwar nicht mehr durch!

Weiter so NV!

Wo bleibt hier das Kartellamt?
 
@Lübke: Deinen Einwand mit der ATi 9x-Serie verstehe ich nicht ganz. Beziehst Du das ausschließlich auf die Low-End-Karten, die weiter mit dem Chip der 8500 klarkommen mussten? Die erste in dieser Reihe war die Radeon 9000, bei der der 8500er Chip allerdings Änderungen erfuhr, er wurde de facto beschnitten. Gleiches gilt für die Quasi-Nachfolger 9100, 9200 und 9250, allesamt langsamer als 8500.

Die "größeren" Karten waren doch alle unterschiedlich, oder?
 
Eine "echte" neue Mittelklasse wäre mir bedeutend lieber, so könnte man doch ohne Probleme eine GTS 250 z.B. mit 168 Shadern machen usw. und hätte eine bessere Mittelklassekarte.
 
FreeZer_ schrieb:
Und wer eben einen hohen 3-stelligen Betrag ausgibt nur wegen ein paar Zahlen ohne sich vorher zu informieren, ist sowieso selber Schuld.
:eek: 9800gt bei 100€ die 240er jetzt im hohen dreistelligen Bereich. Das umbenennen hat sich ja echt gelohnt. :D

cyrezz schrieb:
@mace1978
Nun, Furmark belastet die Grafikkarte bis ans Limit was die Erwärmung angeht und da steigt der Verbrauch nun mal massiv an. Spiele belasten die GPU unterschiedlich stark, das ist richtig und daher wäre auch ein Spielenaher Test interessant, aber extrem (zeit-)aufwändig. Aber die Schweinerei dabei ist ja, dass die Kühler anders dimensioniert werden, als es der Extremfall zulässt. Stell dir doch mal vor Ferrari verbaut nur noch Reifen bei ihren Autos die bis 120KM/h mitmachen, aber gefahren werden kann ja mit solch einem Auto bis zu 300KM/h. Ein solches Problem wirdt nämlich die TDP auf, das zeigen Kühler von Drittherstellern da diese u.a. die Spawas extrem heiß werden lassen (wie das Thermalright Teil für die GTX Serie) und anscheinend reichen die Hersteller (nVidia und ATi) eben nur die TDP Daten weiter und nicht die Daten des tatsächlichen Verbrauchs. Es besteht aber hierbei noch Uneinigkeit und daher kann ich dir nur den Artikel, bzw. das Rewiev in meiner Signatur ans Herz legen. Da wird einiges hinterleuchtet und krasses bei festgestellt...
Seid ihr jetzt hier im Rudel um CB zu unterwandern mit eurem offtopic flooding?

Um bei deinem Beispiel zu bleiben, was bringt es dir, wenn du einen Ferrari mit richtigen Reifen fährst und dann offroad fährst? Dieser Test ist einfach nicht repräsentativ für die übliche Nutzung der Grafikkarten.
Wenn die Spannungswandler unter normalen Bedingungen überlastet wären, hättest du davon sicher schon 100k mal im Netz gelesen.
Solange es keinen solchen Test mit Praxisbezug gibt, ist das Thema für mich nicht interessant. Und in diesen Thread gehört es auch nicht.
 
Wie sagte meine alte Englischlehrerin: we are not in the kindergarten ...

Fakt ist das beide Unternehmen (ich will sie nich nochma erwähnen) genauso wie alle anderen gewinnorientiert arbeiten - das is simpelste BWL. Der Konsument spielt auch eine wichtige Rolle ist diesem Ziel aber untergeordnet.

Also kann ich Nvidia aus BWL-Sicht verstehen, verurteile die Sache aber aus Konsumentensicht, da ich ja nich von NV bezahlt werde :-) !!!

PS: AMD/ATI arbeiten nich anders, vielleicht manchmal geschickter verpackt, nich so offensichtlich, aber die sind mit sicherheit nich konsequenter und was ich da lesen musste ...

MfG
 
Zotac ist immer bei solchen "geheimen" Veröffentlichungen dabei^^ war bei der 260er auch so als es darum ging die 55nm rauszubringen.
 
:-D die spinnen doch :-D

naja wenn se meinen, das sie damit noch gewinne einfahren können ;-)
Meiner Meinung nach sollten, die dann aber wenigstens was am Stromverbrauch regeln, weil das für ne Mittelklasse graka bisschen heftig ist!
 

Ähnliche Themen

Zurück
Oben