News Benennt Nvidia erneut Grafikkarten um?

@Turbostaat:
Zitat:
Zitat von LHB Beitrag anzeigen
das macht NVIDIA ja sehe unsympatisch. ist denn mittlerweile die LINUX-unterstützung bei ATI besser geworden ?
ja, um einiges besser, wenn nicht sogar gleichwertig / besser als nvidia

mich würd mal die quelle, auf die du dein wissen stützt interessieren. ich weis, das ati inzwischen auch unter linux 3d-fähig ist. aber von der leistung der nv-treiber sind sie meines wissens noch meilenweit entfernt. die gesamte treiberentwicklung geht nicht einfach so von heute auf morgen. nvidia ist mit linux gewachsen, ati fängt quasi bei 0 an (in sachen 3d).
 
Zuletzt bearbeitet:
Nene, also langsam wirds peinlich.

Generell hab ich nix dagegen, dass Karten umbenannt werden. Mit der 9000er generation war halt irgendwo schluss mit dem alten Schema. Klar, man hätte auch mit 10xxx weitermachen können, aber man hat sich für GTX 2** entschieden.
Für nen Durchschnittkunden ist es sogar von Vorteil, wenn man die alten Karten ans neue Schema anpasst. Otto Normalkunde, der sich nicht so super mit Grafikkarten auskennt und bei MM kauft, erhält so die Möglichkeit zu vergleichen.

Aber warum bekommts nVidia nicht hin, die Umbenennung a) nachvollziehbar und b) schnell und sauber durchzuführen?
So kommen jetzt jeden Monat 2-3 neue alte Karten, die umbenannt wurden, anstelle von einer ordentlichen Aktion.
Hätten sie einfach gesagt:
"Ab 1.1.2009 erhalten alle noch hergestellten karten ein neues Namensschema, Informationen dazu sowie eine Übersicht gibts unter ..."
wäre das wohl um einiges professioneller gewesen.
 
Ich muss immer wieder belustigt lesen, dass sich ein Großteil darüber aufregt alle 1/2 Jahre eine neue Karte kaufen zu "müssen", damit sie das aktuelle Spiel auf very high spielen können. Andererseits regen sich genau die Leute dann über zuwenig "innovation" auif...
Umlabeln gab es schon bei allen Anbietern und ich finde es gut, wenn es eine Linie gibt.
 
Zuletzt bearbeitet:
Oje...

Als ob ich meine Grakas nach deren Namen kaufen würde.
Von mir aus können die heissen wie sie wollen, was soll die ganze Aufregung.

Jeder halbwegs vernünftige Käufer erkundigt sich vor dem Kauf,
welche Modelle seinen Anforderungen entsprechen.

Solange die Hersteller nicht die gleiche Bezeichnung für zwei unteschiedliche Modelle verwenden ist doch alles OK.

Was für ein Kindergarten.

Gruss Seft
 
Zuletzt bearbeitet:
Also ich finds toll. Ich hab mir nämlich letztens eine 4870 1GB zugelegt und meine alte 8800GT weiterverkauft. Das kam super toll an, als ich meinem Käufer erklärt hab, dass das eigentlich SOGAR ne GTS240 mit älterem Namen ist...

Hmm, aber irgendwie find ich das umbenennen auch lächerlich.
 
Am einfachsten wäre es wohl gewesen, wenn Nvidia die GT/GTS/GTX-kürzel ganz weggelassen hätte.

G GT GTS & GTX sind die Serien, die Zahlen geben die relative Leistung innerhalb einer Serie an
@km52

So scheint das ja auch nicht zu stimmen (hoffentlich).
Denn sonst könnte es ja auch noch eine GTS280 oder GT290 geben.
Eigentlich gibt die Zahl selbst ja schon gut die Leistung an,
also wofür dann eigentlich noch GTX&co?

Bis auf das, finde ich das neue Namensschema eigentlich ganz in Ordnung.
Auch wären ja nun mal min. 7 weitere Generationen drin, dieses Schema mal konsequent weiter zu führen.
Aber der Weg dahin...
... Ohne Worte

Als Beobachter dieser NVidia-Namensgebungs-News, die mich nun schon gefühlte 2 Jahre unterhalten,
merkt man, dass mittlerweile die Kritik deutlich überwiegt.
Zu Anfang waren es noch ca. 50/50. Heute sind fast 90% der Kommentare ablehnend.

Also etwas Gunst scheint NVidia dabei wirklich verspielt zu haben.
Auch wenn die Auswirkungen neutral gesehen überschaubar bleiben.
Das Thema wird in der Tat zu oft heisser gekocht als gegessen...
 
Tja da bin echt froh mit meiner 4850, da weiß man halt noch was man hat. Nvidia will nur die 8800GT bis auf den letzten Tropfen Blut aussschlachten, so kommen keine neuen Inovationen zu stande.

Schade

----------------
Now playing: Deichkind - Gut dabei
via FoxyTunes
 
Anwalt Dr.Gonzo schrieb:
Eigentlich gibt die Zahl selbst ja schon gut die Leistung an,
also wofür dann eigentlich noch GTX&co?
Damit wird das Marktsegment gekennzeichnet. Eine GeForce GS wird nie das Topmodell sein, auch wenn die Zahl dahinter noch so groß sein mag. Aber man kann sich bei der GeForce GS recht sicher sein, dass sie sparsam ist und nicht viel Platz braucht.
Bei einer GeForce GTS weiß man dagegen, dass sie relativ viel Strom braucht (über 100 Watt) und auch nicht in jedes Gehäuse passt.
 
Anwalt Dr.Gonzo schrieb:
Das Thema wird in der Tat zu oft heisser gekocht als gegessen...
Da bin ich mir nichtmal 100% sicher. Interessant wäre mal, wenn jemand die 8800gt mit allen drei namen bencht, und die Ergebnisse vergleicht. Unter umständen ist das Ding noch heisser als man auf den ersten Blick erahnen könnte.
Denn die Umbenennungen der Karten könnten durchaus unterschiedlichen Treibersupport verursachen, und das wäre dann eine echte Schweinerei.
 
@mace1978

das ist eine gute idee, als NV nutzer der seit der Geforce 2 Ultra, hatte ich immer schon denn verdacht das NV bei denn Treiberm schummelt und alte karten künstlicht ausbremst ( geforce 4 "tile based rendering" ausgeschaltet bei erscheinen der FX) !
CB sollte denn mal nachgehen ,ist wirklich interessant!

ach so und ja ich hab aktuell eine Ati aber der hersteller ist mir vollkommen schnuppe!
ich hatte schon S3, matrox, 3Dfx und kaufe nach Preis/leistung!
 
@dealy_23

Zitat:
da weiß man halt noch was man hat
Du läst dich auch von Ati verarschen schau selbst!

Anstat 110 Watt bei der 4850 sind es in echt 148 TDP.
Fan Boy?
Ich nene sowas auch Betrug.
Die 38 Watt mehr finde ich dreist.

http://www.hardware-infos.com/news.php?news=2705



MFG
 
Zuletzt bearbeitet:
@ turbo & KM52:

es war die 8500LE die zu einer 9100 wurde.

die 9600 hatte den RV350, die x1050 den RV370.

also eher x300XYZ / x600xt ansonsten wie turbo schon sagte
 
@Visualist
Das betrifft aber beide Hersteller gleichermaßen! Da ist keiner auch nur einen Deut besser, besonders die Dual-GPU Karten preschen ganz schön über ihre TDP hinaus, aber das ist ein anderes Thema.

Den Vorschlag von Barkun fänd ich auch am gescheitesten.
 
Zuletzt bearbeitet:
@Visualist

ich werde jetzt auf denn TDP nicht genau eingehen , sondern auf dein Kommentar!

leider hast du nur Ati genannt wieso ? Da du das "Fanboy" wort gennant hast, könnte man das ja auch dir vorwerfen!?

Ich meine die Geforce halten sich ja auch nicht dran, oder ?


9800GX2 LAST= 268W , TDP = 197W
GTX 285 LAST=214 W, TDP=183 W

vollständigkeitshalber:
HD 4870 LAST=187 W ,TDP=160 W
 
Visualist schrieb:
Anstat 110 Watt bei der 4850 sind es in echt 148 TDP.
Fan Boy?
Ich nene sowas auch Betrug.
Die 38 Watt mehr finde ich dreist.
:freak: Hast du das ganze auch gelesen?
Die TDP ist bei einem Test, der nicht einmal auf einer Gameengine läuft getestet worden.
Ich kaufe mir meine Grafikkarte um damit zu spielen, und nicht zum Schwanzvergleich.
Obendrein laufen die ATI Karten, wenn man nicht am Dateinamen rummanipuliert doch auch in anderen Dimensionen.
Die TDP behält anscheinend weiter Gültigkeit, wenn man diese Manipulation nicht vornimmt.

Falls diese Furmark Werte auch in Spielen erreicht werden würden, hätte man das sicher auch demonstriert. Deswegen ist der ganze Test völlig Sinnfrei.
Realitätsferne Tests interessieren kein Schwein.

Desweiteren ist das schon ziemlich am Thema vorbei.
 
@Cyrezz
Das ist richtig!
Es geht auch um die Aussage da weis ich was ich habe.
Dabei weis der Mensch gar nichts.
Aber den noch betrug.
HD X2 verbraucht satte 85 Watt mehr.
GTX 295 verbraucht 28 Watt mehr.

Wie angegeben und das sind Werte die den Endkunden am ende immer mehr Geld kosten.
Und ich glaube auch das andere youser sich hier über den link freuen.

http://www.hardware-infos.com/news.php?news=2705

Für sowas gibt es das falsche Thema nicht.
@mace1978
Dann lies es mal komplet wenn mich nicht anpissen willst und streich dein Kommentar.
Komisch das bei Ati Tool die Karten nie so heiss werden wie beim spielen Lol.
MFG
 
Zuletzt bearbeitet:
Hast du den Test selber durchgeführt, oder warum spammst du uns hier ziemlich offtopic mit dem Link zu. Wir haben ihn beim ersten mal gelesen. Und uns unsere Meinung gebildet.

Jetzt bilde ich mir eher eine Meinung über dich.

@edit
Ach nachdem du mich nur aufgefordert hast zu lesen, ohne irgendwelche Kritikpunkte meiner Argumentation, kommt nun ein weiterer Hinweis.
Ich habe den Test zwar nur durchgeblättert, da mich Furmark-Tests mit Modifizierten Exen nicht wirklich interessieren, aber die Stelle, in der die Temperaturen im Ati-Tool mit denen in Spielen verglichen wird, muss ich übersehen haben, wäre nett, wenn du mich dahin dirigieren könntest.
 
Zuletzt bearbeitet:
LHB schrieb:
gut ! :) dann muss ich ATI ja nicht länger meiden ! :cool_alt:

Lübke schrieb:
@Turbostaat:


mich würd mal die quelle, auf die du dein wissen stützt interessieren. ich weis, das ati inzwischen auch unter linux 3d-fähig ist. aber von der leistung der nv-treiber sind sie meines wissens noch meilenweit entfernt. die gesamte treiberentwicklung geht nicht einfach so von heute auf morgen. nvidia ist mit linux gewachsen, ati fängt quasi bei 0 an (in sachen 3d).

Turbostaat hat ja nicht geschrieben ob er es jetzt weiß oder nur glaubt oder es sich wünscht. Wer ihm wiederum glaubt, der ist selber schuld.

Fakt ist, dass ATi auf einem guten Weg ist, gerade auch mit dem Catalyst 9.1 für Linux nach ein paar Monaten Stillstand auch wieder einen deutlichen Schritt nach vorne gemacht hat, jedoch in puncto Performance nach wie vor zu weit hinten liegt. Nun gut, wer spielt schon auf Linux, das sind nur eine handvoll Leute. Aber die müssen nach wie vor mit vergleichsweise armseliger Performance leben, wenn sie Besitzer einer Radeon sind.
 

Ähnliche Themen

Zurück
Oben