News Beschleunigt Nvidia den G92b-Chip?

Meine Güte... da lese ich diesen Morgen einen schönen CB-Artikel und schon regt man sich wieder über nVidias dummes Namensschema auf... naja.. es ist ja nichtmal ein Namensschema, sondern eine zufallsbasierte Namensgebung.

Was auch immer nVidia mit den Chips macht... auch nur ANSATZWEISE hinter welcher Karte welcher Chip sitzt, habe ich nicht.
Aber das schöne bei nVidia ist ja, dass die oft alte Chips schneller Takten und ihm dann einfach den Namen der neuen Generation zu geben, was ja eigentlich auch neue Features suggeriert...

Für mich ist nVidia seit der 8er Serie gestorben.. und das wird sich auch mit der angekündigten Karte höchst wahrscheinlich nicht ändern.
 
FAT B schrieb:
wenn intel nur seine celerons, vw nur seine golfs und sony nur seine ps3 verkaufen würde wären sie auch bald pleite :rolleyes:

Naja, damit der Vergleich besser stimmt müsste es wohl lauten: "wenn Intel nur seine i7/QX9***, VW nur seine Phaeton's ... verkaufen würde, wären sie auch bald pleite"

Durchaus realistisch bei der momentanen Marktlage ;)

@Topic
Joah, nochmal mit der Taktkeule drauf :rolleyes: Wenn klappt, warum nicht?! Hoffe bloß dass die Architektur das problemlos verkraftet. Wenn die Karten eine nach der andren abrauchen würden, wärs wohl eher schädlich fürs Image.

Wegen dem Speicher: Jemand ne Ahnung ob der G92a/b/(c) GDDR5 unterstützt? Damit dürfte man die Bandbreite wohl auch ganz gut in den Griff bekommen.

Und nebenbei: Für mich ist der G92 seither eher en Chip der 9er Reihe. IMO hätte niemand etwas auszusetzen wenn der im MidRange bereich als GF9600 mit sämtlichen abwandlungen gekommen wär und der G200 dann als G90 auf ner GF9800. Dann wärn wir noch im alten Schema und von der Leistung würds wohl auch passen wie es Jahrelang gang und gebe war.

MfG Kennedy
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
Was der G92 wirklich braucht, ist mehr Speicherbandbreite.
Rein von der Architektur her ist der Chip teilweise deutlich stärker als der G80 es war und was die 8800 GTX heute noch zu leisten im Stande ist, muss wohl nicht weiter erläutert werden, also wäre ein etwa 320-bit breites Interface wesentlich intelligenter, als den Chip brachial zu übertakten, aber eben nicht einfach so realisierbar.
 
@Pickebuh

Hier ist ein Gegenargument was unmissverstaendlich aussagt wie es um eine Firma bestellt ist und wer hier wenn in bedraengnis bringt .

Aktienkurse 10:42Uhr DowJFut. NY

AMD/ATI 2,42 $
nvidia 8,31 $
intel 13,88 $

Die Zahlen zeigen ganz klar wer hier am Ehesten von einer Pleite bedroht waere und wem es hier besser geht.
Das nvidia oder gar intel in irgendeiner Weise von AMD/ATI zur Zeit unter Druck gesetzt werden koennten ist laecherlich.nvidia allein ist schon ein wirtschaftlicher Gigant gegen AMD und ATI _zusammen_ ... von intel ganz zu schweigen.
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Was bleibt NV schon übrig als schon vorhandene Chips aus dem Regal zu nehmen ?

Der G200 ist groß und extrem teuer in der Produktion dazu kommt noch das man so schnell wie möglich auf kleinere Fertigungstechniken umstellen muß um konkurrenzfähig zu bleiben.
Das kosten extrem viel Geld.
Nur durch den Verkauf des GT200 würde NV schnell pleite gehen.

LKennedy schrieb:
Naja, damit der Vergleich besser stimmt müsste es wohl lauten: "wenn Intel nur seine i7/QX9***, VW nur seine Phaeton's ... verkaufen würde, wären sie auch bald pleite"

Durchaus realistisch bei der momentanen Marktlage ;)

Und nun was soll bitteschön an meiner Argumentation dann falsch sein ?
Nichts gegen dich LKennedy.

FAT B schrieb:
haha, wie stumpf. weisst du, er braucht garkeine gegenargumente. du hast doch schon keine. gegen nix braucht man nicht zu argumentieren.

Ist aber sehr seltsam das soviel Leute wegen Nichts soviel Wind machen.
Zudem werden meine Argumente bestätigt statt wiederlegt !
 
Zuletzt bearbeitet:
hmm, ist dieser neue g92 chip dann endlich mal durchgängig(!) auf 8800gtx niveau ?

schon peinlich wenn man 2009 ständig irgentwelche technik aufwärmt und die leute die 2006 zugegriffen haben in extremsituationen immer noch besser da stehen.


verstehe auch nicht warum dieser Schund hier immernoch hoch gelobt wird. Wohl nur weil noch viele den haben und ihn sich schön reden wollen.

Das Ding ist langsamer als eine aktuelle 260gtx, lauter und zieht 20W mehr im idle und gleichviel unter Last !

Wirklich ein beeindruckendes Stück Silizium :rolleyes:
 
BullRun schrieb:
@Pickebuh

Hier ist ein Gegenargument was unmissverstaendlich aussagt wie es um eine Firma bestellt ist und wer hier wenn in bedraengnis bringt .

Aktienkurse 10:42Uhr DowJFut. NY

AMD/ATI 2,42 $
nvidia 8,31 $
intel 13,88 $

Die Zahlen zeigen ganz klar wer hier am Ehesten von einer Pleite bedroht waere und wem es hier besser geht.
Das nvidia oder gar intel in irgendeiner Weise von AMD/ATI zur Zeit unter Druck gesetzt werden koennten ist laecherlich.nvidia allein ist schon ein wirtschaftlicher Gigant gegen AMD und ATI _zusammen_ ... von intel ganz zu schweigen.

Schöner Vergleich !
Das es ATI nicht ganz so gut geht liegt nur am Bremsklotz AMD.
Das sollte man nicht ausser Acht lassen !

Wir sind hier aber nicht an der Börse !!
Sondern die Meldung besagt das NV ihren G92b nun weiterhin verwenden möchte.


Die Gründe liegen hierin...
https://www.computerbase.de/news/grafikkarten/nvidia-beendet-geschaeftsjahr-mit-verlust.24024/

60% Verlußt ist mit Sicherheit nicht dem G200 zuzuschreiben ... Nö bestimmt nicht ! :D
Was nützen da einem Aktionkurse ?
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Und nun was soll bitteschön an meiner Argumentation falsch sein ?

Von meiner Seite ist dann deiner Argumentation garnix falsch :). Im Gegenteil, ich stimme sogar zu.
Nach wie vor machen Hersteller, i.d.R. egal welchen Produktes, den meisten Umsatz und auch Gewinn im mittleren Segment ihrer Produktpalette. Beim oberen Bereich sind die Stückzahlen meistens so gering, dass sich kaum ein Unternehmen auf Dauer davon halten kann. Konsequenz wäre dann den Preis und nach Möglichkeit die Kosten zu senken, wodurch auch meistens dann der Gewinn sinkt.

Was die PS3 angeht, ist diese doch AFAIK sowieso ein Verlustgeschäft für Sony. Daher hatte es mir das besagte Zitat auch so angetan ;)
Die PS3 hätte ich in dem korrigierten Satz wohl doch aufführen und sogar dick unterstreichen sollen :rolleyes:

Was die erneute Auflage des G92 angeht: Mann muss auch bedenken, dass ne Neuentwicklung auch wieder einiges an Geld verschlingt. Da greifft man gern mal das ein oder andre alt bewährte auf und schaut was man noch draus machen kann.

*edit*
Was die Aktien angeht halte ich nichts davon mal grob die Werte zu vergleichen. Mords Ahnung von Aktienhandel hab ich zwar nicht, aber ich denke die Werte sollte man sich stehts in Verbindung des Kursverlaufs betrachten. Ausserdem ist wohl auch wichtig wieviel Wertpapiere eines Unternehmens im Umlauf sind.
 
Zuletzt bearbeitet von einem Moderator: (Ursprünglichen Beitrag wiederhergestellt)
BullRun schrieb:
Aktienkurse 10:42Uhr DowJFut. NY

AMD/ATI 2,42 $
nvidia 8,31 $
intel 13,88 $

Die Zahlen zeigen ganz klar wer hier am Ehesten von einer Pleite bedroht waere und wem es hier besser geht.

Du möchtest allen ernstes von einem absoluten Aktienkurs auf die wirtschaftliche Lage eines Unternehmens Rückschlüsse ziehen ? Du hast das Aktiengeschäft absolut nicht verstanden. Teurere Aktien bedeuten nicht ein Gesünderes / Größeres Unternehmen sonst müssten alle AGs der Welt eine identische Anzahl an Aktien ausgeben was sie jedoch nicht machen. :rolleyes:
 
Pickebuh schrieb:
Ist aber sehr seltsam das soviel Leute wegen Nichts soviel Wind machen.
Zudem werden meine Argumente bestätigt statt wiederlegt !

hier wird ja nichtmal luft gemacht. ich sage nur das deine argumente (die keine sind) in keinster weise belegbar sind. du hast immernoch keine quellen bzgl. deines statements benannt :)

Pickebuh schrieb:
Die Gründe liegen hierin...
https://www.computerbase.de/news/grafikkarten/nvidia-beendet-geschaeftsjahr-mit-verlust.24024/

60% Verlußt ist mit Sicherheit nicht dem G200 zuzuschreiben ... Nö bestimmt nicht ! :D
Was nützen da einem Aktionkurse ?

du liest nichtmal das was du meinst als quelle für irgendwas nutzen zu können :rolleyes:

a) es gab keinen verlust von 60% sondern einen umsatzrückgang von 60%, das ist nen kleiner unterschied und ohne weitere zahlen aus den nvidiabilanzen nicht einfach in verlust umzurechenen, wobei das hier auch nur auf ein quartal bezogen ist, das sich in diesem quatal diverse bankenkrisen abgespielt haben, hast du natürlich rausgeschnitten (oder nicht mitbekommen?) und so muss der operative verlust natürlich vom G200 kommen.

b)es wird nichtmal der G200 genannt in den news

c)du hast keine ahnung und stellst nur behauptungen auf. was soll das?
 
langsam ist aber mal gut...

das grüne lager macht im moment wohl eher durch umbenennung auf sich aufmerksam.

allerdings werden sich dann wohl alle media markt etc mitarbeiter freuen....lauter kunden denen mann schwachsinn andrehen kann.

warum immer diese scheiss anpassung der namen, 8800 wird 9800 wird 260gts oder was auch immer...wie soll man den haufen noch ernst nehmen ?
 
@founti: Im Media Markt sah ich im Dez noch eine 8800 GT für über 200 EUR. Man mag sich gar nicht vorstellen was die GTS 250 dort kosten wird ;)

Abgesehen davon finde ich das Umbenennen nicht so schlimm, sie ordnen die Karten halt in ihr neues Namensschema ein. ATI tut das übrigens auch.
 
naja das mit dem namen ändern liegt halt daran, dass ati auch neue namen hat.
8800 -> hd2900
9800 -> hd38x0
gtx2x0 -> hd48x0
wer würde denn ne alte 8800gt kaufen, wenn er fürs gleiche geld ne zwei generationen neuere 4830 bekommt? aber eine gleichneue oder gar neuere gts240, das ist natürlich was ganz anderes ;)
 
Zuletzt bearbeitet:
sondern darüber hinaus möchte man den G92b angeblich noch einmal etwas aufbohren und eine schnellere GeForce 9800 GTX+ präsentieren.

Die 4870 512 kann einpacken, Preis/Leistungsmäßig wird sie geschlagen werden und wenn die GTS 250 dann auch noch Stromspartechnik bekommt ist die Sache noch klarer. Unglaublich wie sich NV selber Konkurrenz macht mit der GTS 250 1GB, die alte GTX 260-192 hätte jetzt auch einpacken können...

Massiv übertaktete GTS 250er Karten werden dann quasi in fast auf Augenhöhe zur aktuellen High End, jetzt wird langsam klar warum die 9800GTX+ so lange keine 1GB Vram bekommen hat, NV muss ganz schön verzweifelt sein wenn sie solche Schritte einleiten.

G92 hat noch lange nicht ausgedient, die GTS 250 wird die "G80" in Perfektion sein und endlich würdig die 8800GTX/Ultra ablösen.(lang genug hats ja gedauert)

MfG Kasmo
 
Realsmasher schrieb:
hmm, ist dieser neue g92 chip dann endlich mal durchgängig(!) auf 8800gtx niveau ?

schon peinlich wenn man 2009 ständig irgentwelche technik aufwärmt und die leute die 2006 zugegriffen haben in extremsituationen immer noch besser da stehen.


verstehe auch nicht warum dieser Schund hier immernoch hoch gelobt wird. Wohl nur weil noch viele den haben und ihn sich schön reden wollen.

Das Ding ist langsamer als eine aktuelle 260gtx, lauter und zieht 20W mehr im idle und gleichviel unter Last !

Wirklich ein beeindruckendes Stück Silizium :rolleyes:

Der G92 ist im Gesamtbild doch deutlich stärker als der G80 und hat durchaus seine Existenzberechtigung. Lediglich in Extremsituationen ist der G80 noch ein klein wenig besser. Dies sollte mit dem 1024 MB großen Speicher jedoch der Vergangenheit angehören.
Von der Leistung her ist er recht nahe an der "alten" GTX 260 dran, je nach Übertaktungseigenschaft, sogar drüber.
Von lauter kann gar keine Rede sein, ich hatte beide Karten bei mir drin und die 9800 GTX ist deutlich leiser gewesen. Außerdem verbraucht er auch weniger Strom als die GTX 260 - zumindest als 9800 GTX+ in der 55nm Version. ;)

Der Hauptvorteil jedoch ist: Er ist wesentlich billiger :).

Zur Zeit kann man eigentlich keine Karte auf Basis des G200 kaufen. Die Karten in 65nm werden sehr heiß und sind seit Erscheinden der 55nm Derivate hoffnungslos überteuert.
Die 55nm Versionen sind billigst³ - was die an Billigkompinenten drauf schrauben ist schon nicht mehr schön; Stichwort Spulenfiepen.. Wenn die jetzt noch an den Layern sparen, sind die Karten auch nimmer so stabil, was den Gebrauch einder dicken WaKü oder besserer LuKü deutlich einschränkt.

Kein Wunder, daß alle zu ATI rennen - Nvidia läßt einem ja auch keine andere Wahl!
Außer mit der 9800 GTX+ mit 1024 MB RAM. Das ist zur Zeit wohl die einzigste Alternative zu ATI.

Wie du deutlich siehst, hat der G92b also schon seine Daseinsberechtigung ;).
 
Hi!
Also ob der Chip nochmal mehr Leistung bekommt ist unsicher. Das er aber noch mindestens einmal umbenannt wird steht definitiv fest :evillol:
Sorry, couldn't resist :)

Aber mal zurück zum Topic: Eigentlich vermisst man doch deutlich die Ableger des G200 im unterem bis mittlerem Segment. Da NVidia dort ständig nur neue Namen reinbringt und keinen G200 Chip bringt scheint es so zu sein das dieser einfach nicht dafür tauglich ist - oder besser formuliert das sich mit dem Riesenchip in dem Bereich noch weniger oder gar kein Geld verdienen lässt. Sonst hätte NVidia da schon längst was gebracht.

Die Flächen der DIE's sprechen zumnindest für meine Theorie. NVidia ist einfach davon ausgegagnen den G200 sehr lange zu einem sehr hohen Preis verkaufen zu können und ist von der 4000er Seire kalt erwischt worden. Die lässt sich sehr wirtschaftlich produzieren und verhagelt NVidia die Bilanzen.
 
der g92 ist doch der ableger des g200. oder was glaubst du, wäre anders, wenn man einen g200 abspecken würde?
nur dass man hier den ableger vor dem hauptchip gebracht hat, weil ati mit seiner 3870 seinerzeit noch hinter der 8800gtx und den etwas schwächeren 8800gt und gts hinterher hing. eine gtx280 hätte da nur die preise der 8800gtx/ultra kaputt gemacht.
 
SanBo schrieb:
Wie du deutlich siehst, hat der G92b also schon seine Daseinsberechtigung ;).

leider nur beim Preis.

Dieser wird bei einer neueren Version (um die geht es hier), aber nicht mehr der ausschlaggebende Faktor sein.


Das der g80 nur in extremsituationen besser ist mag sein, aber mich interessieren auch nur diese.
Ob ich im regelfall 60 oder 70 fps habe ist mir hingegen egal.

Bei lautstärke und verbrauch kann ich mich nur auf den cb test beziehen, woraus meine Aussagen entstanden sind.
Subjektiv kann das immer anders sein.
 
Kommt auf die Speicherbandbreite an, wenn genug vorhanden ist wird der Chip rocken, dazu müsste man aber das Interface vergrößern oder auf gddr5 bzw schnelleren gddr3 verbauen den man mit 2,5 ghz+ fahren kann. Zwickmühle ist dann bloß das die Karte extrem nah an die GTX260 aufschließen würde.
Meiner Meinung nach kommt die Karte deutlich zu spät.
 
Zurück
Oben