News Nvidia GT300 erst im ersten Halbjahr 2010?

@Lübke
Dito er wird .
Die HD4890 OC 1GHZ ist schon verdammt na dran am einzel Chip von NV ,aber die GTX295 wird wohl nur von einer 5...X2 geschlagen werden können.
 
Zuletzt bearbeitet:
@dahum: hier geht es eigentlich darum, ob sich wieder 500,- € karten etablieren werden und ob man die heutigen 200,- € grafikkarten als mittelklasse oder highend ansieht.
ati hatte mit seiner 4870 den anspruch einen karte der gehobenen mittelklasse zu bringen und den preis dementsprechend angesetzt. jetzt war die 4870 so gut, dass sie von der leistung her an die von nv als highend gedachten karten rankam, sodass nv gezwungen war, sich ebenfalls in dieses preissegment zu begeben...
 
Also das ist eine zweiseitige Sache.
Einerseits könnte ATi großen Vorsprung erarbeiten und sich auf dem Markt etabieren. Was ich irgendwo hoffe, denn dadurch wird nvidia dazu bewegt bessere Produkte abzuliefern und somit auch ATI weiter dazu bewegen zu entwickeln.

Andererseits können wenige Monate sehr viel ausmachen und am Ende großen Erfolg bringen.
Dieses Szenario kennt man von GTX2xx und HD48xx, denn ATI hat sich dort etwas länger Zeit genommen und hatte mit ihrem Produkt recht großen Erfolg.

Im Endeffekt sollte der Kunde davon profitieren, denn dann werden wahrscheinlich die Produkte nicht so teuer und möglicherweise deutlich besser.
 
ich denke eher, dass wenn nur einer der beiden hersteller dx11 anbieten kann, dieser auch entsprechend hohe preise veranschlagen wird, es sei denn, die mehrleistung fällt nur gering aus. in diesem fall wäre ati der glückliche. aus kundensicht sollten beide möglichst zeitgleich mit ihren produkten kommen, um einen preis- und leistungwettkampf zu haben, von dem der käufer am ende profitiert.
 
Solangs keine spiele gibt die die aktuellen generationen von karten gänzlich überfordern ists doch eh wurscht wie lang die bis zur nächsten generation brauchen.

Meine 260gtx reicht atm für alles und nix ruckelt (was ordentlich gecoded ist ;) )
Aus dem Alter von 3dmark bin ich auch seit jahren raus von daher auch kein kaufargument mehr.

Und wenn der gt300 dann raus ist schaun wir mal obs wieder nvidia oder mal wieder ati wird. :)
Aber grundvorraussetzung ist das ich dann für die neue Graka keinen Generator oder Starkstromanschluss benötige, oder ich bei einschalten des PCs direkt die Polizei an der Tür hab weil sich der Örtliche Flughafen über den Lärm des Lüfters beschwert hat.....


Aber mal zu was anderem, findet ihr nicht auch das die Grafische Entwicklung seit ner weile recht stark stagniert? Ich mein besonders fällts einem (jedenfalls mir) ja auf seit die meisten Spiele ja multiplatform technisch entwickelt werden. Besonders im Bereich "hochauflösende" Texturen tut sich ja gar nix mehr, scheint es ist einfacher den texturen matsch mit viel bunten shadern zu überlagern. Dabei war und bin ich doch so ein high res fan :S
 
Dann muss ich ja auch bis Q1 2010 mit dem Aufrüsten warten :( Selbst wenn ATI eine absolute Bombenkarte bringt werde ich warten. Niemals vor der Karte der Konkurrenz kaufen! Das mussten die ersten GT200 Käufer grausam lernen. Die Karten waren zweifellos gut... aber ich lache meinen Bruder immer noch für seine 450€+ GTX280 aus :lol:
Bin mir sicher, dass RV800 endlich einen Schritt nach vorn macht
HD2000---Optimierung--->HD3000---große Opt.--->HD4000---(extreme)Leistungssteig.+Opt.-->HD5000(?)
So stell ich mir das vor. Aber es besteht halt immer die Möglichkeit eines Quatensprungs wie P4->Core
Gerade bei den Gerüchten... 512mb SI 512(?)1D Shader(!) und GDDR5 - was anbei auch sicher der Grund für die Probleme mit 40nm auslösen dürfe. Und in 55 ist das unbezahlbar. Ich denke auch bei GT300-->X werden die endlich ihre Monsterchips aufgeben. ATI schafft mit viel weniger Chipfläche fast genau so viel!

E: Bin ATI/AMD Freund :) Aber ich hab auf Enthusiast HW gesetzt^^ Also nicht als AMD-Hetze verstehen. Aber trotzdem gehört der geschlagen, der vor NV Launch ne Karte kauft!
 
Falls es noch nie gepostet wurde:

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Bevor sich der Standart-Fanboy gleich wieder aufregt...

Das ist nur ein subjektiver und leicht spekulativer Blick in eine mögliche Zukunft.
Ich weiß, Inquirer + der Autor ein ATI-Fanboy, da werden gleich Leute meckern.
Aber es ist ein sehr interessanter Ansatz. Einfach mal die Grüne Brille abnehmen.

Es kann natürlich auch sein, dass TSMC die Yield stark verbessern kann und das der GT300 kein einfacher
Performance-Refresh wird, sondern eine Architektur die stark verbessert wurde. (Hust)

Aber da der Endverbraucher eine absolut dominierende Seite sich sicherlich NICHT wünscht,
siehe G80 > HD 2900, hoffen wir dass es so weiter geht wie die letzten 12 Monate.
 
Zuletzt bearbeitet:
Killerdingo schrieb:
Solangs keine spiele gibt die die aktuellen generationen von karten gänzlich überfordern
...
Aber mal zu was anderem, findet ihr nicht auch das die Grafische Entwicklung seit ner weile recht stark stagniert?


und du siehst da echt keinen Zusammenhang ?


Es ist doch ganz einfach : ist die Hardware da, dann wird auch dafür entwickelt.

Natürlich stagniert die Entwicklung der Software wenn die Hardware stagniert.
 
Killerdingo schrieb:
Aber mal zu was anderem, findet ihr nicht auch das die Grafische Entwicklung seit ner weile recht stark stagniert? Ich mein besonders fällts einem (jedenfalls mir) ja auf seit die meisten Spiele ja multiplatform technisch entwickelt werden. Besonders im Bereich "hochauflösende" Texturen tut sich ja gar nix mehr, scheint es ist einfacher den texturen matsch mit viel bunten shadern zu überlagern. Dabei war und bin ich doch so ein high res fan :S

Das liegt an den Konsolen ( Xbox 360, Playstation 3 ). Jeder ordentliche Spielerechner ab 500 € hat mehr Leistung als ne Xbox 360 oder Ps 3. Aber die Entwickler wollen halt mehr Kolhe machen und benutzen deshalb eine Engine 5 mal oder so ;).
Wenn in ein paar Jahren die neuen Konsolen "Xbox 720" und "PS 4" kommen werden, werden wir erstmalig wieder große Grafiksprünge nach Crysis sehen.

Zum Thema: Solange es Gerüchte sind sollte man garnix glauben selbst das spekulieren ist Sinnlos. Kommt Zeit kommt Rat.

MfG Whoozy
 
... möglicherweise erleben wir die Zeiten der ersten 8800er Generation nun mal auf Seiten von AMD/ATI. ;)

Wie auch immer - für mich persönlich ist das nicht weiter schlimm, da ich garantiert nicht den Fehler machen werden, mich um die 1. Grafikkarten-Generation einer neuen DirectX- Multimedia-Schnittstelle zu schlagen ...
 
"Schwierigkeiten mit dem 40-nm-Prozess ausschließen"

Jo, und vor kurzer Zeit durfte ich mir noch sagen lassen das eine verzögerung durch den Fertigungsprozess unwahrscheinlich ist ...
 
Eben. Das gute an neuen Chips ist ja nicht, dass sie Spiele in 1280x1024 schneller darstellen, sondern dass der Performanceabfall durch höhere Auflösungen und mehr AA immer geringer wird. Vor wenigen Jahren hat 2xAA oder 4xAA die Performance völlig in den Keller gehen lassen; insbes. in höheren Auflösungen.

Natürlich ist so etwas schwer zu vergleichen, weil meist andere Spiele genommen werden, aber nur mal so auf den ersten Blick: Bei der 6800 Ultra und dem Spiel FEAR ging die Performance durch das Einschalten von 4xAA/16xAF von 37fps auf 17fps zurück (das ist ein Rückgang von 54%); bei einer Auflösung von 1600x1200. Bei der GTX 280 und Crysis in 1600x1200 ging die Performance durch 4xAA/16xAF von 26,4fps auf 18,4fps zurück (ein Rückgang von nur noch 30%); auch bei 1920x1200 beträgt der Rückgang nur 27,5%.
Und man darf nicht vergessen, dass derartige Verbesserungen nochmal oben drauf kommen. Wenn eine neue Karte also bei 1280x1024 "nur" 50% schneller ist, dann kann es durchaus sein, dass man bei höheren Auflösungen und Filtern 75% oder 100% mehr Performance hat, weil die höhere Auflösungen und die Filter der neuen Karte nicht so "weh tun" wie der alten.

Außerdem wird ja keiner gezwungen sich eine neue Karte zu kaufen. Die Masse kauft sich ohnehin nicht von jeder Generation eine Karte. Außerdem gibt es auch bei den GPUs immer mal etwas langweiligere Generationenwechsel und einige spannendere (GF 7xxx -> 8xxx) und der GT300 soll ja angeblich wieder eine etwas größere Sache sein.
 
Die Verzögerung finde ich gar net mal so schlecht. Nach all den hektischen Jahren mal etwas durchpusten und was gescheites auf`m Markt bringen. Jedes 3/4 - 1 Jahr sich ne neue GraKa ist total krank. Aller 2 Jahre den nächsten großen Schnitt zu machen reicht vollkommen.

Meine Traumgraka: max. 120 Watt Verbrauch, im Normalmodus abschaltbar + Singleslot und fähig, Crysis in mittlere Auflösung;mit allen Details, flüssig darzustellen. PASST !!!

Auf geht`s AMD + NVIDIA.
 
Interessant wäre eine Grafikkarte, die sich automatisch so taktet, dass sie schnell genug ist, aber möglichst wenig verbraucht. Wozu brauch ich 120fps? Besser wäre es der Grafikkarte zu sagen "Ich will 30fps" und wenn man dann ältere Spiele o.ä. hat, dann taktet sie automatisch so runter, dass ich immer 30fps habe. So könnte man evtl. ein gutes Verhältnis von Verbrauch und Leistung erreichen.
 
Sehr tragisch ist das nicht. Wenn alle 3 Monate neue GPU-Versionen am Markt erscheinen, wie soll ein Produkt reifen können?
 
Dann reifen die Grafikkarten so wie bisher auch: Entweder beim Kunden oder gar nicht. Um die Stromverbrauchsproblematik bei der 8800 GTX hat sich NVidia genau so wenig gekümmert wie AMD bei der 4870. Wozu auch? Kostet nur Geld, gekauft wird ohnehin von vielen nur nach Marke und ein paar Monate später kommen die nächsten Chips raus, die dann natürlich genau so viele Probleme machen. Aber das Gedächtnis der Kunden ist kurz und Fanboys kaufen ohnehin blind.
 
Wobei die 8800 GTX mit großem Abstand die Konkurrenz in Sachen Fps und BQ angehängt hat - das kann man von der HD4870 keinesfalls behaupten.
 
die 8800gtx hatte doch schon einen deutlich niedrigeren verbrauch als die konkurrenz in form der 2900xt Oô
klar war der für heutige begriffe schon ziemlich hoch, aber schau mal auf die fertigungsgröße. das leistung pro watt verhältnis war zu ihrer zeit so ziemlich das beste, was es gab. selbst mit der sparsamen gf7 konnte sie sich in leistunb pro watt messen.

allerdings hat sich da gott sei dank inzwischen viel getan. und ich hoffe, dass es so weitergeht. die 4770 ist unter last schon top und die 9x00green sind imho auch die richtige richtung. generell klappt es aktuell im idle bei nv sehr gut, allerdings muss hier ati noch nachbessern. aber das werden sie hoffentlich mit der hd5k in den griff bekommen. beide dürften inzwischen kapiert haben, dass der verbrauch auch ein kaufargument ist ;)
 
Realsmasher schrieb:
und du siehst da echt keinen Zusammenhang ?


Es ist doch ganz einfach : ist die Hardware da, dann wird auch dafür entwickelt.

Natürlich stagniert die Entwicklung der Software wenn die Hardware stagniert.

Ob die Hardware da ist oder nicht hat in der Vergangenheit nicht wirklich einfluss auf die Grafikentwicklung gehabt. Es gab immer wieder Spiele welche selbst mit den aktuellsten Karten gerade mal so geniessbar waren.
Wäre auch kein Argument zu sagen "die warten auf dx11" Hardware... naja ausser sie wollen noch mehr poppige shader reinkloppen..... Aber da ja eh abwärtskompatibel gecoded werden muss ist das wieder kein Argument.

Ich würde wetten das HL3, würde es nächste woche erscheinen genauso aussehen würde wie HL2 nur halt mehr "bunte" shader. Realistischer Mimik und Texturen würds vermutlich nit geben, und sowas nervt.

Whoozy schrieb:
Das liegt an den Konsolen ( Xbox 360, Playstation 3 ). Jeder ordentliche Spielerechner ab 500 € hat mehr Leistung als ne Xbox 360 oder Ps 3. Aber die Entwickler wollen halt mehr Kolhe machen und benutzen deshalb eine Engine 5 mal oder so ;).
Wenn in ein paar Jahren die neuen Konsolen "Xbox 720" und "PS 4" kommen werden, werden wir erstmalig wieder große Grafiksprünge nach Crysis sehen.

Zum Thema: Solange es Gerüchte sind sollte man garnix glauben selbst das spekulieren ist Sinnlos. Kommt Zeit kommt Rat.

MfG Whoozy

Ich mein ein gutes hätte es ja, wenn die Grafische Entwicklung nur noch mit jeder neuen Consolengeneration vorranschreitet, haben zumindest die Graka Hersteller genug Zeit ihr zeug zu optimieren. Wobei.... so geht ja der gewinn in den Keller wenn man nur noch alle 4-5 Jahre was verkauft. Vllt sollte AMD und Nvidia mal mehr daran arbeiten das man die "brachiale" GPU leistung auch anderweitig effektiver einsetzen könnte.
Oder sie gründen ein paar Tochterfirmen welche 3/4 - 1 jährlich neue Benchmarks rausbringen und suggerieren den potentiellen käufern das diese Benchmarks lebenswichtig sind und sie jede Generation inkl deren Refreshs mindestens 3 mal kaufen müssen damit sie auch ja oben mitspielen können.

Unterm Strich seh ich bei all dem gehampel nur ein problem, die Arbeitsplätze bei Nvidia und AMD werden wohl auf kurz oder lang weiter geschrumpft. weniger Absatz = weniger Umsatz = Kosten einsparen...
 
Zurück
Oben