News GT300: 3 Mrd. Transistoren und bis zu 6 GB GDDR5?

Inselmann schrieb:
Wie immer gillt: abwarten.

Das kann man immer;
ich will das auch immer schreiben, aber dann denke ich mir
doch, wie viel unnützer ist es die kostbare Zeit eines anderen
mit Lesen eines solchenen Posts zu verschwenden?

Ich befürchte das Nvidia auch ein gutes Produkt auf den Markt werfen wird.
Jetzt hätte ich doch beinahe: "Wir werden seh**" geschrieben.
 
Wenn die Gerüchte stimmen fällt mir nur eines ein: Typisch Nvidia! Einfach mal mit brachialer Gewalt die Leistungskrone zurückerobern, ohne sich dabei Gedanken über Effizienz zu machen. Da werden dann wieder Karten für 310€ verkauft, die in der Produktion 300€ kosten und noch dazu wahrscheinlich 300 Watt verbraten, weil die Fläche der Chips 20 cm² gross ist. Da lobe ich mir die Arbeit von ATI mit der 5000er. Solides Produkt zu fairem Preis mit angemessenem Verbrauch und ausreichend Grafikleistung. Dabei wird dann wohl auch noch Gewinn gemacht. Da ist die Frage nach den glücklichen Aktionären eigentlich überflüssig ;)
 
Zanza schrieb:
Das ist als ob man einen Porsche haben will der sehr schnell ist aber nur 3l auf 100Kmh schluckt
Aber einen BMW mit 350PS und 3,72 l/100km im kombinierten Mittel. :evillol:

markus1234 schrieb:
Und mit der HD5870X2 geht das Spiel wieder von Vorne los.
Meine Theorie ist: Es wird keine GTX 395 oder wie die heißen würde geben, da die riesen Chips so schwer sind, dass jede Karte, die nicht mit Stahl verstärkt ist durchbricht :freaky:

Mich interessiert viel mehr die Mittelklasse (die auch als low Profile verfügbar ist). Wenn das wieder nur ne umelabelte 8800 ist, dann werde ich schön bei ATI bleiben.
 
warper schrieb:
Fön 2.0 is coming.
Nö, die Leistungsaufnahme soll etwas unter GTX 285 liegen.

Bis heute hatte man immer 512bit Speicherinterface angenommen. Wenn jetzt ganz offensichtlich 384 bit stimmen, hat nvidia nun wirklich sehr dicht gehalten bis kurz vor Bekanntgabe der Specs. *respekt*
 
Nach den bisherigen Gerüchten hatte ich eigentlich mit noch mehr gerechnet (Bandbreite, Ausführungseinheiten) wobei das in 40nm dann wirklich ein Monster gewesen wäre :evillol: So schätze ich in entsprechenden Settings etwa 80-100% Mehrleistung zur GTX280...wenigstens die GTX295 müsste man damit überflügeln können, alles andere wäre für ein komplett neues Design auch lächerlich. Das die Karte nicht für 300€ übern LAdentisch gehen wird, das sollte wohl klar sein ;)

Schön zu sehen das endlich mal mehr Speicher verbaut wird, die 6GB sind sicher nur für Profi Modelle mit GPU Computing gedacht, aber auch 3GB sind ein netter Fortschritt...ich bin die matsche Texturen die man heutzutage immernoch vorgesetzt bekommt so ziemlich leid.


Was ich übrigens viel interessanter finde ist, was Nvidia im Performance Segment bringen wird. Das die Große Karte ne 5870 in der Leistung einstampft ist für mich klar (es bleibt nur noch abzuwarten, wie stark und zu welchem Verkaufspreis), aber was bringt man gegen 5850 und 5770 ins rennen? Umgelabelte GTX 2xx dürften deutlich zu teuer werden, das klappt diesmal nicht.
 
grüsse,

also es zeigt sich doch, dass hier viele Kiddis unterwegs zu sein scheinen, die ihre Stromrechnung nicht selber bezahlen müssen.
Selbst wenn man nur Hälfte bis nem drittel der täglichen Rechnerzeit mitm Spielen verbringt dann rotiert der Stromzähler und damit auch das Loch im Portemonnaie schon gewaltig davon.
Gerade bei den Verbauchsdimensionen um die es hier geht, ist die zZ stattfindende Entwicklung nicht besonders akzeptabel. (gut bei AMD/ATI hat sich wenigstens die Leistung/W verbessert, ma abwarten was Nvidia macht)

Ich hab bei mir Zuhause alles wieder auf mein 17" Lappy umgestellt, weil der für inet und die täglichen SPielestunden noch genug leistet und gerade ma zwischen 30 und 60W Gesamtverbrauch verursacht.
Und nur für wirklich aktuelle Titel die ne bessere Graka verlangen mach ich den Rechenboliden dann an.
Aber ma davon abgesehen kommen zZ ja nicht wirklich dolle SPiele raus, die abgesehen von ner Hammergrafik mit Inhalten glänzen können. Ma schauen ob Risen das ändern kann.

cya Wiesel

PS: Fazit: Größe ist nicht alles ;)

EDIT: nur weil sich die Transistoren und Shaderanzahlen etc verdoppeln heisst das nicht das sich die Leistung verdoppelt. Diese schockierende Erkenntnis zeigt ja bis jetzt AMD/ATIs neue Generation.
 
man sollte auch daran denken, dass der Chip sehrwahrscheinlich für GPU-Computing entworfen wurde, inkl. diesen Universal Shaders?, und die meisten DirectX Funktionen wohl in Software emuliert werden müssen. Wieviel von dieser Rohleistung in den Spielen überbleibt, wird sich zeigen müssen.

Das die Wärmeentwicklung und der Stromverbrauch neue Rekordmarken setzen werden, ist auch anzunehmen.
 
erinnert mich ein wenig an den R600^^

ich kann mir schon gut vorstellen,dass dieser Chip zum Teil deutlich schneller sein wird,als ein cypress. allerdings zu welchem preis?

ati hat eine 5850 gebaut, die minimal schneller als eine GTX285 ist,aber nur die hälfte verbraucht und deutlihc billiger ist. die GTX3XX dürfte zwar zum tiel deutlcih schneller sein,wrid aber den Gerüchten nach auch als erste Karte die 300Watt sprengen.

Dann bin ich mal gespannt was die kandidaten sagen,die deswegen den RV770 kritisiert haben.


gruß
 
Hört sich gut an =) dann fang schonmal an zu sparen, Weihnachtsgeld+Geburtstagsgeld, dann alles investieren und nach 7-9 Monaten ist die Karte nurnoch 50% von NP Wert. Wie ich die IT Entwicklung liebe :P

ne mal im ernst, wer spielt aktiv Crysis? denke die Minderheit, und da reicht ne 275/4890 dickste aus, alles anderes ist sinnlos! Man darf nicht vergessen, Consolen leben auch noch, PS3 kaufen und fertig!! sonst ein Rechner zum Surfen/Arbeiten/Multimedia braucht keine solchen Karten.

Spiele die kommen, werden es brauchen? mit FullHD Beamer oder wie? für nen 24" Zoll .. reicht ne 275/4890 auch aus. Klar möchte man die Nase vorne halten und die Leistung und die Effekte der DX Generationen geniesen. Aber der Spielfactor an sich, verliert immer mehr an Wert.

Bin wie immer verzweifelt, Win7, DX11 steht vor der Tür.. Diablo3, Gothic, Crysis unv stehen vor der Tür... und nun? abwarten? ist immer angesagt, siehe meine Signatur!! Doch jeder muss für sich selber wissen wie es das hart erarbeitete Geld investieren möchte.
 
Da falls 512 Shader stimmen wird der Speicher aber bei der GTX 380 genauso limitieren wie bei der 5870. Denn die Speicherbandbreite steigt "nur" um 50% an. Das ganze klingt eh sehr merkwürdig. Ich gehe eher von 384 Shadern aus.
 
@ In vino veritas

Ja, es gibt bereits einen NDA-Termin, allerdings fällt dieser unters NDA :freak:

MfG
 
Ich kann echt nicht verstehen wie hier manche schon am Rummoppern sind. Da sind absolut keine handfesten Beweise ob der Daten und schon geht es los was das Thema Verbrauch angeht usw. Wen interessiert denn den tatsächlichen Lastverbrauch? Ob das jetzt nun 180W oder 300W sind macht doch für einen "Normalo-Gamer" auf's Jahr gesehen keinen großen Unterschied, sofern der Rechner nicht 12h+/Tag unter Last läuft. Sind es hingegen "nur" so 2-4h/Tag fällt das gar nicht so sehr ins Gewicht. Der Idleverbrauch ist da sehr viel interessanter und ich denke da wird nVidia da weitermachen, wo sich aufgehört haben mit dem G200(b) und das war ja wohl bekanntlich nicht das Schlechteste ;)

WENN solche Daten stimmen sollten, bringt es dennoch nichts darüber zu philosophieren, was die Karte verbaucht oder wie schnell die ist, defacto WEIß man doch gar nicht was da so an Spannungen anliegt und wie effizient die Karte ist. Reine Spekulation und vor allem sind es auch die Daten des GT300. Abwarten, könnte gut möglich sein, dass (mal wieder) gezielt falsche Informationen die Runde machen, um potenzielle Käufer von der Konkurrenz fernzuhalten.

@In vino veritas
Warum sollte man das nicht mit einem Vorgänger in den Vergleich setzen können? Wird doch bei CPUs auch gemacht. Wurde gar bei CPUs soweit gemacht, dass C2Q und Phenom verglichen wurden (was den Stromverbrauch insbesondere angeht) obwohl beides totale Unterschiede im Aufbau hatten (integrierter Speichercontroller vs. nicht integriertem) und daher kommen immer massive Unterschiede zum Tragen. Was also ist flasch daran die HD5850 mit der GTX285 zu vergleichen? Für weniger Geld (HD5850) bekommt man die gleiche Leistung unterm Strich mit mehr Technik (DX11, aber ohne CUDA - für wen es interessant ist) und einem geringeren Verbrauch (auch Idle). Also warum dann zur "alten" GTX285 greifen? Daher kann man das sehr wohl vergleichen. Es kommt doch wohl darauf an, was man fürs Geld bekommt. Ob da jetzt nVidia oder ATi draufsteht, sollte doch wohl total egal sein!
 
Zuletzt bearbeitet:
AMDs neuer Chip hat auch über zweimal (959Mio. auf 2,15Mrd.) soviele Transistoren wie der alte, und trotzdem ist der Mehrverbrauch sehr im Rahmen geblieben. Was spricht dagegen, dass die Ingenieure von Nvidia dasselbe (1,4Mrd. auf 3Mrd.) vollbringen? :rolleyes:

mfg.

Sonyfreak
 
nein, der GT300 verbraucht keine 300 Watt und schon garnicht mehr. Nur weil irgend jemand so ein Gerücht verbreitet heisst das nicht, dass das auch stimmt. Wann lernt ihr das mal? Anscheinend nie.

mfg
 
Das erinnert mich irgend wie an den alten Russen Witz aus Zonenzeiten (für Nichtwisser = exDDR).

"Woran erkennt man das man vom KGB abgehört wird?
Es steht ein Schrank mehr im Zimmer und ein Trafohaus vor der Tür!" :evillol:

Ich vermute mal für das nVidia Monster braucht man selbiges (Trafohaus) auch... :freaky:

Mal im Ernst, ich denke das ich mit meiner GTX285 noch bis kommendes Jahr gut "fahren" werde....
 
ATI hat ihre Transistorenzahl um 124% erhöht, die Shader-Einheiten verdoppelt, aber die Speicherbandbreite nur um 23% anheben müssen um ca. 50% mehr Leistung zu bekommen.

NVidia hat, wenn die Angaben so stimmen würden, die Transitorenzahl um 114% erhöht, die Shader-Einheiten verdoppelt und wird die Speicherbandbreite um ca. 20% (Speichertakt 2 GHz) - 45% (Speichertakt 2,4 GHz)

Da ich die 2GHz-Taktung als die wahrscheinlichere halte, könnte man annehmen, dass die GT300 ca. 45% schneller sein wird als die GTX 285. Man kann also davon ausgehen dass sie so 8-12% schneller sein wird als die HD 5870.

Aber immerhin scheint es so, dass ATI dann insgesamt aufgeholt hat und den deutlicheren Vorteil hat, die Karten auf den Markt zu haben und sich um Treiber kümmern zu können, die eventuell bis zu Erscheinungstermin der GT300 noch das eine oder andere Prozentchen herauszukitzeln.

Da schon die Daten spekulation sind, die rechnerei sicherlich auch nicht das ware ist, die Treiber eine unbekannte bleiben, ist alles nur reine Spekulation.
 
68Marcus69 schrieb:
Da ich die 2GHz-Taktung als die wahrscheinlichere halte, könnte man annehmen, dass die GT300 ca. 45% schneller sein wird als die GTX 285. Man kann also davon ausgehen dass sie so 8-12% schneller sein wird als die HD 5870.
Dir ist aber schon bewusst, dass dieses Rechenbeispiel aufgrund der Architekturänderungen sicherlich nicht stimmen kann?

mfg.

Sonyfreak
 

Ähnliche Themen

Zurück
Oben