News Nvidia: „Kepler“ und „Maxwell“ folgen „Fermi“

ich werde auch bis 2011 auf Nvidias 28nm Fertigung "Kepler" warten.
Ein weiteres Jahr wird meine 8800GTX halten :)
 
meine GTX285 läuft noch, und bis was anständiges rauskommt sollte die auch durchhalten :)
 
Ich finde das putzig wie hier gleich wieder über den Stromverbrauch diskutiert wird und das nVidia endlich begriffen hat, dass dieser gesenkt werden muss. Wo bitte steht in dem Bericht etwas von Stromverbrauch senken, da steht etwas von Performance-per-Watt-Verhältnis! Wenn die GPUs wiklich soviel mehr Leistung haben wie behauptet wird, wird da nichts gesenkt, dann wird es möglicherweise weiter steigen. Auch die völlig sinnfreie Aussage einiger Forenuser, die jetzt nicht in diesem aber in einigen anderen Threads mehrfach geäußert wurde nervt gehörig: "NEUERE Hardware verbraucht weniger Strom". Wer erzählt solch einen Blödsinn? Mein alter P4 1,7GHz mit Geforce2 GTS verbraucht 85W, heute verbraucht eine Desktop CPU teilweise schon mehr.

@Thema

Ich wünsche mir das nVidia die gesteckten Ziele dieses mal wirklich erreicht und auch pünktlich auf den Markt bringen kann. Es wird nicht leicht werden aber wenn sie sich mühe geben haben sie in meinen Augen alle Chancen wieder den 1. Platz im Bereich Performance zu erreichen.
 
Laut Fudzilla kommt Kepler in 28nm und im 2. Halbjahr 2011. Die große Frage dürfte doch sein, wie wollen sie die Zeit bis dahin überbrücken? Wenn ATIs refresh 10-20% bringt, wird es wohl nicht reichen die aktuelle Generation 2 mal umzubenennen.
 
Bemme90 schrieb:
Da bin ich aber mal gespannt....
...ob es sich dann lohtn aufzurüsten....

Aber wieso Fermi?
Was hat die Karte im Consumer-Bereich gebracht? Außer Lärm und Wärme (Abgesehen von der GTX460)...

Hätten sie sich gleich mal auf was anderes konzentriert....


Bemme90 schrieb:
Da bin ich aber mal gespannt....
...ob es sich dann lohtn aufzurüsten....

Aber wieso Fermi?
Was hat die Karte im Consumer-Bereich gebracht? Außer Lärm und Wärme (Abgesehen von der GTX460)...

Hätten sie sich gleich mal auf was anderes konzentriert....


offenbar hatten sie schon zu viel in die fermi-architektur investiert, um noch etwas zu ändern, vor allem da sie immer noch ein halbes jahr hinter ati/amd lagen.

was karten mit dem referenzkühler angeht, sicher... hätten sie doch von anfang an kühler wie den der gigabyte 470 super overclock montiert.

hatte vor wenigen tagen eine 470 SOC da, das ding ist im idle unhörbar und unter last produzierte sie ein luftrauschen, nicht mehr (bei offenem gehäuse) bzw man fühlte warme luft wenn man die hand in die nähe hielt... für einen "thermi" geschimpften chip jedenfalls vorbildlich. nur auf den stromzähler habe ich nicht geschaut. ansonsten wirklich eine hervorragende karte.

habe letztlich doch meine hd 5870 im referenzdesign behalten, weil so kurz vor erscheinen der nächsten generation auf ein marginal schnelleres modell (je nach anteil von tesselation usw) zu wechseln wenig sinn macht. ansonsten hätte ich sie wahrscheinlich meiner verbuggten xfx 5870 vorgezogen, auch bei 100 w oder so mehr unter last.
 
Hallo zusammen,

@ Dr. MaRV

Ich stimme dir absolut zu. Ist schon Lustig, wie einige wieder die Glaskugel Putzen!

Dabei sollte man nicht vergessen, daß es sich bei dem Statement von Huang um das Übliche Marketing-Getöse handelt. Und mal ehrlich, ich habe noch die Statements von vorigem Jahr in den Ohren hinsichtlich der Fermi-GPU`s!

Und auch vor einem Jahr wurde z. B. behauptet, daß die Karten bis November - wohlgemerkt 2009 - auf dem Markt sind! Was soll man also von dem Gelaber halten?

Ich für meinen Teil gebe überhaupt nichts mehr auf die Aussagen von Nvidia. Nvidia hat meiner Meinung nach erst einmal dafür zu Sorgen, daß sie überhaupt wieder halbwegs Glaubwürdig sind.

Und zur Klarstellung, ich bin niemandes Fanboy. Aber sowas krasses wie mit den Fermi`s habe ich bisher noch nicht erlebt in dem Sektor. Für meinen Teil kann ich Sagen, daß ich dieses Jahr wohl immer noch meine 8800 GTS 640 behalten kann. Bis zur 1600er Auflösung kann ich alles mit sämtlichen Schaltern am Anschlag Spielen, solange ich keine Exzessiven AA-Modi nutze.

Nvidia hat sich meiner Meinung nach schlichtweg auf den Meriten, die sie sich mit dem G80 verdientermaßen errungen haben, ausgeruht!

So long...
 
Hoffe nur das es nicht nur News sind, das auch Nvidia Produkte auf den Markt bringen die sich wieder lohnen.

schön das auch in Zukunft Nvidia und AMD/ATI GPUs nebeneinander produziert werden in selben Werk warscheinlich^^ Den Nvidia plant ja bei GF mit zu produzieren zulassen.
http://www.hartware.de/news_50034.html
 
Hallo zusammen,

@ Tekpoint

Im Ernst, du glaubst doch nicht wirklich, daß Nvidia bei GlobalFoundries ebenfalls Geforce-Chips fertigen läßt?

Ich kann dir bestätigen, daß das keinesfalls stimmt. Tatsächlich wird Globalfoundries im Auftrag von Nvidia die Tegra`s und sonstige "SoC`s" fertigen, nicht aber Geforce-Chips.

Lies dir den Artikel auf hartware.net nochmal genau durch. Da steht auch, daß ATI die Tegra´s bzw. "SoC`s" für Nvidia fertigen wird. ganz unten am Ende des Artikels. Es wird geschrieben, daß eine solche Zusammenarbeit betreffend Tegra und sonstige SoC`s bzw. Fertigung bei GF Sinnvoll erscheint.

Sollte eigentlich auch Logisch sein, daß Nvidia seine Geforce Chips nicht bei GF fertigen läßt.

So long....
 
Zuletzt bearbeitet:
Ja richtig, aber so fängt es wahrscheinlich an^^

Vor ein halben Jahr hieß noch das sie nicht zusammen produzieren je würden, jetzt das. Ist ja auch nicht verwunderlich was TSMC so anstellt. Nvidia will ja nicht wegen der Firma untergehen und das Geld für eines Werk werden die woll derzeit kaum haben.
 
Und ihr glaubt ehrlich, die halten die Roadmap ein? Rechnet mal zu jeder neuen Generation 1 Jahr drauf, dann scheints bestimmt annähernd zu stimmen....Seit wann is Fermi seit 2009? 2009 war die Ankündigung, die Vermarktung von Fermi war im Q2 2010...so wirds bei den neuen Generationen wohl auch. Die neue Generation wird dieses Jahr offiziell angekündigt und Auslieferung erfolgt dann wohl im Q2 2012...
 
Hallo zusammen,

auf www.heise.de ist gerade der Bericht betreffend GPU Technology Conference (GTC) - die ja hier auf CB mit diesem Artikel ebenso behandelt wird - eingestellt worden.

In dem Bericht ist auch enthalten, welche TDP sich Nvidia konkret für die jeweilige Generation vorstellt! Und Leute, die Reden von 250 Watt Aufwärts! Nachfolgend der Link, so daß ihr euch selbst ein Bild machen könnt:

http://www.heise.de/newsticker/meld...usblick-auf-kommende-Grafikchips-1083430.html

Für meine Begriffe wird da von Huang teilweise regelrecht in Phantasien geschwelgt, z. B. soll in Zukunft vom Marktstart einer neuen Grafikgeneration durch einen High-End-Chip maximal 3 Monate dauern, bis man alle Marktsegmente bis zum Low-End mit Grafikkarten besetzt hat., Zitat-Ende!

So long....
 
Tja schade Nvidia, ihr seid einfach viel zu spät dran mit effizienten Grafik-Chips. Meine 8800GT wird bald 3 Jahre alt und braucht dringend Ablösung. Urspürnglich war geplant auf den 40nm Nvidia-Chip umzusteigen, der für Mitte-Ende 2009 angekündigt war, heute als Fermi bekannt. Doch die vielen Verschiebungen und dann dieses Desaster mit der ungalublich hohen Leitungsaufnahme, haben mich bis heute von einem Upgrade abgehalten. Auch die hohen Preise für die Ati 58xx, bedingt durch das Fermi-Desaster, machten diese nicht attraktiv.

Nun hoffe ich auf AMD Southern Islands / HD 68xx. Das diese vernüftige Leistung pro Watt liefern und halbwegs günstig sind. Aber ich vermute ja fast, dass die Preise durch die hohe Nachfrage wieder genauso steigen werden wie bei der HD 58xx. Nvida hat dem einfach nichts entgegenzusetzen außer Marketing Propaganda.

Ich würde mich schon als Nvidia-Fanboy bezeichen, schon allein dehalb wie die meisten Spiele für Nvidia optimiert werden und nicht für Ati. Auch der Treiber-Support gefällt mir. Aber was bringt das, wenn sie nur Stromfresser auf den Markt werfen, die für mich als Energie bewussten Stromsparer komplett unattraktiv sind.
 
Zuletzt bearbeitet:
IMEAN, es gab mal ein ungeschriebenes Gesetz dass sich Rechenleistung und Speicherplatz von Computersystemen alle eineinhalb Jahre verdoppeln. Bei Grafikkarten gilt dieses Gesetz noch heute - wenn auch nur in Evolutionsstufen.

Kleine Geschichtsstunde:
vor ziemlich genau 5 Jahren wurde die GF 7800 GTX vorgestellt. Damals die schnellste Grafikkarte der Welt.
Ein Jahr später kam die 8800 GTX, die um mehr als die hälfte schneller war.
Wieder ein Jahr später kam die 8800GT; die war nicht schneller, aber deutlich sparsamer. Ebenso die HD3000er Serie, die aber abermals nicht schneller war als die 8800er Karten.
Das Jahr darauf, 2008, kam im Juli die HD4870, die es endlich schaffte die 8800 Ultra zu schlagen. Allerdings war zu der Zeit nVidia schon mit der GTX 280 vertreten, die wesentlich schneller war als die HD4870.
2009 konterte ATI mit der HD4890, die allerdings nur in der Lautstärke echte bestmarken setzen konnte - so laut war vorher noch keine Karte. Leistungsmäßig leicht unterhalb der nVidia-konkurrenz. Im September kam dann die HD5870, die etwa um 30% schneller war als die GTX 285.
2010 kam die GTX 480, die die HD5870 um etwa 20% übertraf.

Die 480GTX ist etwa drei mal so schnell wie die 8800GT. Die wiederum ist etwa zweieinhalb mal so schnell wie die 7900GTX. Also hat die 480GTX in etwa die sieben- bis achtfache Leistung der schnellsten Grafikkarte von vor viereinhalb Jahren. Und alle einenhalb Jahre verdoppelt im Zeitraum von viereinhalb Jahren bedeutet achtfache Leistung - genau das, wo wir heute stehen. Und das alles bei einem beinahe gleich gebliebenen Preis. Für eine 7900GTX waren damals rund 500€ fällig. Eine Grafikkarte, mit der man heute gerade noch casual games spielen kann.

mfg
 
Super, diese Folie sagt ja mal gar nichts aus ... einfach Moore's Law mit eigenen Produkten gemalt -.-

Da könnte man genauso die Grafikkarten von ATI oder Prozessoren von Intel reinschreiben...
 
Typisch dass nVidia nicht die reale Performance, sondern die Performance/Watt angibt. Damit ist schonmal nicht gewährleistet, dass das nächste Flaggschiff sparsamer ist als eine GTX 480...

"Fermi: 2009" Q5 klar :lol:
 
Arhey schrieb:
Also 3-4 fache Performance, dafür 2 facher Verbrauch?
Nicht zwngsläufig. Das Diagramm zeigt ja mehr oder weniger nur die Energieeffizienz. Vorstellbar ist da vieles. ZB auch gleiche Performance bei halbierter Leistungsaufnahme oder doppelte Performance bei gleicher Leistungsaufnahme.


Kasmopaya schrieb:
und wenn ich mir die Folie so anschaue dann ist Kepler nicht gerade ein großer Sprung.
Der Sprung von Fermi zu Kepler (~6 / ~2 = 3) ist relativ gesehen sogar grösser als von Kepler zu Maxwell (~16 / ~6 = 2,666). Und 200% mehr Energieeffizienz innerhalb von zwei Jahren ist nicht gerade wenig.


Thomson1981 schrieb:
Für die eigendliche Zielgruppe GPGPU und dafür für alle potentiellen Nvidia Kunden wie Wissenschaftsinstitutionen,Forschungseinrichtungen,Unis und andere kommerzielle GPGPU User war Fermi ein grandioser Erfolg und bescherte für Nvidia hohe Gewinne,wie man es auch in den Geschäftszahlen vom 4.Quartal 2009 und 1.Quartal 2010 sehen konnte.
Klar, so ein grosser Erfolg, dass Oak Ridge wegen zu schlechter Energieeffizienz ihr Fermi Projekt cancelten. Und lange konnte Fermi überhaupt nicht in entsprechenden Stückzahlen ausgeliefert werden. Wie sollen diese Chips da auf Q4 2009 und Q1 2010 Auswirkung gehabt haben? Etwas mehr Realismus wäre schon angebracht. :rolleyes: Fermi ist bis heute kein Erfolg, weder im professionellen Bereich, noch im Desktop-/Mobilmarkt.


@topic

Im Grunde alles relativ nichtssagend. Scheinbar sieht man in Zukunft die Priorität aber bei professionellen Lösungen. Schade für den Desktop- und Mobilmarkt.
 
Hallo zusammen,

@ gruffi

Ich will dich nicht Persönlich beleidigen. Aber was du hier vom Stapel läßt, ist in meinen Augen nur noch lächerlich!

Da hat einer von Nvidia etwas auf eine Folie gekleistert und du dozierst hier regelrecht ins Blaue hinein!

"Und 200% mehr Energieeffizienz innerhalb von zwei Jahren ist nicht gerade wenig

Was für ein Schwachsinn gibst du hier wieder? Ja, genau, Schwachsinn! Du dozierst hier schlichtweg über Schall und Rauch! Das was Nvidia da von sich gibt, ist nichts anderes als eine Absichtserklärung, das Ganze kann man sozusagen "Pi mal Daumen" nehmen!

Lies dir Besser mal den Bericht von Heise durch anstatt hier solchen Nonsens zu verzapfen! Und was Öffentliche "Absichtserklärungen" von Nvidia angeht, wir Wissen ja nun wirklich mittlerweile, wie weit es damit her ist!

Im Grunde ist die Folie das Gleiche Gesülze wie vor einem Jahr, nur eben mit anderen Namensgebungen! Im Grunde geht es im Prinzip darum, Leute schnell noch vor Erscheinen der Neuen ATI-Generation von einem evtl. Kauf einer dieser Neuen ATI-Karten abzubringen! Das ist meine Sicht der Dinge und ich stimme @ Mortiss hier klar zu.

@ Mortiss

Kleine Anmerkung zu deinem Beitrag, Gutes wurde auch vom Fermi durch Nvidia versprochen! Sogar mehr als Gutes.

So long....
 
Zuletzt bearbeitet:
Noch sehe ich da eine Ähnlichkeit zu den Bildern des "Fermi"-Dummys. Eventuell möchte man Leuten (wie mir) einen Kauf einer kommenden Grafikkarte (eventuell von AMD) vorbeugen.


Derzeit ungelegte Eier, die aber Gutes versprechen.
 
Um die Euphorie bissl zu bremsen....

Double Precision brauchen eigentlich nur wissenschaftliche Anwendungen.
Eine große Crux beim GPU Computing war, daß GPUs nur mit Single Precision rechnen konnten.
Reichte voll und ganz für Spiele... für GENAUE Berechnungen, wo's noch auf die x-te Stelle hinterm
Komma ankommt isses nix. (In alten Modellen war zudem SP nicht mal IEEE konform - Gibt dann Ärger, wenn man Ergebnisse von der GPU an die CPU überführen will... plötzlich kippen Werte).

Mit Single Precision erreicht 'n Fermi 1 TFlop.
Mit Double Precision aber nur noch 150GFlops.

An der Performance von zweiterem soll wohl nun massiv geschraubt werden.
Spiele profitieren davon nur indirekt... über die höhere Grundrohleistung, die wohl mit eingerechnet wurde.
 
Zuletzt bearbeitet:
Zurück
Oben