News Nvidia: „Kepler“ und „Maxwell“ folgen „Fermi“

@Katzenjoghurt:
Double Precision brauchen eigentlich nur wissenschaftliche Anwendungen.

Weisst du wie schön es gewesen wäre wenn nvidia die dp-Performance von Fermi auf den GeForce-Karten nicht künstlich auf 1/4 (!) ausgebremst hätte? Das "nur" kannst du dir übrigen schenken - endlich haben GPU's auch einen vernünftigen Einsatzzweck neben CAD.
 
Wieso der schnoddrige Ton?
Ersetz das "nur" von mir aus durch "allein".

Die meisten hier freuen sich aber glaube ich auf mehr Spieleleistung, wenn sie die Grafik sehen.

Daß die Quadros und die Teslas mehr DP Performance bringen (auch die beiden wieder unterschiedlich),
weil NVidia die Bremse je nach € mehr oder weniger lockert ist auch nicht neu.
 
Zur Leistung: Im von Luxman|525 verlinkten Beitrag auf Heise steht:

"Die von Nvidia angegebenen Werte lassen aber keinerlei Rückschlüsse auf die eigentliche 3D-Leistung zu. Auf Nachfrage zur Leistung erklärte Huang während der folgenden Pressekonferenz lediglich, dass der 2013 erwartete Maxwell-Chip etwa um den Faktor 10 schneller sein wird als der aktuelle GF100."

Für Keppler gibt es also nicht einmal ein gedachtes Ziel in Sachen Leistung.
 
Ich halte Numerik und der Beschlenigung gewisser Aufgaben für sehr wichtig, diverse Wissenschaften und Industrien profitieren davon sehr deutlich. Der "schnoddrige" Tonfall zielte auf deine abschätziges "nur" (das lese ich da spontan heraus) ab und war natürlich nicht gegen deine Person gerichtet! Mir ist klar, dass nicht jedermann damit konfrontiert wird und die Fortschritte (die sind nicht gerade klein) zu schätzen mag;)
 
Ich hab mir gerade diese 1:30 Stunden Presentation angesehen das war ja ein Witz und die Demos die sie gezeigt haben eine Lachnummer,
vorallem Hawx2 da konnte man nach dem Video die Grillen hören :D

Der Nebel ist das einzige was seit Batman mich beeindruckt,
die Wasseranimation mit dem Leuchturm war das letzte,
die grosse Welle sieht ja noch gut aus aber dann ... sieht es nur noch aus wie ein mit Quecksilber gefühltes Aquarium, so stelle ich mir eine Brandung nicht vor.

Die 3D Wohnungsanimation war dann wieder der Hammer mit der Vasen-Glasberechnung.
 
Zuletzt bearbeitet:
dOM89DoM schrieb:
I Der "schnoddrige" Tonfall zielte auf deine abschätziges "nur" (das lese ich da spontan heraus) ab und war natürlich nicht gegen deine Person gerichtet! Mir ist klar, dass nicht jedermann damit konfrontiert wird und die Fortschritte (die sind nicht gerade klein) zu schätzen mag;)

Soll ich mal interpretieren?
Der CB'ler is voller Zocker und trotzdem so mancher User gaaaaanz verrückt drauf, anderen
unter die Nase zu reiben, daß man mit Hardware noch soo viel mehr machen kann als nur spielen.

Klassikerbeispiel:
Ein Troll kommt rein und fragt ob man 'ne Quadro auch zum spielen benutzen kann.
Watt sind gleich alle eifrig dabei dem vorzuhalten, daß das Prooooofiiiikarten sind und
nicht für kindische Spielchen gedacht sind. Zä! :evillol:

Zu mir:
Informatikstudent und da ich im letzten Semester mich bissl mit CUDA und Multikern-
programmierung auseinandergesetzt hab, mein ich mich da ein bißchen auszukennen.
Daher auch der Hinweis, daß die Forscher mit den alten Karten nicht so ganz zufrieden
waren... nur SP und keine IEEE Konformität. ;)
 
bei Nvidia ist wieder alles auf "Papier" und bei AMD kommen neuen Grakas im Oktober 2010 raus. So ist das nun mal, da muss Nvidia mal wieder nachholen :evillol: :D
 
Hallo zusammen,

@ gruffi

"Das hätte ansonsten wohl gar niemand gemerkt."

Ne, das gilt Exklusiv nur für dich! Dazu muß man nur deinen Beitrag # 98 Lesen, das sagt wirklich Alles. Solcherartige Phantastereien und Wolkendeutungen nimmst wirklich nur du hier vor.

In dem von mir verlinkten und von @ Sombapezib aufgezeigten Link aus Beitrag # 93 von www.heise.de steht nachfolgendes Zitat:

"Die von Nvidia angegebenen Werte lassen aber keinerlei Rückschlüsse auf die eigentliche 3D-Leistung zu. Auf Nachfrage zur Leistung erklärte Huang während der folgenden Pressekonferenz lediglich, dass der 2013 erwartete Maxwell-Chip etwa um den Faktor 10 schneller sein wird als der aktuelle GF100."

Extra für solche Phantasten und Glaskugelreiniger wie dich, gebe ich dies nochmals hier wieder. @ Sombatezib hat es wirklich absolut Treffend auf den Punkt gebracht, für Spiele gibt es nicht einmal einen Schimmer einer Ahnung der kommenden Leistung. Außer natürlich für Leute mit Glaskugel:evillol:.

So long...
 
Die Präsentation lohnt sich schon allein wegen Minute 1:10:00+ anzusehen. (1:24:00 ist auch genial, die nahe Zukunft für Kameras).

Fotorealistisches Rendering über Cloud von 3dMax+IRay über nen Browser in "fast Echtzeit"? Das muss man nur 5-10 Jahre weiterdenken, unglaublich.

P.S. hier liegt für Nvidia natürlich das große Geld, aber keine Sorge, für uns Spieler werden genug Reste abfallen.
 
Zuletzt bearbeitet:
TNM schrieb:
P.S. hier liegt für Nvidia natürlich das große Geld, aber keine Sorge, für uns Spieler werden genug Reste abfallen.

*hust* Thermi war schonmal nen toller "Rest" *hust*
 
Wow, da hat sich nVidia was in den Kopf gesetzt. Werden hoffentlich nicht wieder so stromfressend und laut, wie das Topmodell GTX 480.
 
@AMD!NOW!:

Hoffen kann man immer, bei nVidia kommt es schlussendlich vielleicht doch anders :rolleyes:
 
Thomson1981 schrieb:
Und wenns für Crysis 2 oder ein anderes Spiel nicht reicht,kommt halt noch eine 2. GTX 480 dazu für SLI.

Da stelle ich lieber das AA ab und gucke, ob Crysis 2 dann spielbar ist.

Thomson1981 schrieb:
Allso einem Duell zwischen Nvidia Kepler 28nm GTX 580 vs. AMD Northern Island 28nm 7870.

Ich denke, es wird die 600-Serie kommen, sodass die 500-Serie soetwas wie die 100- und 300-Serie ist, nämlich OEM-Karten oder was auch immer.

Jocotty schrieb:
*hust* Thermi war schonmal nen toller "Rest" *hust*

Das ist mir doch schon wieder Rumgebashe.

karamba schrieb:
Die GTX460 ist doch 'ne tolle Karte!?

Die 470 auch!? :freaky:
 
Die GTX460 ist doch 'ne tolle Karte!?
Echt, für mich ist sie nix.

-Vorallem viel zu langsam (darum auch die OC Modelle so beliebt)
-zu späte Vorstellung, (die hätte man schon Q4 2009 gebraucht)
-HD 5000 ist immer noch viel effizienter, schneller
-HD 6000 steht schon vor der Tür

Eine wirklich gute Karte sieht definitiv anders aus. Die GTX 460 ist nur die einzige Fermi die überhaupt kaufbar ist und quasi als OC Modell das High-End bei NV abdeckt und als günstiges Modell mit 768MB alles darunter. Nur weil man bei NV zur Zeit keine andere Wahl hat, ist es keine gute Grafikkarte...

@Topic
Die Präsentation bezieht sich ja nur auf GPGPU, genau so wie es von Fermi anfangs nur GPGPU Infos, Fakten und Vorstellungen gegeben hat. Sieht so aus als ob die Gamer tatsächlich nur noch die mehr oder weniger Reste, leicht abgewandelt abbekommen.

Größtes Ziel bei NV ist wie erwartet, den x86 Markt zu erobern: http://www.pcgameshardware.de/aid,775489/Nvidia-kuendigt-Cuda-fuer-x86-an/Grafikkarte/News/

In der Richtung haben sie auch sehr viele Chancen und dort liegt auch das große Geld. Wird bestimmt besser funktionieren als Larrabee 3/4 oder was auch immer Intel bringt...

Gut das es noch AMD gibt, bin ja schon gespannt was die HD 6000er so drauf haben...
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
-Vorallem viel zu langsam (darum auch die OC Modelle so beliebt)
-zu späte Vorstellung, (die hätte man schon Q4 2009 gebraucht)
-HD 5000 ist immer noch viel effizienter, schneller
-HD 6000 steht schon vor der Tür

- Zu langsam?! Verglichen mit? Die GTX460 hat ein gutes Preis/Leistungsverhältnis. Man bekommt einen guten Gegenwert für's Geld, deshalb ist sie eine gute Karte. Und OC Modelle sind beliebt, weil sie die Karte gut übertakten lässt, so einfach ist das.
- Zu späte Vorstellung? Wen interessiert das zum jetzigen Zeitpunkt?
- HD5000? Kenne ich nicht die Karte. Man sollte schon konkret vergleichen. Ich schrieb ja nicht von einer ganzen Serie, sondern von einem bestimmten Modell. Nebenbei hat nVidia auch ein paar spezifische Vorteile zu bieten (Physix, CUDA).
- Jaja, und danach kommt nVidia wieder. Und? Heute ist heute und morgen ist morgen.

So und jetzt schön weiter an den Fingern saugen. ;)
 
die gtx460 ist eben das was die HD4850 seinerzeit war.

nicht wirklich gut
nicht wirklich stromsparend
dafür aber sehr billig.

wie man sieht, das Blatt kann sich sehr schnell wenden.
man darf also gespannt sein wie es weiter geht.
 
KainerM schrieb:
nVidia war zu G80/G92 Zeiten unschlagbar (siehe HD2900: halbes Jahr später, wesentlich langsamer, mehr Strom, lauter...).

Oktober 2006 wurde die Übernahme ATIs durch AMD abgeschlossen
Mai 2007 gab´s die HD2000 Serie

Was meinste wer für den späteren Erfolg der der ursprünglichen Architektur verantwortlich war? ATI hat den Grundstein entwickelt und sich dabei schon verhaspelt, AMD durfte nach der Übernahme das Eisen aus´m Feuer holen, was ihnen bis Dato recht gut gelungen ist. Hätte AMD ATI nicht übernommen, die 2000er Serie wäre der Sargnagel der Kanadier geworden.

AMD hat hier nun bewiesen, was man zu leisten im Stande ist. Nvidia hatte keine Probleme in der Richtung bis jetzt, nun allerdings müssen die Grünen feststellen, dass man die Konkurrenz unterschätzt hat.

Ich für meinen Teil bin gespannt ob es einen Konter geben wird und wenn ja, wie dieser aussieht.
 
Ich finde es schon lustig wie es einige ins Lächerliche ziehen wie Nvidia denn wissen soll was 2013 sein wird. Und auf der anderen Seite lese ich Kommentare was denn da schon für allzu geniale Chips von AMD "da sein werden".
Meiner Meinung sollten mal alle mit ihrer Kristallkugel daran denken, dass eine Chipentwcklung nicht in ein bis zwei Jahren erledigt ist, sondern, dass man schon jetzt an den übernächsten Generationen arbeitet.
Mmh aber warum dann eben diese Chips der Zukunft nicht schon jetzt raus bringen? Ganz einfach. Die Leistung die solche Chips evtl. erreichen können (Ich sag nicht werden sonst wäre ich auch nicht besser) ist heutzutage absolut nicht notwendig.
Deshalb wird verfeinert und da noch was geändert um es immer weiter zu perfektionieren (Was ja beim Fermi leider nicht geklappt hat) um ein gutes bis sehr gutes Produkt abliefern zu können wenn es benötigt wird.
 
Antimon schrieb:
Was meinste wer für den späteren Erfolg der der ursprünglichen Architektur verantwortlich war? ATI hat den Grundstein entwickelt und sich dabei schon verhaspelt, AMD durfte nach der Übernahme das Eisen aus´m Feuer holen, was ihnen bis Dato recht gut gelungen ist. Hätte AMD ATI nicht übernommen, die 2000er Serie wäre der Sargnagel der Kanadier geworden.

Sehe ich auch so, AMD sowie ATI haben von der Übernahme profitiert.

@Thema:

Also AMD bringt die Southern Islands GPUs auch bekannt als HD7000er-Serie ebenfalls 2011 auf den Markt...

Jetzt geht einfach wieder das "herumgegurke" von Nvidia wieder los. Sie versuchen alles, damit man bloß keine AMD Karte der HD6000er Generation kauft, weil Nvidia weiß, dass sie nicht in der Lage sein werden hier zu kontern.

Nvidia liegt mindestens 8-10 Monate in der GPU-Entwicklung hinter AMD zurück, einen Refresh der GTX400er-Serie wird Nvidia mit Sicherheit auch nicht auf den Markt bringen (können), weil sie Zeit benötigen um wieder zu AMD aufzuschließen. Daher wird Nvidia Entwicklungstechnisch alles in Kepler stecken. Gut für AMD und sehr schlecht für Nvidia.

Aber mMn kommt Kepler erst 2012, da muss sich AMD überhaupt keine Sorgen machen.
Ergänzung ()

Crawler18 schrieb:
Ich finde es schon lustig wie es einige ins Lächerliche ziehen wie Nvidia denn wissen soll was 2013 sein wird. Und auf der anderen Seite lese ich Kommentare was denn da schon für allzu geniale Chips von AMD "da sein werden".

Das liegt daran, dass AMD seit 2008 die Nase vorne hat und seitdem den Abstand Entwicklungstechnisch sogar vergrößern konnten. Es spricht nichts dagegen, dass sich dieser Trend weiterentwickelt oder auch hält. Auch in den letzten Tagen sind Grafikkarten von Nvidia als Konkurrenz zur AMDs HD5770 und HD5750 vorgestellt worden. Die besagten AMD Karten sind aber auch schon seit 11 Monaten verfügbar.

Das hat also nichts mit Kaffeesatzleserei zu tun. Diese Behauptungen basieren einfach auf Fakten. Punkt.
 
Zurück
Oben