News Kommt Nvidias „Kepler“-GPU im ersten Quartal 2012?

Fritzler schrieb:
F
PS: Kann Nvidia nicht mal aufhöhren schlechte Produkte nach guten Wissenschaftlern zu benennen?

P.S. merkst du nicht was du für SCHWACHSINN schreibst ? :stock:
 
naja die DIE-Fläche von SI sollten doch x-fach größer sein als die von Nvidias "Kepler", oder?

Wäre schon komisch wenn dann bei Kepler am Prozess scheitert, aber AMD seine 28nm GPU releasen kann.

Eher anders herum.
 
aylano schrieb:
Aber diese Firma hat noch keine Erfahrung mit fertigen & funktionierenden selbstproduzierten GPUs.
In deinen Worten, diese "GPU"-Abteilung existierte bis vor kurzem nicht und muss erst mal schaffen, GPU zu fertigen.
GF hat bereits entsprechendes KnowHow eingekauft. Die müssen das also nicht ausm Boden stampfen.

aylano schrieb:
Wäre eine Möglichkeit, aber es wäre ein "großer" Schritt mal Mid-Range-Chip vor High-End rauszubringen.
Hat AMD doch schon. Erst kam die HD6870 raus und erst später die HD6970.


aylano schrieb:
Bei 55nm-->40nm hatte Nvidia schon vorher 40nm-GPUs entwickelt und konnte mehr Wafer als AMD bestellen, sodass AMD nicht genug 40nm-Wafer bekommen konnte.
AMD etwa nicht? Die HD4770 war in 40nm. Also hatte AMD schon lange vor Nvidia eine 40nm GPU raus. AMD ist vermutlich nur davon ausgegangen, dass Nvidia früher mit dem Fermi kontert und der besser wäre, als es letztendlich war. Hätte der Fermi terminlich und leistungsmäßig den Erwartungen entsprochen, dann wäre der Absatz an GPUs bei AMD weit geringer gewesen und die reservierten Fertigungskapazitäten hätten gereicht (abgesehen von den Fertigungsproblemen, die zwischendurch komischerweise zunahmen).


aylano schrieb:
Das hätte erhebliche Auswirungen auf die Konkurrenzfähigkeit & Marktanteiel, weil dann AMD alle 28nm-Wafer für sich beanspruchen kann.
Die Fertigungskapazitäten sind vermutlich schon lange reserviert. Das wird sich nicht erst kurz vor Markteinführung entscheiden.

Krautmaster schrieb:
naja die DIE-Fläche von SI sollten doch x-fach größer sein als die von Nvidias "Kepler", oder?
Natürlich. Wobei X aber auch <1 sein kann ;)
 
Wenn ich mir die äußerst armselige Performance aktueller High-End-Karten bei Crysis 2 auf "Ultra" mit DX11-Effekten so anschaue, dann wird es höchste Zeit für eine schnellere Generation !

Selbst die GTX 580, eine 380 €-Karte, kriecht bei The Witcher 2 (was noch nicht mal DX11-Effekte hat !) und Crysis 2 DX11 nur auf allen vieren rum und dümpelt bei höchstens 40 FPS rum :freak:

Von daher ist es fast schon größenwahnsinnig, wenn alle PC-Gamer nach besserer Optik schreien - wenn die schnellsten High-End-Karten bereits bei oben genannten Spielen jämmerlich versagen - noch bessere Optik und man ist bei anspruchsvollen Szenen im einstelligen Diashow-Bereich, na Bravo :rolleyes:

Bezeichnend alleine die Aussage von Crytek, daß man Tesselation nur recht sparsam einsetzen kann, weil die Grafikkarten für noch mehr Tesselation viel zu wenig Leistung haben würden.
 
@Sidewinder9000:
"noch bessere Optik und man ist bei anspruchsvollen Szenen im einstelligen Diashow-Bereich, na Bravo"
Recht haste..
Daumenkino braucht wirklich keiner.
Ich will mir aber auch nicht jedes Jahr eine neue Karte kaufen müssen.
Das wird mir langsam alles zu teuer.
 
Spike93 schrieb:
Dürfte denn AMD alle für sich alleine beanspruchen ?
Wenn die Konkurrenz oder sonst wäre keine Bestellt, ja.

Wobei, da gäbe es noch die 28nm-LP-Fertigung-Konkurrenz (ARM-Smartphones)

DVD_ schrieb:
Ich glaub nicht an 28nm High End in 2011.
Weder von AMD, noch von Nvidia.

Ausser natürlich AMD wiederholt das betriebswirtschaftliche Desaster aus 2009
und verkauft ihre High-End wieder für +/- 0.
Das Betriebswirtschaftliche Desaster von 2009 hatte andere große Vorteile.
So konnte die Performance-GPU (RV840) sowie Low-End & Mainstream Anfang 2010 gestartet werden, da diese von High-End "abgeleitet" wurden.

Abgesehen von der gefühlten großen 6 Monat-Verspätung von Fermi

Lost_Byte schrieb:
GF hat bereits entsprechendes KnowHow eingekauft. Die müssen das also nicht ausm Boden stampfen.
Das stimmt schon.
Erfahrungen gibts mit HP schon durch den Charterd-Fertigungs-Zukauf.
Aber trotzdem müssen die das in Dresden mal zusammenbringen.
Nicht nur, dass dort Teams aufgebaut werden müssen, sondern die müssen die Erfahrungen aus Singapur erst "einmal übersetzt bekommen".

Es ist halt nicht ganz so einfach.
Sonst hätten sie schon 40nm oder 28nm-GPUs produziert.

Nicht zu vergessen.
Zwar verspätet sich Llano & Bulldozer, aber das sind 220mm & 320mm²-Dies.

Also, beträchtlich größer als zumindestens Low-end-GPUs & Mainstream mit 60 & 100mm², die sie schon "längst" in 28nm-GF produzieren hätten können.


Hat AMD doch schon. Erst kam die HD6870 raus und erst später die HD6970.
Gutes Argument
Ja und nein.
Ja, war aber ein kleiner Architektur-Schritt

Nein: Ich denke nicht, dass AMD bei so einem großen Architektur-Schritt (immerhin ist sie so 6 Jahre entwickelt worden und die Zukunft für Fusion) mit Low-end & Mainstream beginnt.

AMD etwa nicht? Die HD4770 war in 40nm. Also hatte AMD schon lange vor Nvidia eine 40nm GPU raus.
RV740 muss du als Probe-Chip für 40nm sehen, was man jetzt nachhinein weiß.
Denn dieser hat keinen Wirklichen Markt.
Zu stromfressend für Mainstream und zu langsam für die Gamer.

Nvidia hat mit GT218 & GT216 zwei wirkliche Massen-Produkte, wo sie Monat für Monat immer mehr Wafer bestellen konnten.

AMD ist vermutlich nur davon ausgegangen, dass Nvidia früher mit dem Fermi kontert und der besser wäre, als es letztendlich war.
Hätte der Fermi terminlich und leistungsmäßig den Erwartungen entsprochen, dann wäre der Absatz an GPUs bei AMD weit geringer gewesen und die reservierten Fertigungskapazitäten hätten gereicht (abgesehen von den Fertigungsproblemen, die zwischendurch komischerweise zunahmen).
AMD sollte Lernen, die Konkurrenz besser einzuschätzen.

Nvidia hat sich schon beim 90nm-->65/55nm-Umstieg erheblich schwerer getan, wo z.B. GT200 in 65nm (1 Jahr nach AMD-65nm-Low-end-&-Mainstream-Chips RV610 & RV630) noch immer nicht den Plan-Takt erreichte.

GT200b-55nm genauso
Dieser brauchte das 3. Stepping um dann denn Plan-Takt zu erreichen. Und das fast 1 Jahr nach RV670-55nm

also, sollte das AMD langsam berücksichtigen können.

Die Fertigungskapazitäten sind vermutlich schon lange reserviert. Das wird sich nicht erst kurz vor Markteinführung entscheiden.

Natürlich. Wobei X aber auch <1 sein kann ;)
Und was passiert, wenn man die reservierten Wafern nicht abrufen kann?
Na ja, es gäbe bei Nvidia neben GPUs auch noch Tegra 4.
 
Dummerweise gibt es nur 2 Hersteller und die können es sich wegen fehlender Konkurrenz einfach leisten, Preise in dieser Größen(wahnsinnigen)ordung für Top-karten zu verlangen.

Dem geneigten PC-Gamer, der alle Spiele auf "max" spielen will, bleibt ja nichts anderes übrig als die geforderte Kohle auf den Tisch zu blättern.

Was will man machen ? Am liebtsten würde ich auch nicht mehr als max. 120 € ausgeben, aber mit ner GTX 460 oder HD 6850 hat man in The Witcher 2 oder Crysis 2 DX11 oder auch Metro 2033 oder Crysis 1 auf "max" und Full HD mit 4 x AA ne Ruckelorgie :(:rolleyes:
 
Ich mach nicht nochmal ein auf versuch kaninchen.Sage nur Fermi !!! Hatte mir die 470 GTX gekauft.Nein Danke.
 
@Sidewinder9000:
Ich habe für mich den Anspruch aufgegeben, auf "max" spielen zu wollen.
Deshalb habe ich mich für eine 6950 und gegen eine 6970 entschieden.
Den Wettlauf mit der Grafik kann ich nicht mehr gewinnen.(allein schon finanziell)
Zum Glück mag ich Crysis 2 nicht, und für Witcher 2 gab es bei der PC-Games-Hardware ein Config-Tuning.
http://www.pcgameshardware.de/aid,8...rch-Config-Tuning/Rollenspiel-Adventure/Test/
Wenn der PC als Spieleplattform attraktiv bleiben will, muss der Aufrüstwahnsinn enden.
 
Zuletzt bearbeitet von einem Moderator:
grafikkarten sind sogar sehr billig :rolleyes: von teuer kann man da in keiner weisse sprechen zb. GTX580 für nicht mal lächerliche 400.- euros bekommt man eine GPU mit satten 3Miliarden Trasistoren, 1,5GB extrem schneller Speicher, ein PCB und noch ein Kühler inkl. software mässig fange ich lieber erst nicht mal an...

vergleich das mal mit einer CPU!!! da ist das silizium schon mal 2/3 kleiner als beim GF110... :evillol:


eine GTX590 ist in anbetracht dieser tatsachen sogar ein richtiges schnäppchen!
 
Zuletzt bearbeitet:
dass es spiele gibt, für die die wahnsinnige rechenleistung einer 5850 oder gtx460 oder noch größerer karten immer noch nicht reicht, liegt an der schlechten resourcennutzung bei der programmierung. für den professionellen einsatz in fast allen denkbaren gebieten wäre eine 8800gt mit 2.048 mb vram mehr als genug, meist völlig überdimensioniert. nur für spiele reicht das seltsammer weise vorn und hinten nicht. ich glaube nicht, dass man die schuld daran bei der hardware suchen muss.
ich hab grafisch schon sehr viel faszinierenderes gesehn als crysis, dennoch ist crysis noch heute eines der grafiklastigsten spiele überhaupt. womit kann man das wohl rechtfertigen?

und zu den fertigungskapazitäten: da kann jeder hersteller so viel reservieren wie er lustig ist. die kapazitäten werden entsprechend den reservierungen geschaffen. allerdings muss das monate im vorraus geschehen. wer sich verkalkuliert, zahlt entweder für reservierte aber nicht genutzte kapazitäten oder steht mit zu wenig kapazitäten da, wenn die nachfrage das angebot übersteigt. jemandem kapazitäten wegreservieren dürfte kaum gehen. noch heute macht 40nm bei tsmc nur einen geringen anteil der gesamtkapazitäten aus. für viele kunden war eine umstellung auf 40nm nicht erforderlich.
 
Wieso geht Nvidia gleich auf 28nm runter? Die sollten doch lieber erst 32nm probieren und anschließend auf 28 runter gehen. Vielleicht hat deshalb AMD keine Probleme, weil sie ja sowieso im 32nm schon produzieren. Naja, abwarten und Tee trinken :D Ich bleibe erstmal 2-3 Jahre bei meiner GTX570 Phantom ö.Ö
 
Zuletzt bearbeitet von einem Moderator:
380€ für high end karten - für heutige verhältnisse bekommt man sehr viel für sein geld .
Und das wird eher immer besser als schelchter .
Zu geforce 3 zeiten hat man für top grakas 500€ hingeplättert.
Und cpus da fang ich gar nicht an 95€ für nen phenom II is ja quasi schon nen schnäppchen bzw nen 2500k der sich so locker auf 4,5-5ghz takten lässt.
Da werden selbst die alten 333 cells oder 2,5er Bartons neidisch :D

Ihr jammert ja auch nicht weil nen ferrarie oder lambo 200k + kostet mimimi typisch unsere konsumgesellschaft.
Wenn die HArdware euch zu teuer ist dann kauft doch ne konsole ?

Genauso spiele zu P90 Zeiten haben games aufm pc standardmässig 71€ gekostet von daher sind die heutigen games mit 45 € auch nicht mehr wirklich so teuer im verhältniss ;)

Und beim stromverbrauch der geht auch nicht mehr wirklich so extrem nahc oben sondern bleibt halt eher gleich aber die leistung steigt von daher kann man durchaus von einem besseren Leistung/W verhältniss mit jeder Gen sprechen (Ausnahme natürlich der Fermi) aber die 460 hats ausgebügelt und nu mit der 5xx is nvidia wieder naha an amd dran.
 
Zuletzt bearbeitet:
Wenn der PC als Spieleplattform attraktiv bleiben will, muss der Aufrüstwahnsinn enden.
Wenn man gezielt die Meilensteine abgreift hat es nie einen Aufrüßtwahn gegeben und 90% der Zeit hat man die Details auf max. muss also auf nichts verzichten, noch dazu hat man quasi immer die aktuelle APU, also Feature Set zb:
Athlon 64(Hammer)-> Core 2 Quad -> Sandy/Ivy/Bulldozer?
Radeon 9700 (DX 9) -> 8800GTX (DX 10)-> GTX 580 (DX 11) -> (Maxwell DX 12?)

Die Scharmützel dazwischen(DX 10.1/dualcore) waren teilweise reine Geldverschwendung und man kommt da sehr schnell dann in einen Kreislauf in dem man sehr oft nur marginal aufrüstet. Meist zur Folge das man das halbe System gleich mit wechseln muss.


Würd mich sehr wundern wenn so ein Monster Chip so schnell noch dieses Jahr fertig wird. Der wird sich wohl bis 2012 verschieben, ich glaube sogar das es diesmal Mitte nächsten Jahres werden könnte. Ausgehend davon das man gleich 28nm haben will und die Probleme im Vergleich zu 40nm sogar noch zunehmen.
 
Zuletzt bearbeitet:
marcelino1703 schrieb:
Wieso geht Nvidia gleich auf 28nm runter? Die sollten doch lieber erst 32nm probieren und anschließend auf 28 runter gehen. Vielleicht hat deshalb AMD keine Probleme, weil sie ja sowieso im 32nm schon produzieren. Naja, abwarten und Tee trinken :D Ich bleibe erstmal 2-3 Jahre bei meiner GTX570 Phantom ö.Ö
32nm-Bulk wurde sowohl von Globalfoundries als auch von TSMC gecancelt.

Und 32nm-SOI ist was anderes als 32nm-Bulk.
 
stev0 schrieb:
also ich find die GTX 460 super wenn man damit auf nen 22" zockt, alles darüber muss ich leider zustimmen ist ne ruckelorgie aber Crysis 2 auf allen max einstllungen konnte ich gut zocken.

Klar und auf deinem Handy läste den gesamten Börsenhandel der Amis laufen.

Also auf nem 24 zoll bildschirm hat selbst ne 560 Ti oder 6850 bzw 6950 Probleme Crysis 2 auf ultra DX11 abzuspielen.

ne 460 schafft crysis 2 dx 11 fullhd nie und nimer über 35 fps
 
Nvidia konnte den Termin für die Fermi,s schon nicht halten,und als er dann da war konnte er nicht so recht überzeugen,mir tun echt alle leid die sich eine 470-480 gekauft haben.
 
matty2580 schrieb:
@Pickebuh:
"Bin mal gespannt wie sich AMDs neue/alte Architektur gegenüber der von NVIDIA schlägt."
Da würde ich mir keine Sorgen machen.
Im Bereich Grafikkarten von AMD/ATI sieht es sehr gut aus. Ich habe meine 6950 bei Neckermann gekauft(wegen möglicher Ratenzahlung). Und letzte Woche waren alle 6970 ausverkauft. Von den 6950 gab es nur noch eine von XFX. Dagegen waren die Verkäufe von 560Ti, und 570 "übersichtlich". Bei AMD Prozessoren sieht es dagegen ganz anders aus. Wenn Bulldozer mögliche Käufer nicht überzeugt, sehe ich schwarz für AMD.
Zu möglichen TDP kann ich nichts sagen. Da kann man nur hoffen, dass es besser wird.

Du kaufst wirklich Hardware die in 4 Monaten schon nichts mehr wert ist auf Raten?:freak:
 
@terraconz:
"Du kaufst wirklich Hardware die in 4 Monaten schon nichts mehr wert ist auf Raten?"
Nichts mehr wert ist doch etwas überzogen.
"Die Frage ist nur ob ich zwischendrinnen nochmal auf ne 580 wechsel oder nicht."
Hätte ich mir eine 580 geholt, und Nvidia bringt Kepler in 7 Monaten raus, dann hätte ich mich geärgert.
Deswegen ja auch eine 6950. Ratenzahlung muss ich machen, da ich nicht so viel Geld übrig habe.
Deswegen freue ich mich auch nicht über immer mehr steigende Hardwareanforderungen.
Würdet Ihr es nicht besser finden, wenn eure Hardware nicht ganz so schnell veraltet?
Die GameStar hat diese "Hardware-Spirale" 2007 im Artikel "Der PC verliert als Spielgerät an Boden" beschrieben:
http://www.gamestar.de/specials/reports/1476123/das_ende_des_pcs_p4.html
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben