News Erscheint Nvidias „Kepler“ als GK104-Grafikchip am 23. März?

auf dem Level von HD 7870 oder HD 7950 liegen bei ähnlicher Leistungsaufnahme.
Wow, da bist du ja ordentlich optimistisch, zugegeben das wegfallen des hot clock und mehr Kerne könnten das ganze effizienter machen, aber auf AMD aufschließen... Das gabs zuletzt bei HD 4000 v. GT200 bzw. da wars genau anders rum, ATI hat aufgeschlossen, da bin ich mal gespannt ob deine Glaskugel Recht hat. Einen ordentlichen Preiskampf wünschen sich so einige hier im Forum und das geht wohl nicht wenn NV nur ein bisschen schneller ist.
 
Athlonscout schrieb:
Wie kommst du darauf? Für mich eher schwer vorstellbar, dass Nvidia mit Kepler Perf/W mäßig auch nur annährend wird gleichziehen können. Immerhin verbraucht eine GCN Karte bis zu 2/3 weniger als eine ähnlich performante Fermi. Imho ist solch ein Effizienzsprung kaum vorstellbar.

Nun, erstens ist es eine Schätzung ("wird wohl"). Zweitens hat NV bestimmt nicht so viele Design Wins mit IVB DT wenn Kepler eine Stromschleuder ist. Davon ab hat NV mit Fermi in Sachen Tessellation, GGPU und Co. vorgelegt, was sich im Transistor-Count und der Leistungsaufnahme niederschlägt - AMD ist diesen Schritt erst mit GCN endgültig gegangen. Das führt uns zu viertens: NV hat mehr Optimierungspotenzial, der Effizienzschritt ausgehend vom Fermi zu Kepler ist größer als von Northern Islands zun GCN. Fünftens nutzen AMD und NV den gleichen Prozess, es ist daher sehr wohl vorstellbar, dass unter gleichen Voraussetzungen ähnlich schneller Grafikkarten auch ähnlich viel Strom konsumieren - zumindest im Mittel mit plus minus ein paar Prozent.

Wenn es NV natürlich vergeigt, ist das auf den ersten Blick schlecht - später erscheinen, nicht schneller sein und mehr Strom saufen ist fei blöd. Allerdings konnte NV in der Vergangenheit gut wirtschaften, daher auch die Kopplung von GK107 mit IVB DT und angeblich steckt die Kombi im kommenden MacBook. Und genau hier wird die fette Kohle gemacht und nicht bei den paar Grafikkarten über 400 USD. Wir können gerne nach dem Launch darauf zurück kommen, aber alles mir Bekannte spricht dafür, dass NV mit Kepler eine sehr effiziente Generation auf den Markt bringen wird - selbst Charlie Demerjian ist dieser Ansicht.

@ Kasmopaya

Wenn GK104 nicht mindestens die HD 7870 erreicht bei ähnlichem Stromverbrauch, dann wird das Image der Karten noch schlechter als Fermi - was NV bestimmt nicht schmecken dürfte. Nun, mir ist's gleich, denn ein GK104 ist mir zu lahm ^^
 
Zuletzt bearbeitet:
thethinthing schrieb:
Also wenn eine 660ti ;) schneller als eine 7950 wird weniger kostet und weniger verbraucht dann hut ab! Immerhin zieht die 7950 schon 10% weniger aus der Dose als eine 560ti und rendert dabei im Schnitt 50% schneller.
...

ich vermute eher, dass die beiden vergleichbar schnell sein werden, ohne jetzt auf technische details zu achten.
einfach davon ausgehend, dass der obere rand der midrange karten der folge generation, in etwa die gleiche leistung bringt, wie die top karte der vorherigen generation. (aus der historie der vergangenen jahre heraus betrachtet und extreme ausreisser, positive wie negative, einfach ignorierend). und natürlich unter berücksichtigung der keannten benchmarks der gtx580 und der amd 7950.
bezüglich der leistungsaufnahme bleibt regulär es in etwa unverändert, bezüglich des entsprechenden vor-generationen models. wobei der die-shrink natürlich dann noch mal als positiver effekt zuschjlägt und den verbrauch senken dürfte.

die frage dürfte eher sein, wo sich die 660ti eher einordnen wird, bei der 7950, oder bei der noch kommenden 7870. (mehr oder weniger performance kann natürlich möglich sein, würde mich aber beides doch ein wenig verwundern, wenn nvidia nicht wieder so einen kracher bringen sollte, wie es bei der gtx8800 der fall war, oder so eine schlappe, wie mit der fx 5xxxx)

die gtx680 dürfte auf jeden fall schneller werden, als die 7970. fraglich ist nur, wie sparsam die karte sein wird. je nachdem könnte es einen preiskrieg lostreten, oder amd bringt eine art 7970 "ultra" raus, die bei der energieaufnahme die schüchternheit zugunsten von takt über board treten wird, und sich in noch höheren preiskategorierien aufhalten wird.


aber letztendlich ist doch, mal wieder, alles spekulatius. klar dürfte lediglich die ungefähre fläche des gk104 sein (ausgehend von dem bild des pcb, und dass nvidia 2 stromanschlüsse stapeln wird.
 
Zuletzt bearbeitet:
PiPaPa schrieb:
Ein Design Win hat nichts, aber auch rein gar nichts mit der Energieaufnahme oder Performance pro Watt zu tun.
Ich fürchte, da muss ich widersprechen - gerade im mobilen Segment ist perf/watt sehr wichtig und Geräte mit effizienten Chips mögen die Hersteller gerne.
 
Das kommt doch auf das Produkt und dessen Platzierung im Portfolio an.
Wenn die Hersteller jetzt tonnenweise Desktop Replacements oder Workstation NBs mit Keppler rauskloppen würden und es dadurch tonnenweise "Design wins" gibt bedeutet es ja nicht das Performance pro Watt vorhanden ist.

Ein Design Win sagt lediglich etwas über die Beliebtheit bei einem Hersteller in dessen Portfolio etwas aus, aber nichts über irgendwelche technischen Spezifikationen.
 
Fünftens nutzen AMD und NV den gleichen Prozess, es ist daher sehr wohl vorstellbar, dass unter gleichen Voraussetzungen ähnlich schneller Grafikkarten auch ähnlich viel Strom konsumieren - zumindest im Mittel mit plus minus ein paar Prozent.
LOL, da macht dir die komplett unterschiedliche Herangehensweise bzw. die zu unterschiedlichen Architekturen einen Strich durch die Rechnung. Meiner Meinung nach hast du da zu viel über einen Kamm geschert. NV braucht ein Wunder um auch nur den Effizienz Abstand zu verringern, da GCN nochmal stark an Effizienz zugelegt hat, hätte AMD auf dem Gebiet geschlafen würde ich NV auch Chancen einräumen, aber so...



selbst Charlie Demerjian ist dieser Ansicht.
Ach ja dann passt ja alles und "Fermi is broken and unfixable" -> für Elektromüll geht meine GTX 580 3GB aber ganz schön ab.

Ich fürchte, da muss ich widersprechen - gerade im mobilen Segment ist perf/watt sehr wichtig und Geräte mit effizienten Chips mögen die Hersteller gerne.
Stimmt, dort ist P/W eigentlich alles, allerdings ist der OEM Vorteil(sich viele Aufträge schnappen, allein durch den Namen) von NV auch der Grund warum die so viel Kohle machen im Gegensatz zur GPU Sparte von AMD. Von dem her dann doch wieder nicht so aussagekräftig. Kepler und ein Effizienzmonster -> Wer an Wunder glaubt...

Auf jeden Fall gibt AMD weiter Gas, SGSSAA wird erwachsen, kaum zu glauben, das nächste was NV aufholen muss, LOD unter DX 10/11. Genialst! (das gilt jetzt nicht für y33h@, für dich sind das wohl alte News;))
http://www.pcgameshardware.de/aid,8...reiber-bringt-LOD-Anpassung/Grafikkarte/Test/
 
Zuletzt bearbeitet:
@ PiPaPa

Wenn du meinst *Schulter zuck* ich wage schlicht zu behaupten die Design Wins sich (auch) auf die Effizienz zurück zu führen.

@ Kasmopaya

Warten wir es ab, ich gehe aber davon aus, dass Kepler effizienter wird als Fermi in hypothetischen 28 nm - dafür spricht unter anderem der Verzicht auf den Hotclock. Was Charlie anbelangt - dort berechnet Fermi ja Tessellation via Software :p

Die LOD-Sache ist schon einige Tage bis Wochen her, aber erst der geleakte Treiber gestattete einen Bericht ... vorher.
 
Zuletzt bearbeitet:
Nun, erstens ist es eine Schätzung ("wird wohl"). Zweitens hat NV bestimmt nicht so viele Design Wins mit IVB DT wenn Kepler eine Stromschleuder ist.

Das kann aber auch an Optimus liegen.

dass NV mit Kepler eine sehr effiziente Generation auf den Markt bringen wird

kann man sich ja nur freunen, das AMD dann wieder Nachlegen muss :D (optimieren)

Ein Design Win sagt lediglich etwas über die Beliebtheit bei einem Hersteller in dessen Portfolio etwas aus, aber nichts über irgendwelche technischen Spezifikationen
Das ist auch der grund warum Trinity soviele Design wins hat.

AMD hat zwar auch etwas ähnliches wie Optimus, nur hat sich NV früher am Markt damit durchgesetzt, und das mit Intel. Das wird denk ich auch ein Grund sein wieso man Kepler verbaut.
 
Zuletzt bearbeitet:
Was so gesehen aber auch Effizienz bedeutet ;-)
 
pipip schrieb:
Das kann aber auch an Optimus liegen.

Ja das ist ein wichtiges Argument, das auch gern genommen wird. Und das gilt ja auch schon als sicher, das es weiter genutzt wird. Leider hat AMD da immer noch nix, was auch nur ansatzweise so reibungslos funktioniert. Und es rockt halt wirklich, ka warum das von AMD nicht so will, wo man ja doch auch in Sachen Stromverbrauch ordentlich was macht. Das Zero-Power-Feature bei den Desktop-Karten ist ja total nice, jetzt noch was ordentliches für Notebooks, dann wird das auch. Aber da kommt halt auch erstmal haufen umgelabelter alter Kram, also das wird dauern.

Deahalb wird es wohl erstmal so wie bei Sandy Bridge: Die Hersteller greifen zur Kombi aus Intel-CPU (Ivy Bridge) und Nvidia-Grafik. Deshalb war genau das ja auch Nvidias Ziel, dort zum Start direkt präsent zu sein. Sie wissen um ihre Stärken und eben bisher auch einzigartigen und massenhaft erprobten Features dort.
 
Das Zero-Power-Feature bei den Desktop-Karten ist ja total nice

Eigentlich das was die APU vor der HD 7000 schon konnte.
Eine APU sollte billiger und effizienter sein als IB+ Kepler, aber auch nur bis zu einer gewissen performance Grenze. Dannach ist eben die IB+Kepler interessanter, schneller. (außer man nimmt irwie hybrid cf ins spiel, aber ich persönlich würde nur APU only kaufen wollen)

Mir persönlich ist die schnellste Grafka egal. Kann AMD oder NV die schnellste Karte besitzen. Für die Firma ist das halt Werbung. Für manche ein muss, mich interessiert dass man die Mittelklasse gut aufstellt, denn da wird am meisten gekauft, und auch hier würde ich zugreifen.
Deshalb ist es wichtig das die erste NV auch einen guten Eindruck macht.
 
Zuletzt bearbeitet:
Ja nur hatten die APUs wieder andere Probleme^^
Es fehlt im Zusammenspiel mit Ivy Bridge halt ein AMD-Feature wie Optimus. Und zwar wirklich so, also total easy, einfach ohne Probleme und selber groß von Hand steuern. Dau-sicher einfach^^ Dann hast du da auch Erfolg mit den diskreten Grafiklösungen in dem Markt, der wohl der wichtigste sein wird.

Hybrid CrossFire ist ne tolle Marketing-Sache, aber da gibs so viele Einschränkungen und Macken, das es am Ende bisher doch quasi nie genutzt wird. Ob sich das mit Trinity ändert bezweifle ich stark.
 
Volker
Versteh nicht ganz, eine APU kann ja auch die igp deaktivieren. Mich würde es nicht wundern wenn Trinity, igp, und module deaktivieren kann um Verbrauch zu reduzieren. Bsp Desktop, surfen => ein Modul +gpu niedriger Takt. Desktop dreht sich ab, igp dreht sich ab. Startet ein CPU lastiges Programm => turbo. Startet Game GPU boost, cpu in standard Takt.
Also für mich klingt das wie Optimus. Bei normalen gebrauch IB gpu. Zocken Kepler.
Nur wird man wenn es um games geht, eben nur bis zu einer gewissen Kepler-Model mithalten, eventuell weniger verbrauchen, oder gleich viel oder weniger, man weiß ja ned wie effizient kepler ist.
Nur bin ich mir sicher dass trinity günstiger ist.

Hybrid CF besser wird... vllt eine spur da die igp schneller wird (HD7660, näme jz bewusst Desktop namen, weil die vom Notebook noch nicht bekannt sind) HD 7660 ist näher an einer 6670 als die 6550.
Das Problem war ja das ständige warten auf die igp.
Aber ja es wird nur für die Interessant sein, denen Mircoruckler egal ist, bzw ned auffällt, ich selber, will einfach ein kühles leises Gerät, mit dem man, wenn man mal bei freunden ist, auch spielen kann.
 
Ich verstehe die Diskussion jetzt nicht. Niemand interessiert sich für AMD im Notebookmarkt, wenn man mehr als 400€+ ausgeben will. Trinity wird von der CPU-Leistung nichtmal annährend mit IB mithalten und von der GPU-Seite wird man nur noch 20-40% vor IB sein. Viel zu wenig, um damit vernünftig spielen zu können.

Und ab 400€ haben mehr und mehr Notebooks eine diskrete GPU, die man deaktivieren kann. Mit IB + dGPU hat man somit alle Vorteile und keine Nachteile. Wenn nVidia also wirklich an der Effizienz ihrer Architektur gearbeitet haben, dann wird es für AMD umso schwerer auch hier weiterhin 50%+ Anteile halten zu können.
 
Sontin schrieb:
Trinity wird von der CPU-Leistung nichtmal annährend mit IB mithalten und von der GPU-Seite wird man nur noch 20-40% vor IB sein. Viel zu wenig, um damit vernünftig spielen zu können.

YMMD - Trinity wird deutlich mehr als deine 20-40% schneller als IB werden. Rechne mal im Bereich von >100%, je nach Setting auch deutlich mehr.;)

Viele Notebooks werden als Gaming Notebooks beworben, die grafikmäßig einem A8 nicht das Wasser reichen können. Insofern sticht deine Argumentation nicht.
 
Zuletzt bearbeitet:
Sotin
Der nachteil einer nicht APU-Notebooks, ist der Bus, die wärme und es ist teurer.
400 euro ist etwas zu tief gegriffen würde eher 500-600 sagen (Ultrathin bsp). Denn die dgpu von Notebooks sind deutlich langsamer als die der Desktop. Das ist auch der Grund warum beim Desktop nur die HD 6550 hat, bei Notebooks aber 6620G.
Somit mit einem i3 + Kepler die ähnlich schnell ist wie das Trinity Top-Modell sprechen Argumente für die eine und für die andere Lösung. Darüberhinaus wird man wohl zu IB und Kepler oder halt eine ATI greifen.

(und wie bereits erwähnt es gibt auch die Hybrid CF Lösung, was aber nicht für die meisten Interessant sein wird.)
 
Zuletzt bearbeitet:
auf dem Level von HD 7870 oder HD 7950 liegen bei ähnlicher Leistungsaufnahme.

zumindest das ist sehr unrealistisch. Eher auf dem Level der Vorgängerkarten,.. wenn es gut läuft

Nvidia wird alles rausholen, um wieder die Nummer eins bei single-gpu-Karten zu sein. Und sie werden es auch schaffen.
Hoffentlich nicht so krass mit Stromverbrauch erkauft wie bei den ersten Fermi
 
Zuletzt bearbeitet:
Der GK104 vom dem ich spreche ist eine Performance-GPU, der fette GK110 kommt später.
 
Wenn ein Hersteller die Kunden so lange hinhält ist das Produkt meistens nicht gerade toll. Siehe AMD mit Bulldozer.
 
Zurück
Oben