News Erscheint Nvidias „Kepler“ als GK104-Grafikchip am 23. März?

Athlonscout schrieb:
Wie kommst du darauf?
Für mich eher schwer vorstellbar, dass Nvidia mit Kepler Perf/W mäßig auch nur annährend wird gleichziehen können.
Immerhin verbraucht eine GCN Karte bis zu 2/3 weniger als eine ähnlich performante Fermi.
Imho ist solch ein Effizienzsprung kaum vorstellbar.


das enttäuscht mich jetzt etwas soviel Halbwissen von dir zu lesen.

Dir ist doch klar, dass Kepler ebenfalls in 28nm kommt. Wie kannste also Fermi als Referenz nehmen?
Und bitte mal den Link zu 2/3 weniger... ^^

Für Nvidia wird es sogar relativ leicht gleich zu ziehen da GCN eher schlechter wurde was die Effizienz angeht. Der 28nm Prozess kaschiert das nur...

Schau die HD7870 an, mehr 10% Transistoren und 10% mehr Takt als die HD6970, aber kaum schneller.
natürlich sparsamer dank 28nm...

Naja, Ende März wissen wir (hoffentlich) mehr, zumindest wie der "kleine" Mainstream Kepler sich schlägt.
 
Zuletzt bearbeitet:
pipip schrieb:
PC-BSD-Marco
PC-BSD ist jz behaupt ich mal nicht so bekannt wie Windows und co...

... kann ja wohl nich warsein

Dabei seit: Jan 2011
Beiträge: 2.259

aktiv, bitte auch mal dann richtig durchlesen :D

es geht um freie Treiber [Linux] & freeBSD 9!
 
Nvidia wird wieder die schnelleren karten liefern.
Aber auf kosten der Strom Rechnung.!
 
Krautmaster schrieb:
das enttäuscht mich jetzt etwas soviel Halbwissen von dir zu lesen.

Dir ist doch klar, dass Kepler ebenfalls in 28nm kommt. Wie kannste also Fermi als Referenz nehmen?
Und bitte mal den Link zu 2/3 weniger... ^^

Das mit dem Halbwissen kommt ja wieder mal vom Richtigen!:D

Wenn du die 550Ti mit der 7750 vergleichst (die ja +-5% gleich schnell sind) sinds ja wie geschrieben bis zu ~2/3 weniger Leistungsaufnahme (40,8W vs 115,5W unter Speilelast!): http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index17.php.

Bedenke auch, dass ich "bis zu" schrieb.

Sicher wird hier Kepler (nicht zuletzt dank 28nm Fertigung) aufholen, für mich aber nur schwer vorstellbar, dass Kepler auch nur annährend an das vorbildliche Perf/W Verhältnis der GCN Karten erreichen kann.

Edit: Anbei auch noch einmal eine Grafik, welche den Rückstand von Fermi ggü HD5xx/6xx/7xx Perf/W verdeutlicht (Link von Zwirbelkatz):
perfwatt_1920.gif
 
Zuletzt bearbeitet: (Edit eingefügt)
bin nur auf den preis gespannt
Warum nur der Preis? Wenn NV also absoluten Mist zum knüller Preis liefert, bleibts weiterhin absoluter Mist :)

Ich bin in erster Linie auf Performance/Watt gespannt und ob sich auch bei NV endlich im Idle Bereich mehr tut. Ob die Performance dann mit den neuen Radeons mithällt? Mal gucken. Interessant währe noch ob ein High End Modell von NV erscheint.
 
http://www.heise.de/newsticker/meld...-Technik-und-kommt-noch-im-Maerz-1465891.html

Sieht nach lupenreinem Paperlaunch aus, wenige Chips und nicht alle Boardpartner werden beliefert......

Und so wie es aussieht hatte Charly recht: GK104 GTX680 in a week.

Und die Interpretation, wenn das Teil GTX680 heisst, gibts Probleme in der Produktion, sprich der GK110 ist in weiter Ferne, scheint sich zu bewahrheiten, wenn noch nicht mal der "kleine" Chip für NV produzierbar ist.
 
Zuletzt bearbeitet:
hmm langsam meine "spekus" zusammen suchen ich muss :D

10 Prozent in BF3 lassen doch gute stimmung auf kommen, obwohl es da wieder Leute gibt die würden sagen 15-20% sind doch nix, da kannste gleich die alte gen übertakten und hast mehr davon..

Die Hoffnung stirbt zuletzt!
 
thethinthing schrieb:
10 Prozent in BF3 lassen doch gute stimmung auf kommen...

Auch hier gilt wohl wie immer die Glaubwürdigkeit von Herstellerbenchmarks anzuzweifeln.;)

Mit einem Turbo bei Grafikkarten kann ich mich nicht wirklich anfreunden. Könnte gerade in rechenintensiven Games zu vermehrten Framedrops führen.
Zudem, wenn ich richtig verstanden habe, wird dadurch eine effektive Übertaktung herstellerseitig wirkungsvoll unterbunden.
 
Athlonscout schrieb:
...
Mit einem Turbo bei Grafikkarten kann ich mich nicht wirklich anfreunden. Könnte gerade in rechenintensiven Games zu vermehrten Framedrops führen.
Zudem, wenn ich richtig verstanden habe, wird dadurch eine effektive Übertaktung herstellerseitig wirkungsvoll unterbunden.
mööp, hier stand was, was bernd n schon gepostet hat *blush*
trotz dieser turbo funktion ist ein übertakten sicherlich möglich. spätestens wenn man den turbo deaktiviert (dürfte sicherlich durch treiber einstellungen möglich sein).
allerdings frage ich mich, ob diese funktion überhaupt sinnvoll ist. bei spielen wo die gpu den turbo einlegen kann, sprich sich langweilt, ist die performance im ergebnis doch schon hoch genug (bei älteren spielen beispielsweise). neue spiele hingegen, die die gpu herausfordern ... , tja, die fordern die gpu heraus und das ding läuft eh am anschlag

mir erscheint dieses turbo fature wie eine mogel-packung, um im media-markt / saturn prospekt die featureliste zu verlängern, ohne einen echten gegenwert zu liefern.


was mich an dem heise artikel auch ein wenig verwundert, sie sprechen in einem satz vom gk104 und der gtx680. hab ich bisher alles erschienene zu kepler so falsch interpretiert, dass die gk104 doch der vollausbau für die gtx680 ist?
 
Zuletzt bearbeitet:
Athlonscout schrieb:
Auch hier gilt wohl wie immer die Glaubwürdigkeit von Herstellerbenchmarks anzuzweifeln.
Ist sie nicht. Weder AMD noch NV noch Intel faken Benches - ist halt überall "nur" cherry picking.

Athlonscout schrieb:
Mit einem Turbo bei Grafikkarten kann ich mich nicht wirklich anfreunden. Könnte gerade in rechenintensiven Games zu vermehrten Framedrops führen.
Drops hast du mit Powertune auch, CB hatte das iirc bei Dragon Age 2 sogar. Turbo gab's schon zu Zeiten der 9800 XT - du kriegst im best case mehr Fps, im worst case aber nicht weniger. Turbo ist ein Plus auf die stock clocks, Powertune und Containment ein Minus.
 
@y33H@

Ich hinterfrage bzw bezweifle grundsätzlich alle Herstellerbenches (egal welchen Herstellers)!

Gerade bei Benches kann man sich die Ergebnisse (durch Settings, Szenenwahl) legen, wie es dem entsprechenden Hersteller gerade schmeckt.
Das müsstest du als jemand der selbst professionell bencht doch bestens wissen.;)

Mal schauen wie sich der Turbo auswirkt und ob man solchen imho unnötigen Schnickschnack treibermäßig beeinflussenn kann.

Entgegen deiner Annahme halte ich es aber für durchaus denkbar, dass es je nach Game und Szene zu Framedrops kommen kann. Klar aber, da gebe ich dir Recht, mutmaßlich wird die Leistung nie unter den Standardtaktraten liegen. Gerade aber bei fordernden Szenen wird der Turbo wohl versagen, so dass man solchen "Innovationen" auch kritisch gegenüberstehen kann. Wenn ich aber fps-mäßig im spielbaren Bereich liege wird wohl durch den Turbo nur unnötig Energie verballert (flüssiger als flüssig ist ja überflüssig:evillol:) - die TDP muß ja unbedingt ausgenutzt werden.:rolleyes:

Mal schaune wie Nvidia dieses Thema in der Praxis umsetzt.
 
Zuletzt bearbeitet:
Update 23:14: Wie die Kollegen von Heise.de auf der Cebit erfahren haben wollen, scheint der Produktname GTX 680 für die erste Kepler-Karte nun doch gesichert. 2 GiB VRAM sollen angebunden sein an den GK104. Eine Neuerung ist dem Bericht zufolge eine Turbo-Core-ähnliche Technologie. Kepler-Grafikkarten sollen dynamisch ein vorgegebenes Budget für die Leistungsaufnahme ausschöpfen können, indem Taktraten je nach Lastsituation angepasst werden. Zum Marktstart der GTX 680 soll es keine Overclocking-Versionen geben, diese würden ebenso folgen wie GK107-basierende Mittelklassekarten sowie eine Dual-GPU-Version auf Basis des GK104.

------
Am 12. März 2012 soll das Geheimnis rund um Kepler und den GK104-Chip gelüftet werden. Doch bereits jetzt sollen die mutmaßlichen Spezifikationen einer Nvidia Geforce GTX 680 durchgesickert sein. VR-Zone (China) berichtet über den Launch und sie Spezifikationen einer 28 Nanometer-Karte, die global am 23. März erhältlich sein soll. Der nicht näher genannten Quelle zu Folge soll diese Grafikkarte über 1.536 Stream-Prozessoren verfügen und einen GPU-Takt von 705 MHz aufweisen. Der Alu-Takt soll bei 1.411 MHz liegen. Die 2 GB GDDR5 (256bit) Speicher wiederum sollen mit 1.502 MHz takten.


http://www.heise.de/newsticker/meld...-Technik-und-kommt-noch-im-Maerz-1465891.html

o.O

1536 Shader? 3x GTX580? Midrange? Ink Hot Clock... + Turbo... das kann ja was werden. Jetzt bin ich gespannt :D

Vom großen GK110-Chip, der Gerüchten zufolge 2304 Shader-Rechenkerne enthalten soll, ist bis zum Sommer nichts zu sehen.
 
Zuletzt bearbeitet:
Here is the first true-color picture of the GeForce Kepler 104 (GK104) reference PCB shot in full (well, almost, excluding the uneventful PCIe bus connector). The picture provides a panoramic view of the card's VRM as shown in a drawing posted earlier this day, and reveals the strange double-decker power connector. The card is loaded with a 5-phase NVVDC configuration, as detailed in an older article. It also confirms that the GK104 has a 256-bit wide memory interface, with likely 2 GB standard memory amount. This is also the first picture of the GK104 ASIC, which has square package, and somewhat square die. While the PCB is green in color, it's most likely an engineering sample. The final product (branded GeForce GTX 680 / GTX 670 Ti), could have a black-colored one.

22a.jpg
 
Was man leider auch aus den Gerüchten ableiten kann ist, dass falls Nvidia die Karten so platziert oder platzieren kann, es keine großen Unterschiede geben wird. Beide Hersteller können vorerst die Hand aufhalten, die werden sich schon irgendwie einigen.
 
@ Krautmaster

die rechnung geht so nicht auf ... wer auch zu schön um wahr zu sein. ^^
dennoch für einen performance-chip respektable daten als auch wohl leistung.
@ DX11 sollen "die dinger" wohl ihre stärken sehr gut ausspielen können.
was mich aber ebenfalls brennend interessiert, ob das womögliche leistungsniveau
auch @ DX9 & 10 gehalten werden kann ...

@ quotenkiller

der vollausbau (high-end) wird erst noch folgen ... ;)
 
Je nach Leistung wird die neue Generation der Nvidia Karten sich im Preisgefüge einpflegen. Da wird nichts günstiger werden. Wer damit rechnet, wird nach meiner Vorstellung sauber enttäuscht werden.
Wenn man sich mal eine 550 und eine 5770/6770 anschaut, müsste doch Nvidia die 550 mindestens um 20€ senken, aber nein es ist nicht so. die 550 geht für 95€ ran, eine 6770 für 85€. Nvidia freut sich über die gestiegenen Preise durch AMD und Nvidia wird sicher nicht bei gleicher Leistung günstiger als AMD verkaufen wollen. Zudem ist Nvidia immer noch viel stärker im Markt der separaten Grafikkarten vertreten als AMD.
 
http://www.gamesindustry.biz/articles/2012-03-08-gdc-epic-aiming-to-get-samaritan-into-flash

Speaking of the "Samaritan" demo, Rein noted that when they showed it off last year, it took three Nvidia cards and a massive power supply to run. However, they showed it off the demo again that ran using a new, not yet released Nvidia card and one 200 watt power supply.

Die haben sicher FXAA verwendet, darum dreht sich ein guter Teil des Artikels. Und die Demo wurde wahrscheinlich auch weiter optimiert, vielleicht gezielt für Kepler.
http://www.geforce.com/News/article...-running-on-next-generation-nvidia-kepler-gpu

200W ist verdammt wenig, selbst wenn es nur für die Karte wäre.
 
Zurück
Oben