News Kommt Nvidias GK107 im Mai?

KainerM schrieb:
Wollen wir mal realistisch bleiben - das Teil wird max. auf den Niveau einer GTX 550 Ti liegen. Eventuell auch drunter. Bei max. 75W und der Effzienz der GTX 680 gerechnet reicht es für etwa für eine HD7770.

Für eine 7770 wird es wohl nicht reichen. Es ist, abhängig von der Taktung, max das Niveau einer 7750 drin.

Auf jedem Fall interessant zu sehen, welcher Hersteller dann bei vergleichbarer Leistung effizienter ist.
 
Mal gucken, ob die dann auch eine ähnlich gute idle-Verlustlesitung haben wie die HD7750. Da ist nvidia ja noch ein bisschen im Hintertreffen...
 
Interessant wird der Vergleich zu AMDkarten mit 1D Architektur. Cap Verde hat mit 640 Shadereinheiten ja deutlich mehr Rechenleistung, aber Speicherinterface, Füllrate und Rasterizer sind wahrscheinlich bei beiden identisch, vorrausgesetzt die Taktraten sind ähnlich (~1ghz).

Schon bei GK104 vs Tahiti ist die Vergleichbarkeit bei der Rechenleistung ja beinahe gegeben. GK104 hat zwar 25% weniger Shadereinheiten, profitiert aber eindeutig vom hohen Chiptakt und dahergehend höheren Füllraten, Ropleistung und nicht zuletzt vom besseren Dreieckssetup, während Tahiti etwas mehr Shadingleistung hat.

In diesem Vergleich gewinnt da noch klar die Keplerkarte GK104. Weiter unten wäre ich mir da nicht so sicher. Sowohl das bessere Dreieckssetup fällt bei den kleinen Karten weg, weil sie über weniger GPCs verfügen, als auch die Ropleistungsdifferenz, da AMD mit der 7770 auch Taktraten um 1Ghz anbietet und die Rops zum Speicherinterface passen, nicht wie bei Tahiti in einem negativen ungleichmäßigen verhältnis (sind nur 32, müssten 48 sein bei 384bit). Die Hauptvorteile von GK104 treffen also nicht mehr auf GK107 und GK106 zu. Damit dürfte es wieder genau wie bei Fermi sein, wo die GTS450 mehr schlecht als recht gegen die 5770 in Konkurrenz trat, geschweige denn die 550ti gegen 6850 oder 6870.


Was die Architektur GCN vs Kepler angeht kann man grob davon sprechen, dass AMD mit einem guten mainstreamdesign antritt, dass man hochskaliert hat um auch den Highendmarkt zu bedienen und nvidia mit einem guten Highenddesign dass man zusammenkürzt um auch mainstreammodelle anbieten zu können.

Letzendlich fehlt es AMD im Highendbereich zwar nicht an Rechenleistung (shader) aber an Effizienz (trianglesetup + ropleistung) und nvidia im Lowendbereich wird es einfach an Rohleistung (shader, triangle) fehlen.


Sowohl bei GK107 vs Cap Verde (7770) als auch GK106 vs Pitcairn (7870) sehe ich also einen Sieg seitens AMD vorraus.


Ich sehe da möglicherweise einen fehlenden Mehrwert gegenüber integrierten Grafikkernen. Vermutlich wird Trinity schon bis auf 50% an die unterste GK107 Lösung herankommen, im GPGPUsegment vielleicht sogar schneller sein, während Ivybridge wohl auch nur halb so langsam ist wie GK107.* Für den Budgetkäufer stellt sich also klar die Frage ob er nicht mit der IGP solange leben kann bis er sich eine richtige gamingkarte leisten kann.
Das wird deutlich auf den preis von GK107 drücken oder eben die Absatzzahlenstark beeinflussen.



* Trinity had 384 4D kerne die ca. 30% weniger Effizienz als 1D Kerne haben. Geht man davon aus dass die kleine GK107 Variante ebenfalls rund 800mhz Chiptakt hat und nur mit DDR3 ausgestattet ist bleibt da nur ein leichter 1D Effizienzvorteil und minimal mehr Bandbreite für GK107 übrig, bestenfalls 150% performance. Ivybridge ist laut Gerüchten rund 25-50% langsamer als Trinity, also bei etwa 50-75%, da fragt man sich auch ob man für die doppelte Framerate noch extra Geld ausgibt oder lieber das eine oder andere Detail ausschaltet und das Geld für eine GPU komplett spart.
 
Zuletzt bearbeitet:
dasmarci schrieb:
Da stimme ich dir vollkommen zu.

Ist die GK110 dann wirklich das Topmodell? Oder für die Sparkarten à la GTS 520 etc. gedacht?

Ich bin echt gespannt, wie das mit den Nummern von NVidia weiter läuft.
Bald kann es dann ja zu Verwechslungen mit den alten tausender Karten kommen.
Die Lösung: 2-stellige Nummern, würde ja eigentlich auch reichen ;D

1. Die interne Chipbezeichnung hat rein gar nichts mit dem was auf der Verkaufsverpackung steht zu tun !
2. GK1xxx stellt eine Code dar, der die laufende Produktion der immer weiter entwickelten Chips unterscheiden soll. Ob die Zahl nun größer oder kleiner wird, hat für die Endverbraucher keinerlei Bedeutung, denn wie schon gesagt, wird das Produkt nicht als GK104 verkauft ! :rolleyes: Sondern als GTX680 ect.

3. Um es mal zu verdeutlichen anhand der Bezeichnung von GK104.
G = Geforce
GK104

F oder nun K bedeutet Fermi bzw. Kepler.
GK104.

Würde NVIDIA nun schon Maxwell herausbringen, so würde die interne Chipbezeichnung mit GM anfangen, also Geforce Maxwell.
GM104.

Nun zu dem Zahlencode: z.B. GK104
Dieser ist dreistellig und nicht fortlaufend anzusehen !

Die erste stelle zeigt an, welche Keplergeneration verwendet wird, worauf alle Ableger abstammen. Also 1 ist die 1. Generation.
GK104.

Würde NVIDIA statt Maxwell nun einen weiteren Kepler konstruieren wollen, so würde er mit 2 Anfangen.
GK204.

Die zweite Stelle bedeutet eine Überarbeitung oder Refresh. Also 0 steht somit für keine Überarbeitung/Refresh und 1 eben für eine Überarbeitung/Refresh.
GK104.

Die letzte Stelle bedeutet, um welcher Ableger es sich beim Kepler handelt. Wobei NVIDIA als 0 = High-End, 4 = Performance und 6,7 = Midrange bzw. Low-End verwendet.
GK104.

Also wird dieser Code GK104 nun so gelesen:
Geforce-Kepler der 1. Generation, nicht überarbeitet, im Performance-Chip-Desgin.

Ein GK110 würde dann so beschrieben:
Geforce-Kepler der 1. Generation, überarbeitet, im High-End-Chip-Design.

Eine GK214 bedeutet:
Geforce-Kepler der 2.Generation, überarbeitet, im Performance-Chip-Design.
 
Die haben also immernoch kein Audiocontroller :(

Also AMD für Multimedia / HTPC!
 
Athlonscout schrieb:
Für eine 7770 wird es wohl nicht reichen. Es ist, abhängig von der Taktung, max das Niveau einer 7750 drin.

ich habe mich rein auf die Leistungsaufnahme bezogen. Wenn es bei 384 ALUs bleibt, dann hat sie genau ein Viertel der Einheiten einer GTX 680 und damit auch etwa ein Viertel der Leistung. Das wär dann deutlich unterhalb der 7750. Aber da die Spezifikationen für diese Karte noch völlig aus der Luft gegriffen sind habe ich mal optimistisch mit der maximal möglichen Leistung gerechnet. Sollte es wiederum bei den 384 Einheiten bleiben, so wird die Karte vermutlich unterhalb von 50W brauchen.

CR4NK, woran machst du das fest? Meines Wissens besitzen bereits alle 500er einen integrierten Audiocontroller, auch einige Modelle der 400er Serie (vor allem die Kleineren!). Meine 460 und 560 Ti haben definitiv einen Audiocontroller für die HDMI-Ports.

mfg
 
Zuletzt bearbeitet:
CiNCEi schrieb:
hm mich interessiert hauptsächlich nur die gtx 670. gibts denn dazu schon irgendwelche infos wann so eine kommen soll ?? ich erhoffe mir ja, das so eine gtx 670 soschnell ist wie eine gtx 580 oder gar etwa ~10% schneller und dabei um die 300€ kostet xD

die kleineren varianten werden zum zocken ungeeignet sein. alleine aufgrund des 128er interfaces -.-
Nun ja Gerüchte gibt es schon: Geforce GTX 670 Ti und Non-Ti ersetzen ab Ende April die Geforce GTX 580/570
 
OJK schrieb:
Mal gucken, ob die dann auch eine ähnlich gute idle-Verlustlesitung haben wie die HD7750. Da ist nvidia ja noch ein bisschen im Hintertreffen...

davon kannst du ausgehen, schon fermis GF104 war im idle konkurrenzfähig. Jetzt wo der Highendchip schon Tahiti deklassiert und Jensen immer betont hat dass Kepler basically ein Design für den Mobilbereich ist und der Fokus auf energieeffizienz liegt, versteht sich von selbst dass sich das auch auf die unteren (für mobilgeräte interessanten) Chip bezieht.

Pickebuh schrieb:
1. Die interne Chipbezeichnung hat rein gar nichts mit dem was auf der Verkaufsverpackung steht zu tun !.
Ist ja gut, ich glaube so langsam hats hier jeder verstanden. In dem Kontext war das glaube ich von dasmarci gar nicht so gemeint. Die mehrzahl der Leute weiß hier wirklich über nvidias namensbezeichnungen bescheid und muss ich solche ermüdenden Vorträge nicht anhören.

Ich glaube dasmarci wollte einfach ein bisschen provozieren, "was wäre wenn" ein GK100 bzw. GK110 gar nicht kommen würde. Also GK110 sozusagen ein GK109 wäre.
Das ist natürlich blödsinn, aber da GK110 nocht weit entfernt ist find eich das gar nicht so dumm sich ersteinmal mit der Situation des jetzigen 28nm Lineups im Highend zu beschäftigen.
 
die is mir zu kurz, sieht irgendwie unästhetisch aus...
Ergänzung ()

CR4NK schrieb:
Die haben also immernoch kein Audiocontroller :(

Also AMD für Multimedia / HTPC!

hö? soll das heissen nvidia grafikkarten können kein tonsignal bei hdmi oder display port geben? lol wer kauft die dann überhaupt? :D
 
Darkscream schrieb:

vermutlich wird die 670 ti wenn überhaupt nur knapp an Pitcairn/7870 herankommen.

Die Vorzeichen stehen schlecht, 768SP, 64tmu, 24rops, 192bit. Das ist beinahe eine Halbierung von GK104. Pitcairn ist deutlich mehr als eine Halbierung von Tahiti.

Vorrausgesetzt die Taktraten sind nicht über 1,1ghz was aber auch unrealistisch wäre ist die 670ti in vielen Bereichen unterlegen:
- Shaderleistung (768 vs 1280)
- TMUs ( 64 vs 80)
- Ropleistung (24 vs 32)
- Speicherinterface (192bit vs 256bit)


Die fehlende Bandbreite macht wohl kaum den Unterschied, allerdings darf man nicht vergessen dass durch den Schritt von nur noch zwei statt vier GPCs auch das Frontend, trianglesetup, Tesselationsleistung etc. halbiert wird, was für die GTX680 den Sieg gegen Tahiti errungen hat. Das ist bei AMDs Pitcairn nicht der Fall, der hat dasselbe Frontend wie Tahiti.

Das heißt in den Bereichen wo das Trianglesetup und die Tesselationsleistung der limitierende Faktor sind und die GTX680 derzeit über 50% vorne liegt, liegt bei GK106 vs Pitcairn vermutlich sogar Pitcairn leicht vorne, da sich die Rohleistung von GK106 hier halbiert, die von Pitcairn durch den höheren Takt aber sogar höher ist als die von Tahiti.

Rechnet man dazu, dass kaum noch Taktabstand besteht (bei GTX680 mit Turbo zwischen 1053mhz und 1,150mhz immerhin rund 20% vorteil für nvidia), weil Pitcairn bereits auf 1Ghz kommt, sehe ich da keine guten Chancen für GK106.
 
Zuletzt bearbeitet:
Whoozy schrieb:
Wird schon seinen Grund haben wenn Nvidia und AMD immernoch auf GDDR3 setzen.

gddr3 ist abgeschafft, es wird sich um einen fehler handeln und ddr3 wird gemeit sein, ohne g, und der ist momentan einfach nur sau billig...

@ Darkscream: ja eben, hätt ich mir auch gedahct, dass die einen haben, ich frag mich auch wie man drauf kommt, dass die keinen haben...
 
gddr3 ist abgeschafft, es wird sich um einen fehler handeln und ddr3 wird gemeit sein, ohne g, und der ist momentan einfach nur sau billig...

GDDR3 ist die Bezeichnung für den Grafikkartenram ,DDR3 ist üblich die Bezeichnung für den normalem Ram ,das ist kein Fehler und wird nicht abgeschafft.
 
Wolfgang schrieb:
Mitte Mai soll die GeForce GTX 650 mit GDDR3-Speicher starten, kurze Zeit später soll eine flottere GDDR5-Version folgen.
Sorry, aber es schadet nicht wenn man die Quellen auch mal ein wenig hinterfragt. Da wird nie im Leben GDDR3 verbaut sein. Der hat doch nur Nachteile gegenüber DDR3. Ist teurer, verbrät mehr Strom, gibts nur in kleinen Kapazitäten. Und vom Takt her hat DDR3 schon fast aufgeschlossen mit GDDR3. Da ist zu 100% DDR3-Speicher verbaut.

Whoozy schrieb:
Wird schon seinen Grund haben wenn Nvidia und AMD immernoch auf GDDR3 setzen.
Welche Karte in den letzten 2 Jahren hat denn noch GDDR3-Speicher verbaut? Bei den billigen Karten wird durchweg auf DDR3 gesetzt.

@Tofu
GDDR3 und DDR3 sind 2 völlig verschiedene Paar Schuhe. GDDR3 wird nirgends mehr verbaut, da völlig veraltet.
 
@bensen,
und warum hat dann z.B. eine GTX 680 oder eine HD7770 einen GDDR5 Speicher ?
 
Es soll der Nachfolger zur GTX 560 werden und die hat GDDR3.
 
Whoozy schrieb:
GDDR3 oder DDR3 was auch immer mir Latte. Tatsache ist, dass es wohl deswegen eingesetzt wird weil es im Gegensatz zum GDDR5 Speicher sehr viel günstiger ist.

joa und weils 0 Unterschied machen würde wenn man GDDR5 einsetzen würde ^^

Ausgehend von den technischen Daten sehen wir hier einen Mobile Kepler wie die GT640M, die auch teils mit DDR3 + 128Bit SI daherkommt.

@Tofu

die GTX 560 hat 1 GB GDDR5.
 
Zurück
Oben