News Legt AMDs Sea-Islands-GPU nur um 15 Prozent zu?

Wir sind aktuell an einem Punkt angelangt, an dem wir physikalische Grenzen abstecken und die Forschung sich schwer tut, neue Wege zu finden, um eine positive Entwicklung weiter voranzutreiben.
Bei den GPUs stehen noch die 3D Transistoren an, das könnte nochmal einen Schub geben, würde den Anstieg bei Maxwell erklären: https://www.computerbase.de/2011-07/offiziell-nvidia-kepler-2012-und-maxwell-2014/


These lautet für mich: APU/APPU/MPU/MPPU
AMDs Fusions Konzept die die extreme Rohleistung einer GPU effizient einsetzt ist schon sehr viel versprechend. Liegt aber noch in weiter Ferne, da muss noch viel geforscht werden.


Selten sieht man nochmal Genreperlen,
Es gibt 2,5D yes! http://www.4players.de/4players.php...842/Project_Eternity|So_soll_es_aussehen.html
 
Dr. MaRV schrieb:
Ich bin kein Chipentwickler aber ich bin der meinung das 15% Steigerung ein guter Wert sind. Man ist bereits nah an der Grenze des aktuell machbaren, da wird es umso schwieriger noch etwas zu zulegen. (...)

Wenn es keine selbst auferlegten Verbrauchsobergrenzen seitens der Hersteller geben würde - und mal ehrlich so an die 250 W für ne Grafikkarte ist dann auch schon ganz ordentlich - dann würde man halt "mehr von allem" verbauen, und da die Rechenaufgaben der GPUs eh schon gut parallelisierbar sind, wäre ein Chip mit doppelt so viel von allem wahrscheinlich auch gut schnell, würd aber halt auch das doppelte verbrauchen ;) Und heutzutage sieht man das ja eher nicht mehr so gerne und irgendwann wirds auch unrealistisch mit der Kühlung. Von daher heißt es mittlerweile eher, bei vorgegebener maximaler Leistungsaufnahme das Optimum rauszuholen (was auch durchaus ok ist!), und da fallen die Steigerungen dann halt geringer aus. Klar ich würd ich mich auch über so ne monumentale Leistungssteigerung wie damals zu Nvidia 8800 oder Ati 5870 Zeiten freuen, als die jeweiligen Karten allem anderen einfach davongerannt sind, aber das waren halt Ausnahmen. Ansonsten darf man da glaub keine so großen Steigerungen erwarten, und solang man nicht irgendein extrem anspruchsvolles Anwendungsprofil hat, das die aktuelle Karte schon wieder übers Limit hinweg ausreitzt, dann kann man auch gut ein oder zwei Generationen überspringen. Was natürlich nicht heißt, dass niemand auf die 8XXX Karten wechseln wird, es sind ja schließlich noch genug Leute mit 5XXX und 6XXX Karten unterwegs, wo der Leistungszuwachs dann schon deutlicher ausfallen wird. Persönlich hab ich zwar jede Generation seit der 5870 mitgemacht, aber die Leistung der 7970 inkl Übertaktung reicht mir jetzt erstmal selbst für Eyefinity vollkommen aus, deswegen werd ich mir gaaaanz genau überlegen ob ich bei der 8000er Generation überhaupt zuschlagen werd. Einziges Kaufargument wäre wenn die 8970 (oder so) der 7970 in großen Auflösungen, also so um die 6 MPixel, davonrennt wie sonst was. Aber wenn dort auch nur 15 % Steigerung vorliegen dann lass ichs glaub bleiben.
 
könnten die 15% prozent mehr Leistung nicht allein duch ein aufgebohrtes Frontend erreicht werden?
 
"Nur" 15%???

Was hat der NEws-Schreiber denn erwartet? 100% ???
Mal in ernst, das ist doch völlig i.O.
 
Naja, also Moores Gesetz erfüllen die mit 15% nicht... da muss sich AMD noch etwas anstrengen.
 
Begehmann schrieb:
Noch besser finde ich dass die neue Chipgeneration angeblich günstiger werden soll als die jetzige. Und das ist ja wohl totaler Schwachsinn! Erstens würde das sämtlichen Marketing-Gesetzen widersprechen, und zweitens - siehe oben - soll der Die größer werden. Und ein größerer Die == mehr Fertigungsverluste == schlechtere Chipausbeute == höherer Preis.
Da wäre ich mir nicht so sicher, wenn man am Refresh wenig entwickeln muss, spart man da viel Geld und durch die Wiederverwendung des Fertigungsverfahrens, sind auch die Ausbeuten besser, da man den Prozess besser kennt.

Und das es nicht einer Verkaufsstrategie folgen soll, natürlich tut es das.

1. Hohe Forschungskosten, hohe Fertigungsverluste. Hohe Leistungszuwächse
--> sehr teures Produkt. Hier werden die early adopters zur Kasse gebeten
2. Kaum Forschungskosten, gleichbleibende vielleicht sogar sinkende Fertigungsverluste. Geringe Leistungszuwächse.
--> teures Produkt. Hier kann man nicht nur die Highenduser abfangen sondern möglicherweise auch mal paar User, die sonst nur gehobenes Midrange gekauft hätten, aber für die dieses preiswertere Highend nun erschwinglich erscheint.



Insgesamt sehe ich hier das Problem, dass die Kunden zu wenig Bedarf an Mehrleistung/Highend haben, dem entsprechend landet weniger Geld bei den Firmen, diese reduzieren dann natürlich auch den Forschungsetat.
 
Zuletzt bearbeitet:
Morrich schrieb:
Mir wärs eh lieber, wenn sich der Stromverbrauch auch von performanteren Karten nochmal ein Stück nach unten bewegen würde. Das ist dieser Tage eigentlich viel wichtiger als immer mehr Rohleistung, die man in den meisten Fällen doch eh nicht wirklich benötigt.

Du meinst aus Umweltgründen?
Zum Glück kam die Energie zur Herstellung Deiner neuen sparsamen Karte ja aus der Steckdose und nicht etwa aus einem chinesischen Kohlekraftwerk :D
 
Neue Grafikkarten kaufe ich immer erst wenn der Fertigungsprozess verkleinert worden ist. Mit meiner 7970 werde ich noch zwei Jahre gut über die Runden kommen.
 
Cey123 schrieb:
Naja, also Moores Gesetz erfüllen die mit 15% nicht... da muss sich AMD noch etwas anstrengen.

Moore's law is the observation that over the history of computing hardware, the number of transistors on integrated circuits doubles approximately every two years. The period often quoted as "18 months" is due to Intel executive David House, who predicted that period for a doubling in chip performance (being a combination of the effect of more transistors and their being faster).

Joa dann mach das mal unter folgenden Rahmenbedingungen:
  • maximale Leistungsaufnahme bereichts erreicht
  • DIE sollte flächenmäßig nicht sonderlich zulegen
  • gleicher Fertigungsprozess wie bei der vorherigen Generation
Und dann reden wir weiter, was man da realistisch an Zuwachs erwarten kann ;)
Moore's Law stammt aus einer Zeit als Strukturbreiten noch weit oberhalb der µm-Grenze lagen, da waren Verbesserungen (sprich Verkleinerungen) einfach leichter zu erzielen. Heutzutage mit ~20 nm Strukturbeite bist schon eher in nem Bereich von lediglich ein paar hundert Atomen, da wirds dann schon anspruchsvoller noch was zu reißen (nicht dass man es damals einfach hatte, aber man war deutlich weiter weg von physikalischen Limits - hinsichtlich der Fertigung als auch der Taktraten).
Ganz abgesehen davon ist dieses "Gesetz" keine Vorschrift, sondern basiert lediglich auf einer Beobachtung, aus der dann eine Vorhersage abgeleitet wurde die halt für ungefähr ein halbes Jahrhundert gehalten hat und die wir sicher auch noch weiter einhalten könnten WENN wir Bedingungen wie Wirtschaftlichkeit durch kleinere DIE und weniger Verbrauch ausm Fenster werfen würden ;)
 
Zuletzt bearbeitet:
nun für 15% muß man sich keine gedanken zum wechseln machen. 50% wären mir da schon lieber, aber irgendwo tut sich nicht mehr soviel, its ja bei den cpu nicht anders.
 
Zuletzt bearbeitet:
Perry S. Hilton schrieb:
der sprung von der HD 5000 generation auf die HD 6000 war sogar mit leistungsverlust verbunden, soweit ich mich erinnern kann war eine HD 5870 schneller als eine 6870...
HD 6870 ist aber nicht der eigentliche Technische Nachfolger von HD 5870, sondern nur der Marketing Nachfolger

HD 8800 könnte durchaus 15% schneller sein, als der damalige HD 7970 @ 925 Mhz, da er genauso 32CU wie HD 7970 haben soll.
Denn 1050Mhz statt 925 Mhz würde eben diese +15% entsprechen.

Ein HD 8800 mit 16 CUs pro Grafik-Engine (= 32 CU was einem HD 7970 entspricht) wäre genau das Gegenteil von dem, was AMD damals mit HD5870 --> HD6970 machte.
Denn HD 5870 hatte damals ein Big-Front-End mit nur einem Tesselator und bei HD 6870 dann 2 Normalo Front-End, wo dann nur die Tesselation-Unit verdoppelt wurde. Zusätzlich war der Umstieg von VILW-5 auf VILW-4, wo man nur einen Teil des erhöhten Stromverbrauch und Flächen-Zuwachs bei Front-End-Wechseln kompensieren konnte.
Mit dem VILW-5 --> VILW-4 Umstieg, hatte HD 6970 sogar weniger eine pro Takt geringere Shader-Power als HD 5870.

HD 8800 wäre das Gegenteil, weil man erwartet, dass das Front-End gleich bleibt, aber die CU-Power durch zusätzliche CU-Einheiten (16 statt 10) und somit Shader-&Co-Power deutlich erhöht.
Daher ist ein enormer Performance- (und Stromverbrauchs-) Sprung gegenüber HD 7870 zu
erwarteten, der eben +15% HD 7970 @ 925 Mhz Dimensionen erreichen kann, welches AMD mit +60mm² erreichen kann.
Dass AMD dies dann mit selben HD7870-TDP schafft, steht nirgends und ist auch nicht zu erwarten, da es sich um die selbe Fertigung handelt und AMD immer im Stromverbrauch zulegte, wenn eine neue Generation bei gleicher Fertigung rauskam. Bei Performance-pro-Watt könnte es sehrwohl eine deutliche verbesserung geben, da HD 8800 quasi ein HD 7970 ohne GPGPU sein könnte.

Es könnte sein, dass HD 8970 wegen GK110 & non-Optimalen 28nm verschoben wird, der vielleicht vorher mit +30% gegenüber dem HD 7970 @ 1000 Mhz angegeben wurde. Denn 30% entsrpricht grundsätzlich den 40 CUs, was eben bei HD 8970 erwartet wird.
Grundsätzlich würde ich HD 8970 nicht so Flächen und Strom-Effizienz wie HD 8800 erwarten, da ich HD 8970 mit einem quasi eine doppelt so großes Front-End (Also 2 Big-Front-End wie HD 5870) erwarte. Doppelte Ratzerizer & Co Einheiten werden aber vorerst kaum die Performance steigern, da 16 CUs pro Normalo-Front-End (= 1 Ratzerizer & Co) jetzt schon quasi nicht limitiert.

Aber das vergrößerte Front-End wird aber mehr Die-Fläche & Stromverbrauch bei kaum Mehr-Zusatz-Performance (zusätzlich zu den +30% CUs) brauchen, sodass HD 8970 gegenüber HD 8800 nicht nur wegen den GPGPU-Einheiten Flächen und Strom-Ineffizienter ist, sondern auch wegen dem überdimensionierten Front-End, welches momemtan nicht braucht, sondern erst in der Zukunft richtig ausnutzen kann.

Somit ist es selbst für AMD nicht so leicht, die HD 8970 einzuführen, wenn HD 7970 jetzt schon 215/250W Strom verbraucht. Daher wäre es nicht unlogisch, wenn sie HD 8800 jetzt zuerst rausbringen und mit HD 8970 noch etwas warten.
Denn diese Möglichkeit haben sie ja, weil a) GK110 selbst immer weiter nach hinten verschoben wurde und b) weil AMD jetzt schon die schnellste Single-GPU-Karte draußen hat und somit nicht unter zugzwang sind.

Wenn Nvidia mit GK110 einen Respin für verbesserten Yield & Performance bzw. Stromverbrauch macht, dann kann das AMD genauso.
 
Stand da irgendwo was von wegen keine Taktsteigerung?
Nprmalerweise bei nem refresh auf der gleichen strukturgrösse gewinnt man
Mehrleistung doch durch höheren Takt bei gleichem Verbrauch?

+30% Krieg ich auf meiner 7970 mit ein wenig übertakten auch hin!
HeavenFPS.png

Edit: hups. Hab doch zuerst tatsächlich das falsche Bild verlinkt...
http://www.wsgf.org/f/u/contrib/node_gallery_image/19271/HeavenEFFPS.png[/IMG]





DJMadMax schrieb:
Meine Güte, vielleicht sollte ich mal Kolumnen schreiben :D

PS:
Weitet das Thema mal auf Anzeigegeräte (also Bildschirme im PC- und Unterhaltungsbereich) aus - also für euch, nicht hier den Thread zumüllen natürlich. Da sieht es ganz genauso aus. Ausser, dass die Geräte immer größer und verhältnismässig günstiger werden und VIELLEICHT noch das brillenlose 3D etwas auf Vordermann gebracht wird, wird sich da in den nächsten... sagen wir mal... 20 Jahren... nichts Neues ergeben! Von Projektion IN DEN RAUM HINEIN sind wir wahrscheinlich sogar noch länger entfernt.

Cya, Mäxl

Jup solltest du evtl wirklich.
Btw, du vergisst den Occulus Rift!
 
Zuletzt bearbeitet:
Eigentlich eine tolle News 15% Mehrleistung bei ganzen 15Watt weniger Stromverbrauch bei der HD8870
gegenüber HD 7870
Bedenkt man dazu das die Strompreise weiter kräftig ansteigen werden, kann diese Nachricht im Grunde doch nur bejubelt werden!:)
Für Leute so wie mich die sich gerade ein neues Computersystem aufbauen könnte Sea Island der richtige Griff bzw. der gesunde P/L-Mix werdem wenn man auch von Performance per Watt ausgeht!
Diejenigen die jetz schon über eine ausreichend dimensioniert Grafikkarte haben, für die mag diese News sicher etwas enttäuschend sein!
Für diese lohnt sich verm. der Generationensprung eben nicht bzw. der Griff in die Geldbörse!
Naja man kann sich zBsp. alternativ günstig oder gebraucht auch eine 2. Karte der alten Generation kaufen und ein SLI oder Crossfire fahren!
------------------------------------------------------------
Li Lian Li PC-7FNWX - be quiet! Straight Power E 400W - Core I7 3770k - be quiet! Dark Rock Advanced - Gigabyte Z77MX-D3H - 32GB G.Skill TridentX PC3-19200U -2TB Hitachi 5k3000 - LG BH10LS38 - Graka & SSD is coming soon-
 
Zuletzt bearbeitet:
phiber66 schrieb:
Eigentlich eine tolle News 15% Mehrleistung bei ganzen 15Watt weniger Stromverbrauch bei der HD8870
gegenüber HD 7870
Eigentlich schon, wenn man die Konkurrenz-Situation ansieht.
Ich wüsste nicht, wie Nvidia da ersthaft kontern könnte.

Bei der letzten Refresh-Generation alias GTX580-40nm kam die Effizienzsteigerung (+15%) quasi durch die Reperatur/Aktiverung des 16-SM-Blockes zustande.
Davor konnte Nvidia im vorletzten Refresh-Generation alias GTX285 auch so +15% Effizienzsteigerung erreichen, aber das nur bei 2. Respin, während das GT200-B2-Stepping quasi die Effizienz von GT200-A hatte.

Zwar ist GTX680 nicht der eigentliche absolute Big-Die, aber es sind keine ernsthaften Probleme erkennbar, die bei einer eventuellen GTX780 dann zu Effizienz-Steigerungen führen. Generell scheint GTX680 schon sehr ausgereitzt zu sein, da GTX460 damals mit 120W noch einige Reserven hatte, die beim GTX560 dann auf 180W gut genutzt wurden. Und GTX680 hat eben schon 180W. Das komisch ist, der Abstand zwischen GF114 und GF110 war damals viel geringer, als GK104 vs GK110. Während TAU & TMU damals gleich waren, GF110 +33% Shader und +50% ROPs hate, hat GK110 diesesmal fast 100% mehr SMX als GK104 und somit TMU & Shaders & Co. Und das eben bei beachtlichen 180W des GTX680. Wie die das diesmal schaffen, ist mir noch ein Rätsel, vorallem da ja noch das ganze GPGPU-Zeug (diesmals native Double-Precies-Einheiten) & Co dazukommt.

Na ja, da heißt es nur abwarten. Schade, dass die Karten nicht schon dieses Jahr kommen.
Die Verschiebung der HD 8x00-Serie auf nächstes Jahr ist doch etwas seltsam. Denn seit HD4x00 brauchte AMD die neue Generation vor Ende des Jahres.
Vielleicht ist die 28nm-Fertigung von TSMC doch noch schlechter als man vermuten mag.
 
Hört sich so an, als würde AMD sich doch treu bleiben.
Wobei man bei der nächsten Generation zum Einen davon ausgehen kann, dass der Fertigungsprozess gut beherrscht wird, zum Anderen sollte man nicht vergessen, dass wir hier von dem Referenzdesign reden (dessen Spezifikation auch noch unklar ist).
Ich vermute mal, dass die kommende Generation nicht den großen Hypen auslösen wird, wohl aber effiziente Karten hervorbringen könnte.

So lang jedenfalls nichts Neues von den Konsolen kommt, ist der Markt eh übersättigt mit der Grafikpower der aktuellen HD 7000 Serie.
Ich sitze hier sogar noch auf einer 4850, obwohl ich schon längst eine neue Karte holen wollte, sehe ich trotz FullHD bei vielen Spielen nicht die Notwendigkeit aufzurüsten.
 
aylano schrieb:
Na ja, da heißt es nur abwarten. Schade, dass die Karten nicht schon dieses Jahr kommen.
Die Verschiebung der HD 8x00-Serie auf nächstes Jahr ist doch etwas seltsam. Denn seit HD4x00 brauchte AMD die neue Generation vor Ende des Jahres.
Vielleicht ist die 28nm-Fertigung von TSMC doch noch schlechter als man vermuten mag.

Nö, das die Karten nächstes Jahr kommen ist ganz normal. Alles andere wäre seltsam gewesen. Amd bringt 1 Generation pro Jahr raus oder sogar eher alle 13/14 Monate. SI ist erst dieses Jahr erschienen, so war es klar, dass die nächste Generation dann 2013 kommt.
 
aylano schrieb:
Vielleicht ist die 28nm-Fertigung von TSMC doch noch schlechter als man vermuten mag.

vielleicht möchte man auch einfach die zeit bis zum nächstkleineren fertigungsschritt strecken. wer weiß.


Ich wüsste nicht, wie Nvidia da ersthaft kontern könnte.

wie wäre es, wenn NV einfach big kepler auf das aktuelle portfolio oben draufsetzt und die "alten" chips eine stufe runterschiebt?

will sagen: gk110 als gtx780/770 und die aktuelle 680 als 760ti wiederbelebt.
damit wäre NV absolut konkurrenzfähig.
so war es doch sicher bei der 600er serie schon geplant, wenn ich mir größe, interface, verbrauch der 680 anschaue.
 
Zuletzt bearbeitet:
hongkongfui schrieb:
will sagen: gk110 als gtx780/770 und die aktuelle 680 als 760ti wiederbelebt.
damit wäre NV absolut konkurrenzfähig.
so war es doch sicher bei der 600er serie schon geplant, wenn ich mir größe, interface, verbrauch der 680 anschaue.
Richtig, es war überraschend, dass GK104 als 680 kam und GK100/GK110 eben nicht.
Warum sollte es diesesmal anders sein?
Na ja, so ist es nicht, weil GK110 grundsätzlich kommen wird.

Nur wissen wir aus der Vergangenheit, dass zwar jede Karte gekommen ist, aber nicht von der Masse begeistert empfangen wurde. (R600 & GF100)

Natürlich wird GK110 oben draufgesetzt, aber GK104 kann grundsätzlich kaum Einheiten-Updates machen. So wie in der Vergangenheit kann Nvidia die SMX-Zahl nicht verändern. Es sind höchtens Architektur-Änderungen in den Einheiten möglich, die paar Prozent mehr Effizienz rausbringen. (siehe Fermi-Refresh)
Nur damit das klar ist. GK110 wird nicht gegen HD 8800 sondern HD 8900 antreten.
GK110 ist ein Monster Die. Weniger in der Die-Größe, sondern eher im Stromverbrauch. Ich habe mal die SMX von GK104 und GK110 abgesessen und wenn ich mich nicht vermessen haben, dann sind GK110-SMX so 30% größer als GK104-SMX.
Also, GK110 hat nicht nur 88% mehr SMXs sondern diese sind auch so 30% größer.
Grundsätzlich kein Prolbem, wenn GTX 680 nicht schon so einen hohen Stromverbrauch hätte.

http://www.heise.de/newsticker/meld...nd-zukuenftige-Herausforderungen-1578605.html
c't: Wieviel schneller wird GK110 im Vergleich zum GK104 in der Praxis sein?
Alben: Limitiert letzteres, kann man wahrscheinlich mit einem Geschwindigkeitsgewinn von rund 50 Prozent rechnen.


Grundsätzlich ein beachtlicher Performance-Gewinn.
Die Entscheidende Frage sehe ich im Stromverbrauch und wie sie es hinbekommen.
Zwar hat Nvidia bewiesen, dass sie mit GTX690 einen sehr hohen Stromverbrauch vernünftig in Griff bekommen, aber der kostet auch 1000 Euro und da weiß man nicht, ob sie es mit geringen oder sehr hohen Produktionskosten sowie einer GPU-Selktion in Griff bekommen hat.

In dem Interview spricht Nvidia selbst von Compute-GPU und nicht von Gamer-GPU mit Compute-Fähigkeiten. Das war selbst bei GF100/110-Fermi nicht so.

Wenn GK110 300W verbraucht, könnte diese Karte dann vernünftig werden. Denn wie ich in diesem Thread schon meinte, erwarte ich HD 8970 mit einem überdimensionierten Front-End auch nicht als Effizienz-Wunder, der dann mit +30% CUs IMO höchstwahrscheinlich primär über die Stromverbrauchssteigerung zulegen wird.

Falls HD 8970 dann mit +30% CUs dann so +25%-Performance zulegen kann und HD 7970 @ 1Ghz jetzt schon so +10% über GK104 liegt, dann würde sich HD 8970 von unten an GK110 annähern.

AMD kann jetzt etwas taktieren, wie Nvidia es früher machte.
Da sie momentan die schnellste Karte draußen haben, können sie zuerst mit HD 8800 (32CU @ 1,05 siehe Gerüchte @ Newslink) den ungefähr gleichschnellen HD 7970 (32CU @ 1,0 Ghz) ersetzen und mit HD 8970 dann auf GK110 abwarten & reagieren.

AffenJack schrieb:
Amd bringt 1 Generation pro Jahr raus oder sogar eher alle 13/14 Monate.
Stimmt, ist mir noch garnicht aufgefallen.
 
aylano schrieb:
Natürlich wird GK110 oben draufgesetzt, aber GK104 kann grundsätzlich kaum Einheiten-Updates machen. So wie in der Vergangenheit kann Nvidia die SMX-Zahl nicht verändern. Es sind höchtens Architektur-Änderungen in den Einheiten möglich, die paar Prozent mehr Effizienz rausbringen.

ist dann ja auch gar nicht nötig.
wenn man gk104 (oder gk114 bei minimalen verbesserungen) einfach als gtx760ti relabelt, hat nv doch schon gewonnen.
sie brauchen nur gk110 fertig haben und als gtx780 rausbringen, schon haben sie eine ganze "neue" generation.

ein weiterer vorteil: den zeitlichen rückstand auf amd seit fermi hätten sie mit einem mal weggewischt.
 
hongkongfui schrieb:
ist dann ja auch gar nicht nötig.
wenn man gk104 (oder gk114 bei minimalen verbesserungen) einfach als gtx760ti relabelt, hat nv doch schon gewonnen.
Egal ob man relabelt oder nicht, und wie man es genau nimmt. Die Situation wird für einen nicht besser, wenn eine GPU etwas updatet, während die Konkurrenz das selbe tut, aber noch eine Einheiten-Optimierung durchführt. So etwas nennt man Schritt zurück.

In letzten Refresh-Generationen (GTX200 vs HD4000 und GTX500 vs HD 6000) machte jedesmal Nvidia einen Schritt nach vorne und lag dann vor AMD. Auch schon ein Gleichstand wäre ein Erfolg für AMD, da die Stärke von AMD immer im Fertigungs-Einführungsjahr lag und AMD nach dem Refresh-Jahr zumindestens seit 2006 nicht mehr gleich auf war.

Die brauchen nur gk110 fertig haben und als gtx780 rausbringen, schon haben sie eine ganze "neue" generation.
Bei High-End-GPU-Karten geht es primär um Peformance. Da interessiert es keinen, wie der eigentlich heißt. GK110 wird IMO sehr stark mit den Grenzen der Physik (Abwärme & Lüftungslärm) zu kämpfen haben, wo man nicht mehr so leicht zusätzliche Performance über den Stromverbrauch erkaufen kann.

Damit du mich versteht
180W (GK104) mal 15/8 (SMX) macht 337W-Spiele. Zwar hat GK110 nur 384-SI, aber dafür viele ungenutzte? zusätzliche Double-Precise-Einheiten. Wie gut GK110 wird, entscheidet sich über den Stromverbrauch, der entweder 300W-Spiele oder 350W-Spiele-Verbrauch haben wird. Meiner Meinung hat GK110 eine genausohohe Möglichkeit 300W-Spiele-Verbrauch zu erreichen, wie >350W, was dann mit Takt-Reduktion auf 350W gerückt werden könnte.

GK110 war schon für Mai 2012 gedacht und ist jetzt schon für 1Q oder April 2013 angesetzt. Ich glaube, R600 & GTX 480 hatte beide so 7 Monate Verspätung nach Plan.
GK110 hat jetzt schon 5 Monate Verspätung und könnte schlussendlich dann später kommen als R600 & GF100 es damals taten. Vorallem glaubte man so Februar 2012 noch an einen GK110 in Mai/Juni 2012. Die Aussichten eines Nvidia-High-End war in den letzten Jahren noch nie so schlecht wie jetzt.

ein weiterer vorteil: den zeitlichen rückstand auf amd seit fermi hätten sie mit einem mal weggewischt.
Keine Ahnung was du meinst.
Eigentlich hat Nvidia den Einführungs-Rückstand zu AMD mit der 600er-Serie schon verkürzt, aber das aufkosten von der Leistungskrone im Gamer-Markt und HPC-&-Workstation-Double-Precise-Markt.
Aber da AMD die Leistungskrone @ Games erst Mitte 2012 erreichte und AMD die Worktstation & HPC - GCN-GPUs erst August 2012 rausbrachte, und GTX680 in diesem Jahr gut mithalten kann, war die Non-Einführung von GK110 und GK104-Zuerst-Einführung eine gute und richtige Wahl.
Nur kann dann Nvidia beim 28nm-->20nm-Umstieg nicht mehr so einfach die 20nm-Worktstation & HPC-GPU 1 Jahr später rausbringen.
Da bin ich gespannt, wie Nivida reagieren wird.
 
Zurück
Oben