News Gaming Celebration: Nvidia lädt zur GDC 2017 zum Thema GeForce GTX

Nunja, man brauch bestimmt eine brauchbare Grundarchitektur für einen Shrink.
Aber es ist nunmal der einfachere und schnellere Weg.
Und grad Milliarden an Entwicklungsgeldern hat das nicht verschlungen. ;)

Was die Tile Based Rasterization angeht, eine ähnliche Technik hat schon 3DFX (gehört ja auch schon länger NV)
eingesetzt und ist dementsprechend nicht grad neu oder nutzt auch ARM bei Mali und Power VR für ihre mobilen GPU. Also dass NV da irgendwas erfunden hätte, ist schlicht falsch. Und damit wird AMD wohl ziemlich nahe an die Effizienz von Pascal dran kommen. Daher.....

GCN wurde seit der ersten Ausgabe an den entscheidenden Stellen weiterentwickelt. Die letzten Baustellen sind die Auslastung, die man schon lange stetig verbessert und wird sich durch neue Software auch selbst verbessern und die Effizienz, die in der neuen Fertigung schon einen grossen Schritt weiter ist.
Bei der Packdichte sind sie NV eh voraus. Und auch die Architektur ansich würd ich als überlegen betrachten.
Aber eben, wenn man die Architektur so radikal ändert und gleichzeitig shrinkt dauert das sicher länger.
Ausserdem ist es logisch zuerst die kleineren Chips in einem neuen Fertigungsverfahren zu produzieren, bis es sich eingeschliffen hat. Ausserdem wieso sollt ich da Rücksicht auf die Konkurrenz nehmen? Die Architekturen und Releasezeiten werden sich mit so unterschiedlichen Vorgehensweisen klar immer weiter unterscheiden.
High End hat NV bis auf die Titan auch nicht angeboten. Vega ist fertig, wenn es fertig ist.
Klar wäre es gut gewesen wenn man eine 1070/1080er Konkurrenz anbieten hätte können, aber mit den Kapazitäten von AMD muss man eben Prioritäten setzen. Und meiner Ansicht nach haben sie es nicht schlecht gemacht.

Was die GTX1060 angeht, die hat man noch nicht im Griff, aber das ist nur eine Frage der Zeit.
Pascal ist nun nicht der Überhirsch in den neuen APIS und auch AMDs Treiberentwicklung geht Schritt für
Schritt in Richtung überholen. Da muss man sich nur mal DOOM mit Vulkan anschauen wohin die Reise geht.
Selbst Polaris 10 krankt schon am SI und schon zweimal GP106.
Bei der Effizienz wird man durch Tile Based Rasterization einen grossen Schritt nach vorne machen.
Da hab ich keine Angst. Ausserdem die 30-50W Mehrverbrauch wie es aktuell ist bei ähnlicher Chipgrösse, sind nun nicht mehr allzu relevant.


Was meine Zuversicht zu Vega angeht, das sagt einem die Logik. Schon nur wenn ich in DX11 Games Grenada mit Polaris
vergleiche, ist der Fortschritt deutlich zu sehen. Trotz 500 Shader weniger und trotz 50% weniger Durchsatz auf dem SI hält Polaris gut mit. Und das mit nicht übermässig mehr an Takt. Die Auslastung ist also verbessert worden (wie auch CB bestätigt etwa 13%) und dazu sieht man das OC des Speichers bei Polaris 1:1 in Leistung umgesetzt wird. Das heisst er würde von einem grösseren SI deutlich profitieren.
Nun sehen wir beim grossen Vega damit einem Chip entgegen, der nicht am SI kranken wird, der locker 4000 Shader (eher mehr bei der Grösse und Fertigung) bringen wird und wie angekündigt mit mehr Takt laufen wird als bisherige GCN Derivate.
Damit landen wir nur mit einem VEGA auf GCN4 (also Polaris Stand) bei FIJI+ 25-40%. Und damit sind wir im Bereich einer 1080er oder schon dran vorbei.
Da hab ich die diversen angekündigten Änderungen an GCN 5 noch gar nicht in Betracht gezogen.
Ausserdem weiss ich zufällig von AMD Internas, von denen ich hier nicht sprechen werde.

Also ja, ich bin seeeeeehhhhhrrrr zuversichtlich!
 
Das nährt Spekulationen um eine bevorstehende Präsentation der GeForce GTX 1080 Ti.

Wird ja auch Zeit, bevor die nächste 1080 raus kommt, falls der Nachfolger der 1080 wieder so Ende Sommer rauskommen sollte(is ja nicht mehr sooo lange hin, in "Hardwarezeit" gerechnet).

edit: Hatte eine der ersten custom 1080 und bin froh nicht noch auf die Ti gewartet zu haben.
 
Zuletzt bearbeitet:
@modena.ch
Ich werde wohl nicht auf alles antworten. Für meine GEschmack zu viel Wunschdenken und eine positive Haltung. Eines steht fest:
  • AMD muss zuerst etwas liefen
Bevor das nicht passiert können wir uns noch so sehr die Finger wund schreiben.
_________________________________

Hier ist meine Prognose was auf den beiden Events von jeweils AMD und Nvidia Ende Februar passiert:

AMD - Capsaicin & Cream event

-Zen .. Zen ... Zen ... 99% Zen und ein ganz wenig Vega vielleicht
-Möglicherweise eine kurze Vega Demo, wenn wir Glück haben


Nvidia GDC 2017 event
-Update der Roadmap mit Ausblick auf Volta und evtl. was danach passiert
-Einblicke in neue Techinken und Features für das Jahr 2017
-umfangreiche Details über Nintendo Switch und neue Tegra Produkte
-Show mit Partnern wie EPIC's Unreal Engine 4.15+ / Google Android / Valve, Steam, SteamOS jeweils über weitere Zusammenarbeit und Zukunftspläne
-Teaser zu 1080 Ti???
-Vorstellung neuer Geforce Series???
 
Hardware_Hoshi schrieb:
modena.ch schrieb:
NV steht nur dank dem rückständigen DX11 so gut da. Denn wenns darum ginge wer da die Fortschrittlichere Architektur auf die Beine stellt, ist das sicher nicht NV.
DX11 ist nun einmal der aktuelle Standard in der Spielindustrie. Es ist ja nicht die Schuld von Nvidia, wenn sich AMD ständig in irgendwelchen Fantasien verrennt, die aktuell noch keiner Unterstützt. Am Ende müssen es immer die Entwickler ausbaden und dazu haben viele einfach keine Lust.
Ist das allen Ernstes deine Sicht der Dinge?!
Wenn ja, worauf ist das 'nicht die Schuld von Nvidia' bezogen? Auf das Ausmaß der kruden Phantasien, mit denen sich AMD immer wieder verrannt haben soll oder der Unterstützung etwaiger Entwickler durch nVidia im Falle von DirectX? Bei Letzterem kann es sich ja eigentlich nur um Ironie handeln.

Wenn irgendeiner dafür gesorgt hat (und dies auch heute noch tut), DirectX 11 am Leben zu erhalten, dann war das doch nVidia! Natürlich ist DirectX 11 der aktuelle Standard, aber auch nur weil nVidia die letzen bald zehn Jahre alle nur Erdenklichen Mühen auf sich genommen hat, Publisher, Entwickler & Studios davon zu überzeugen, eben genau explizit diese Version zu nutzen, da allein nVidia der größte Nutznießer ist, wenn es um DirectX 11 geht – Maxwell, Pascal & Co sind nicht umsonst gestalt gewordene und in Chips manifestierte Dx11-Beschleuniger. nVidia hat sich dies über die Jahre mit dem TWIMTBP-Programm nicht umsonst hunderte Millionen wenn nicht gar über eine Milliarde kosten lassen …

Und daß sich AMD ständig in Phantasien verrennt ist ebenso schlichtweg Quatsch.
Darf man annehmen, die zahllosen Vorstöße allein im Bereich Graphik wie Tesselation, Mantle, Vulkan, TrueAudio, TressFX, FreeSync oder AMD64, OpenCL & HSA im Bereich Computing – welche zuvorderst dem Markt als solches respektive Anwendern dienen und erst in zweiter Instanz AMD selbst – tust Du als eben jenes planlose Verrennen von Phantasten ab?

Die frühen Vorstöße auf mehr Kerne selbst damals schon, als absehbar war, daß kein Weg einer Leistungssteigerung an einer massiven Parallelisierung vorbeiführen würden, waren auch also auch utopisch statt anfänglich visionär, was?

Hardware_Hoshi schrieb:
Beide Seiten gleichen ihre Hardware regelmäßig an um der Gegenseite an um der Konkurrenz keine Vorteile zu gewähren. GCN tut das wie die Geforce gleichermaßen. Ich sehe das weder positiv noch negativ. Es ist einfach so!

Bei neuen Techniken ist es aber auch all zu oft AMD, die die Gegenseite im Nachhinein kopieren und immer einen Schritt hinterher hecheln.
Ich glaube, Du solltest einmal etwas die Vergangenheit studieren!
Nach dieser war es nämlich vornehmlich einer der a) es nicht hin bekam, verbesserte oder erweiterte Funktionalitäten in seine Produkte zu integrieren, b) seine Hardware auf neuerliche Vertex- und/oder Pixel-Shader zu aktualisieren, c) neuerliche DirectX-Versionen hardware-seitig zu unterstützen, d) ganz allgemein immer wieder mit Feature-Leveln hinterher hinkte oder aber sie vorgab als Letzter endlich zu unterstützen – dies im Nachgang aber geradewegs gelogen war, e) Microsoft mehr als einmal dazu nötigte, eine aktualisierte Fassung von DirectX zurück zu halten oder zumindest dazu drängte, diese später zu veröffentlichen, weil seine eigenen Grafik-Karten diese schlicht nicht unterstützten oder f) Jahre nach anderen Wettbewerbern endlich gegebene DirectX-Versionen in Hardware unterstützte.

Dieser eine Bestimmte war lustigerweise nicht AMD. Na, da wird die Auswahl doch furchtbar schwer!
Kurios, nicht?

AMD war immer wieder Technologieführer oder hat zumindest essenziell wichtige Impulse gegeben – auch wenn diese nicht selten untergingen, weil keine Unterstützung kam. Kopieren und hinterher hecheln sieht definitiv anders aus …

Hardware_Hoshi schrieb:
Das bereits erwähnte Budget und das schonunglose verlassen auf Unterstützung aus Reihen der Entwickler sind deftige Gründe dafür.
Achso! Also war Mantle, worum AMD (wie auch nVidia, allerdings waren sie sich zu fein dafür) seitens DiCE jahrelang gebeten wurde, gar nicht von zahlreichen Entwicklern initiiert, welche es leid waren, keine wesentliche Mehrleistung aus der Graphik schöpfen zu können, sondern genau umgekehrt und kam ungefragt von AMD?

Genauso wie etwa TressFX bei Crystal Dynamics oder TrueAudio von Eidos (beide in Verbindung mit Square Enix)? Letzteres ist denn auch nichts weniger als der Versuch eines dedizierten Audio-DSP in Hardware zu etablieren und damit jene leistungsfähige wie performante Implementierung namens Creative's EAX zu beerben, was sich seinerzeit bedauerlicherweise zur Sackgasse entwickelt hat. Pro-Tip: TrueAudio ist einmal mehr OpenSource …

Hardware_Hoshi schrieb:
Ich würde vorschlagen wir warten erst einmal ab was AMD und Nvidia demnächst vorstellen. Neue Tricks und Features sind spannender als die ewigen Fanboythemen rauf und runter zu arbeiten.
Besser ist das … wink.gif


In diesem Sinne

Smartcom
 
@Smartcom5
Oh la la, das ist mal wieder ein Wuttext. Ich muss irgendeinen Nerv getroffen haben.


Smartcom5 schrieb:
Wenn irgendeiner dafür gesorgt hat (und dies auch heute noch tut), DirectX 11 am Leben zu erhalten, dann war das doch nVidia! Natürlich ist DirectX 11 der aktuelle Standard, aber auch nur weil nVidia ....

Usw. usw ... so viel bla bla... dabei ist es eigentlich die Schuld von Microsoft, dass DX11 nach wie vor der Standard ist. Liegt leider daran, dass sowohl DX12 und Windows 10 für Entwickler unattraktiv sind. Die Verbreitung von beiden hält sich bei den Spielern in Grenzen. Nvidia hat damit direkt nichts zu tun. Ganz im Gegenteil, das grüne Lager versucht seit Jahren andere Platformen wie Android und Linux zu pushen. Valve, Google und EPIC gehen in dieselbe Richtung.

AMD hat eher den Versuch unternommen DX11 zu überspringen und gleich auf die neuen APIs zu gehen. Wahrscheinlich um Budget einzusparen und sich lediglich auf bestimmte Gebiete zu konzentieren. Das hat bisher nicht so ganz funktioniert. Bis sich DX12 oder Vulkan durchsetzen wird es nämlich noch einige Zeit dauern.


Smartcom5 schrieb:
Und daß sich AMD ständig in Phantasien verrennt ist ebenso schlichtweg Quatsch.
Darf man annehmen, die zahllosen Vorstöße allein im Bereich Graphik wie Tesselation, Mantle, Vulkan, TrueAudio, TressFX, FreeSync oder AMD64, OpenCL & HSA im Bereich Computing – welche zuvorderst dem Markt als solches respektive Anwendern dienen und erst in zweiter Instanz AMD selbst – tust Du als eben jenes planlose Verrennen von Phantasten ab?

Aufflälligerweise sind das fast alles Beispiele bei denen sich die Entwickler für AMD reinhängen müssen. Diese Spezielle Art des Outsourcings ist in Entwicklerkreisen stark verpöhnt. Niemand setzt sich für einen Hersteller ein, der sich im letztem Jahrzehnt bis fast in den Ruin gewirtschaftet hat und selten Gewinne macht.

Da AMD das Entwicklungsbudget hinten und vorne fehlt, fangen sie immer etwas and und lassen andere den Rest fertig machen. Das funktioniert leider nur in den wenigsten Fällen. Liegt leider in der fehlenden Überzeugungsarbeit, Unterstützung und dem mieserablem Marketing seitens AMD.

Die AMD-Events sind immer totlangweilig und zum Fremdschämen. Alles in allem eine reine Zweitverschwendung! Jede Präsentation ist vollgepackt mit tonnenweise PowerPoint-Folien und Leuten, die sich sichtbar in ihrer Rolle nicht wohlfühlen und vor allem überhaupt nicht schauspielern können. Es ist jedes Mal eine Quälerei sich das anzuschauen. Mir graust es jetzt schon vor dem nächsten Event.


Smartcom5 schrieb:
AMD war immer wieder Technologieführer oder hat zumindest essenziell wichtige Impulse gegeben – auch wenn diese nicht selten untergingen, weil keine Unterstützung kam. Kopieren und hinterher hecheln sieht definitiv anders aus …

Für mich liegt das darin begründet, dass AMD immer nur halbfertige oder suboptimale Lösungen bringt. Dann kommen dann Konkurrenten wie Intel oder Nvidia und machen einen Guss daraus. Impulse alleine reichen nicht. Dem Rest hechelt AMD meistens mit Verspätung hinterher und verkauft es als etwas ganz Neues.
 
Zuletzt bearbeitet:
Was nützen mir die ganzen Innovationen, wenn ich die jetzt und heute nicht nutzen kann um mein Spiel zu spielen? AMD hat im Moment nichts um die Leistung der GTX 1070 und alle NVidia GPU's darüber zu kontern. Klar gibt es Leute die bereit sind auf AMD zu warten aber die meisten wollen einfach jetzt zocken oder machen das schon eine ganz Zeit lang sehr gut in Bereichen wo im Augenblick keine AMD GPU hin kommt.

AMD ist hier einfach zu langsam am Markt. Wer nächsten Monat mit seinem Neuem Ryzen gescheit zocken weil, der muß warten oder sich eine NVidia GPU in den PC stecken.
 
zum Thema dx 12:

dx 12 soll eine low Level api sein, dass bedeutet das die Software Entwickler viel näher an die Hardware programmieren können. es bedeutet aber auch das sie es nun SELBER machen müssen und es keine vorgefertigten für alle geltenden Lösungen gibt.

theoretisch ist das klasse! jedes spiel kann individuell angepasst werden! so kann man aus jedem spiel das Maximum rausholen! yay!

praktisch bedeutet es: spiele Entwickler die sich heute schon nicht die Zeit nehmen (können/ wollen?) um ein fertiges und durchgetestetes spiel auf den Markt zu werfen gezwungen werden noch mehr Arbeit zu machen die sie sich selbstverständlich eben NICHT machen.

schau dir mal die spiele heutzutage an: die armen Leute die das bei Release spielen sind doch de facto Spiele Tester :-( den Entwicklern reicht doch die Zeit und das Geld vorne und hinten nicht. in so einer Situation anzunehmen das ein DX Erfolg haben wird das den programmieren MEHR Arbeit auf bürgt... ich weiß nicht... da habe ich meine Zweifel. leider scheint mir die Entwicklung des letzten Jahres recht zu geben :-(
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Was nützen mir die ganzen Innovationen, wenn ich die jetzt und heute nicht nutzen kann um mein Spiel zu spielen? AMD hat im Moment nichts um die Leistung der GTX 1070 und alle NVidia GPU's darüber zu kontern. Klar gibt es Leute die bereit sind auf AMD zu warten aber die meisten wollen einfach jetzt zocken oder machen das schon eine ganz Zeit lang sehr gut in Bereichen wo im Augenblick keine AMD GPU hin kommt.

Es kommt drauf an wie und was man zockt. Für FHD reicht eine RX480 oder 390X oder Fury locker aus.
Für WQHD reicht die Fury und für UHD reicht auch die 1080 nicht.

Von dem her WAYNE?

Und wer nicht warten kann und nach den letzten Verarsch Aktionen immer noch NV kauft, der soll halt.

Ich warte lieber bis richtige GPU der 14NM Gen kommen und bis dahin kann ich mit der 480 wunderbar zocken.
 
@modena.ch
Auf einmal reichen 4GB wieder vollkommen aus und die 6GB der 1060 sind zu wenig und es wird ja sowieso nur FullHD gespielt aber dafür brauchen wir unbedingt eine 8 Core CPU, die dann eine RX480 befeuern darf?
Wenn Du mit der 480 wunderbar zocken kannst, warum wartest Du auf etwas besseres? Bis eine richtige GPU kommt? Wir alle haben in Deinen Augen falsche GPU's und sind alle verarscht worden weil wir alle blöd sind und Du hast den vollen Durchblick?

Hat schon seinen Grund warum NVidia so einen hohen Marktanteil hat. ;)
 
Nun, ich sage nicht dass ich den super Durchblick habe, aber wenn man immer wieder von einer Firma nachweislich verarscht und ausgenommen wird, muss ich schon an der Intelligenz der Masse zweifeln, wenn man deren Produkte weiterhin kauft.

Für WQHD werden die 4GB meist reichen.
Es kommt nicht nur drauf an wieviel dass es ist, sondern welcher Art der Speicher ist und wie dieser angebunden ist.

Was FHD angeht, meine Möhre hängt zwar an ner UHD Glotze, aber bei knapp drei Meter Distanz würde ich nicht viel von UHD haben. Daher bleib ich vorläufig bei FHD. Ich brauch auch kein VR oder 144Hz.
Für alles Andere reicht die 480 leicht und dank der 8GB kann ich auch überall mit High Res Texturen fahren.
Ausserdem könnt ich die 480 immer noch gut verkaufen wenn eine Vega aufschlägt. Glaube kaum dass der Preis grossartig einbricht.
Ausserdem war Ungeduld noch nie ein guter Berater, aber dass müssen manche noch lernen.

Was die 8 Kerne angeht die kann man nicht nur zum Gamen einsetzen, auch wenns vielleicht neu ist.
 
Zuletzt bearbeitet:
modena.ch schrieb:
Ausserdem war Ungeduld noch nie ein guter Berater, aber dass müssen manche noch lernen.

Das stimmt.
Vor meiner 1080 hatte ich noch ne GTX 670 drin(bezüglich: Geduld).

Die war für UWQHD leider nicht mehr ausreichend.
Die 1080 is dafür allerdings perfekt !

P.s.: UHD würde ich als Rückschritt zu UWQHD empfinden, da mir dann ne Menge Bild fehlen würde, rechts und links.
 
Zuletzt bearbeitet:
Zurück
Oben