News Gaming Celebration: Nvidia lädt zur GDC 2017 zum Thema GeForce GTX

@SpeedKill08: HBM2 ist nur in geringen Stückzahl verfügbar und damit auch relativ teuer. Das soll erst im Sommer besser werden, dazu es hier auf CB auch jüngst eine Meldung dazu.

Edit: Hier ist es -> 3D-NAND-V4 mit 512 Gbit und HBM2 im Produktkatalog. Zitat daraus: "Neuerdings führt SK Hynix auch den Speichertyp HBM2 auf (PDF, Direktdownload). Von der zweiten Generation des High Bandwidth Memory wird allerdings nur eine Variante mit 4 GByte Speicherkapazität und 1,6 Gbit/s Datenrate pro Pin aufgeführt. Die Verfügbarkeit wird für das erste Quartal 2017 angegeben."
 
estros schrieb:
Nachdem NVIDIA bald ein Jahr den Markt mit der neusten Gen ohne Konkurrenz für sich hatte, macht ein Namensupgrade in der Tat Sinn.
Mich interessiert insbesondere der Speicher-Kampf von GDDR5X und HBM2. Jeder Hersteller wird auf ein Produkt setzen.:)

da gibts keinen kampf, HBM2 wird für die top produkte genutzt, GDDR5X und non X für den rest. die kosten für HB2 scheinen einfach zu hoch zu sein.

zumal es auch null sinn macht auf eine karte die FHD schaft HBM2 speicher draufzuknallen der sich dann langweilt.
 
Faust2011 schrieb:
@SpeedKill08: HBM2 ist nur in geringen Stückzahl verfügbar und damit auch relativ teuer. Das soll erst im Sommer besser werden, dazu es hier auf CB auch jüngst eine Meldung dazu.

Edit: Hier ist es -> 3D-NAND-V4 mit 512 Gbit und HBM2 im Produktkatalog. Zitat daraus: "Neuerdings führt SK Hynix auch den Speichertyp HBM2 auf (PDF, Direktdownload). Von der zweiten Generation des High Bandwidth Memory wird allerdings nur eine Variante mit 4 GByte Speicherkapazität und 1,6 Gbit/s Datenrate pro Pin aufgeführt. Die Verfügbarkeit wird für das erste Quartal 2017 angegeben."

Das bezieht sich aber auf SK Hynix.
Nvidia setzt ja als Hersteller auf Samsung (zumindest bei den Quadros).

Darüber hinaus nutzt die Quadro GP100 wie das Tesla-Gegenstück 16 Gigabyte der Speichertechnologie HBM2 von Samsung.
https://www.computerbase.de/2017-02/nvidia-quadro-gp100-hbm2/
 
Meh... Hab gerade ne 1080 in der Lieferung und jetzt das...
Wenn tatsächlich ne 2070 mit 1080 Leistung käme und keine 1080 ti zum üblichen Mondpreis, wäre das schon ein bisschen bitter.
 
Bulletchief schrieb:
Meh... Hab gerade ne 1080 in der Lieferung und jetzt das...
Wenn tatsächlich ne 2070 mit 1080 Leistung käme und keine 1080 ti zum üblichen Mondpreis, wäre das schon ein bisschen bitter.

Abwarten, entweder kommt nun ein Topmodell oder die neue Produktlinie wird vorgestellt. Vor dem Sommer bringt NVIDIA keine neue Gen.
 
Geht es nur mir so oder ist 2017 ein teures Jahr für Aufrüster?
Extrem teuer, RAM und GPUs auf Allzeithoch. Nur AMD mit Zen könnte hier positiv aus der Reihe tanzen. Vega mit HBM² also extrem teuren Vram dürfte auch recht hochpreisig ausfallen.

Mein Beileid an alle die einen neuen PC brauchen. Recht viel teurer geht nicht.
 
Replay86 schrieb:
Bis Vega erscheint ist Pascal 1 Jahr alt. Konkurrenz sieht anders aus. Man überlässt Nvidia völlig den High-End Gaming Markt. Gleiche Fehler hat AMD schon zu der Maxwell Generation gemacht.

Die 1080 Ti hol ich mir nicht wenn da überhaupt noch eine kommt.
Volta wird vielleicht noch dieses Jahr vorgestellt werden.

Bis Vega erscheint ist die Pascal Performance Klasse ein Jahr alt. Die Mittelklasse mit den 1050/1060er ist nicht gar alt Und da hat AMD mit Polaris auch eine sehr gute Konkurrenz.
Aber es sieht so aus wie wenn Vega von Performance bis High End alles abdeckt. Und das ist eben nicht nur ein Shrink.
Die Billiglösung teuer verkauft, das hat NV gemacht.

Mit Volta würd ich vor 2018 nicht rechnen, eher ist noch ein Pascal Refresh im 2017 fällig.
 
Die 1080 Ti ist auf jeden Fall keinen müden Cent wert sollte sich die Karte nur zwischen 1080ger und TitanX bewegen.

Bei max. 5FPS mehr zur 1080 und ~900€ nicht empfehlenswert.
 
SpeedKill08 schrieb:
Mich wundert ja, dass Pascal zwar HBM2 kompatibel ist, aber Nvidia bisher nicht die Consumerkarten damit versorgt hat. Stattdessen nur die Top-Quadro- und die Karten für autonomes Fahren.

Schade. :(

Wundert mich gar nicht. HBM ist teuer und bietet nicht die riesigen Vorteile im Consumermarkt. Um es anzubieten müssten sie die karten entweder viel teurer machen, was weniger Verkäufe nach sich zieht oder auf Marge verzichten. Sie müssten auch gleich mindestens 3 bis 4 Stacks HBM2 liefern, damit man schneller als GDDR5X an 384 Bit ist. Und wozu das ganze? Nvidia ist auch so im High end Markt seit Monaten konkurrenzlos. Da kann man die Die Technik auch im Enterprisesegment reifen lassen und in den Consumermarkt bringen, wenn es günstig genug ist. Sieht man ja auch, was AMD davon hatte. Die Fury X war langsamer als die 980ti (im schnitt) und dafür aber gleich teuer, teilweise sogar teurer.

@Topic: Gibt doch keine langweiligere karte, als die 1080Ti / 2080. Man weiß doch, was man erwarten kann. Eine Karte die in etw die leistung der Titan X hat (weniger Shader / mehr Takt) und 10GB. Und die TitanX ist schon nicht so viel schneller, als ne Custom 1080 OC.

Ich glaube aber kaum, dass sie 2080 heißt. Sonst hätte nvidia den namen nicht schon ins gespräch gebracht.
 
Faust2011 schrieb:
@SpeedKill08: HBM2 ist nur in geringen Stückzahl verfügbar und damit auch relativ teuer. Das soll erst im Sommer besser werden, dazu es hier auf CB auch jüngst eine Meldung dazu.
Hinzu kommt, dass AMD sich das Prioritätsrecht für den Erwerb des HBM Speicher gesichert hat.
Wenn nur eine geringe Menge des Speichers verfügbar ist, dann müssen die Hersteller zuerst AMD mit Speicher versorgen, bevor nVidia an die Reihe kommt.

Die Frage ist, ob sich das wirklich für AMD lohnt, denn nVidia scheint ja momentan auch noch gut ohne HBM auszukommen.
Die Vorteile aus diesem "Priority Access" haben sie meiner Meinung nach nicht wirklich nutzen können.
 
noxon schrieb:
Hinzu kommt, dass AMD sich das Prioritätsrecht für den Erwerb des HBM Speicher gesichert hat.
Wenn nur eine geringe Menge des Speichers verfügbar ist, dann müssen die Hersteller zuerst AMD mit Speicher versorgen, bevor nVidia an die Reihe kommt.

Das sich das dumme Gerücht immer noch so verbissen hält. Dabei ist es schon dutzende Male widerlegt worden. AMD kann kein Vorzugsrecht auf HBM2 haben, da der Standard mittlerweile über die JEDEC spezifiziert ist. Daher darf die Speicher jeder Herstellen, der Mitglied ist.

Nvidia bezieht seine HBM2 Speicher übrigens bei Samsung, nicht bei SK Hynix wie AMD. Die gestapelten Speicher sind leider immer noch teuer in der Herstellung, weswegen Nvidia es nur auf den ultra-profitablen Server-GPUs mit bis zu 8x GP100 verbaut.

Nvidia wird wohl weiterhin auf GDDR5X setzen und AMD dann notfalls über den Preis schlagen. Vergiss nicht, da sind immer noch Sprünge von jetzigen 10 auf bis zu 14 GBit/s möglich.


noxon schrieb:
Die Frage ist, ob sich das wirklich für AMD lohnt, denn nVidia scheint ja momentan auch noch gut ohne HBM auszukommen.

HBM ist nur ein Papiertiger. Wenn man nicht auf Teufel komm raus Energie sparen möchte, ist der Speicher eine Lachnummer. Die Bandbreite rechtfertigt noch lange nicht die hohen Herstellungskosten. Bei Spielen merkt man es nicht einmal, weil die Vorteile wenn dann nur bei extrem hohen Auflösungen liegen, bei denen die GPU schon wieder schlapp macht.

Im schlimmsten Fall wiederholt AMD den Flop von Fiji mit Vega sogar. Mir wäre es lieber wenn beide Hersteller noch GDDR5X einsetzen bis GDDR6 für die nächste Generation fertig ist. Die HBM2-Karten kann ansonsten keiner bezahlen.
 
Shoryuken94 schrieb:
...Und die TitanX ist schon nicht so viel schneller, als ne Custom 1080 OC...

Wenn vergleicht man Stock zu Stock und OC zu OC und da ist die Titan X jeweils ca. 35-40% schneller als die 1080. Ist also auch noch Luft dazwischen.
 
IDukeI schrieb:
Wenn vergleicht man Stock zu Stock und OC zu OC und da ist die Titan X jeweils ca. 35-40% schneller als die 1080. Ist also auch noch Luft dazwischen.
Da die 1080 klar im Speicherlimit hängt, macht es schon Sinn, die beiden nicht Stock zu vergleichen. Entzieht man der 1080 ihr Speicherlimit durch OC kommt sie der Titan sehr nahe mit Stock GPU Takt.
Falls die Daten so stimmen, wird sich die "TI" relativ genau zwischen der Titan und der 1080 bewegen.
Entscheidend für mich wäre, ob es schon Verbesserungen in der Produktion des GP102 gibt und diese eventuell taktfreudiger sind...
 
Eigentlich nicht, kommt auf die Kühlung an. Die Pascal Titan X taktet bei passender Temp allein auf 1800-1900Mhz ohne OC.
Ich mein wenn man schon Transistoren und Shaderanzahl vergleicht ist logisch das die X bei selben Takt deutlich schneller ist. Halt lediglich die hohen Temps die der X mit Standard Kühler zum Problem werden. 2000Mhz+ packen beide bei passender Kühlung.
 
Hardware_Hoshi schrieb:
HBM ist nur ein Papiertiger. Wenn man nicht auf Teufel komm raus Energie sparen möchte, ist der Speicher eine Lachnummer. Die Bandbreite rechtfertigt noch lange nicht die hohen Herstellungskosten. Bei Spielen merkt man es nicht einmal, weil die Vorteile wenn dann nur bei extrem hohen Auflösungen liegen, bei denen die GPU schon wieder schlapp macht.

Im schlimmsten Fall wiederholt AMD den Flop von Fiji mit Vega sogar. Mir wäre es lieber wenn beide Hersteller noch GDDR5X einsetzen bis GDDR6 für die nächste Generation fertig ist. Die HBM2-Karten kann ansonsten keiner bezahlen.

Natürlich rechtfertigt die Bandbreite die Kosten.
Wir haben plötzlich Speicher mit 2-5 facher Bandbreite, die dazu einiges sparsamer ist und
auf kleinstem Raum rund um die GPU verbaut werden kann. Dazu sind noch Vorteile bei
der Adressierbarkeit gegeben, was Speicher spart.

Also doch einige gravierende Vorteile und GDDR5X ist nun auch nicht speziell günstig.


FIJI war aus zwei Gründen nicht optimal, das ist a) das zu schlanke Tonga Frontend, da die GPU eigentlich für 20NM geplant wurde und man musste bei 28NM Kompromisse machen, sonst wär der Chip noch grösser und b) die maximale Speichergrösse dank HBM1. Diese beiden Probleme sind bei VEGA nicht gegeben. Wäre FIJI wie geplant gekommen, wäre die 980TI und 1070er kaum ein ernsthafter Gegner.

Und wenn AMD wie angekündigt bei VEGA abliefert.
Also mit der besseren Kompression von Polaris und einer nochmals besseren Farbkompression,
mit der besseren Auslastbarkeit von Polaris, welche mit dem Umbau des Front und Backends nochmals
verbessert werden soll, mit erhöhter IPC, mit besserer Taktbarkeit, mit grösseren Caches pro Shader,
mit der Tile Based Rasterization die Maxwell so effizient gemacht hat, mit HBM2 und sicher mindestens 8GB Speicher, mit wohl mindestens 4096 Shadern.
etc.
Das alles zusammen heisst für mich ganz klar Maxwell 1.1, aka Pascal wird einen verdammt schweren Stand haben und dieses Design zielt absichtlich schon auf Volta.
 
Zuletzt bearbeitet:
Da wird garantiert die Ti erstmal kommen. War doch bei der letzten Generation ganz genauso, dass ein Jahr nach der 980 die Ti kam und ein Jahr später wieder die 1080. Denke mal der Rhythmus wird sich da halten.
 
Faust2011 schrieb:

Was das bringen soll? Nun, man munkelt, dass zum einen Volta nicht nur den HBM2-Speicher bringt und ggf. einen Shrink in der Lithographie durchführen wird, sondern dass Volta vor allem eine neue Architektur sein wird.

Ich meinte eher, was »Volta« groß bringen sollte, wenn es dieses Jahr noch erscheint?
Es war doch mehr oder weniger schon mit nVidia's Ankündigung des Vorverlegens klar, daß sollte etwas Names Volta '17 kommen, dies bloß ein Pascal-Refresh wird und weniger Volta im Sinne des ursprünglich geplanten Shrinks auf 10nm, mit neuer Architektur, HBM(2), exorbitantem Leistungszuwachs, hervorragendem OC-Potenzial & Co.

Smartcom5 schrieb:
Der schmale Grad oder: The Thin Red Line
Ich bin mal so nassforsch und stelle einmal mehr eine dieser allseits beliebten Thesen auf:
  • Man hat in den Patentstreitigkeiten klein beigeben müssen, um noch bei Samsung fertigen zu können – da man ganz offensichtlich bei TSMC dank Apple's A10 nichts mehr abbekommt. Ausbeute & Co …
  • Volta ist auf unbestimmte Zeit nach hinten verschoben worden.
  • Das, was jetzt als »Volta« kommt, ist bloß Maxwellv4, pardon, Pascal 2.0 auf 14nm und wird die Leistung lediglich aus dem ja ach so schlechten 14nm LPP-Prozess holen.

Ich halte es für äußerst unwahrscheinlich, daß nVidia überhaupt binnen der nächsten 12 Monate mit einem gänzlich neuen Entwurf aufwarten kann. Wenn Volta dieses Jahr kommen sollte, wird es ziemlich sicher lediglich »Volta« und ein Pascal-Refresh analog zu Skylake → Kaby Lake und Volta wird dann schlicht umbenannt.

Die Effizienzsteigerung aus dem 14nm-Prozess dürften ausreichen, um dem gemeinen Spielervolk ein eventuelles Stepping als neue Architektur zu verkaufen. Denn, wir erinnern uns, der so hochgelobte 16nm-Shrink war geradezu ernüchternd und blieb weit hinter den Erwartungen zurück.

Und selbst wenn, stellt sich noch immer die Frage, Wer und wo dieser zu fertigen ist. Samsung oder TSMC – beide haben noch immer nicht die gewünschten Yields, müssen notgedrungen kleinere SoC's wie jene von Qualcomm fertigen und sind ohnehin mit Apple's A10 mehr als beschäftigt. Da wäre jetzt ein BigChip mit +7 Milliarden Transistoren geradezu finanzieller Selbstmord und bestenfalls ein fröhlich-teures Vergnügen zum Wafer-schreddern.

… und daß nVidia noch einmal dermaßen schlau ist, sich mit der Brechstange das selbe Fiasko wie bei Pascal einzuhandeln, darf bezweifelt werden. Wobei …


In diesem Sinne

Smartcom
 
modena.ch schrieb:
Natürlich rechtfertigt die Bandbreite die Kosten.
Wir haben plötzlich Speicher mit 2-5 facher Bandbreite, die dazu einiges sparsamer ist und
auf kleinstem Raum rund um die GPU verbaut werden kann. Dazu sind noch Vorteile bei
der Adressierbarkeit gegeben, was Speicher spart.

Also doch einige gravierende Vorteile und GDDR5X ist nun auch nicht speziell günstig.

Das ändert nach wie vor nichts an der Tatsache, dass bei HBM(2) die Kosten explodiert sind. Die höheren Preise machen sich nicht 1 zu 1 in der Leistung bemerkbar. Ich hätte mir auch gerne eine AMD Nano geholt, aber mit limiterten 4GB und exorbitanten Preisen war das keine Option. Der Trend hat sich über die gesamte Fury-Reihe durchgezogen.

Wenn schon neue Technik, dann auch bezahlbar.


modena.ch schrieb:
FIJI war aus zwei Gründen nicht optimal, das ist a) das zu schlanke Tonga Frontend, da die GPU eigentlich für 20NM geplant wurde und man musste bei 28NM Kompromisse machen, sonst wär der Chip noch grösser und b) die maximale Speichergrösse dank HBM1. Diese beiden Probleme sind bei VEGA nicht gegeben. Wäre FIJI wie geplant gekommen, wäre die 980TI und 1070er kaum ein ernsthafter Gegner.

Lassen wir doch die Ausreden sein. Die 200er Radeon refreshs serie war für 20nm geplant, msuste aber in 28nm weiter geführt werden. AMD hat aber keine gutes Händchen mit Planung und es versiebt. Da kamen dann GPUs mit Grillfunktion, die kam kühlbar waren. Fiji hatte dasselbe Problem, trotz der Vorteile von HBM. Da hilft kein wenn und kein aber.

Sagen wir es doch wie es ist, Fiji war nicht gut genug für die Bandbreite. Aus dem Grund mache ich mir Sorgen was Vega bringt.


modena.ch schrieb:
Und wenn AMD wie angekündigt bei VEGA abliefert.
Also mit der besseren Kompression von Polaris und einer nochmals besseren Farbkompression,
mit der besseren Auslastbarkeit von Polaris, welche mit dem Umbau des Front und Backends nochmals
verbessert werden soll, mit erhöhter IPC, mit besserer Taktbarkeit, mit grösseren Caches pro Shader,
mit der Tile Based Rasterization die Maxwell so effizient gemacht hat, mit HBM2 und sicher mindestens 8GB Speicher, mit wohl mindestens 4096 Shadern.

Das sind erst einmal alles nur versprechen von AMD.

Die haben schon seit Tonga große Töne gespuckt und am Ende war alles nur mittelmäßig. Das Problem ist doch, dass GCN mittlerweile auf dem Zahnfleisch geht. Massivst viele Shader, die AMD aber kaum ausgelastet bekommt. Daher bringen sie solche Spielchen wie "Async Compute Shader" um die brachliegende Leistung irgendwie auf die Straße zu bekommen. Die Spieleentwickler müssen dann für jedes bißchen Extra tot optimieren.

Caches alleine werden diese Probleme nicht lösen. GCN braucht eine Runderneuerung.

Bei Nvidia war der Schritt von Kepler auf Maxwell riesig. Von Maxwell/Pascal auf Volta passiert das wahrscheinlich ebenso. Vega hingegen wird viel Kosmetik enthalten. Ich rechner allerdings mit nichts Weltbewegendem.


modena.ch schrieb:
Das alles zusammen heisst für mich ganz klar Maxwell 1.1, aka Pascal wird einen verdammt schweren Stand haben und dieses Design zielt absichtlich schon auf Volta.

Tatsache? Was du alles weißt .. so ganz ohne Fakten. Es heißt ja "Der Glaube kann Berge versetzen".
Sollte wir nicht erst einmal auf klare Fakten warten? Früher waren AMD und Nvidia vielleicht 6 Monate auseinander bis sich die Karten gegenseitig überboten hatten. Heutzutage ist es für die Radeons schon bis zu einem Jahr(!). So bindet man jedenfalls keine Kunden. Kein Wunder, dass alle Käufer zu Nvidia überlaufen. Ohne Konkurrenz hat man keine Wahl.
 
Wenn man es sich einfach macht, also einfach nur Shrink wie bei Maxwell/Pascal passiert, geht das eben schnell.
Und viel mehr als eine Shrink ist das eben nicht.

Wenn man soviel Aufwand auf sich nimmt, wie es AMD macht und selbst nach dem nicht kleinen Schritt von Polaris die Architektur an allen Ecken und Enden aufbohrt und über den Haufen wirft dann dauert das. Und dann kann man auch mit einem guten Ergebniss rechnen.
Und sind wir mal ehrlich, ein Chip mit der Grösse von Vega den AMD gezeigt hat, nur schon mit dem Stand von Polaris wischt mit der 1070/1080er den Boden ohne Wenn und Aber. Denn auch da ist etwas mehr Takt möglich als FIJI bietet.
Denn GP104 ist nunmal nur Performance Klasse mit kastraten Speicherinterface und wer da immer noch von High End träumt, hat das mit den Chipgrössen und dem Interface nicht ganz begriffen.
Also ja, ich bin sicher, VEGA wird richtig schnell.

Was die Auslastung angeht, nun das versucht AMD eben schon mit Asyc Compute, mit Polaris und noch mehr bei VEGA zu verbessern. Aber das verbessert sich zukünftig auch ganz von alleine mit DX12 und Vulkan.
Da muss man nur mal schauen wie Hawaii/Grenada trotz ihres Alters mit den neuen APIs noch aufblühen.
Schon nur der auf GCN 4 Stand mit 14NM und dem entsprechenden Takt könnte eine Gefahr für eine 1070er sein.

NV steht nur dank dem rückständigen DX11 so gut da. Denn wenns darum ginge wer da die Fortschrittlichere Architektur auf die Beine stellt, ist das sicher nicht NV.

Davon ab GCN am Ende? Ich krieg gleich Lachkrämpfe, wieso sehen die letzen NV Architekturen immer ähnlicher aus wie GCN? Wohl nicht weil man besonders tolle eigene Ideen hat....
 
Zuletzt bearbeitet:
modena.ch schrieb:
Wenn man es sich einfach macht, also einfach nur Shrink wie bei Maxwell/Pascal passiert, geht das eben schnell.
Und viel mehr als eine Shrink ist das eben nicht.

Für einen perfekten Shrink braucht man aber auch eine gute Basis-Architektur. Maxwell war genau das. Bei Pascal wurden zusätzlich grundlegende Änderungen an der Spannungsversorgung und der Rending-Pipeline gemacht. Über Letzteres hast du dich ja selbst lustig gemacht. Eine Technik wie "Tile Based Rasterization" saugt man sich nicht aus den Fingern, sondern muss lange und gründlich dafür forschen.


modena.ch schrieb:
Wenn man soviel Aufwand auf sich nimmt, wie es AMD macht und selbst nach dem nicht kleinen Schritt von Polaris die Architektur an allen Ecken und Enden aufbohrt und über den Haufen wirft dann dauert das. Und dann kann man auch mit einem guten Ergebniss rechnen.

Sinnlos nur an den Symptomen herumdoktorn ist keine Lösung. Was AMD lähmt sind sowohl die legacy-quälereien mit den Konsolen als auch ihre langjährige finanzielle Lage. Die Überarbeitung von GCN steht schon lange an, aber es fehlt halt an Budget für Forschung und Entwicklung. Alles was Amd zur Verfügung hatte, mussten sie in Zen stecken. Die Radeon Technology Group hat nur die Krümel bekommen und ist daher aktuell im Hintertreffen. Mir kann keiner erzählen AMd hätte ernsthaft geplant 1 Jahr lang kein High-End zu haben. Die Verantwortlichen würde ich ansonsten fristlos entlassen!


modena.ch schrieb:
Und sind wir mal ehrlich, ein Chip mit der Grösse von Vega den AMD gezeigt hat, nur schon mit dem Stand von Polaris wischt mit der 1070/1080er den Boden ohne Wenn und Aber. Denn auch da ist etwas mehr Takt möglich als FIJI bietet.
Denn GP104 ist nunmal nur Performance Klasse mit kastraten Speicherinterface und wer da immer noch von High End träumt, hat das mit den Chipgrössen und dem Interface nicht ganz begriffen.

Beim Thema Chipgröße würde ich bei AMD nicht so prahlen. Die Jungs haben nicht einmal den kleineren, eigentlich unterlegen Chip der GTX 1060 vollständig im Griff. Im besten Fall haben sie Gleichstand und bei besonders optimierten Fällen einmal die Nase vorn. Das dürfte eigentlich nicht sein, ist aber so.

Das Schlimme dabei sind sie Verbräuche im Vergleich zu der "High-End" Klasse der GTX1070/1080. Bei Polaris stimmt das Verhältnis genau so wenig wie bei Tonga/Fiji hinten und vorne nicht. Ich hoffe sowohl AMD als auch Nvidia legen da noch eine Stange drauf und liefern endlich wirkliches High-End, keine Mittelklasse zu High-Endpreisen.

Eine neue Serie käme da wie gerufen!


modena.ch schrieb:
Also ja, ich bin sicher, VEGA wird richtig schnell.

Frage:
Woher nimmst du diese zuversicht ohne irgendeine Grundlage?


modena.ch schrieb:
NV steht nur dank dem rückständigen DX11 so gut da. Denn wenns darum ginge wer da die Fortschrittlichere Architektur auf die Beine stellt, ist das sicher nicht NV.

DX11 ist nun einmal der aktuelle Standard in der Spielindustrie. Es ist ja nicht die Schuld von Nvidia, wenn sich AMD ständig in irgendwelchen Fantasien verrennt, die aktuell noch keiner Unterstützt. Am Ende müssen es immer die Entwickler ausbaden und dazu haben viele einfach keine Lust.


modena.ch schrieb:
Davon ab GCN am Ende? Ich krieg gleich Lachkrämpfe, wieso sehen die letzen NV Architekturen immer ähnlicher aus wie GCN? Wohl nicht weil man besonders tolle eigene Ideen hat....

Beide Seiten gleichen ihre Hardware regelmäßig an um der Gegenseite an um der Konkurrenz keine Vorteile zu gewähren. GCN tut das wie die Geforce gleichermaßen. Ich sehe das weder positiv noch negativ. Es ist einfach so!

Bei neuen Techniken ist es aber auch all zu oft AMD, die die Gegenseite im Nachhinein kopieren und immer einen Schritt hinterher hecheln. Das bereits erwähnte Budget und das schonunglose verlassen auf Unterstützung aus Reihen der Entwickler sind deftige Gründe dafür.
__________________
Ich würde vorschlagen wir warten erst einmal ab was AMD und Nvidia demnächst vorstellen. Neue Tricks und Features sind spannender als die ewigen Fanboythemen rauf und runter zu arbeiten.
 
Zuletzt bearbeitet:
Zurück
Oben