Notiz Nvidia: GeForce RTX 2080 Ti verschiebt sich um eine Woche

RTX interessiert mich jetzt mal bis Ende 2019 nicht, mal schauen wie sich die Spiele und Karten Preise entwickeln.

Konnte die 1080 gegen eine 1080 ti ersetzten mit gerade mal Fr. 100.- Aufpreis.
Ein wenig warten zahlt sich immer aus egal bei was...
 
iNFECTED_pHILZ schrieb:
Wir reden hier von einer Woche und nicht wie Vega mal hier nen Monat, da nen Monat. DAS war fail.
Finde das bei einer Woche jetzt auch nicht schlimm. Es kann immer mal was vorkommen, dass sich etwas verschiebt und sei es eine große Lieferung die beim Zoll ein paar Tage länger hängen geblieben ist als geplant oder sonst was.

Aber es ist ja eine böse Nvidia Karte, eine Woche geht ja mal gar nicht. Betrug am Kunden...
 
Shoryuken94 schrieb:
Finde das bei einer Woche jetzt auch nicht schlimm. Es kann immer mal was vorkommen, dass sich etwas verschiebt und sei es eine große Lieferung die beim Zoll ein paar Tage länger hängen geblieben ist als geplant oder sonst was.

Aber es ist ja eine böse Nvidia Karte, eine Woche geht ja mal gar nicht. Betrug am Kunden...

Aber Vega war ja eine lame AMD-Fußvolk Karte, verschieben war ja böse... ;)
 
timboboy123 schrieb:
Aber Vega war ja eine lame AMD-Fußvolk Karte, verschieben war ja böse... ;)
Hab ich nie gesagt! Wobei es bei Vega die Leute wohl mehr gestört hat, da es mehrere Monate wahren und die Konkurrenz bereits seit über einem Jahr entsprechende Produkte am Markt hatte.

Bei der 2080Ti ist es eine Woche bei einem Produkt was aktuell keine Konkurrenz am Markt hat
 
Shoryuken94 schrieb:
Hab ich nie gesagt! Wobei es bei Vega die Leute wohl mehr gestört hat, da es mehrere Monate wahren und die Konkurrenz bereits seit über einem Jahr entsprechende Produkte am Markt hatte.

Bei der 2080Ti ist es eine Woche bei einem Produkt was aktuell keine Konkurrenz am Markt hat

Punkt 1: An dem ;) Sollte man erkennen, dass das eine wohl eine stilistische Übertreibung war. Nvidia mach was doofes: Aber AMD hat doch. AMD macht was doofes: Aber Nvidia hat doch. Was der eine macht rechtfertigt nicht was der andere macht. Das war kein direkter Vorwurf. Ich finde diese Argumentationsweise nur so lustig.
Immer dieses: aber der andere hat doch auch...^^

Punkt 2: Das Vega "nur" 1080 Niveau schafft reicht vielen Leuten. Die die sich drüber beklagen haben idR. selbst keine oder generell selten AMD Karten.

Punkt 3: Ja, die 2080ti hat keine Konkurrenz am Markt wie man am Preis ja eindrucksvoll sieht. Allerdings ist der Markt für solche Karten auch sehr klein.
Die Frage ist ob wir wirklich Konkurrenz für das Ding brauchen^^ Mir ist es lieber AMD macht gute CPUs, Konsolen-Chips und nette Grafikkarten als sau teuren Enthusiast-Krempel.^^ Gute CPUs UND Enthusiast GPUs wird denke ich so schnell nicht passieren weil Budget. (Oder xx70 Karten für 600€ +). Da waren mir die 970 Zeiten bedeutend lieber.
 
Zuletzt bearbeitet:
Chismon schrieb:
Es beschweren sich ja auch nicht alle hier ;), aber Fakt ist, dass es ein Paperlaunch (wenn auch voraussichtlich nur ein relativ kurzer) ist und bei dem Zirkus den nVidia mit NDA und bei der Release-Praesentation vom Stapel gelassen hat, haben sie sich das/die Kritik auch redlich verdient, wie ich finde.

Man kann natuerlich auch alles zu/von nVidia schoen reden, wie einige Kunden hier im Forum, aber wer alles ueber den gruenen Klee lobt, leidet m.E. an Realitaetsschwund und ich finde es gut, dass CB hier die Notiz postet, die eben andeutet, dass auch bei nVidia nicht immer alles rund laeuft.

Deutlich interessanter als den Hinweis auf diesen Paperlaunch der RTX 2080Ti finde ich aber die auf Wccftech gelieferte Prognose, dass GPUs - inklusive der RTX Turing Karten - fuer PC-Eigenbauer bis zu 10% teurer auf dem amerikanischen Markt durch Trumps Handelskrieg mit China werden sollen und ob das dann auch fuer den europaeischen Markt/andere Maerkte gelten wird?

Es koennte allerdings auch ein sorgsam gestreutes/lanciertes Geruecht (mit "freundlicher Unterstuetzung nVidias" :confused_alt:) sein, um den Pascal und Turing Absatz (mehr als bisher erreicht/erhofft) kuenstlich anzukurbeln :p, nachdem WccfTech sich mit teilweise unsachlichem Vorschuss-Hype bzgl. RTX/Turing GPUs auch nicht gerade mit Ruhm bekleckert hat.

Warten wir es ab, ich werde gerne noch abwarten/mich gedulden und schlimmstenfalls die 10% mehr zahlen und dafuer dann im kommenden Jahr eine 7nm von AMD/RTG oder auch nVidia kaufen, anstatt dann eine schon wieder altbackene 12nm GPU zu besitzen.

Ich bezweifle, dass die neuen Turing RTX Karten in 12nm mit der Speichermengenstagnation gut altern/langlebig sein werden und da ich zumindest bei der (nVidia) Preistreiberei im GPU-Bereich (hoffentlich sorgt ein moeglicher Gaming-dGPU-Markteintritt Intels in 2020 dann zeitweise fuer Preisstabilitaet) mittlerweile von einem Mindestnutzungshorizont von 4 Jahren ausgehe, disqualifiziert sich Turing als erste GPU-Generation mit unausgereiftem und nischenhaft unterstuetztem Hybrid-Raytracing fuer mich.
was soll ein auf 7nm geshrinkter tu102/4/6 besser können? bei 1.3x performance ratio zu 16+FF kann am ende 12FFn gleiche leistung bringen; solange die wafer günstiger sind und die ausbeute höher ist macht 7LP null sinn. Jensen dürfte eventuell kommendes jahr (ende) mit 2MB density gddr6 chips kommen; bei gleicher arch und node, aber selbst das bleibt unklar.
 
  • Gefällt mir
Reaktionen: .Sentinel.
timboboy123 schrieb:
Punkt 2: Das Vega "nur" 1080 Niveau schafft reicht vielen Leuten. Die die sich drüber beklagen haben idR. selbst keine oder generell selten AMD Karten.

Das ist doch egal wie schnell Vega geworden ist. Die direkte Konkurrenz hat mehrere Produkte in der entsprechenden Leistungsklasse am markt wo sich potentielle Kunden bedienen konnten. Für Leute die auf Vega gewartet haben war es natürlich ziemlich ärgerlich, dass sich der Release immer wieder verschoben hat. Das sich da dann manche bei Release über die Leistung geärgert haben ist ein anderer Punkt. Das habe ich ja auch nicht geschrieben. Ich finde die Vega Leistung eigentlich ganz okay. Lange Zeit war nur die Preis / Leistung nicht so toll für Gamer und die effizienz ist in dem bereich halt geringer. Aber wie gesagt, ganz anderes Thema und das habe ich auch nicht angesprochen gehabt. Davon ab habe ich mehr AMD / Ati karten in meinem Leben gekauft als Nvidia. :)
timboboy123 schrieb:
Punkt 3: Ja, die 2080ti hat keine Konkurrenz am Markt wie man am Preis ja eindrucksvoll sieht. Allerdings ist der Markt für solche Karten auch sehr klein.
Die Frage ist ob wir wirklich Konkurrenz für das Ding brauchen^^
Bestreitet auch keiner, deshalb tangiert die Verschiebung ja auch so wenige Menschen und es unverständlich, dass hier wieder so ein Drama gemacht wird.

Ich finde es erstaunlich. Ich habe AMD mit keinem Wort im original Post AMd auch nur erwähnt und schon geht wieder eine Diskussion los...
 
Shoryuken94 schrieb:
...Ich finde es erstaunlich. Ich habe AMD mit keinem Wort im original Post AMd auch nur erwähnt und schon geht wieder eine Diskussion los...

Ich hab mich ja auch ursprünglich nur mit einem zwinkern über die Argumentation mit Vega lustig gemacht^^ Auf die Diskussion kann ich gerne verzichten, die Ausführung war dann ja nur weil es so aussah als hättest du dich angegriffen gefühlt :)
 
Habe jetzt die FH4 und CoD Betas gespielt und die GTX 1080 liefert ordentlich ab.

Bei FH4 sinds 85+ FPS .. hier wäre eine GTX 1080ti perfekt.
Werde wohl Schatten und SSAO von Extrem auf Ultra stellen, dann sollte es nochmal flotter werden.
Und die neuen Treiber bzw. Game-Updates ermöglichen dann vllt. noch mehr Leistung.

Mal sehen - Vlt. behalte ich auch die GTX 1080, obwohl ich geplant hatte auf eine 1080ti zu wechseln.
 
Wenn die "geleakten" Benchmarks echt sein sollten, dann dürften die Preise von 1080 bzw. 1080Ti noch länger stabil bleiben.
 
  • Gefällt mir
Reaktionen: CBL
iNFECTED_pHILZ schrieb:
Wir reden hier von einer Woche und nicht wie Vega mal hier nen Monat, da nen Monat. DAS war fail.

AMD hat aber VEGA nicht angekündigt, sondern dies waren alles reine Mutmaßungen der Community! Das ist sehr wohl ein Unterschied, weil nicht AMD diese Gerüchte gestreut hatte!
Hätte AMD VEGA explizit angekündigt, mit Datum und hätte es sich dann Monat für Monat verschoben, so wäre sicherlich Kritik angebracht. Aber sie haben den Launch mit Preisvorstellung vollzogen und gleich darauf konntest du VEGA bei den Händler bestellen.
Waren aber wegen dem Ansturm schnell vergriffen, vor allem für den damaligen Preis von 509 USD.
1 Monat später konnte man aber schon VEGA64 für 500 Euro erwerben. Waren reichlich und genügend vorhanden.
Wie gesagt für 499-509 Euro, bis der Mininghype einsetzte.
 
  • Gefällt mir
Reaktionen: SchorschSepp
DarkerThanBlack schrieb:
AMD hat aber VEGA nicht angekündigt, sondern dies waren alles reine Mutmaßungen der Community! Das ist sehr wohl ein Unterschied, weil nicht AMD diese Gerüchte gestreut hatte!
Hätte AMD VEGA explizit angekündigt, mit Datum und hätte es sich dann Monat für Monat verschoben, so wäre sicherlich Kritik angebracht. Aber sie haben den Launch mit Preisvorstellung vollzogen und gleich darauf konntest du VEGA bei den Händler bestellen.
Waren aber wegen dem Ansturm schnell vergriffen, vor allem für den damaligen Preis von 509 USD.
1 Monat später konnte man aber schon VEGA64 für 500 Euro erwerben. Waren reichlich und genügend vorhanden.
Wie gesagt für 499-509 Euro, bis der Mininghype einsetzte.
Ja und nein. Sie haben den Hype ja eben auch bewusst geritten indem sie uns Fans quasi nichts handfestes gegeben haben. Ich hab nach einer defekten fiji zur r390 gegriffen und war dann ganze 14 Monate heiß auf vega. Die laut Gerüchten immer mal kurz vorm launch stand. Hätte ich gewusst dass sich der launch der vega bzw den deutlich interessanteren Partnerkarten und deren Verfügbarkeit bis auf Weihnachten 2017 bzw wirklich erst Anfang 18 verschiebt, wäre die 390 nicht lange drin geblieben und eine 1080ti wäre drin.

Gut, viel hätte wäre wenn. Unterm Strich bin ich mit der 390 auch nicht sooo unzufrieden und kann mich jetzt auch noch hoffentlich bis Navi gedulden. Statt gpu wurd es halt ein neuer Monitor. Halt mit FreeSync, und da ist mir die mehrperfornance einer 1080ti bzw jetzt vllt der 20x0er Reihe wohl den abartigen Aufpreis nicht wert. Da kann die AMD bei gleichen Preis auch 10 Prozent langsamer sein bevor ich FreeSync aufgebe.
 
.Snoopy. schrieb:
Sieht wohl doch nach einem Paperlaunch aus. Und ich dachte die würde schon lange auf Lager liegen und hätten gewartet um die Restbestände der GTX1080Ti loszuwerden. Dem scheint wohl doch nicht so. Alles sehr komisch.
Seit wann ist eine Woche Verschiebung ein Paperlaunch?
 
der Unzensierte schrieb:
So viel Zeit, kein Druck - und trotzdem ein paperlaunch. Bei so viel Geld in der Kasse. Auerha.
Doch doch, Druck ist da. 7nm steht mit AMD und RTG vor der Tür, vorher muss der ganze Müll noch raus.

Weiss man schon, welches DX Featurelevel Turing unterstützen soll?
 
mieze78 schrieb:
was soll ein auf 7nm geshrinkter tu102/4/6 besser können? bei 1.3x performance ratio zu 16+FF kann am ende 12FFn gleiche leistung bringen .... Jensen dürfte eventuell kommendes jahr (ende) mit 2MB density gddr6 chips kommen; bei gleicher arch und node, aber selbst das bleibt unklar.

Ganz richtig, der Speicher koennte sich im Idealfall verdoppeln (bspw. in dem man Samsung Speicher mit doppelter Kapazitaet nimmt) und zumindest eine RTX 3080Ti koennte endlich mit angemessenen 15 oder gar 16 GB RAM daher kommen (an 17/18 GB glaube ich nicht) und evt. noch groesserem Interface und falls AMD wirklich eine 12 GB Mittelklasse-Navi-GPU bringen wird (da AMD/RTG traditionell als erste die Speichermenge ausbauen und dadurch auch oft langlebiger sind), dann duerften bei einer moeglichen Navi-Oberklasse auch 16 GB gesetzt sein und nVidia waere diesbezueglich (bestimmt nicht nur aus meiner Sicht) im Zugzwang.

Ein Refresh bei nVidia im kommenden Jahr ist sehr wahrscheinlich und dass diese bekanntermassen ziemliche Kontrollfreaks sind und sicherlich nicht dabei zusehen wollen wie AMD/RTG die ganzen 7nm Lorbeeren alleine einsammelt, ist anzunehmen. Notfalls kann man eine GPU(-Generation) einfach so bei nVidia aus dem Boden stampfen wie bei der GTX 1070Ti ansatzweise geschehen (als Reaktion auf die RX Vega 56, da eine GTX 1070 vergleichsweise dann doch zu schwach daher kam).

Des Weiteren kann man dann eine RTX 2060 (natuerlich mit eher mangelhafter Raytracing-Hybridleistung, somit eigentlich fast einem VaporWare Feature, wobei diese Karte immer noch ueber einer GTX 1080Ti in dem Bereich liegen duerfte) auch hervorragend in 7nm bringen um damit versuchen der Navi-Mittelklasse von AMD/RTG zu kontern und eine erste RTX Titan erwarte ich dann (in 7nm) auch allerspaetestens.

Moeglichkeiten gibt es viele, und selbst ein (nahezu) unveraenderter Shrink auf 7nm duerfte massig Leistung/Effizienz mitbringen (siehe Maxwell zu Pascal), deutlich mehr als die verbesserte 16nm Fertigung (a.k.a. 12nm), die eben kein echter Shrink war, sondern auch viel auf Architekturanpassungen/-verbesserungen beruht (wie im ComputerBase Artikel passend erlaeutert) ;).

Hm, das kommt natuerlich auch darauf an, wie viele potentielle Kunden sich eine Turing/RTX GPU insgesamt aufschwatzen lassen (von Verkaeufern, geneigten Medienvertretern, selbsternannten Experten, nVidia direkt, usw.) und ob die GPUs dann doch nicht weggehen wie warme Semmel bei den durchwachsenen Preisen.

Also mich holen Huang & Co. mit dem aktuellen Angebot gewiss nicht ab/hinterm Ofen hervor, denn dazu haben die Karten jetzt schon bekanntermassen zu grosse Schwaechen (wie zu wenig Speicher/Langlebigkeit, unausgereiftes und mangelhaft implementiertes Hybrid-Raytracing zum Marktstart, und ein schlechtes Preis-Leistungs-Verhaeltnis) bevor ueberhaupt erste Tests vorliegen.

Da muss vom dGPU-Marktfuehrer mehr kommen als diese an Early Adopter und Hobby-Enthusiasten gerichtete Erst-RTX-Generations-Bauernfaenger-Karten und den ueberwiegenden Rest kratzt das spaerlich von Entwicklern eingebrachte und vorwiegend wohl in wenigen Spielszenen zu erlebende Vorzeige-Hybridraytracing bis 2020 wohl erst einmal wenig bis gar nicht (bzw. ist man nicht bereit dafuer solche Unsummen/solch einen Aufpreis zu berappen).

Dann kommt es darauf an, ob AMD/RTG bzw. deren Konsolen und bei einem moeglichen Gaming-dGPU-Einstieg Intels in 2020 dieses Feature auch gestuetzt/genutzt wird oder es wie PhysX in der Versenkung verschwindet.

In 7nm (im Falle eines Refreshs im kommenden Jahr) wird es dann vielleicht runder (insbesondere was die fuer den abgerufenen Preis beschaemende Speichergroesse angeht) und dann passt's vielleicht?

Wenn nicht, geht davon die Welt auch nicht unter, zumal es ja noch AMD/RTG gibt, die bei aehnlicher Leistung es finanziell sicherlich noetiger haben als nVidia und aus strategisch kaufender/vorausblickender Kundensicht dann einen Grafikkartenkauf mehr verdienen ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iNFECTED_pHILZ
Chismon schrieb:
In 7nm (im Falle eines Refreshs im kommenden Jahr) wird es dann vielleicht runder (insbesondere was die fuer den abgerufenen Preis beschaemende Speichergroesse angeht) und passt's dann vielleicht?

Da Nvidia den Speicher nicht selbst herstellt oder herstellen lässt, wird sich an dem Preis für die doppelte Speichermenge auch im kommenden Jahr vermutlich wenig ändern. Ich tippe eher auf eine Titan für 2000€ und 16GB Speicher oder sowas in der Art.

Zumindest im Moment bietet Samsung den "großen" Speicher aber noch nicht in "schnell" an.
1537191702670.png

https://www.samsung.com/semiconductor/dram/gddr6/

Samsung stellt den GDDR6 Speicher ja auch bereits in 10nm her.
 
Zuletzt bearbeitet:
xexex schrieb:
Da Nvidia den Speicher nicht selbst herstellt oder herstellen lässt, wird sich an dem Preis für die doppelte Speichermenge auch im kommenden Jahr vermutlich wenig ändern. Ich tippe eher auf eine Titan für 2000€ und 16GB Speicher oder sowas in der Art.

Zumindest im Moment bietet Samsung den "großen" Speicher aber noch nicht in "schnell" an.
Anhang anzeigen 709372
https://www.samsung.com/semiconductor/dram/gddr6/

Wenn ne Titan V 3000€ (+-) kostet wird Nvidia für doe neue nen Teufel tun und weniger verlangen.^^
 
Chismon schrieb:
Dann kommt es darauf an, ob AMD/RTG bzw. deren Konsolen und bei einem moeglichen Gaming-dGPU-Einstieg Intels in 2020 dieses Feature auch gestuetzt/genutzt wird oder es wie PhysX in der Versenkung verschwindet.
Naja, Raytracing wird sich schon durchsetzen. Dafür ist es schon zu sehr etabliert am Markt (Filmindustrie). Es ist der Weg hin zum fotorealismus, der vorallem für VR essenziell ist. Das ist theoretisch auch nichts propitäres Gedöns von Nvidia. Aber eben auch zu früh für den Massenmarkt.
Jeder der eine RTX Karte aus dem Wunsch Raytracing heraus kauft, wir bei der nächsten Gen dumm aus der Wäsche gucken. Die wird das gleiche deutlich,deutlich besser machen.
Für mich ist das auch der Grund, das es keine anderen RTX Karten geben wird. Es ist noch nicht bereit für den Massenmarkt.
Edit:
Bei dem Rest stimme ich dir übrigens fast vollkommen überein.
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben