News GeForce RTX 4090 und 4080: Ada Lovelace startet für 1.099 bis 1.949 Euro ab Oktober

zig*zag schrieb:
Träum weiter, dass die Strix 1950€ kosten wird! :lol:
Er ist ja bereit, freiwillig mehr zu bezahlen. Solche Kunden wünscht sich jedes Unternehmen.
Ergänzung ()

xexex schrieb:
Kennt jemand noch die hier?
AD102 ist kleiner als GA102 und TU102. AD103 ist neu, mit 308mm² aber geradezu winzig, wie auch der AD104 mit 300mm², kleiner noch als der GP104 der 1070/80.

Von "increasing die sizes"kann also gar keine Rede sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid
HerrRossi schrieb:
Von "increasing die sizes"kann also gar keine Rede sein.
Hat auch niemand behauptet.
1663866838181.png


Nehmen wir mal die Grafik von AMD wörtlich:
TU102 - 12nm - 754mm² x2 - 1508
AD102 - 4nm - 608 mm² x6(?) - 3648

GA102 spielt in einer anderen Liga, der 8nm Prozess dürfte wurde von Samsung zu einem guten Preis verhökert worden sein. Was glaubst du wieso AMD auf Zig Chiplets setzt, um wenigstens etwas von dem Die Preis zu drücken?

Scheinbar rechnet sich sogar der höhere Aufwand bei der Chipherstellung für AMD, nur damit sie keine Dies mit 531mm², sondern "nur" 308mm" bestellen können und da liegt Nvidia sowohl von der Größe als auch vom Prozess noch drüber.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Teurer Spaß und die Frage ist ob die Leistung stimmt, Nvidia traue ich seit dem 3080 BS nicht mehr bei ihren eigenen Graphiken. Da wurde dann ein DOOM mit 200FPS in 4K gezeigt und dann offenbar nach unten manipulierte 2080Ti FPS als vergleich, wo eine übertaktete 2080Ti nur ca. 10% weniger schaffte und von Fantasie-Effizienzen gelabert inkl. Fantasie-Performance-Sprüngen. Die 3080 war am Ende nämlich kaum übertaktbar und mit der Brechstande ab Werk übertaktet um einen einigermaßen brauchbaren Sprung zu bringen.
 
Zuletzt bearbeitet:
Das Thema Übertakten ist doch für die Masse komplett irrelevant. Genauso wie Vergleiche zwischen übertakteten und nicht-übertakteten Karten.
 
HerrRossi schrieb:
Hier mal der Preis pro 1mm² Die:
780: $1,16
980: $1,38
1080: $1,91
2080: $1,28
3080: $1,11
4080: $3,89 (16GB Version, $3,00 bei 12GB).
Das erklärt einiges. Wobei man auch bedenken muss, dass die Produktionskosten bei der 4080 wohl mit abstand am teuersten sein werden, ob fast 3x so teuer gerechtfertigt ist, ist natürlich fraglich.

shaboo schrieb:
Das Thema Übertakten ist doch für die Masse komplett irrelevant. Genauso wie Vergleiche zwischen übertakteten und nicht-übertakteten Karten.
Schon, aber keiner der eine 2080Ti gekauft hat, hat die im Normaltakt betrieben, selbst die FE hat locker 20% mehr hergeben und das hat jeder mitgenommen. Ampere hatte halt kaum noch Luft nach oben was OC betrifft weil sie ab Werk(ähnlich wie mittlerweile bei CPUs üblich) schon sehr hoch getaktet wurde. Das endete in Effizienzwerten die mit den Angaben Nvidias(die bei 100 oder 150W gemacht wurden) nichts mehr zu tun hatten. Am Ende war die 2080Ti auf gleichem Wattverbrauch wie die 3080 kaum ineffizienter und das war schon recht enttäuschend für eine neue Generation.

Wäre natürlich schön, wenn die Angaben der 40er Serie einigermaßen realistisch wären, das würde für eine 4070 oder 4060 sehr gutes bedeuten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Piecemaker schrieb:
AMD hat seit RTX 2000 bewiesen, das sie bezüglich Nvidias Preispolitik mit ziehen. Siehe Radeon 7 und auch 6800 XT. Wirklich günstiger waren diese Karten nicht, nur gerade soviel wie es brauchte um eine Alternative zu RTX 4000 anzubieten.

Die RTX 4080 12 GB liegt bei 1099€. Wenn AMD die Preispolitik der letzten 4 Jahre fortsetzt, werden wir eine RX 7800 XT 16GB für 1000€ sehen. Wenn AMD der Heilsbringer ist, liegt die Karte bei 900€, was immer noch sehr teuer ist
Vega7 war für AMD weit teurer 7nm vs 12nm 331mm2 vs 445mm2 im gereiften und günstigem prosess dazu HBM2 vs gddr6 was eh reurer ist und dann noch 16 vs 8GB zur selben UVP

RX6 gebe ich Dir recht wird AMD mal verdient haben aber wir gennen den Kostenvorteil Samsung/TSMC nicht.

RtX4x RX7x haben beide die selben bzw. NVIDIA wohl den teureren Prozess. dazu hat NVIDIA die grösseren Dies mit mehr ausschus.
sicherlich wird AMD die Marge anheben, aber gleich auf NVIDIA level wo sie ja auch Marktanteil haben wollen ?!?

und schau Dir die Strassenpreise an da ist AMD fast überall unter uvp meine nur noch die RX6800 über nvidia nur bei 3080 aufwärts.

NVIDIA melk alle! Die, die Karten für +1000€ kaufen jukt das nicht, einen der einfach viel leistung für möglichst kleines Geld will wohl schon.
Ich hab auch noch eine RX590 reicht eigentlich auch aber will haben, gibts bei mir auch. Hoffe Navi33 wird preislich bei unter 400€ landen dann wird das wohl meine. Nvidia gibt es für das geld gerade mal eine 3060 und denke nicht das da in absehbarer Zeit mehr Leistung für weniger Geld kommt. da die komplett wohl auf 4n gehen AMD hingegen mit navi33 beiN6 bleibt wohingegen selbst AD106 in 4N und gleich gross ist der Einsteiger markt gehört AMD (mein tip für 2023) oder Nvidia böse Marge lassen.
 
Vendetta schrieb:
Wobei man auch bedenken muss, dass die Produktionskosten bei der 4080 wohl mit abstand am teuersten sein werden
Ja, das werden sie sein. Aus zwei Gründen:
1. weil Nvidia mittlerweile ans absolute Limit gehen muss, um AMD schlagen zu können, was sich dann auch bei den Board- und Kühlerkosten niederschlägt und
2. weil Nvidia sich erst von TSMC abgewandt hat und bei Samsung produzieren ließ und nachher wieder reumütig zu TSMC zurück kam. Solche Spielchen scheint TSMC nicht zu mögen und in dem Fall sitzt Nvidia mal nicht am längeren Hebel.
 
  • Gefällt mir
Reaktionen: Icke-ffm, xc3ll und Unnu
wo ich dieses Mal einen Unterschied sehe ist, dass selbst NVidia Fanboys extrem negativ auf den Mist mit den 4080 reagieren. Sicher wird NVidia sich nicht ruinieren, aber möglichrweise spüren sie es diees Mal doch etwas, dass man den Kunden nicht zu oft verarschen sollte.

Nvidia hat sich aber verzockt was die Fertigungskosten betrifft und kann laut manchen Gerüchten gar nicht wirklich grossartig mit den Preisen runtergehen. die sind all in gegangen, koste es was es wolle ein Miningmonster abzuliefern und wurden von der Entwicklung massiv überrollt.

Ich denke mir, die 4090 wird sich recht gut verkaufen, die 80er eher nicht so
 
  • Gefällt mir
Reaktionen: Icke-ffm
Die Leistung steht und fällt mit den Shaderclustern und dem Chiptakt. Die Technik ist die Gleiche wie bei Ampere, nur anderer Chip. Sieht also relativ mau mit Steigerungen aus, je weiter es im Portfolio nach unten geht. Außer beim Preis. Darüber hinaus gibt's nur DLSS 3.

Gigabyte 4090 Master. 4,5 Slots und 5 kg. Ich schätze mal, die Kühler kosten schon das, wofür man früher ganze Karten bekam.
Immerhin wird die Kartenstütze da mitgeliefert.
 
  • Gefällt mir
Reaktionen: Unnu
immerhin kann man die karten später fabelhaft weiter nutzen . als hanteln, türstopper usw. man muss das auch positiv sehen
 
  • Gefällt mir
Reaktionen: Edelgamer
Ich warte jetzt erstmal richtige Tests ab und gucke dann, was AMD mit der RX 7xxx abliefert. Eine 4090 käme bei mir sowieso unter Wasser, da ist es mir egal, wie groß der Luftkühler ist.
 
  • Gefällt mir
Reaktionen: Unnu und Spellbound
ja, ich werde auch abwarten. ich fühle momentan keinen Druck mit aller Macht kaufen zu müssen. und von NVidia käme für mich nur die 4090 in Frage
 
HerrRossi schrieb:
Hier mal der Preis pro 1mm² Die:
4080: $3,89 (16GB Version, $3,00 bei 12GB).
Die Preise sind Unfug.

Ein AD103 hat 380mm², das wären dann also 1478$.

Ein 300mm Wafer in 5nm soll bei TSMC ca 17.000$ kosten. Damit würde ein AD103 maximal 120$ kosten und ganz sicher nicht 1478$.
 
  • Gefällt mir
Reaktionen: Icke-ffm und Edelgamer
piccolo85 schrieb:
Ein AD103 hat 380mm², das wären dann also 1478$.
Das ist richtig, ich hatte da einen Zahlendreher drin, 308 statt 380mm².
Damit sind wir für den AD103 bei $3,16 pro mm².

Damit würde ein AD103 maximal 120$ kosten und ganz sicher nicht 1478$.
Ich gebe nicht die Chippreise an, die Nvidia bei TSMC bezahlt, sondern das, was der Endkunde pro mm² Die bezahlt.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Aquilid und Unnu
whigga schrieb:
weil er eher bereit ist Geld für ne Grafikkarte als für ein Smartphone auszugeben
Klar doch, hier werden ja auch jede Menge Leute angefeindet die sagen sie wären nicht bereit 2000€ für eine Karte auszugeben, obwohl sie es könnten. Da kommen dann dumme Sprüche wie "laber nicht, hast bloß keine Kohle und bist neidisch" etc., also stelle ich mal die ebenso steile These auf dass jemand der eine 2000€ Karte kaufen will, aber bei einem 1000€ Smartphone rumheult dass es zu teuer ist, eben mal seine Prioritäten überdenken sollte wenn dann plötzlich die Kohle dafür nicht mehr "einfach da" ist. Dumm ist beides, ist aber auch so gewollt.
 
Vendetta schrieb:
Schon, aber keiner der eine 2080Ti gekauft hat, hat die im Normaltakt betrieben, selbst die FE hat locker 20% mehr hergeben und das hat jeder mitgenommen. Ampere hatte halt kaum noch Luft nach oben was OC betrifft weil sie ab Werk(ähnlich wie mittlerweile bei CPUs üblich) schon sehr hoch getaktet wurde.
Naja, die FE hatte auch nur 1545 Mhz Boost Clock. :D

Es war schon nicht so, als ob JEDE Karte bei JEDEM mal eben flugs mit 2,1Ghz+ lief. Die Norm waren so 1950-2000 mit schlechteren Exemplaren und 2050-2070 mit den besseren. Der Chip war allerdings viel größer und hatte weniger Cores + RT & Tensor Gerümpel auf der Fläche - dürfte also auch besser zu kühlen gewesen sein.

Die 3080 Ti ist als FE auch "nur" mit 1665 angegeben und schafft bei mir (unter Wasser fairerweise) ihre 2160-2175 Mhz. Und der Chip ist vergleichsweise klein in Relation zur Shaderanzahl. nVidia hat hier den Takt eigentlich nur um 120Mhz bei der FE angehoben Ti zu Ti - so am "Limit geprügelt" ist das nicht. Ampere wurde von der eher wenig guten Samsung N8 Node hängengelassen. Sieht man ja jetzt an dem AD102er Monsterchip der dennoch problemlos mal eben 2.5Ghz+ rennt bei gleichem Verbrauch wie meine 3080 Ti maxed out und das bei 60% mehr Shadern und 20% mehr Takt.

3080 Ti -> 8,15 CUDA Cores pro mm²
2080 Ti -> 5,77 CUDA Cores pro mm² = 41% mehr Kühlfläche für jeden einzelnen Shader.

Für einen echten Generationsvergleich müsste man die Karten beide auf 300W z.B. limitieren und dann das maximale OC rausholen bei beiden was geht. Ich behaupte mal frech, Ampere wäre ziemlich geil gewesen auf TSMC N7.
 
Zuletzt bearbeitet:
Mich schocken die Verbrauchswerte mehr ab, als die Preise.

Von Anfang Juni bis Ende September würde hier in Italien das Spielen nur noch mit eingeschalteter Klimaanlage erträglich sein. Allerdings könnte ich damit im Januar und Februar spielend meine Wohnung elektrisch heizen. Da bleibe ich weiter bei meiner GTX 1080 - die reicht mir noch.
 
2000 Euro und 1000 Watt .. also Nvidia trifft ja richtig den Zeitgeist . Mal ganz ehrlich das ist doch krank .
Gaming am PC wird zum Luxus ...
Meinen letzten Rechner 2016 habe ich für ca. 1000 Euro zusammengebaut . War damals noch die 1070 GTX am Start.
Bei diesen Preise habe ich persönlich gar keinen bock mehr in Gaming-PCs zu investieren .
 
  • Gefällt mir
Reaktionen: Aquilid
Bei mir das Gleiche.
Die 1070 war mir aber anfangs zu teuer. Hat's ewig nicht auf mein anvisiertes Budget(350) geschafft, dann kurz vor Turing für 299 gekauft. Beste Karteninvestition ever, reicht für FHD ewig.
Aufrüsten hab ich im Prinzip bis auf weiteres abgeschrieben. Wenn überhaupt, dann nur noch Dekadenplanung(in Jahren versteht sich) bei den Preisen. Board/CPU laufen bei mir gewöhnlich 8 Jahre. Da fällt die Karte zwischendurch eben auch weg.
Sollte nochmal zu einem strategisch günstigen Zeitpunkt kurz Normalität einkehren, bin ich auch gerne flexibel.

WQHD ist qualitativ eh nur rausgeschmissenes Geld und wegen 4k lass ich mich nicht von irgendwelchen Gierhälsen abzocken, da schalt ich auf stur. Dann eben weiter FHD, tut dem Spaß keinen Abbruch und das, was ich nicht ausgegeben hab, kann ich in was sinnvolleres investieren.
Für die 24/7 Zocker und Jungenthusiasten ist das natürlich keine Alternative, kann ich auch verstehen.

Ich hätte die Preise deutlich höher angesetzt. Ruckzuck wäre Ampere weg. Dann 10% gesenkt und die Leute rennen den Shops auch wieder die Türen ein, um eine "günstige" Karte zu erwischen, als gäb's kein Morgen mehr. Die Gewinnspanne hüpft nochmal über Miningzeiten hinaus und die Aktionäre schlagen wieder Purzelbäume. ;)
 
  • Gefällt mir
Reaktionen: Unnu
goodnight schrieb:
Ich hätte die Preise deutlich höher angesetzt. Ruckzuck wäre Ampere weg.
Wohl kaum. Wenn die Lovelace-Preise allzu sehr von Ampere entfernt sind, gibt's null weiteren Preisdruck auf die 30er-Karten, und wie man gesehen hat, scheint der dringend nötig zu sein, um in absehbarer Zeit von den Lagerbeständen weg zu kommen. Und will man tatsächlich Ampere und Lovelace geplantermaßen und über längere Zeit parallel anbieten - und zwar so, dass beide gekauft werden - darf Lovelace sowieso nicht noch teurer werden.
 
Zurück
Oben