News GeForce RTX 4090 und 4080: Ada Lovelace startet für 1.099 bis 1.949 Euro ab Oktober

Eine 90er-Karte als (einziger) Preis/Leistungstipp kommt jetzt schon etwas ... ähhh ... überraschend.
 
Zuletzt bearbeitet:
Gut dann muss eine schönes ATX 3.0 Netzteile mit ????? Watt für die 4090 gekauft werden. 1200 Watt ?? Spannungsspitzen sollen ja reduziert sein.
Erst mal Tests abwarten..
Bin heiß, der MSFS im November mit DLSS 3 drückt nicht mehr so auf die CPU.. krass 10 FPS cpu time würden mit schon reichen
 
Garack schrieb:
Gut dann muss eine schönes ATX 3.0 Netzteile mit ????? Watt für die 4090 gekauft werden. 1200 Watt ??

Nein, jeder 4090 liegt ein Adapter bei der auch ATX 2.x Netzteilen funktioniert.

While the RTX 4090 uses a new 12+4 pin 12VHPWR power connector, all cards will ship with a PCI-e 8-pin power to 12VHPWR adapter. There’s no need to wait for future PSUs to support Intel’s new ATX 3.0 standard
https://www.corsair.com/newsroom/pr...atibility-for-nvidia-40-series-graphics-cards
 
Der nur begrenzt benutzt werden kann.
 
Taxxor schrieb:
Demnach gibt es aktuell nicht mal eine einzige Karte, die man als 4080 bezeichnen dürfte und die 4080 16GB für 1469€ ist , bezogen auf die Performance innerhalb des Lineups, eher der Nachvolger der 3070.
Man kann so vieles, aber erinnern wir uns noch mal dran als was die 3090 ursprünglich verkauft wurde. Es sollte die Karte für absolute Enthusiasten und 8K Gaming sein, den Anspruch hat sie nie wirklich erfüllt. Eigentlich sollte eine 3090 die frühere Titan sein, unheimlich teuer, unheimlich leistungsfähig, für Leute mit einem besonders dicken Geldbeutel.

Genau das ist nun die 4090, während die 4080 die eigentlich bezahlbare High-End Karte ist. Allerdings ist der Preis der 4080 so gesehen zu hoch, in meinen Augen stark bedingt durch die noch unverkauften 3080er Bestände. Ich hätte die 4090 bei $2000, die 4080 16GB bei $1000 und 4080 12GB bei $800 gesetzt. Soweit davon entfernt sind die Preise ja nicht, nur hierzulande sieht es aktuell halt ungemütlich aus.
 
dukee schrieb:
2000 Euro und 1000 Watt .. also Nvidia trifft ja richtig den Zeitgeist . Mal ganz ehrlich das ist doch krank .
Gaming am PC wird zum Luxus ...
Meinen letzten Rechner 2016 habe ich für ca. 1000 Euro zusammengebaut . War damals noch die 1070 GTX am Start.
Bei diesen Preise habe ich persönlich gar keinen bock mehr in Gaming-PCs zu investieren .
Na na na na ... Moment mal :)

Ein kompletter Gaming PC mit Ryzen 5600X, 16GB Ram, B450 Mobo, NVMe, AIO, 600 Watt Netzteil und Gehäuse kostet 530€ + Grafikkarte.

Als Grafikkarte nimmt man eine RX 6600 8GB, die gibt es für 270€. Dann sind wir bei 800€ und du kannst damit in 1440p zB RDR2, COD Warzone, Tarkov, GTA5, Horizon über Tombraider bis zu AC Valhalla alles flüssig mit ~60 FPS spielen. Sag mir bitte nicht das 1440p @ 60FPS auf High kein Gaming ist.

Im Desktop Betrieb verbraucht der PC ~30 Watt, und wenn du den bis an die Kotzgrenze trittst bist du bei ~250 Watt. Wenn du in 2-4 Jahren dann auf 4k wechselst, brauchste nur ne neue Grafikkarte reinstecken und weiter gehts. CPU kann die gleiche bleiben, die lacht sich dann immer noch tot.


Das was Nvidia da gerade anbietet, RTX 4090 & Co, das hat mit Gaming nicht viel zu tun. Das ist Spielzeug für Fantasten sozusagen. Mercedes Benz AMG Black Series mit 700 PS wäre das Gleiche im KFZ Bereich, nur damit kannst du wenigstens Frauen abschleppen. Mit einer RTX 4090 kannst du, genauso wie mit einer PCIe 5.0 NVMe mit 14gb/s Lesen, niemanden beeindrucken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PowerBee, shaboo und Youngtimer
ThirdLife schrieb:
Weil Reifen, Sprit, Wertverlust oder Zugtickets gratis sind ? Oder hat dein Chef dir das ersetzt ?
Dann könnte ich das verstehen. Würde aber dennoch HO machen wollen, meine Lebenszeit is ja auch was wert und pendeln is nicht sonderlich effizient.

Tatsächlich ist es das, da meine ÖPNV Jahres Karte vom Chef bezahlt wird und auch meinem Chef nur sehr wenig kostet. Aktuell zahle ich bei Strom und Wasser nur drauf, dafür habe ich ca. 90 Minuten mehr Zeit am Tag (Fahrzeit).
 
  • Gefällt mir
Reaktionen: ThirdLife
shaboo schrieb:
Der reine Leistungsunterschied zwischen 3080 und 3090 war außergewöhnlich gering und diesen Unterschied hat man bei 4080 und 4090 wieder etwas "normalisiert".
wenn man sich vorherige Generationen ansieht, lag man immer irgendwo um 80%, die 3080 ist mit 88% näher dran gewesen weil sie sich den Chip mit der 3090 geteilt hat.


Ein „normalisieren“ würde bedeuten dass die 4080 16GB wieder bei ~80% liegt, aber sie liegt ja nun gerade mal bei 59%
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife und shaboo
Taxxor schrieb:
Ein „normalisieren“ würde bedeuten dass die 4080 16GB wieder bei ~80% liegt, aber sie liegt ja nun gerade mal bei 59%
Ja, da hast du vollkommen Recht. Da hat man wohl eher "übernormalisiert".

Irgendwie auch eklig, wie man den Leuten für den einzig legitimen Nachfolger der 3080 plötzlich 1200 statt 700 Dollar aus der Tasche zieht, und dabei gleichzeitig noch darauf achtet, die Lücke zur 4090 derart groß zu lassen, dass da bequem noch eine 4080Ti reinpasst, für die man NOCH MEHR KOHLE abräumen kann.

Man möchte sich großflächig und dauerhaft übergeben ...
 
  • Gefällt mir
Reaktionen: aldaric
PHuV schrieb:
BTW: Keinen interessiert hier die gewaltige Tensorleistung? 😳

Leute, das ist über Faktor 4!!! Für ML/DL grandios, und ich sage es Euch, die Karten werden weggehen wie warme Semmeln. Auch die Blenderfraktion wird jubeln.

Meinst du mit ML/DL Machine Learning und Deep Learning? Und Grafikbearbeitung - auch geschenkt!
Dafür ist DIE Karte gut (4090). Aber konsequenter Weise kann man dann den Rest auch weglassen: 4080 16GB und vor allen die Nonsense 4080 12GB.
Okay, wenn du Grafikkarten zum Arbeiten nutzt - da bringen sie sicher enorme Vorteile!
Aber ich sehe "Grafikkarten" als Gamer-Objekte an - und dafür geht solch eine Vorstellung meiner Meinung nach überhaupt nicht. Ich denke nicht das sich viele Gamer sowas leisten werden - wozu?!

Für Arbeitseinsätze solcher Hardware gabs ursprünglich ja mal die Quadro-Schiene - ich glaube auch zu diesen Preislagen. Aber diese professionelle Schiene gibts doch immernoch...
Da finde ich die Preise auch okay! Arbeit ist was anderes - und 2000 € sind schnell "verdient", wenn man täglich etliche Minuten oder sogar Stunden an Zeit spart.
Ergänzung ()

Moon44 schrieb:
Wow Nvidia. Ich bin echt beeindruckt! Meine aktuelle (Nvidia) Grafikkarte stammt aus dem Jahr 2017. 5 Jahre später schafft es Nvidia genau 0 FPS pro Euro mehr zu liefern! Hut ab!

Die 4070 wird ja dann auch für einen krass utopischen Preis rauskommen!
Nur um das nochmal etwas zu verdeutlichen (Grundlage ist der Performance-Index von 3dcenter.org):
Anfang 2017: 500 € für eine GTX 1080 bezahlt: Preis-Performence (FHD 960%) Index: 0,52
Ende 2022: 1470 € für eine RTX 4080 (angenommen 50% schneller als eine RTX 3080 12GB). Index: 0,49

Oh wow - ich habe mich etwas geirrt. Der Preis-Performance Index ist doch besser geworden!
Ich bin dennoch maximal unbeeindruckt. Obwohl. Vom Stromverbrauch bin ich schon beeindruckt. Der ist vermutlich immerhin etwa doppelt so hoch.
 
Zuletzt bearbeitet:
Moon44 schrieb:
Meinst du mit ML/DL Machine Learning und Deep Learning? Und Grafikbearbeitung - auch geschenkt!
Dafür ist DIE Karte gut (4090). Aber konsequenter Weise kann man dann den Rest auch weglassen: 4080 16GB und vor allen die Nonsense 4080 12GB.
Okay, wenn du Grafikkarten zum Arbeiten nutzt - da bringen sie sicher enorme Vorteile!
Frag mal meinen Schwiegersohn. Die arbeiten mit ML/DL im medizinischen Bereich. Die müssen 8 Stunden bei 4x3090 GTX warten, bis die Verarbeitung durch sind, und das bei jedem Kunden/Krankenhaus. Die werden die neuen GPUs feiern.
Moon44 schrieb:
Aber ich sehe "Grafikkarten" als Gamer-Objekte an - und dafür geht solch eine Vorstellung meiner Meinung nach überhaupt nicht. Ich denke nicht das sich viele Gamer sowas leisten werden - wozu?!
Brauchen sie doch auch nicht. Verzichten, ältere günstiger Generation kaufen, Detailgrade runterschrauben, sich eine Konsole kaufen... Warum muß hier das neueste und beste sein?
Moon44 schrieb:
Für Arbeitseinsätze solcher Hardware gabs ursprünglich ja mal die Quadro-Schiene - ich glaube auch zu diesen Preislagen.
Aber diese professionelle Schiene gibts doch immernoch...

Da finde ich die Preise auch okay! Arbeit ist was anderes - und 2000 € sind schnell "verdient", wenn man täglich etliche Minuten oder sogar Stunden an Zeit spart.
Du hast nicht mal in letzter Zeit nach einer lieferbaren Profikarte wie eine Nvidia A100 geschaut, oder?
https://direkt.jacob.de/produkte/nvidia-a100-passive-900-21001-0020-100-artnr-7645775.html
1664189886826.png


https://www.idealo.de/preisvergleich/OffersOfProduct/201163750_-a100-nvidia.html
Und rechne mal eine A100 gegen 3090 dagegen. Firmen haben auch nicht das Geld endlos. Und nun kommt eine 4090 zum Bruchteil einer A100.
 
PHuV schrieb:
Und rechne mal eine A100 gegen 3090 dagegen. Firmen haben auch nicht das Geld endlos. Und nun kommt eine 4090 zum Bruchteil einer A100.
Schlechter Vergleich, die A100 basiert auf einem komplett anderen Chip und ist als Grafikkarte nicht wirklich nutzbar, du müsstest schon die A40 nehmen.
1664190450388.png
 
PHuV schrieb:
Und rechne mal eine A100 gegen 3090 dagegen. Firmen haben auch nicht das Geld endlos. Und nun kommt eine 4090 zum Bruchteil einer A100.

Da sagt dir aber jeder Software Anbieter hau ab mit deiner Support Anfrage für nicht getestete Hardware. Es hat schon ein Grund warum die Karten das Geld kosten und Firmen sie kaufen. Wenn die Rechner ein Tag nicht laufen wegen Problem kostet das mehr als einfach die Karte zu kaufen welche verifiziert ist.
 
  • Gefällt mir
Reaktionen: ThirdLife
Ne, tun sie nicht, daß weiß ich eben praktisch. 😉 Die 3090 wie die 2080TI finden sich in vielen Firmen und Universitäten für diese Zwecke als günstige Alternative, und Nvidia weißt das auch.
 
shaboo schrieb:
Irgendwie auch eklig, wie man den Leuten für den einzig legitimen Nachfolger der 3080 plötzlich 1200 statt 700 Dollar aus der Tasche zieht, und dabei gleichzeitig noch darauf achtet, die Lücke zur 4090 derart groß zu lassen, dass da bequem noch eine 4080Ti reinpasst, für die man NOCH MEHR KOHLE abräumen kann.
Die Frage die sich mir hierbei stellt ist aber was will man da noch groß viel mehr abkassieren ?

Der Preis der 3080/16G ist ja schon relativ hoch mit 1200 Dolares. Die 4090 liefert viel Wumm für 1600 Dukaten. Eine 4080 Ti passt da kaum noch dazwischen für 1400 Steine. Wer 1400 ausgeben kann der legt auch nochmal 200 drauf, das machts in der Preisklasse dann auch nichts mehr aus.

So würde eine 3080 Ti auch zum Ladenhüter wie eine 3080/12G. Wenn man sie auf 1300 fixiert, kauft keiner die 3080/16G mehr, wenn man sie höher legt kauft keiner die Ti sondern greift zur 4090.

Ich glaub hier hat sich nVidia selbst ins Bein geschossen mit der Platzierung der Karten. Entweder geben die 3080er noch deutlich nach im Preis und man kann dann eine Ti dazwischen squeezen oder das Produkt ist schon obsolet zum Launch hin.

So wie es momentan aussieht macht ohnehin lediglich die 4090 Sinn, da sie wirklich in allen Belangen massiv mehr Leistung bringt ggü. der aktuellen Gen. Die restlichen Karten sind sehr arg meh, würd ich jetzt kein Geld für liegen lassen.
Ergänzung ()

PHuV schrieb:
Und rechne mal eine A100 gegen 3090 dagegen. Firmen haben auch nicht das Geld endlos. Und nun kommt eine 4090 zum Bruchteil einer A100.
Hier muss man halt sein Dataset beachten. 80GB HBM2 sind da nicht zum Spaß draufgetackert. Und wenn man mit riesigen Modellen arbeitet braucht es das u.U.

Da ist dann eine 4090 mit 24GB leider auch wertlos. Letztenendes haben Firmen ja auch die Möglichkeit das abzusetzen, also hohe Kosten bei einem relativ großen Unternehmen sind viel weniger dramatisch bei all dem Cash-Flow als für einen Einzelkämpfer oder eine kleine drei Mann Bude.
 
  • Gefällt mir
Reaktionen: shaboo
Zurück
Oben