Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce-Gerüchte: RTX 5080 Ti 24 GB Ende des Jahres und eine langsame 5090D
Wie viele hier „angefressen“ Oder irgendwie negativ auf die reagieren die eine 5080 gekauft haben.
Meine 5080 Suprim Liquid sollte heute oder morgen eintreffen.
Und wisst ihr was. Ich hab bisher mit meiner 3080 10GB in QHD nicht ein Game gehabt dass wegen zu wenig VRAM scheiße lief. Sondern weil die Leistung nicht mehr reicht. Da würden mir auch 100GB VRAM nicht reichen.
Und für mich ist die 5080 auch eine QHD Karte und nicht 4K. Ändern auch 24GB VRAM nichts dran.
Meine 4090 ist nach wenig Benutzung mit typischen Fehlern, die auf VRAM deuten einen Monat vor Garantieablauf (Glück gehabt) kaputt gegangen und Galaxus hat sofort das Geld erstattet. Nur, dass man für 1600€ mittlerweile keinen adäquaten Ersatz bekommt.
Bei der 6000er Serie bin ich wohl auch wieder dabei. Gerne auch AMD, ich brauche dann aber halt eine GPU die schon deutlich schneller als meine 4090 ist.
Äh Moment. Die neue 5090D liest sich wie wie eine 5080 Ti. Da muss ja dann nichts mehr entwickelt werden.
Nur dumm, dass das gierige nVidia diese 80er GPU als 90er benennen möchte.
Ist schon traurig, dass es so lange dauert bis d8e "richtige" 5080 kommt. Bis dahin kann man eh schon wieder auf die 6000er Serie warten. Die vrennt dann hoffentlich nicht am Stecker ab.
Das ist das Szenario, das ich für wahrscheinlich halte. Im Notebook bestückt Nvidia GB203 bereits mit 24 GB und nennt ihn RTX 5090 Laptop. Die Lücke, die in Sachen Speicher zwischen 5090 und 5080 klafft - genauso wie die nicht vorhandene Lücke 5070 Ti und 5080 - sind für mich dahingehend auch suggestiv. Ob es schon Ende des Jahres soweit ist? Weiß ich nicht, aber wenn die ersten Leaks sich bereits jetzt Bahn brechen, könnte es wohl sein.
Das würde mich dagegen ehrlich wundern. Ich sehe Nvidia den GB202 einfach nicht günstiger verkaufen. Warum auch, wenn die RTX 5090 doch ihre Abnehmer findet ... und das, obwohl es sie praktisch nie zur UVP zu kaufen gab.
Blackvoodoo schrieb:
Doch habe ich. Aber dafür gibt es die 5090. Es gibt (für mich) einfach keinen Sinn eine langsamere Version der 5090 zu bringen.
Ich würde lieber eine schnellere 5090 sehen.
Selbst eine GB202-bestückte Karte, auf der alle Ausführungseinheiten aktiviert sind, wäre vermutlich nicht viel schneller als die aktuelle 5090. Die 3090 Ti war ihrerzeit ja eigentlich auch mehr ein gezielter Preisreset als alles andere.
Selbst die schlechtesten 5080 Samples schaffen mit etwas Liebe über 3,2 Ghz, die besten laufen in ein Hard-Limit bei 3,4 Ghz und Nvidia liefert standardmäßig mit 2,7Ghz aus. Die 4090 sollte mit dem Billo-Chip kein Problem sein.
rentex schrieb:
Dazu müsste NV die Designrichtlinien zur Eingangsspannungsüberwachung ändern, um Vertrauen in diesen Refresh zu setzten.
(OT) Einen Kollegen dieses Schlages habe ich - Ist zwar kein Napoleon, nur ein Weber für vierstelligen Anschaffungswiderstand - und was kommt drauf? Nachenkoteletts von Aldi
Schau dir an was AMD von der 6800XT zur 6900XT verlangt hat oder wie geringfügig die Preis/Leistung zwischen 7900XT und 9070(XT) angestiegen ist.
Beide Unternehmen verlangen soviel wie sie können.
lolekdeluxe schrieb:
Herzliche Grüßen alle die sich schon eine RTX 5080 gegönnt haben.
🔥 Diese Chaostheorie Lotterie, ob man nun einen festschmelzenden Stecker bekommt, oder nicht, gefällt mir auch nicht so wirklich.
Auch ein Grund, warum ich auf die nächste Gen warte.
Hoffe, Nvidia nimmt sich dem Problem endlich mal an und verbessert bei der 6000er Gen etwas.
Bin da kein Experte, was die Stromversorgung, bzw. in diesem Fall wohl Stromverteilung angeht.
Da kann's wohl durch irgendwelche Gründe dazu kommen, dass einzelne Leitungen mehr Ampere bekommen, als sie sollten. Scheint aktuell noch nach der Chaostheorie zu funktionieren.
Aber so wie ich das verstanden habe, hat z.B. Roman schon keinen Bock mehr Videos darüber zu machen.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich denke bei einer 80 Ti werden sie sicherlich nichts am Powerdesign geändert haben.
Drücke uns allen die Daumen, dass es bei den 6000ern aber schon überarbeitet wird.
Wer hat schon Bock auf 'nen Lottogewinn mit festbrutzelnden Steckern?
Und dann entsprechend bei so einer teuren Karte in das Spiel des schwarzen Peters hin und herschieben zu kommen, nach dem Motto: Nee, der Steckerhersteller is schuld, nee der Netzteilhersteller, nee der Grafikkartenhersteller, nee Nvidia ist mit dem grundsätzlichen Design schuld.
Und am Ende ist der Kunde, der viel Geld bezahlt, der gelackmeierte.
Warum? Wieviele sind denn mit dem 12V-2x6-Stecker aus brandsicherem Material betroffen? Gab es da nicht sogar nur einen Fall weltweit und wieder waren billige Adapter im Spiel?
Ergänzung ()
ChrisMK72 schrieb:
Aber so wie ich das verstanden habe, hat z.B. Roman schon keinen Bock mehr Videos darüber zu machen.
Naja immer wieder über denselben Fall zu reden wird aber auch langweilig - auch wenn es Klicks bringt …
Ist übrigens ein 12VHPWR-Stecker der RTX 4090 und nicht der verbesserte 12V-2x6-Stecker der RTX 5090 über den er in dem Video spricht
Ergänzung ()
Hellsfoul schrieb:
Ist schon traurig, dass es so lange dauert bis d8e "richtige" 5080 kommt. Bis dahin kann man eh schon wieder auf die 6000er Serie warten. Die vrennt dann hoffentlich nicht am Stecker ab.
Bei welcher 5080 war das denn der Fall? Hast du ein Beispiel mit Quelle? Meines Wissens ist nur eine 5090 weltweit (!) betroffen …
Ergänzung ()
[F]L4SH schrieb:
Ich würde ja sehr zu einer 5090 zur UVP neigen.
Meine 4090 ist nach wenig Benutzung mit typischen Fehlern, die auf VRAM deuten einen Monat vor Garantieablauf (Glück gehabt) kaputt gegangen und Galaxus hat sofort das Geld erstattet. Nur, dass man für 1600€ mittlerweile keinen adäquaten Ersatz bekommt.
Habe 4090 und 5080 hier - die 5080 landet mit dem großzügigen OC-Spielraum im 3DMark Steel Nomad nur 5% hinter meiner 4090 … VRAM war nie ein Thema trotz 4K …
Ergänzung ()
Dreamcatcher3 schrieb:
Wie viele hier „angefressen“ Oder irgendwie negativ auf die reagieren die eine 5080 gekauft haben.
Tut mir Leid aber deine 2-3 Stunden Zocken die Woche, bei denen du als einer der sehr wenigen Besitzer einer RTX 5090 durch UV läppische 150W sparst, sind ein absoluter Tropfen auf den heißen Stein - wieviele kWh willst du dadurch sparen?… hier läuft ein Epyc 24/7, da wären allein 10 Watt relevanter …
Von meiner 4090 gesehen ja - nur haben die selbstverständlich die allerwenigsten … wobei wenn man eine 5090 zur UVP bekommt wären das gerade mal 300€ zum Verkaufspreis der 4090 für 25% mehr Leistung …
Von der 3080 meiner Frau war die 5080 mit deutlich geringerer UVP zur 4080 und dank großzügigem OC-Spielraum mit nur 5% weniger Leistung als meine 4090@stock zur UVP ein sehr gutes Angebot.
Ergänzung ()
Yumix schrieb:
Ich war genau in der Situation. Hauptrechner Dezember 2024 gebaut, ohne Grafikkarte und nichts in der Hinterhand. Und was hab ich gemacht?
Trommelwirbel
Ja genau, keine überteuerte 5080 zu Scalperpreisen gekauft, sondern eine 9070 XT zum halben Preis, welcher die 16GB etwas besser stehen. Nervig ohne Grafikkarte rumzusitzen, aber lieber 3 Monate warten und 800€ sparen und auch sich dann auch nicht über den Kauf ärgern.
Naja die 9070 XT ist laut CB Test 8% langsamer als eine 5070 Ti und kostet auf dem Markt so ziemlich genau auch das weniger … P/L-Verhältnis nahezu identisch. Dafür bekommt man FSR anstatt DLSS und weniger RT/PT-Leistung …
Die 5080 gab es doch ständig zur UVP? Vielleicht nicht im Januar zum Release der 5080 - aber im März zur Release der 9070 XT habe ich meine auch problemlos bei Amazon bestellen können und um den Vergleich ging es dir ja …hätte sogar eine Stunde später nochmal eine bestellen können
Die 5070 Ti hatte ich zu dem Zeitpunkt für knappe 800€ auch überlegt - die 9070 XT war wie gesagt nur um das billiger, was ihr auch an Leistung fehlte …
Ergänzung ()
SweetOhm schrieb:
Und jene nicht immer schneller ist als eine 9070XT (ca. 750 €) ...
Tut mir ja Leid aber die 750€ 9070 XT ist 8% langsamer als die 5070 Ti (nicht 5080) für 789€ … und ganze 24% (!) langsamer als eine 5080 für aktuell 1059€ Das ist nahezu derselbe Abstand zwischen 4090 und 5090 …
Von DLSS>FSR und RT/PT, das in immer mehr aktuellen Spielen wie Indiana Jones zur Pflicht wird, fangen wir besser erst garnicht an
Mit identischem oder aktuell fast schlechterem P/L-Verhältnis und schlechterem Featureset wird man garantiert nicht viele Marktanteile gewinnen, was in der aktuellen Situation (10% AMD/90% Nvidia) ja so bitter notwendig wäre …
Tut mir Leid aber deine 2-3 Stunden Zocken die Woche, bei denen du als einer der sehr wenigen Besitzer einer RTX 5090 durch UV läppische 150W sparst, sind ein absoluter Tropfen auf den heißen Stein - wieviele kWh willst du dadurch sparen?… hier läuft ein Epyc 24/7, da wären allein 10 Watt relevanter …
Das dachten wir zur RTX5000 auch, aber siehst ja was passiert ist. Auch Nvidia ist nicht davor gefeit mal eine Generation in den Sand zu setzen... oder werden es 2 ?
Gamer sind ihnen jedenfalls zunehmend egal, der KI Goldesel muss gemolken werden.
Es gibt bisher 6 auf Reddit registrierte Fälle weltweit mit einer 5090 von denen mehr als die Hälfte nicht mit aktuellen Kabeln oder Netzteilen betrieben wurden und auch Anwenderfehler/Kabelproduktionsfehler nicht auszunehmen sind. Eine verschwindend geringe Zahl im Vergleich zur Problematik mit der 4090 und etwa 100x so vielen Fällen.
Bei 3500 Produktiv und Gamingmaschinen noch nicht einen Schmelzfall. Du kannst ergo deine undifferenzierte NPC Panikmache wieder einpacken.
Abgesehen davon sind Karten mit weniger als 450W selbst mit den zahlreichen alten Fehlerchen bei Eeinführung nie auffällig gewesen.
ChrisMK72 schrieb:
Hoffe, Nvidia nimmt sich dem Problem endlich mal an und verbessert bei der 6000er Gen etwas.
Weil noch niemand gewusst hat, dass 4090 mit dem alten Stecker und Headern gefährdet sind? Deshalb kam erneut ein Video? Nein, da geht es um etwas anderes. Klicks.
ChrisMK72 schrieb:
Drücke uns allen die Daumen, dass es bei den 6000ern aber schon überarbeitet wird.
Von meiner 4090 gesehen ja - nur haben die selbstverständlich die allerwenigsten … wobei wenn man eine 5090 zur UVP bekommt wären das gerade mal 300€ zum Verkaufspreis der 4090 für 25% mehr Leistung …
Von der 3080 meiner Frau war die 5080 mit deutlich geringerer UVP zur 4080 und dank großzügigem OC-Spielraum mit nur 5% weniger Leistung als meine 4090@stock zur UVP ein sehr gutes Angebot.
Jeder mit etwas Verstand zahlt dir für deine sicherlich 2 Jahre alte abgeranzte Karte keine 2k mehr...
Naja "25%" mehr Leistung sind es nicht wert, da es fast dieselbe Architektur ist, quasi nur nen Refresh..
Man kann getrost bis nächstes Jahr warten bis Rubin erscheint wo dann der Leistungssprung hoffentlich wieder mehr als nur lächerliche 25% sind und das auch nur bei der 90er Karte, von den anderen totgeburten wollen wir garnicht reden 😂
Wer das elektrische Design der Spannungsversorgung für einwandfrei hält, hat es entweder selbst noch nicht verstanden oder ist einfach nur ignorant. Solche Design flaws aus Kostenspargründen sind einfach nur traurig. Jedes Produkt muss einfach in gewisser Weise auf einen Anwendungsfehler oder Fertigungstoleranzen ausgelegt werden, speziell wenn der finanzielle Mehraufwand in diesem Fall im Cent-Bereich liegt. Jeder kann sich so eine Karte im Laden kaufen und es muss einfach davon ausgegangen werden, dass jemand den Stecker nicht perfekt einsteckt oder der Steckkontakt nicht mehr im idealen Zustand ist. Wenn die Konsequenz dann ein Schaden (wir reden von 2-3000 Euro, Hersteller ziehen sich aus der Verantwortung) oder schlimmstenfalls ein Brandschaden ist, hört für mich einfach der Spaß auf. Dass das für eine Firma wirtschaftlich ein kalkulierbares Risiko ist, steht auf einem anderen Blatt (Takata Airbags; mal informieren), wenn aber dann Konsumenten solche Firmenpraktiken auch noch gutheißen oder verteidigen, frag ich mich wo wir allmählich hinkommen... Clickbait hin oder her - in dieser Beziehung hat Roman recht und auch alle halbwegs vernünftigen Hardware-Youtuber oder Techies stehen da auf einer Seite - hier spart Nvidia am falschen Ende.