Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „Ada Lovelace Next“: Die nächste GeForce-Generation erscheint erst 2025
- Ersteller Vitche
- Erstellt am
- Zur News: „Ada Lovelace Next“: Die nächste GeForce-Generation erscheint erst 2025
Nick.Bo
Lieutenant
- Registriert
- Apr. 2017
- Beiträge
- 612
ASCORBIN schrieb:Die 5090 wird aber bestimmt ein paar Monate vorher raus gekloppt 🫡
Du meinst so als „Vorbesteller“ Bonus? Mit Vorteil auf bestimmte Features noch bevor alle anderen es testen dürfen? 😛
MeisterOek
Commander
- Registriert
- Nov. 2014
- Beiträge
- 2.904
Ich lehne mich weit aus dem Fenster, behaupte aber, dass die 4090 die RTX 4080 Leistung mit UV und Begrenzung auf 150 Watt bereits jetzt bringt. 4080 natürlich ohne UV/Begrenzung.iWeaPonZ schrieb:Ich würde mich mal über RTX 4080 Leistung im Bereich von 150 Watt TGP freuen, aber das wird vermutlich noch länger dauern
C4rp3di3m
Commander
- Registriert
- Jan. 2008
- Beiträge
- 2.916
Nehme mal an die Verkäufe/Zahlen sind recht überschaubar besonders Midrange, bei den Wucherpreisen sitzen dass viele aus und selbst mit der Vorgängergeneration kann man alles Spielen wenn man auf Spielerreien wie RT verzichtet, ich habe das z.B. nie genutzt.
mfg
mfg
Capthowdy
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.781
Na das wollen wir doch hoffen, gibt sicher genug Leute die gerne eine 4090 für nen normalen Preis in der Bucht kaufen wollen.ASCORBIN schrieb:Die 5090 wird aber bestimmt ein paar Monate vorher raus gekloppt 🫡
Grummelbart
Lieutenant
- Registriert
- Juli 2016
- Beiträge
- 524
axl foli schrieb:Die 1080ti war 2017 einfach der beste Kauf aller Zeiten. Ich habe noch nie eine Grafikkarte so lange verwendet. Und die wird noch bis 2025 reichen.
Die ganze Generation von GTX1070 bis zur 1080 Ti war grandios und ist bis heute problemlos benutzbar.
Capthowdy
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.781
Der Stecker wurde von der PCI-SIG entworfen, das ist 1. sehr wohl ein Standard und 2. nicht von einem einzelnen Hersteller erschaffen.4nanai schrieb:vor allem als non-standardisierte Erschaffung eines einzelnen Herstellers.
Zuletzt bearbeitet:
(Verbale Entgleisung entfernt.)
Corpus Delicti
Lt. Commander
- Registriert
- Nov. 2016
- Beiträge
- 1.767
Mimir schrieb:Dann gibts wahrscheinlich mit der RTX5060 10 GB statt 8 GB und nochmal 15% mehr, nein, vielleicht sogar 20% mehr Leistung als die 4060!!!
Für 20% Aufpreis versteht sich
Du vergisst, das du nach 8 Jahren Dauervollastgaming, soviel Strom gespart hast, das du die 20% Aufpreis "wieder rein" bekommen hast.
Nein.
Einfach nein.
DAS Mittel der Wahl, welches seit Jahrzehnten den Fortschritt treibt, ausgerechnet in einer Computerpublikation wegzulassen ist erstaunlich.
Moore's Law
Leistungsaufnahme ist im Endeffekt nur ein Produkt aus Architektur, Größe und Takt, insofern korreliert das natürlich.
Aber DAS was seit JAHRZEHNTEN dafür sorgt dass unsere smartphones mittlerweile mehr Rechenleistung haben als Supercomputer der 90er, sind Transistoren.
Sieht man gut an Apple Silicon, deren RISC-CPUs sehr breit aufgestellt sind um somit auch bei relativ niedrigem Takt hohe Rechenleistung zu bieten.
nVidia geht seit Jahren, mit der 4000er Serie (abseits der 4090) sehr extrem, den anderen Weg: immer kleinere SoCs die teilweise sehr weit oberhalb ihres sweetspots laufen. Die community feiert es dass die GPU mit 300W statt 400W ohne merkliche Leistungsverluste betrieben werden kann, aber eigentlich zeigt es nur wie nVidia kalkuliert - Transistoren kosten wafer-Fläche, das kostet Marge.
Was muss nVidia machen um die nächste Generation schneller werden zu lassen?
Mehr Transistoren.
Breitere Speicheranbindung.
Mehr shader, mehr ALUs.
Dann benötigt es auch keinen neuen Fertigungs-node.
Als Vergleich mal die Chips von 3060Ti und 4060Ti nebeneinander gestellt.
https://www.topcpu.net/de/gpu-c/geforce-rtx-3060-ti-vs-geforce-rtx-4060-ti-8-gb
vösendorfer
Cadet 2nd Year
- Registriert
- Mai 2020
- Beiträge
- 20
Hmm ich gehe auch davon aus, dass es für die 4000er Reihe noch die üblichen TI/Super etc. Varianten geben wird. Ein bisschen Luft bei der Leistungsaufnahme gibt es ja noch im Vergleich zur 3000er Generation und ein Upgrade auf DisplayPort 2.1 wäre ja auch schon mal ein Anfang um den Standard nach vorne zu bringen.
NoNameNoHonor
Lt. Junior Grade
- Registriert
- Nov. 2020
- Beiträge
- 469
Als ob jemand "gezwungen" wäre, unbedingt jetzt Nvidia Grafikkarten zu kaufen (und nein, "gezwungen" wäre er auch nicht, AMD Grafikkarten zu kaufen). Wer die Karten kauft, wird nicht gemolken, sondern er spendet freiwillig Geld.xxMuahdibxx schrieb:Was wil man denn so viel neues am Ende...
Die aktuelle Generation bei Nvidia ist so breit aufgestellt da deckt man fast alles ab... Außer Low entry... Um die 150-200 Euro..
Am Ende kann man nur "oben" wirklich melken..
Xes
Admiral
- Registriert
- Nov. 2013
- Beiträge
- 7.514
*Gegenüber einer GTX 560, weil man natürlich die Leute ansprechen will, die schon lange nicht mehr geupgradet haben.Lars_SHG schrieb:Nee, lieber länger warten, dann noch das Speicherinterface weiter kastrieren oder wenn nicht mehr geht, dann am Speicher sparen und protzig raushauen, dass die neue Generation dank höherem Takt jetzt wieder 4,78% schneller geworden ist* - natürlich mit DLSS4, was für die 4-rer Generation leider nicht mehr funktioniert......
Aber mal ehrlich, wenn die RT Leistung der 4090 nirgends hinreicht, schon gar nicht für Pathtracing, wen interessiert RT bei den kleineren Karten?MalWiederIch schrieb:fehlende Raytracing-Leistung auch zurechtreden
Sorry, aber das ist noch 2-3 Gen nice to have und mehr sicher nicht.
Zuletzt bearbeitet:
iWeaPonZ
Lt. Junior Grade
- Registriert
- Mai 2012
- Beiträge
- 481
Vielleicht mit einem wahnsinnig guten Chip, meine 4090 schafft das leider nicht. Die begrenze ich inzwischen auch nur noch bei den Frames (Treiber) und im Power Limit.MeisterOek schrieb:Ich lehne mich weit aus dem Fenster, behaupte aber, dass die 4090 die RTX 4080 Leistung mit UV und Begrenzung auf 150 Watt bereits jetzt bringt. 4080 natürlich ohne UV/Begrenzung.
Direkt „Stock“ vom Hersteller wäre da nochmal schöner, dann würde manuell nochmal etwas weniger gehen
Aktuell zieht die 4080 ca. 270 Watt ausgelastet in Spielen.
Telechinese
Lt. Commander
- Registriert
- Okt. 2022
- Beiträge
- 1.156
BlaBlaBla...
Solange AMD nicht in die Puschen kommt, und NVidia gehörig in den A tritt, wird da garnichts passieren.
Auch die Preise werden nie und nimmer besser werden...
Das ist eine "festgefahrene" Situation... Die Kunden bluten und NVidia lacht - wie immer... 👎
Solange AMD nicht in die Puschen kommt, und NVidia gehörig in den A tritt, wird da garnichts passieren.
Auch die Preise werden nie und nimmer besser werden...
Das ist eine "festgefahrene" Situation... Die Kunden bluten und NVidia lacht - wie immer... 👎
Bible Black
Lieutenant
- Registriert
- Apr. 2011
- Beiträge
- 896
Muss die gute 2070S wohl noch bisschen durchhalten... aber ist ja eh nicht so, als würde ich nicht einfach in das Grafikmenü gehen, "Mittel" wählen und einfach los zocken (wenn die 100+fps erreicht werden).
Ähnliche Themen
- Antworten
- 176
- Aufrufe
- 18.627
- Antworten
- 143
- Aufrufe
- 13.199
- Antworten
- 1.733
- Aufrufe
- 179.013
- Antworten
- 80
- Aufrufe
- 11.096
- Antworten
- 633
- Aufrufe
- 75.176