News GeForce, Radeon und Arc: Was sind eure Prognosen für neue Grafikkarten im Jahr 2024?

ShowOff schrieb:
die 4000er wird sich weiterhin schlecht Verkaufen
Soeben zwei RTX 4060 Ti 16 GB über NBB bestellt gehabt. 50 Euro unter der UVP, wollte ich jetzt zuschlagen. Soviel mal zu deiner Aussage!😁

Ja, ja. Eventuell hätte ich noch ein wenig warten sollen....

Gruß Fred.
 
  • Gefällt mir
Reaktionen: ShowOff
Quidproquo77 schrieb:
Dennoch arbeitet FSR im best Case ( Avatar: Pandora) nur mit Qualität auf dem DLSS Balanced Niveau.
Ist m.M. eine Urban Legend.
Alles eine Frage der Implementierung.
Und jeder sieht nur was er sehen will.
 
ShowOff schrieb:
Meine " Prognose" für 2024 - die 4000er wird sich weiterhin schlecht Verkaufen - da letztendlich immer noch viel zu teuer für " normalos".
Als Einzel-Karten absolut, die letzten X Berichte von Händlern egal wo sprechen hier ja ne recht eindeutige Sprach bei allem oberhalb der 4060.

In OEM-Builds oder Laptops aber dürfte es mangels Alternative anders aussehen.
Schau dir mal an, wie viele diese Geräte Nvidia und wie viele AMD oder Intel haben, die Spreche dort ist leider recht eindeutig...

Am Ende ist es aber auch relativ irrelevant für Nvidia im Rahmen ihrer aktuellen Pläne: hart auf KI zu setzen, da die Umsätze dort wegen des Hypes durch die Decke gehen und Consumer fallen hinten runter weil es für sie kaum nen Unterschied auf dem Umsatz-Blatt macht ob 4000 nun deutlich schlechter läuft als 3000/2000 oder nicht.

Daher ist es aus meiner Sicht auch relativ schwer einzuschätzen, ob die Super Karten nun teurer werden oder nicht: ihnen sind Consumer so egal, dass es sowohl passieren kann, dass man weiter an der Preis-Schraube nach oben dreht oder dass man die gesunkenen Produktionskosten direkt weitergibt oder dass man die Lager-Bestände nun tatsächlich drücken will und das über sinkende Preise tut.

Mein Gefühl würde sagen: wird teurer weil passt in das aktuelle Schema ihrer Consumer-Strategie wo jeder % mehr auch mehr $ kostet. Aber die Unsicherheit hier würde ich hier als relativ hoch einstufen, wegen der vorher genannten Gründe.
 
daknoll schrieb:
Alles eine Frage der Implementierung.
Dann gibt es bisher einfach nur noch keine Implementierung wo es anders wäre, ändert am Ende für den Kunden nichts.
Ich hatte bisher noch kein Spiel, welches DLSS und FSR geboten hat, wo FSR Q besser ausgesehen hat als DLSS B.
 
MalWiederIch schrieb:
Nett dass du uns mitteilst, dass du kein Interesse an mehr Leistung hast - aber das ist alles was eine neue GPU überhaupt interessant macht.
Ich schrieb "etwas mehr Leistung" ... aber wenn es dir nur um etwas mehr Leistung geht, dann ist das doch fuer dich schoen. Erfreue dich daran und lass mir mein momentanes Desinteresse an dieser Technologie.

Wenn es technologisch gesehen Neuigkeiten zu GPU Chip Architektur, Speichernutzung- /anbindung, Software oder eine, wie auch immer geartete AI Implementierung gibt, bin ich gern wieder am Start ... so ist's doch "nur ein Super" Aufguss und weitere Chip-Reste-Verwertungen die zu erwarten sind. ;)

Uebrigens:
So ist das in einem Forum. Jeder darf seine Meinung kund tun ... auch Du.
 
  • Gefällt mir
Reaktionen: gartenriese und LamaMitHut
daknoll schrieb:
Muss es denn besser aussehen?
Es bietet deutlich weniger FPS, ja dann sollte es besser aussehen.
Ansonsten ist beim FPS Vergleich halt wirklich für alle DLSS+FSR fähigen Spiele AMD bevorteilt wenn beide in Q oder beide in B getestet werden.
 
danyundsahne schrieb:
Eine 7900XTX kann sogar auf die selbe Effizienz im FPS Limit kommen, wie eine 4080.
Ja und Nein: Das ist stark abhängig vom Spiel und auch dem fps Limit. Es ist besser geworden mit den vergangen Treibern, aber immer noch nicht optimal und hängt auch von der Auflösung ab.
ShowOff schrieb:
Die 4000er wird sich weiterhin schlecht Verkaufen
Schlecht verkaufen tut sich die RTX 4000 nicht.
daknoll schrieb:
Ist m.M. eine Urban Legend.
Also bei der Bildqualität sind FSR "Quality" und DLSS "Quality" durchaus gleich auf - mit spezifischen Schwächen bei FSR aber auch DLSS. DLSS ist dann bei Balanced und ebenso bei Preformance dann "überlegen" bei der Bildqualität.

Das ganze hat in meinen Augen nur ein Haken: Wenn man spielt, fällt das in der Regel nicht mehr wirklich auf, sofern es nicht zu bestimmten Artefakten kommt. Ich kann DLSS Quality, Balanced, Preformacne oder das ganze bei FSR anstellen, ich merke zwar, dass sich das Bild etwas verändert, dass ist in der Regel aber subtil beim Spielen. Gewisse Sachen fallen dann beim Innehalten auf - etwas verwaschener Texturen, etwas verlorene Details.

Solange es aber nicht zu bestimmten Artefakten kommt, merke ich beim Spielen keinen Unterschied. Auffällig wird es erst, wenn es zu Artefakten und "Bildfehlern" kommt. Ghosting ist da so ein Ding, oder dass auf Teilen - Cyberpunk 2077 - der Haut ein Muster ist durch die Kleidung, dass je nach Frame und Körperhaltung nicht mehr abgebildet wird und es daher dann flimmert.

Und vor solchen Unschönheiten ist weder DLSS noch FSR wirklich sicher. Es ist mir am Ende egal, ob DLSS oder FSR die bessere "Bildqualität" haben, wenn es in bestimmten Situationen zu störenden Artefakten kommt. Ich teste FSR oder DLSS in Spielen und entscheide dann für mich anhand der Artefakte, was ich erträglicher finde.
 
  • Gefällt mir
Reaktionen: Sun-Berg, daknoll, gartenriese und 2 andere
DevPandi schrieb:
Ja und Nein: Das ist stark abhängig vom Spiel und auch dem fps Limit. Es ist besser geworden mit den vergangen Treibern, aber immer noch nicht optimal und hängt auch von der Auflösung ab.
Ja ich sag ja auch Ja und Nein, in bestimmten Fällen ist man gleichauf. In anderen (bzw. im großen Schnitt) eben 20% hinter was die Effizienz angeht.
Aber ich hatte eben nur was gegen die generelle Aussage "meilenweit hinter NV". ;)
 
  • Gefällt mir
Reaktionen: gartenriese
Taxxor schrieb:
Ich hatte bisher noch kein Spiel, welches DLSS und FSR geboten hat, wo FSR Q besser ausgesehen hat als DLSS B.
DevPandi schrieb:
Also bei der Bildqualität sind FSR "Quality" und DLSS "Quality" durchaus gleich auf - mit spezifischen Schwächen bei FSR aber auch DLSS. DLSS ist dann bei Balanced und ebenso bei Preformance dann "überlegen" bei der Bildqualität.
Cagefight jetzt!

Ne, Spaß beiseite, ich denke DLSS B > FSR Q ist so pauschal nicht richtig. In UHD ist FSR Q häufig näher an DLSS Q als an DLSS B. Und hin und wieder sieht FSR Q in UHD sogar in Teilbereichen besser aus als DLSS Q. In QHD wiederum ist's leider eine ganz andere Geschichte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll
Vitche schrieb:
Nö! Ich muss dich auch dem Tierschutzbund melden! Du animierst ein Panda zu Aggressionen gegen die Leser. Nicht lieb!

Nein, ernsthaft: Am Ende ist auch die Bildqualität immer etwas, was man subjektiv bewertet und man kann andere Meinung haben.

Für mich sieht weder DLSS noch FSR - egal welche Einstellung - wirklich schlechter oder besser aus, sondern nur anders. Mich stören da Artefakte eher, weil die wirklich irriteren.

Darüber länger als notwendig zu „streiten“ ist unsinnig. Nur bei zu viel Langeweile.
 
danyundsahne schrieb:
...
Und mit solch generell absurd hohen GPU Preisen wird der PC Markt auf Dauer kaputtgemacht.
Wohl war.
danyundsahne schrieb:
Es erwägen ja schon einige auf die Konsole abzuwandern. Oder haben es bereits getan.

Finde die Entwicklung daher traurig.
Ich habe jetzt am WE die 3 Spiele die ich bis jetzt noch auf dem Desktop gespielt habe, auf dem Steam Deck nochmal ausprobiert, und festgestellt das es reicht über die Dockingstation auf eine Stufe unter UHD zu stellen, bei höchster Qualität Stufe, damit es von der Leistung passt.

Das heißt ICH bin da jetzt auch raus, frühesten mit einem Steam Deck 2 wird es wieder neue Hardware geben.
Der Desktop wird nur noch zum Zeichnen genutzt, und gespielt wird nur noch auf dem SD. :rolleyes: :king:
 
  • Gefällt mir
Reaktionen: McTheRipper
gartenriese schrieb:
Gesetzt von wem? Sind doch nur Gerüchte bisher.
Von mehreren Seiten bestätigte Gerüchte, kurz vor Release, sind in der Regel zuverlässig. Kann aber natürlich immer mal anders kommen. Die derzeitige UVP beizubehalten würde bei der 4080 Super für NV auch keinen Sinn machen, da die jetzige 4080 sich zu dieser UVP ja schon lange nicht mehr verkauft und die neue nur 5-6% schneller ist. Wir werden es in ein paar Tagen dann sicher wissen.
 
daknoll schrieb:
Ist m.M. eine Urban Legend.
Darauf weisen solche Tests wie von Hardware Unboxed die 26 Spiele analysieren und zum gleichen Fazit gelangen nicht hin. Eine Urban Legend ist FSR als gleichwertig zu betrachten, obwohl das nach allem was ich gesehen und getestet habe nicht der Fall ist.
Du kannst mir aber gerne eine Gegendarstellung verlinken und mich eines besseren belehren.
daknoll schrieb:
Alles eine Frage der Implementierung.
Ich denke es ist eine Frage wie die Technik an sich funktioniert und was sie zu leisten im Stande ist.
daknoll schrieb:
Und jeder sieht nur was er sehen will.
Als ob ich als 5 Jahre langer Radeon VII und 2 wöchiger 7800XT Nutzer mir wünschen würde, dass DLSS vom kundenunfreundlichen Marktführer besser wäre.
Ich möchte ein besseres FSR sehen, dann fällt der proprietäre Kram nämlich weg die Entwickler müssen nur noch 1 Upsampling integrieren etc.

Ergänzend in Avatar DLSS. vs FSR QHD Qualität.
Oben DLSS, unten FSR, das ist meines Erachtens eindeutig bei FSR flimmeranfälliger und "niedriger aufgelöst".
Vergleichbar ist dort FSR Qualität mit DLSS Balanced und das ist eher ein Glücksfall für FSR.


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese
danyundsahne schrieb:
Oder eine 4070ti verbraucht 285W und die ~10% schnellere 7900XT verbrauch 305W unter Volllast. Ist grob die gleiche Effizienz.
Eine RTX 4070Ti braucht genau das was Du ihr zugestehst:D
1.png2.png

Auch immer wieder lustig, wenn eine optimierte AMD Karte genommen wird und dann mit einer stock Nvidia Karte verglichen wird....oder eben umgekehrt.
 
  • Gefällt mir
Reaktionen: gartenriese
DevPandi schrieb:
Also bei der Bildqualität sind FSR "Quality" und DLSS "Quality" durchaus gleich auf - mit spezifischen Schwächen bei FSR aber auch DLSS.
Diese Behauptung triffst du auf welcher Grundlage?
FSR und DLSS Qualität nehmen sich mit 4K Ausgangslage wenig, aber nur selten ist FSR auf Augenhöhe begünstigt durch den hohen DPI Faktor. DlSS Balanced oder Performance sieht nicht schlechter aus.
Qualität auf einem UWQHD oder QHD Monitor mit FSR ist besser als die Auflösung zu reduzieren, aber auch für Laien sofort erkennbar schlechter als DLSS Q.
Du kannst mir gerne einen Test oder einen Vergleich zeigen, der deine Sicht bestätigt, mir ist keiner bekannt.

DevPandi schrieb:
Solange es aber nicht zu bestimmten Artefakten kommt, merke ich beim Spielen keinen Unterschied.
Welches Spiel zum Beispiel? Dann schaue ich mir das an und mache einen Vergleich.
Artefakte einer gefühlt niedrigeren Auflösung, sprich Kantenflimmern und Bildinstabilität stechen sofort ins Auge. Ghosting von feinen, kleinen Objekten muss man mit schnellen Drehungen provozieren bzw. suchen.
Selbst XeSS kann trotz geringerer Auflösung FSR Q erreichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese
danyundsahne schrieb:
Oder eine 4070ti verbraucht 285W und die ~10% schnellere 7900XT verbrauch 305W unter Volllast. Ist grob die gleiche Effizienz.

Im gesamten Schnitt sind die RTX40 aber ca. 15-20% effizienter, ja. Aber Meilenweit entfernt ist das nicht.
Ich hatte beide Karten hier.

Stock verbraucht die 4070Ti eher Richtung 250W mit kurzen Peaks Richtung 280W.
Die 7900XT lief bei Volllast quasi ständig > 300W und war dementsprechend um einiges lauter.

Zudem kam auch:
Die 4070Ti lasst sich kinderleicht mit Stock Performance auf unter 200W bringen.
Bei der 7900XT war undervolting quasi unmöglich bzw. immer unstabil. Zwar lässt sich die Verlustleistung senken, dann verliert man wiederrum ein paar Prozent Leistung.

War mit der 7900XT was Effizienz und Undervolting betrifft sehr unzufrieden.
 
  • Gefällt mir
Reaktionen: gartenriese
  • Gefällt mir
Reaktionen: danyundsahne
PegasusHunter schrieb:
Vielleicht kommen ja 2024 mal Monitore ≥ 30 Zoll heraus, die stromsparender sind. Das Stromverbrauchsgejammer bei Grafikkarten ist mittlerweile unnötig. Eure Monitore brauchen zu viel Strom und laufen viel häufiger und länger als die Grafikkarten unter Volllast.
Brauchen die meisten Monitore nicht unter 100 Watt?
Ergänzung ()

GerryB schrieb:
AW2 würde mir persönlich als "Video gucken auf YT" reichen.
1x durch den Wald und das Dorf laufen und dann in den Coffeeshop, dauert 15min, wenn man etwas
vorspult
Deine schlechten Spielegeschmack brauchst du hier nicht zur Schau stellen ;-)

Nein ernsthaft: wenn es dir nicht gefällt, ist das völlig okay. Allerdings sollte dir klar sein, dass eine erschlagende Mehrheit das anders sieht.

MetaScore und Open Critic jeweils 89%, MetaCritic UserScore 8,8/10, Spielerbewertungen im Epic Games Store 4,8/5...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese und Mcr-King
Zurück
Oben