News GeForce RTX 4090: Nvidia erhöht den UVP, Handel nähert sich 2.000-Euro-Marke

Unti schrieb:
Das hat ABSOLUT NICHTS mit der Ursache von "Gamma Flickering" zu tun und mich kotzt das als einzige Downside bei OLED richtig fett an.
Ich habe ja nicht gesagt, dass das Problem bei OLED in Stein gemeißelt ist. Wenn man allerdings einen entsprechenden LG OLED TV nutzt, dann tritt das Geflacker halt auf sobald ein Frametime-Spike auftritt.

Bin mal gespannt ob sie das Problem mit dem C4/G4 endlich mal angegangen sind.
 
Zuletzt bearbeitet:
Unti schrieb:
Das hat ABSOLUT NICHTS mit der Ursache von "Gamma Flickering" zu tun und mich kotzt das als einzige Downside bei OLED richtig fett an.
Effektiv hast du dieses Problem bei jedem Titel, ungeachtet des Featuresets.
Sobald auch nur irgend ein kleiner Peak in der Frametime vorkommt flackert der Bildschirm.
Da kannst du noch so hart deinen Framelock reinbasteln... wenn du Traversal oder Shaderstuttering hast, hast du Gamma Flickering.....
LG soll das Problem endlich mal fixen und die Gamma Refreshrate an die Effektiv Hz Zahl des Panels anpassen....
Das habe ich bei meinem LG C2 mittlerweile SEHR selten und es kommt, wenn überhaupt, nur bei unter 5% Grauwert vor.
Hat aber nichts mit der Frametime zu tun... Aber ich nutze auch G-Sync/V-sync und 120FPS Limit im Treiber.
 
theGucky schrieb:
Das habe ich bei meinem LG C2 mittlerweile SEHR selten und es kommt, wenn überhaupt, nur bei unter 5% Grauwert vor.
Hat aber nichts mit der Frametime zu tun... Aber ich nutze auch G-Sync/V-sync und 120FPS Limit im Treiber.
Es ist in letzter Zeit bei mir auch nur in Alan Wake 2 in diesem Ausmaß aufgetreten.
 
MoinWoll schrieb:
Ich habe ja nicht gesagt, dass das Problem bei OLED in Stein gemeißelt ist. Wenn man allerdings einen entsprechenden LG OLED TV nutzt, dann tritt das Geflacker halt auf sobald ein Frametime-Spike auftritt.
Ich hatte dazu auch schon das ein oder andere gelesen. Soweit ich mich erinnere ist diese Diskussion beim LG C1 und LG CX aufgekommen. Die Bildfehler treten hier nur bei aktivierten VRR auf. Versuche mal das Spielen mit einem FPS-Lock + deaktivierten VRR.
 
MoinWoll schrieb:
Da sind dann eben nicht mehr nur "ein paar Dinge anders" sondern viele Dinge sichtbar besser dargestellt. Ob einem das den Aufpreis wert ist, muss natürlich jeder selbst wissen. Was ich allerdings nicht verstehe, ist, warum man die optischen Vorteile bei jeder Gelegenheit kleinreden muss. Wem nützt das?
Du nennst es kleinreden, ich nenne es nüchtern betrachten... Momentan haben wir ein Marktmonopol von nVidia. Mehr als 80% der Gamer (beim PC) nutzen nV Karten. Das Marketing spielt hier eine grosse Rolle, denn eben solche optische Vorteile, die klar besser sind, aber imho nicht unbedingt zwingend notwendig werden den Kunden eingeredet.
Darum auch die ganzen Technikpartnerschaften. Die Message ist klar, und wird auch hier im Forum gern immer wieder wiederholt: RT geht nur mit nVidia. Kein Wunder, haben wir diese Marktverhältnisse.

Und diese Marktverhältnisse sind nicht gut für uns Kunden. Selbst wenn man AMD oder Intel Nutzer ist, legt man auf Grund dieser Situation drauf. Denn die Underdogs orientieren sich preislich auch am Marktführer.

Ich fände es wesentlich besser, wenn sich Gamer ein wenig mehr Gedanken machen würden, was sie wirklich brauchen und ggf. auch bei der Konkurrenz mal einkaufen würden - denn praktisch jede Karte kann 95% der Spiele einwandfrei darstellen, ohne dass es grosse Einschnitte gibt. Geschweige denn, dass die 80% der Nicht-Enthusiasten überhaupt etwas merken würden.

Es ist mir schon klar, dass hier im Forum andere Klientel dabei sind, wo solche Features vielleicht wichtig sind. Granted. Aber das ist eine verschwindend kleine Gruppe.
Diese darf sich aber nicht beschweren, wenn die Preis so sind wie sie sind. Denn sie verlangen was sie können, das ist legitim. Aber wie gesagt: selbst gemachtes Problem.
 
CadillacFan77 schrieb:
Momentan haben wir ein Marktmonopol von nVidia. Mehr als 80% der Gamer (beim PC) nutzen nV Karten.
80% Marktanteil würde ich nicht als Monopol bezeichnen.

CadillacFan77 schrieb:
Das Marketing spielt hier eine grosse Rolle, denn eben solche optische Vorteile, die klar besser sind, aber imho nicht unbedingt zwingend notwendig werden den Kunden eingeredet.
Notwendig ist fast gar nichts, aber wenn es Vorteile gibt, ist es doch völlig legitim diese auch für das Marketing zu benutzen. Hier werden auch keine Vorteile eingeredet, diese sind nunmal objektiv vorhanden.

CadillacFan77 schrieb:
Die Message ist klar, und wird auch hier im Forum gern immer wieder wiederholt: RT geht nur mit nVidia.
In dieser Absolutheit habe ich das tatsächlich (auch hier) noch nie gelesen.

CadillacFan77 schrieb:
Kein Wunder, haben wir diese Marktverhältnisse.
Marketing spielt natürlich immer eine Rolle, aber die große Diskrepanz zwischen AMD's und NV's Marktanteilen allein auf Marketing zurückzuführen blendet vieles einfach komplett aus.

CadillacFan77 schrieb:
Und diese Marktverhältnisse sind nicht gut für uns Kunden. Selbst wenn man AMD oder Intel Nutzer ist, legt man auf Grund dieser Situation drauf. Denn die Underdogs orientieren sich preislich auch am Marktführer.
Da stimme ich zu. Lösen ließe sich das aber nur, wenn AMD und Intel auf der technischen Seite entsprechend zu NVIDIA aufschließen. Man hat sehr gut an AMD's Ryzen gesehen, dass das durchaus funktioniert, obwohl der Markt vorher viele Jahre komplett auf Intel konzentriert war. Wie sich dieses Problem dagegen nicht lösen lässt, ist durch das Herunterspielen der Vorteile leistungsfähigerer Technik und besserer Features in Technikforen.

CadillacFan77 schrieb:
Ich fände es wesentlich besser, wenn sich Gamer ein wenig mehr Gedanken machen würden, was sie wirklich brauchen und ggf. auch bei der Konkurrenz mal einkaufen würden - denn praktisch jede Karte kann 95% der Spiele einwandfrei darstellen, ohne dass es grosse Einschnitte gibt. Geschweige denn, dass die 80% der Nicht-Enthusiasten überhaupt etwas merken würden.
Flächendeckend bewussteres Kaufverhalten wäre wirklich wünschenswert, aber leider utopisch.

CadillacFan77 schrieb:
Es ist mir schon klar, dass hier im Forum andere Klientel dabei sind, wo solche Features vielleicht wichtig sind. Granted. Aber das ist eine verschwindend kleine Gruppe.
Zumindest in meinem Freundeskreis sind fast alle mehr oder weniger auch PC-Spieler und niemand von denen treibt sich in Technikforen rum. Die kommen meist zu mir wenn sie Kaufberatung brauchen und ich empfehle meistens AMD-Karten, vor allem wenn auf RT-Leistung und DLSS kein Wert gelegt wird. Allerdings kaufen dann, nachdem sie sich etwas damit beschäftigt haben, was RT ist und was DLSS ist, die meisten dann doch eine NVIDIA-Karte, da sie hierbei keine mehr oder weniger starken Einschränkungen hinnehmen möchten, die ihnen dann vllt. 100-200€ ersparen würden. Und die schauen sich kein Werbematerial von NVIDIA an, sondern Testberichte sowie Bild- und Videovergleiche von dritten (z. B. von CB). Die meisten dieser Leute kaufen ihre Karten eben auch für 4-8 Jahre Nutzungszeit. Da möchte man eben, dass immer wichtiger werdende Technologien möglichst gut unterstützt werden.

CadillacFan77 schrieb:
Diese darf sich aber nicht beschweren, wenn die Preis so sind wie sie sind. Denn sie verlangen was sie können, das ist legitim. Aber wie gesagt: selbst gemachtes Problem.
Das Problem ist m. E. nicht durch Spieler selbst gemacht, sondern folgt einfach daraus, dass wir jetzt eine Abfolge mehrerer Sondersituationen (2 Mining-Booms, 1 KI-Boom) hatten, welche es NVIDIA ermöglicht haben, das ganze Preisgefüge zu verschieben. Das das nicht unbedingt dauerhaft aufgeht, sieht man daran, dass fast alle Karten dieser Generation ziemlich schnell und stark im Preis gefallen sind, solange niemand außer Gamern diese Karten gekauft hat (bis September 2023). Auch nach dem ersten Mining-Boom 2017 sind die Preise aller Karten direkt ins Bodenlose gestürzt. Gamer haben also nicht einfach zu den während des Mining-Booms entstandenen Preisen weitergekauft. Turing, dessen UVPs sich stark an den Preisen aus dem vorherigen Mining-Boom orientiert haben, hat sich wohl auch ziemlich schlecht verkauft und als Ampere erschien, ging dann direkt der nächste Mining-Boom los.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
MoinWoll schrieb:
Gerade im Bewegtbild fallen die Unterschiede deutlich auf (Bildruhe, Flimmern, Okklusionsartefakte, Ghosting, Smearing). Auf Standbildern bietet FSR 2 in der Regel bereits ein sehr sauberes Bild.
Das kommt aber auch darauf an welches Spiel.
Mal hat FSR diese und jene Artefakte und DLSS hat dann wieder diese und jene Artefakte. Dann kann man sich aussuchen was mehr stört.
Aber in der Summe bietet DLSS das bessere Bild.
Gerade was das flimmern angeht.
AMD muss und wird noch nachlegen.
Ob sie es dann FSR (4?) weiter Abwärtskompatibel halten oder dann auch spezielle Hardware benötigt wird interessant.
 
  • Gefällt mir
Reaktionen: MoinWoll
CadillacFan77 schrieb:
Vergleichbarkeit. Bei wenigen Sampels an Spielen kann man nicht von einem generellen Performanceproblem reden.
Es gibt unabhängige Pathtracing Benchmarks die das widerlegen. Bitte nicht wieder an die große Verschwörung glauben.
 
MoinWoll schrieb:
80% Marktanteil würde ich nicht als Monopol bezeichnen.
Darum schrieb ich ja Marktmonopol ;) Wenn 80% ein Produkt X kaufen, kann man durchaus davon reden.
Wie zBsp auch bei Windows. Klar gibt es noch andere Hersteller, aber die sind auf dem Markt fast unbedeutend. Daher kein klassiches Monopol an sich, sondern ein Marktmonopol.

MoinWoll schrieb:
Notwendig ist fast gar nichts, aber wenn es Vorteile gibt, ist es doch völlig legitim diese auch für das Marketing zu benutzen. Hier werden auch keine Vorteile eingeredet, diese sind nunmal objektiv vorhanden.
Natürlich. Nur werden diese Vorteile überproportional wichtig dargestellt (weiter unten ein von Dir bestes Beispiel)

MoinWoll schrieb:
In dieser Absolutheit habe ich das tatsächlich (auch hier) noch nie gelesen.
"Allerdings kaufen dann, nachdem sie sich etwas damit beschäftigt haben, was RT ist und was DLSS ist, die meisten dann doch eine NVIDIA-Karte, da sie hierbei keine mehr oder weniger starken Einschränkungen hinnehmen möchten, die ihnen dann vllt. 100-200€ ersparen würden."

RT geht auch auch AMD Karten, warum also nVidia kaufen? Insbesondere wenn "vor allem wenn auf RT-Leistung und DLSS kein Wert gelegt wird" zutrifft? Das ist doch sinnfrei. Und das, obwohl Du AMD empfielst? Könnte es nicht am Marketing liegen?

MoinWoll schrieb:
Marketing spielt natürlich immer eine Rolle, aber die große Diskrepanz zwischen AMD's und NV's Marktanteilen allein auf Marketing zurückzuführen blendet vieles einfach komplett aus.
Jaein. Klar ist nicht nur alles Marketing, aber halt Vieles. Geht ja schon los bei den Entwicklerstudios, die gerne Kooperationen eingehen (da hat nV einfach den deutlich grösseren Geldsack) und selbst wenn nicht, legitimer Weise auf die 80% nV Nutzer optimieren in der Regel, da dies einfach die grössere Zielgruppe ist. Entsprechend - gerade wenn man dann Test liest - sieht es für die Konkurrenz schlechter aus. Auslöser ist aber der Marktanteil. Als Entwickler würde ich genauso agieren. Es zieht sich ja durch (fast) alle Spiele. Das hilft natürlich nicht wirklich, einen ausgewogeneren Marktanteil zu erreichen.
Und da es Ausnahmen gibt, kann man durchaus sagen, dass die Konkurrenz ebefalls ausreichend Leistung hat. Nur wird selten auf AMD optimiert. Schön wäre es ja, wenn auf beide optimiert werden würde.

MoinWoll schrieb:
Da stimme ich zu. Lösen ließe sich das aber nur, wenn AMD und Intel auf der technischen Seite entsprechend zu NVIDIA aufschließen. Man hat sehr gut an AMD's Ryzen gesehen, dass das durchaus funktioniert, obwohl der Markt vorher viele Jahre komplett auf Intel konzentriert war.
Ist er realistischerweise noch immer. Das Verhältnis AMD-Intel ist trotz bereits jahrelanger Stärke von AMD noch immer deutlich zu Gunsten Intels. Was hat AMD Marktanteil? 20%? Daran sieht man auch, dass es nicht viel bringt, wenn sie aufschliessen oder sogar überholen. Hat noch nie funktioniert (damals als es ATi noch gab wars teilweise noch so). Siehe auch RDNA2.

MoinWoll schrieb:
Zumindest in meinem Freundeskreis sind fast alle mehr oder weniger auch PC-Spieler und niemand von denen treibt sich in Technikforen rum. Die kommen meist zu mir wenn sie Kaufberatung brauchen und ich empfehle meistens AMD-Karten, vor allem wenn auf RT-Leistung und DLSS kein Wert gelegt wird. Allerdings kaufen dann, nachdem sie sich etwas damit beschäftigt haben, was RT ist und was DLSS ist, die meisten dann doch eine NVIDIA-Karte, da sie hierbei keine mehr oder weniger starken Einschränkungen hinnehmen möchten, die ihnen dann vllt. 100-200€ ersparen würden. Und die schauen sich kein Werbematerial von NVIDIA an, sondern Testberichte sowie Bild- und Videovergleiche von dritten (z. B. von CB). Die meisten dieser Leute kaufen ihre Karten eben auch für 4-8 Jahre Nutzungszeit. Da möchte man eben, dass immer wichtiger werdende Technologien möglichst gut unterstützt werden.
Natürlich tragen auch Magazine wie CB und Co dazu bei. Wobei CB noch sehr ausgewogen berichtet. Aber viele gucken halt nur auf den Balken. Die Information in Kontext setzten wird selten gemacht. 4-8 Jahre und dann soll RT wichtig sein? Die meisten nV Karten heute schaffen ja noch nicht mal vernünftig RT der aktuellen AAA Spiele. In 4-8 Jahren ist die RT Performance der heutigen Karten völlig belanglos.
Oder wären AW:2 & Co mit RTX2000 lustig?

MoinWoll schrieb:
Das Problem ist m. E. ist nicht durch Spieler selbst gemacht, sondern folgt einfach daraus, dass wir jetzt eine Abfolge mehrerer Sondersituationen (2 Mining-Booms, 1 KI-Boom) hatten, welche es NVIDIA ermöglicht haben, dass ganze Preisgefüge zu verschieben. Das das nicht unbedingt dauerhaft aufgeht, sieht man daran, dass fast alle Karten dieser Generation ziemlich schnell und stark im Preis gefallen sind, solange niemand außer Gamern diese Karten gekauft hat (bis September 2023). Auch nach dem ersten Mining-Boom 2017 sind die Preise aller Karten direkt ins Bodenlose gestürzt. Gamer haben also nicht einfach zu den während des Mining-Booms entstandenen Preisen weitergekauft. Turing, dessen UVPs sich stark an den Preisen aus dem vorherigen Mining-Boom orientiert haben, hat sich wohl auch ziemlich schlecht verkauft und als Ampere erschien, ging dann direkt der nächste Mining-Boom los.
Es gab Sondereffekte. Trotzdem sind aktuelle Karten noch immer deutlich teurer. Egal ob nV oder AMD. Gekauft werden sie trotzdem - auch die kleineren. Die 4090 mag eine Sonderposition einnehmen, doch die anderen Karten nicht wirklich. Und damit meine auch auch AMD Karten.
 
theGucky schrieb:
Um den anderen zu zeigen, das man Geld hat und Apple kaufen kann...darauf läuft es leider immer hinaus.
Ich sehe es bei meiner Nichte, sie wird schon in der Schule in die Richtung gedrillt...
Aber früher war es nicht anders...ich habe mich für das alles aber nie interessiert und war nie "in". :D

Ich habe mir die 4090 nicht als Statussymbol gekauft, sondern weil ich diese im Gaming auch voll ausnutze für mich selber im privaten Hobby.
Ich war auch nie "In" - das ist auch alles nur eine Illusion.
Wir haben auf der Welt schon genügend Lappen die sich wegen materieller Dinge "Cool" fühlen und meinen sie waren etwas wert.
Ich bin froh noch in einer Zeit aufgewachsen zu sein, in der man in der Schule höchstens P***** auf einem PDA irgendwo im letzten Eck geschaut hat, weil man meinte man ist ein großer Junge :rolleyes::lol:
Irgendwo war es schön ohne diese Geräte aufzuwachsen und sich mit anderen noch über normales auszutauschen - also über Hobbys, Interessen und nicht wer das besser Smartphone hat, die bessere Insta Story oder irgendwelche blöden Bilder über Snapchat....
Ich finde diese Entwicklung echt sehr armseelig.... dafür wurde die Technik sicherlich ursprünglich nicht erschaffen... oder ich bin einfach nur auf bestem Weg ein "Boomer" zu werden und bin selber armseelig^^ aber wer weiß das schon.
Aber da gehören sicherlich auch die Eltern dazu, das Problem an unserer Generation (die um die 30 rum) ist, dass viele damals nicht den medialen Umgang mit dieser Technik nachvollzogen haben und heute falsch agieren und es dann in sowas endet... dem Kind direkt schon mit 6 dann das neueste iPhone mit allen Social Media Apps in die Hand zu drücken... aber zu viel OffTopic....
theGucky schrieb:
Für mich sollte alles immer irgendwie gut zusammen passen, also Story, Gameplay, Grafik und Sound.
Gibt es denn solche Leute? Also Leute die sich solche ein GPU in den Rechner stecken und dann nur Grafik pur wollen? Es spielt doch niemand ein Spiel das er selbst schlecht findet - Geschmack mal außen vor, jedem gefällt ja etwas besser oder schlechter.
Wenn ich jetzt sag mir hat z.B. Forspoken gefallen werden hier 80% sagen es war schlecht - ich hatte Spaß.
Aber es wird doch keiner freiwillig Techdemos spielen auf die er keinen Bock hat?
Kann ich mir beim besten Willen nicht vorstellen.
Wobei vermutlich die meisten mit HighEnd Systemen für die Unterhaltung (nicht Arbeit) eher informierter sind welche Releases anstehen und was überhaupt interessant ist.

MoinWoll schrieb:
Bin mal gespannt ob sie das Problem mit dem C4/G4 endlich mal angegangen sind.
Ich hoffe es.
Denn mein C1 77" und mein 27" WQHD (welcher Anfang 2023 releast wurde - siehe Sig.) haben beide das Problem.
Da wäre für mich sogar so ein gravierender Schritt, dass ich beide Monitore direkt ersetzen würde (also falls das gefixt würde)....

theGucky schrieb:
Das habe ich bei meinem LG C2 mittlerweile SEHR selten und es kommt, wenn überhaupt, nur bei unter 5% Grauwert vor.
Hat aber nichts mit der Frametime zu tun...
Bei mir kommt das auch nicht bei jedem Titel vor. Bei unoptimierten Titeln, welche unregelmäßige Frameausgabe haben oder stark in der Framerate schwanken und man diese nichtmal mit einem Framecap sauber einfangen kann hab ich es sehr oft.
Indirekt hat es jedoch immer mit der Frametime bzw.k schwankenden Framerate zu tun.
Und wenn du Shader-Stuttering etc. hast, stürzt bzw. hackt es in der Framerate/Frameausgabe - ergo Frametime stark und dann siehst du direkt - weil stark schwankende Framerate - jeden "Gamme Flicker".
Am Ende wird das Problem eh nicht präsent, wenn du z.B. 90 FPS halten kannst, aber auf 80 lockst.
Wenn du diese 80 - 99% der Zeit ohne einen Ruckler halten kannst oder eben keinen Drop darunter hast und die Ausgabe "stabil" bleibt wird dies bei dir dazu führen, dass du nie Gamma Flickering hast.
Ich hoffe ja LG löst das irgendwann.... es ist (für mich) das letzte verbliebene grausige Problem eines OLEDs.
Ansonsten wären die Displays die es jetzt schon gibt absolut perfekt (von etwaiger Maximalhelligkeit mal abgesehen...)
 
CadillacFan77 schrieb:
RT geht auch auch AMD Karten, warum also nVidia kaufen?
Weil die Kombination RT+ DLSS + RR sich für den Aufpreis lohnt. Zudem kann man DLSS Performance häufig mit FSR Quality gleichsetzen, was den Aufpreis stark relativiert bzw. die AMD Wahl vorerst sogar teurer macht.

Ich bin froh auf Nvidia umgestiegen zu sein, auch wenn es etwas mehr gekostet hat.
CadillacFan77 schrieb:
Insbesondere wenn "vor allem wenn auf RT-Leistung und DLSS kein Wert gelegt wird" zutrifft?
Weil User ganz ohne Marketing bemerken, dass es eine dufte Sache ist.
CadillacFan77 schrieb:
Das ist doch sinnfrei. Und das, obwohl Du AMD empfielst? Könnte es nicht am Marketing liegen?
Nö. Ganz sicher an den Produkten.
AMD steckt in den Konsolen, es wird sicherlich nicht einseitig für Nvidia optimiert.
CadillacFan77 schrieb:
Nur wird selten auf AMD optimiert. Schön wäre es ja, wenn auf beide optimiert werden würde.
Bitte Belege für diese kontroverse These bringen.
 
  • Gefällt mir
Reaktionen: shaboo und Cohen
Quidproquo77 schrieb:
Weil die Kombination RT+ DLSS + RR sich für den Aufpreis lohnt. Zudem kann man DLSS Performance häufig mit FSR Quality gleichsetzen, was den Aufpreis stark relativiert bzw. die AMD Wahl vorerst sogar teurer macht.

Ich bin froh auf Nvidia umgestiegen zu sein, auch wenn es etwas mehr gekostet hat.

Weil User ganz ohne Marketing bemerken, dass es eine dufte Sache ist.
Ich glaube an der Stelle können wir aufhören darüber zu diskutieren. Entweder verstehst Du nicht was ich sagen will, oder Du klammerst Dich an die Strohhalme. Die Aussagen bestätigen genau das: man zahlt mehr, obwohl man Dinge gar nicht braucht und ist sogar noch happy damit. Kein Wunder sind die Preise so, wie sie sind.

Quidproquo77 schrieb:
AMD steckt in den Konsolen, es wird sicherlich nicht einseitig für Nvidia optimiert.

Bitte Belege für diese kontroverse These bringen.
In den Konsolen läufts in der Regel flüssig, ja. Und das mit sehr schwacher Hardware (im Vergleich zur aktuellen Gen). Ausserdem gibts ein paar Spiele, die auf AMD ähnlich oder sogar schneller laufen (CoD, The Talos Principle 2, Cities: Skylines II, Forza Motorsport um mal paar neuere zu nennen). Entsprechend ist belegt, dass die Karten die Rohleistung haben, die aber bei vielen Spielen nicht ankommt. Ergo kann das nur durch mangelnde Optimierung passieren, teilweise werden sogar die gleichen Engines wie in den positiven Beispielen genutzt.
 
Mimir schrieb:
Was mich stört ist, dass zum einen der Fortschritt in der Mittelklasse so extrem langsam ist. Eine 4060ti ist noch immer kaum schneller als eine aktuelle Konsole (wir sprechen hier von ca 20-30%). Das ist nach jetzt fast 3 Jahren nach Konsolenrelease einfach nur lächerlich.
Erstrecht, wenn man bedenkt, dass es mittlerweile Spiele gibt, die auf den Konsolen bis auf 720p runter gehen.

Das heißt, man braucht am PC dringend mehr Leistung, um PC Gaming überhaupt einen Sinn zu geben. Will man doppelte Leistung, landet man aber direkt bei den 1000€ GPUs.
Mimir schrieb:
Man hat mittlerweile das Gefühl, dass man sich mit weniger als ner 1000€ GPU kaum nennenswert von den Konsolen absetzen kann und das praktisch das mindeste ist, damit ein PC sich überhaupt noch lohnt.
Warum sollte PC-Gaming nur einen Sinn ergeben, wenn man mindestens doppelte Leistung der schnellsten Konsolen hat?

Es gibt etliche Vorteile gegenüber Konsolen, auch bei gleicher oder geringerer Performance, z.B. bestehende PC-Spielesammlung, in der Regel günstigere Spiele, viel bessere Abwärtskompatibilität, freie Controllerwahl, Maus- und Keyboard-Unterstützung, Unterstützung von Bildaspekten abseits der üblichen 16:9, Mods jeglicher Art (VR-Mods, Raytracing-Mods, Texturen-Mods, Total Conversions...), mobile Nutzung (Gaming-Laptop, Steam Deck und andere PC-Handhelds), größere Auswahl bei Peripherie (z.B. Lenkräder, Flightsticks, VR-Headsets), viele Gratis-Spiele (Epic Games Store, aber auch oft bei GOG und manchmal bei Ubisoft und EA), günstige Spiele-Bundles (Humble, Fanatical, Indie Gala, itch.io)...

Mimir schrieb:
Früher war das zu 1/3 des Preises möglich.

Früher war die doppelte Konsolenleistung zu 1/3 des Preises möglich? Wann war das denn?


Mimir schrieb:
Entsprechend mies ist dann eben auch das Gefühl, wenn man sich ne Karte für 1500 oder 2000€ kauft. Man hat nicht mehr das Gefühl, das High End Monster zu kaufen, das vierstellige Summen rechtfertigt. Man fühlt sich eher dazu genötigt, weil bei dem Preisbereich erst die Karten anfangen bei denen man sich nicht darüber ärgern muss, sie überhaupt in den Rechner eingebaut zu haben, weil alle anderen Karten so viele Kompromisse und so wenig Performance bieten.
Mann, laberst du einen Mist1

CadillacFan77 schrieb:
Darum schrieb ich ja Marktmonopol ;) Wenn 80% ein Produkt X kaufen, kann man durchaus davon reden.
Wie zBsp auch bei Windows. Klar gibt es noch andere Hersteller, aber die sind auf dem Markt fast unbedeutend. Daher kein klassiches Monopol an sich, sondern ein Marktmonopol.
Erfinden wir gerade neue Definitionen? Ein klassisches Monopol IST ein Marktmonopol.


CadillacFan77 schrieb:
Ist er realistischerweise noch immer. Das Verhältnis AMD-Intel ist trotz bereits jahrelanger Stärke von AMD noch immer deutlich zu Gunsten Intels. Was hat AMD Marktanteil? 20%? Daran sieht man auch, dass es nicht viel bringt, wenn sie aufschliessen oder sogar überholen.
Beim Steam-Survey seit längerer Zeit ein Drittel AMD-CPUs.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und shaboo
Cohen schrieb:
Früher war die doppelte Konsolenleistung zu 1/3 des Preises möglich? Wann war das denn?

2014.

Eine GTX970 war ca 2,5x so schnell wie eine PS4.
Die GTX970 war für ca 350€ erhältlich.

Willst du heute den gleichen Abstand zur PS5 erreichen, brauchst du eine RTX4080. Die kostet mindestens das 3-fache der 970, während sich der Preis von PS4 zu PS5 nur leicht erhöht hat.
Das sind eben die Fakten.


Maßstab ist für mich eben wie die Spiele laufen. Wenn die PS5 teilweise auf 720p oder 1080p runter geht, dann brauch ich nunmal entsprechend mehr Leistung, um das zu bekommen, was ich erwarte.
Diese Erwartung konnte ich damals mit 350€ erfüllen. Heute kostet mich das mindestens 1000€. Und das drei Jahre nach Konsolenrelease, wo viel technischer Fortschritt hätte passieren können (ist auch passiert, nur wenn sich das P/L Verhältnis nicht entsprechend bessert, ist das ökonomisch gesehen kein wirklicher Fortschritt).

Ein totaler Witz, wenn du mich fragst.



Cohen schrieb:
Mann, laberst du einen Mist1

Danke, gleichfalls. :rolleyes:
 
Mimir schrieb:
2014.

Eine GTX970 war ca 2,5x so schnell wie eine PS4.
Die GTX970 war für ca 350€ erhältlich.

Eine PS4 kostete aber nicht das Dreifache der GTX970, oder hast du dir eine PS4 für Tausend Euro andrehen lassen.
 
  • Gefällt mir
Reaktionen: shaboo
Cohen schrieb:
Eine PS4 kostete aber nicht das Dreifache der GTX970, oder hast du dir eine PS4 für Tausend Euro andrehen lassen.

Worauf willst du hinaus? Das hab ich doch nirgends angedeutet. Warum sollte eine PS4 das dreifache der 970 kosten? Du verwirrst mich.
 
CadillacFan77 schrieb:
Entweder verstehst Du nicht was ich sagen will, oder Du klammerst Dich an die Strohhalme.
Ich verstehe schon was du sagen möchtest. Du fühlst dich mit der Marktverteilung nicht wohl. Ich übrigens auch nicht. Ich würde mir eine stärkere Radeon Tech Group wünschen, aber das liegt alleine in den Händen von AMD.

Und Features, Technologien in Foren abzuwerten, obwohl sie gut sind, bringt AMD nicht nach vorne.
CadillacFan77 schrieb:
Die Aussagen bestätigen genau das: man zahlt mehr, obwohl man Dinge gar nicht braucht und ist sogar noch happy damit.
Bitte was?! Ich ziehe doch starke Vorteile aus dem besseren Upscaling, der RT Leistung und dem funktionierenden Frame Gen. Ich habe AMDs Frame Gen selbst mit einer 7800XT getestet und es lief nicht rund, zudem wurde mein Account gesperrt. Du möchtest mir vorschreiben was ich brauche oder nicht brauche?
CadillacFan77 schrieb:
Kein Wunder sind die Preise so, wie sie sind.
Die 7900XTX ist insgesamt schwächer, das ist einfach so.
https://www.pcgameshardware.de/Gefo...-Grafikkarte-2024-Teil-1-4K-Ultra-HD-1433940/
CadillacFan77 schrieb:
Ausserdem gibts ein paar Spiele, die auf AMD ähnlich oder sogar schneller laufen (CoD, The Talos Principle 2, Cities: Skylines II, Forza Motorsport um mal paar neuere zu nennen).
Wovon nur Call of Duty wirklich zutrifft, Cities Skylines erhält noch Patches, da haben die GeForce schon aufgeholt. Talos Principle und Forza treffen gar nicht zu.
CadillacFan77 schrieb:
Entsprechend ist belegt, dass die Karten die Rohleistung haben, die aber bei vielen Spielen nicht ankommt.
Ein Spiel ist doch kein Beleg. Vor allem nicht so ein verbuggtes wie Cities Skylines2.
CadillacFan77 schrieb:
Ergo kann das nur durch mangelnde Optimierung passieren
Die mangelnde Optimierung müsstest du in den ein zwei Spielen nach deiner Logik alleine bei Nvidia sehen.
 
Mimir schrieb:
Eine GTX970 war ca 2,5x so schnell wie eine PS4.
Die GTX970 war für ca 350€ erhältlich.
Äh what?
Eine GTX970 brachte niemals die 2,5x Leistung einer PS4 auf die Kerbe.
Die GTX970 war eine 1080p Karte und mehr nicht, die PS4 hat auch 1080p gemacht....

Mimir schrieb:
Maßstab ist für mich eben wie die Spiele laufen. Wenn die PS5 teilweise auf 720p oder 1080p runter geht, dann brauch ich nunmal entsprechend mehr Leistung, um das zu bekommen, was ich erwarte.
Ja genau das. Das ist auch der Grund weshalb heutige GPUs wirklich schneller sind.
Eine 4080 oder 4090 oder 7900XT/XTX sind keine Karten die auch nur in etwa mit einer reudigen Konsole (ich hatte beide) in einer Liga spielen würden.
Ich sag das überspitzt, weil ich NICHT auf 900p mein Game mit einer 4090 drosseln muss.
Wenn ich nicht grad alles in AW2 z.B. oder CP2077 anschalte, dann haben wir hier in 4K meist immer über 60FPS....
Davon können die Konsolen direkt mal Träumen bei identischen Settings....
Da klaffen weit mehr als 2,5x derzeit zwischen Konsolen und Highend GPUs....

Preispunkt mal außen vor...
Aber für die 450 weiß du halt was du kriegst.
30 FPS, pseudo 4K, Checkboard Upscaling (meist nichtmal FSR....)
40 FPS waren wie bei HFB noch akzeptabel für mich. Spiderman 2 in 30 FPS tu ich mir nicht an und FF16 mit 30 FPS oder 60 FPS (mit Auflösung aus der Hölle) sicher auch nicht.
War dann auch der Grund diesen Hobel loszuwerden.... 4K Gaming.... Pseudo Werbeversprechen....

Soll die Konsolen nicht schlecht machen, man kriegt ansonsten schon viel für das Geld, klar, aber man muss halt seine Ansprüche stark anpassen....
 
Unti schrieb:
Äh what?
Eine GTX970 brachte niemals die 2,5x Leistung einer PS4 auf die Kerbe.
Die GTX970 war eine 1080p Karte und mehr nicht, die PS4 hat auch 1080p gemacht....

Doch. Dass man sich hier immer rechtfertigen muss? Wenn du behauptest ich liege falsch, dann mach doch selbst mal Recherchen. So kann man doch nicht diskutieren, wenn immer nur Aussagen als falsch hingestellt werden, weil man "meint" es besser zu wissen. Was soll das denn immer?

Hier für dich: HD7850 vs GTX970.
Die PS4 ist ein wenig langsamer als eine HD7850, womit man ca bei 2,5x Leistung für die GTX970 raus kommt.
1701507406971.png

https://www.techpowerup.com/gpu-specs/radeon-hd-7850.c1055

Oder hier von PCGH:
1701507462601.png

https://www.pcgameshardware.de/Graf...-AMD-Radeon-Nvidia-Geforce-Intel-Arc-1401247/


Muss ich jetzt auch noch beweisen, dass die GPU der PS4 einer etwas langsameren HD7850 entspricht oder glaubst du mir wenigstens das?


Schauen wir uns dann mal den Unterschied bei der PS5 an. Die entspricht ziemlich genau der Leistung einer RTX2070 Super oder RX7600
1701507723256.png


Und oh wunder, wir landen mit der RTX4080 wieder bei ~ 2,5x Performance


Ich hatte damals die GTX970 und mit der konnte ich eben bei gleicher Auflösung doppelte Framerate und etwas höhere Settings als auf der PS4 nutzen. Das gleiche bietet mir heute meine RTX4080 im Vergleich zur PS5.

DLSS ist dabei praktisch kein Vorteil, weil die Konsolen ja auch FSR nutzen und das ohne Rücksicht auf Verluste bei der Bildqualität. So aggressive Skalierungsfaktoren würde ich nichtmal mit dem besseren DLSS nutzen wollen.

Der einzige Vorteil den die 4080 hier hat ist Frame Generation, deutlich höhere RT Leistung sowie mehr VRAM als auf der PS5. Damit steht die 4080 heute besser da als die GTX970 damals im Vergleich zur PS4. Aber rein auf die Rohleistung bezogen wäre jede Karte die schwächer ist, als eine 4080 ein Rückschritt gegenüber dem Niveau das man 2014 schon mit der GTX970 für 350€ im Verhältnis zur PS4 erreicht hat. Nämlich doppelte Konsolen FPS + höhere Grafiksettings.

Und ich wiederhole es an der Stelle nochmal. Die PS5 liefert schon jetzt in manchen Spielen nur noch 720p, 900p oder 1080p. Das ist nicht immer die Regel, aber leider auch keine Ausnahme mehr. Man könnte also nicht behaupten, dass doppelte oder 2,5x performance gar nicht nötig wären. Doch, das sind sie heute wie damals. Die Konsolen stellen den kleinsten gemeinsamen nenner, quasi die Mindestanforderung und die Entwickler schrauben die Grafik und die Anforderungen ohne Rücksicht auf Bildqualität und Framerate hoch. Der Bedarf nach mehr Leistung am PC um genau diese definzite wieder auszugleichen unterscheided sich heute nicht von damals.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Zurück
Oben