News Das nächste Update: RAM-Preise machen ideale Gaming-PC-Builds teurer

Tigerkatze schrieb:
Mit einer einprogrammierten Bewegungsunschärfe hast du selbst bei 30 Bildern die Sekunde butterweiche Bewegungen.

Nein. 30 sind zu viel des Schlechten. Bei 60 funktioniert das halbwegs. Und verstellbares Motion Blur ist seit etlichen Jahren eigentlich Standard, auch heute noch.

Nebenbei: was hat das mit dem Thema zu tun ? Es ging um GTX 1050 Ti vs. RTX 5050, und die sind nun einmal ziemlich ähnlich, was die Performance mit Spielen zu ihrer Zeit betrifft. Bei beiden muss(te) man an den Einstellungen drehen (oder das automatisch eingestellte Preset des Spiels übernehmen), um auf halbwegs vernünftige Frameraten zu kommen, statt stumpf alles auf Maximum zu drehen.

Beide waren/sind billige Kompromisslösungen, und 1070/5070 sind deutlich besser.

Tigerkatze schrieb:
Die Zeiten, als mit 30-35 Bildern die Sekunde alles im Lot war (auch bei den PC-Zeitschriften), sind noch nicht dermaßen lange her.

Die hat es nie gegeben. Bei 2D-Spielen wie Super Mario oder Katakis gehörten 50 fps schon seit NES/C64-Zeiten zum guten Ton, und über den sinnlosen 30 fps-Lock der ersten Tomb Raider-Spiele habe ich mich ziemlich geärgert, nachdem ich 500 DM für eine 3Dfx Voodoo ausgegeben hatte.

Bei Outcast und Gothic 3 habe ich die Diashow-Frameraten in Kauf genommen, weil es gute Spiele sind. Die Frameraten dagegen waren auch vor 26 Jahren schon ein Ärgernis.

Tigerkatze schrieb:
Aber das wäre ja nicht im Sinn der Grakaherstellern, denn wer würde dann ihre überteuerten Heizungen noch kaufen, nachdem man der Masse versucht hat einzuimpfen, daß 160 oder 200 Bilder die Sekunde sein müssen?

Darauf, dass >100 fps flüssiger aussehen, und Röhrenmonitore für schnelle Shooter wie Quake 3 am besten auch passend auf 120 Hz oder mehr eingestellt werden, sind Spieler vor >20 Jahren alleine gekommen.
 
Indiana Jones ist
JMP $FCE2 schrieb:
Die hat es nie gegeben. Bei 2D-Spielen wie Super Mario oder Katakis gehörten 50 fps schon seit NES/C64-Zeiten zum guten Ton, und über den sinnlosen 30 fps-Lock der ersten Tomb Raider-Spiele habe ich mich ziemlich geärgert, nachdem ich 500 DM für eine 3Dfx Voodoo ausgegeben hatte.

Hier muss ich schreiben: Doch, war tatsächlich so. :) Ideal war natürlich schon immer mehr. Aber als "akzeptabel" geflaggt wurde das damals auch von den Upgrade-Influencern, sprich Magazinen. :D

https://download.gamestar.de/public/35300/35355/09_2007_150.pdf (siehe Benchmark-Grafiken und: "Im Benchmark von Call of Juarez liefert auch die HD 2600 XT annehmbare Bildraten von 30,4 fps")
https://download.gamestar.de/public/75100/75134/07_2014_122.pdf
https://www.computerbase.de/artikel/gaming/battlefield-3-test.1616/seite-9
https://www.computerbase.de/artikel/gaming/far-cry-2-test.906/seite-3
https://www.computerbase.de/artikel...49531/#abschnitt_21_grafikkarten_im_vergleich
(Siehe bei CB jeweils Fließtexte unter den Benchmark-Balkenpornos)

An den Konsolen gibts den 30fps- (und 40fps-)Modus nicht umsonst bis heute. Und stabile 60 Bilder in jeder Sekunde sind selbst auf der PS5 Pro noch immer oft ein Ideal statt ein Existenzminimum, gerade in UE5-Titeln. Diese Bilder werden nämlich nach wie vor noch immer viel komplexer. Mal sehen, was die PS6 dann kann. Mit der 1050Ti hatte ich meist ~40-50 fps als Target. Auch davor nach der GeForce2-4-Ära einige Budget-GPUs gehabt -- ähnliche Baustelle. :) Klar gibts heute andere Bildschirm-Technologien, Stichwort High-Refresh-Gaming. Das macht eine offene Plattform wie den PC auch aus! Aber die 1.000Hz-Screens bewirbt Nvidia als nächste Eskalations-Stufe nicht ohne Eigennutz.


In einem leicht abgewandelten Bonmot Jensens: The more you fps, the more you buy. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tigerkatze
Svennc schrieb:
In einem leicht abgewandelten Bonmot Jensens: The more you fps, the more you buy. :D
Ganz genau! :-) Danke für die Unterstützung! Dein zitierter Spruch zeigt genau, was mich an den Grakaherstellern teils so stört. Anstatt das nicht unwichtige Drumherum wie Befehlssätze, Berechnungsarten, usw. mit mehr Eifer zu erweitern/verbessern, wird auf die Bildraten gesetzt, denn da kann man mehr Geld abschöpfen.
JMP $FCE2 schrieb:
Nein. 30 sind zu viel des Schlechten. Bei 60 funktioniert das halbwegs. Und verstellbares Motion Blur ist seit etlichen Jahren eigentlich Standard, auch heute noch.
Dann habe ich eine kleine Meldung für dich: Einprogrammierte/einstellbare Bewegungsunschärfe wird in neuen Spielen immer seltener, da man die Leute zum Kaufen von "mehr FPS" animieren will.
 
Tigerkatze schrieb:
Ganz genau! :-) Danke für die Unterstützung! Dein zitierter Spruch zeigt genau, was mich an den Grakaherstellern teils so stört. Anstatt das nicht unwichtige Drumherum wie Befehlssätze, Berechnungsarten, usw. mit mehr Eifer zu erweitern/verbessern, wird auf die Bildraten gesetzt, denn da kann man mehr Geld abschöpfen.

Wo wir dabei sind: Nach diesem Maßstab liefert eine 5050 heute trotzdem mehr als ne 1050Ti. Die 5050 erreicht in knapp der Hälfte aller 23 CB-Benches 60fps (trotz Ultradultra-Settings). Die 1050Ti schaffte das damals in drei Titeln -- von 23. Also knapp einem Achtel. Fairerweise war 1080p damals eine aktuellere Auflösung als heute. Und entsprechend anspruchsvoller. Trotzdem wäre es interessant, wann es die meisten Frames pro investiertem Euro gab. Und wie sich das im Laufe der Zeit entwickelt hat. Dieser Artikel versuchte sich daran -- allerdings rechnet er pauschal die historische Inflationsrate an, was wie ich finde problematisch ist. https://www.techradar.com/computing/gpu/gpu-prices-arent-actually-that-expensive-no-really

Dass Hardware grundsätzlich über Bildraten vermarktet wird, hat ja durchaus einen Grund: Denn die Spielbarkeit ist direkt betroffen. Es geht nicht nur um die Darstellung, sondern auch um Latenzen und Inputlag. Je länger ein Bild braucht, um gerendert zu werden, desto verzögerter ist auch die Eingabe und Reaktion darauf. Völlig egal, was einem persönlich an Bildern pro Sekunde ausreicht: Dass sich ein Spiel mit weniger fps träger anfühlt und steuert, dürfte wohl jedem auffallen. :)
 
naja es gibt schon noch einen unterschied zu früher.Früher war alles Nativ gewesen.Darum packte die mittelklasse nicht so viel.Die rtx 5050 schafft darum mehr dank dlss.Würde es das nicht geben,würde es der 5050 genauso ergehen wie bei einer 1050 ti oder sowas.Dann wäre das egal oder gibt es so wenig DLSS Spiele das es dennoch einen besseren Masßstab gibt?
 
latiose88 schrieb:
Ja da muss man halt priotäten setzen.
Hat dir nach all den Jahren immernoch keiner gesagt, dass du deine Videos mit der GPU schneller und effizienter umwandeln kannst und du dir mit dem Aufrüsten auf immer neue hochpreisige Plattformen nur dein nicht vorhandenes Geld aus der Tasche leierst?^^
 
@Quidproquo77 hatte dir bei Pm geantwortet gehabt. Und naja nur rund 20 % kleiner als original Videos ist für mich ja nun wirklich nicht viel.
Bei einer 500 MB Video am Ende bei 400 MB raus zu kommen ist nicht geil. Auf CPU sind es jedenfalls 220 MB. Das rechnet man dann auf 1000 Videos oder mehr hoch oder 10000 Videos und dann siehst du wie viel mehr Verbrauch das wirklich ist. Das sind Größen Ordnungen die sind nicht ohne. Noch dazu ist Speicher wertvoller als jemals zuvor geworden. Würde ich so verschwenderisch sein ,würde ich nicht sparen sondern noch mehr Geld in Speicher investieren. Also billiger ist das nicht. Und GPU sind teuer als CPUs. Also das von günstig zu sprechen ist ein Fehler.
Würde ich kleiner wollen ,müsste ich eine massive Bildqualität Verschlechterung in Kauf nehmen. Ab einen gewissen Punkt sieht es halt scheiße aus.
Und aus 720x576 kann man halt nicht mehr viel heraus holen. Es sei denn ich will wieder zu avi 640*480 Level kommen. Die Qualität sieht so scheiße aus daß mir schlecht wird.
Selbst ich habe einen gewissen mindest Anspruch. Nicht um jeden Preis einzubüßen um nur schnell unterwegs zu sein beim umwandeln .

Die GPU mag also schnell sein aber mehr ist sie nicht. Und inzwischen ist die CPU genauso schnell aber mit mehreren Vorteilen. Darauf habe ich auch hin gearbeitet ,um es so zu haben. Ich habe also nun bei GPU keine Vorteile mehr.
Und bei Spielen sieht es im Moment auch nicht so danach aus. Ich warte nur ab bis mehr Spiele für die Xbox Serie x kommen die ich zocken könnte .
Auf dem PC wird das nix ,das liegt daran wie gesagt das Coop Tool unterstützt es noch immer nicht ,Steam lehne ich ab und am Ende bleibt nur noch eine Option.
Aber dafür müsste ich dennoch Geld erst mal haben. Selbst 300 € leiere ich nicht einfach so aus dem ärmel. Von daher kann ich nur warten. Die gebauchten ddr1 & 2 Riegel sind fast gezählt also da habe ich schon fast das Geld bekommen . Nur noch die 8 tb gebrauchten Nas Festplatten. Ich schaue also das ich Geld zusammen bekomme. Platz nimmt das ganze ja auch weg. Es läuft zäh aber gut das wird schon noch.

PS: ich wandle alles in H264 um. Bei gpus tut sich nix. Manche Einstellung führten zu abstürzen. Getestet dank des PCs von meinem besten Kumpel mit einer rtx 3050 8 GB Version. Ich hatte da wohl zu hohe Erwartungen bei der Steigerung und so gehabt. Die ist nicht vorhanden. Dann wurde mir gesagt das die CPU sehr wohl wichtig ist und auch eine Rolle spielen würde. Da drinnen ist ein ryzen 9 3950x. Also um die selbe Leistung zu erreichen wie bei mir ,sind bestimmt 700 MHz mehr allcore Takt nötig. Naja an den Rest der Probleme ändert dies nix.
 
Zuletzt bearbeitet:
Ich bin aber echt erschrocken, als ich die aktuellen Preise in Geizhals geschaut habe ...

Corsair Vengeance schwarz UDIMM 64GB Kit, DDR5-6000, CL30-36-36-76 für 799,00 €
Corsair Vengeance schwarz UDIMM 48GB Kit, DDR5-6000, CL30-36-36-76 für 977,99 €!

Da kann was nicht stimmen. Wie kommt es, dass 48 GB teurer als 64 GB ist?
Ich glaube, da liegt wohl ein Irrtum seitens Geizhals.

1765823607734.jpeg


Oh Mann, wie die Preise klettern ... 😡
 
Zuletzt bearbeitet: (Ergänzung)
latiose88 schrieb:
Und naja nur rund 20 % kleiner als original Videos ist für mich ja nun wirklich nicht viel.
Bei einer 500 MB Video am Ende bei 400 MB raus zu kommen ist nicht geil.
Die Zieldatei ist so groß wie du es einstellst, (Bitrate) egal ob GPU oder CPU. Bei der Inputqualität ist der mikroskopische Qualitätsunterschied zwischen Software und Hardwareencoding nicht zu bemerken.
latiose88 schrieb:
Auf CPU sind es jedenfalls 220 MB.
Falsche Einstellung/falsche Software.
latiose88 schrieb:
Und GPU sind teuer als CPUs.
Eine 5050 ist günstiger als ein 265KF und deutlich schneller/sparsamer. Du hättest 10x mehr davon dein Geld in eine GPU zu investieren, aber das weißt du ja bereits.
latiose88 schrieb:
Und aus 720x576 kann man halt nicht mehr viel heraus holen.
Genau das ist der Knackpunkt. Spielt keine Rolle.
 
@Quidproquo77 ich denke mal es ist wohl besser sämtliche Einstellung als Bild zu Posten. Dann zu zeigen als Video wie schnell jeweils die GPU ist und dann die CPU. Dann am besten noch das Ergebnis in Bild vorm. Da wo ich es ganz gut erkennen kann. Ein 1 zu 1 direkt vergleich von GPU und CPU. Ich Stelle am besten bei beiden die selbe Bitraten Modus ein. Wenn dann am Ende merkst oh warum ist das Video bei GPU ne höhere Bitrate obwohl das selbe eingestellt worden ist. Merkst du erst dann was ich geschrieben hatte. Ich kann leider die Software nicht ändern. Das ist das Problem. Das macht die Software ja automatisch leider. Wo kann ich das hoch laden. Hier wäre das wohl zu ot oder darf ich das machen oder am besten einen separaten Thread den ich Videoumwandlung Ergebnis nenne. Was ist dir lieber weil du glaubst mir ja erst wenn ich das ganze offen lege was ich so schreibe.


PS : die 5050 bringt mir leider nix weil die hat ja nur 8 GB Vram. Bei dem wenn es soweit wäre ,wäre wohl eine 5060 ti besser geeignet. Aber auch das wird nicht ausreichen. Das liegt an die hohen Kosten von dem Coop Tool. Ja ich weiß ist selbst gemachtes Problem würde wieder so kommen von dir. Aber naja das Spiel ist halt eben Steamlos weil eben sehr Alt.
Das Tool kostet echt viel. Spiel schaffte die GTX 750 ti 90 FPS soweit ich weiß und mit den Tool dann am Ende so 25 FPS. Dann auf aktuelle Spiel übertragen und dann wird diese GPU selbst mit Minimum nicht ausreichen .
 
Svennc schrieb:
Dieser Artikel versuchte sich daran -- allerdings rechnet er pauschal die historische Inflationsrate an, was wie ich finde problematisch ist. https://www.techradar.com/computing/gpu/gpu-prices-arent-actually-that-expensive-no-really
Das Beispiel aus dem Artikel eignet sich nicht gut. Die erwähnte 9600 GT hatte ich selbst, die kostete gerade mal kaufkraftbereinigte heutige 241 Dollar (heutige 205 €) Listenpreis und war die erste Implementierung des G92-Chips mit üppigen 512 MB GDDR3, die wie beim später aufgelegten großen Modell mit 256 Bit angebunden waren. Ich hatte auch keine Probleme die 60 fps zu erreichen, wie der Autor, weil ich 2008 gar keinen LCD hatte. Am CRT wurde mit 50 bis über 100 fps ohne V-Sync gezockt, der CRT lief bei SXGA- (1280x960) mit 85 Hz. Das sind 1,228 Mpix. und 30 % mehr als 720p. Bei älteren Titeln lief natürlich auch UXGA (1600x1200 = Full-HD).

Solche Knaller-GPUs kamen nie wieder zu dem Preis.
 
Siebenschläfer schrieb:
Die erwähnte 9600 GT hatte ich selbst

Ich hatte die schnellere 8800 GT, und das...

Siebenschläfer schrieb:
Solche Knaller-GPUs kamen nie wieder zu dem Preis.

...kann ich so nicht nachvollziehen. Bei Crysis musste ich zwei (oder mehr ?) Detailstufen runterschalten in 1280x1024, um brauchbare 50 fps zu erreichen.

Kostete zwar nur 211€ (Ende 2007 gekauft), aber schon 2 Jahre später durch eine GTX 275 ersetzt (weil die HD 5850 bei 120 Hz Bildstörungen produzierte).

Meine letzten beiden Grafikkarten (GTX 1070 und RTX 2070 Super) waren nach 4 Jahren noch brauchbarer, als die 8800 GT von Anfang an. Und um Welten leiser. Das relativiert den Faktor 2,5 bei den Kaufpreisen.
 
Die 9600gt habe ich als 1 GB Version noch immer daheim. Die kauft bestimmt keiner mehr weil die braucht zu viel Strom für die Leistung. Mit der kann man noch immer alte Spiele gut zocken. Wie viel Leistung sie wirklich hatte weiß ich nicht aber das mehr an Vram ist mit Sicherheit ein Vorteil gegenüber der mit nur 512 MB Vram und so.
 
@Siebenschläfer Auch Unreal Tournament 3 hing irgendwo bei 50 fps herum. Toll war das damals alles nicht.

Zum "Glück" konnte es mich sowieso nicht von Quake Live weglocken, das hat erst 2016 Overwatch geschafft.
 
JMP $FCE2 schrieb:
Ich hatte die schnellere 8800 GT, und das...


Auch so ne Karte, die (wie alle zu dieser Zeit) nach 12 Monaten für maximal die Hälfte verramscht wurde. Wer da noch mal verkaufen und Geld fürs nächste Upgrade wollte, kriegte nix mehr raus. DAS ist heute jedenfalls definitiv anders. Aber teilweise auch nur die natürliche Kehrseite von verlangsamtem Fortschritt... Ähnlich krassen Wertverlust kannte damals jedenfalls nur Christian Lindner, als er seinen dritten YOLO-Porsche vom Händlerhof beschleunigte. :D

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-8800-gt-sli-test.707/seite-30
https://www.computerbase.de/artikel...geforce-9500-gt-und-9800-gt-test.848/seite-29
 
@latiose88
Das hardwareseitige encoden ist nicht für dein Vorhaben geeignet.

Eine hohe Kompression bei hoher Qualität, wie von dir, gewünscht, ist bauartbdingt schlicht nicht möglich.

Kann also deine Beobachtungen nur bestätigen.
Hardwareencodes sind dafür da wenn es schnell gehen muss und die Bitrate nebensächlich ist.
Quidproquo77 schrieb:
Bei der Inputqualität ist der mikroskopische Qualitätsunterschied zwischen Software und Hardwareencoding nicht zu bemerken.
Kann ich nicht bestätigen, insbesondere dann wenn man eine hohe Kompression bei hoher Qualität erreichen will.

Mit FFMetrics kann man die Beobachtungen auch mit Zahlen unterstreichen.
latiose88 schrieb:
Was ist dir lieber weil du glaubst mir ja erst wenn ich das ganze offen lege was ich so schreibe.
Würde ich mir sparen, soll er es selber herausfinden. :p
 
KarlsruheArgus schrieb:
Eine hohe Kompression bei hoher Qualität, wie von dir, gewünscht, ist bauartbdingt schlicht nicht möglich.
Ein bisschen mehr Bitrate und etwas mehr Speicherplatz im Austausch für die viel schnellere Berechnung. Da weiß man was man nimmt.
KarlsruheArgus schrieb:
Hardwareencodes sind dafür da wenn es schnell gehen muss und die Bitrate nebensächlich ist.
Meld dich, wenn dein Kodierungsprozess abgeschlossen ist. Brauchst du einen Wecker, damit du nicht vergisst, den PC auszuschalten, wenn er in 8 Stunden fertig ist...
KarlsruheArgus schrieb:
Mit FFMetrics kann man die Beobachtungen auch mit Zahlen unterstreichen.
Da untermauerst du höchstens das krasse Gegenteil mit.

Sobald man bereit ist, den kleinen Nachteil beim Speicherplatz zu akzeptieren kann man mit der GPU problemlos den gleichen oder sogar einen höheren VMAF Score als mit der CPU erreichen und ist in der Berechnung und Effizienz meilenweit überlegen.
KarlsruheArgus schrieb:
Würde ich mir sparen, soll er es selber herausfinden. :p
Setz ihm doch keinen Floh ins Ohr...
Ne haste Recht, mein VMAF Score ist jetzt zwar identisch mit deinem. Meine Datei ist jedoch 10% größer.

Sie war in 5 Minuten fertig, deine in 5 Stunden. Du hast gewonnen.

Das erinnert mich irgendwie an die Nativen Qualitätspuristen die noch DSR Downsampling rein knallen, anstatt DLSS zu nutzen.^^

Es ist technisch übrigens korrekt, dass die CPU (mit Encodern wie x264 im langsamsten Preset) die "höchste Qualität" erreicht, das steht aber in keinem Verhältnis zum Aufwand.

Maximale Qualität pro Bit sonst will ick nit... :D
 
Zuletzt bearbeitet:
Zurück
Oben