Bericht DDR bis DDR5: Fünf Generationen RAM im direkten Vergleich

Gibts die Erklärung zum ECC auch als Transkript bzw. wär dazu ein schriftlicher Absatz super.
 
Also ich kann mit einem B450, ryzen 2600x mit dem Ryzen DRAM Calculator meinen 3000er CL15 auf 2666 "calculate safe" laufen lassen, bis hin zu standard (xmp) 3000 b.z.w. dann ohne Handgriffe 2933 anstelle von 3000, oder 3200.
Egal ob nun vom Ryzen DRAM Calculator berechnet und geschärfte Timings oder nicht, oder 3000 oder 3200, letzteres geht auch so auf cl15 anstelle 14 oder sonswie mit dem Calculator und in der Praxis ändert es rein garnichts.

Wenn man seine mathematik im Griff hat, änder es auch nichts nennenswertes an FPS die die Kiste raushaut,
in der Regel lässt man die Elektrokiste nicht mehr FPS raushauen als der Bildschirm wiedergeben kann und die in vernünfigem Rahmen sinnmachenden FPS sind dann wie bei meinem AOC, der kann Freesync (g-sync compatible) 75HZ/FPS syncen, bis runter auf 30HZ/FPS wenn es nötig sein sollte.

Wenn InGame es keinen FPS-Limiter gibt, dann geht man bei NV über den Treiber, ansonsten tut es auch VSync was keinen einzigen Watt mehr verbraucht und passend per Se ein FPS-Limiter ist auf deinen Monitor und dabei noch Tearing perfekt ausmerzt.

Seit jüngeren Treiberversionen bei NV und spätestens seit RTX 2xxx kann man nachmessen das VSync keine leistung mehr kostet, nicht ein bisschen. Leistungsmässgerät dran an Rechner gucken was im Durschnitt verbraten wird, einfach die Konfigurationen vergleichen.

Mit einer GTX 1xxx und älteren Treibern sag das noch anders aus, da hat aktiviertes VSync einfach mal genausoviel Leistung gezogen als hättest du kein FPS-Limit drin ohne VSync.
Das hat NV auf jeden Fall mal verbessert, die Sache ist deutlich effizienter geworden.

Wenn man das alles richtig konfiguriert hat, hat man nie wieder Probleme auch mit fälschlicherweise "Input-Lag" genannten Problemen, die schlichtweg kein Input-Lag sind.

EVA-Prinzip, einfach mal lernen.

RAM ist zum einen der schnellste Datenträger im System, zum anderen, solange CPU und Grafikkarte limitieren können, oder auch beides zugleich in welcher SItuation auch immer, kann de Fakto kein Arbeitsspeicher in irgendeiner Situation besser sein als der andere bei seinem Job, denn sonst käme man garnicht dazu das diese schon genannten Limits überhaupt möglich sind.

Der RAM kommt in der Kette beim EVA Prinzip, in Richtung Ende der Kette immernoch vor der CPU, die CPU ist nicht nur Ende der Kette und dann kommt nurnoch die Grafikkarte.
So einfach ist das ganze nunmal.

Wie könnte nun also ein RAM der schnell genug ist, das die CPU limitieren kann, sowie die Grafikkarte oder eben auch beides, irgendwas irgendwann in Realität verbessern... genau garnicht, denn die limitierenden Fakoten können erst enstehen indem der RAM eben nunmal nicht limitiert.

Bei nicht völlig realitätsfernen Benchmarks, oder einfach in Games ändert das rein garnichts und wenn hier zwar messtechnisch schon von "ns" die Rede ist, also Nanosekunden, dann ist das eine rein messtechnische Sache, das merkt aber in Realität absolut garkein Mensch :D

Das wäre selbst in einem Audiostudio wo Asio zum Einsatz kommt, völligst irrelevant und auch dort haben wir keine NoLatency sondern eine LowLatency, das alles hier unterliegt nämlich dummerweise derselben Mathematik.

So wie das immer ist im Leben, mit allem, was wir Wissen und benutzen, es ist sich immer wiederholende Mathematik, keine Zauberrei, nichts weiter, so einfach ist das ganze.

Edit:
Daher und das muss man so ganz klar Sagen, Thema Ryzen, die Sache mit dem Infinity Fabric ist de Fakto ein Rohrkrepierer.
Soweit man das einfach sehen kann ist Infinity Fabric, so, naja, es ist wie mit dem HT-link damals beim Phenom II, kannste machen, bringt dir aber 0
Es sind nunmal Leiterbahnen und keine Transistor (Schaltfunktionen) die eine Berechnung schneller oder langsamer (Takt) abarbeiten.
Und der RAM ist so oder so schnell genug das die CPU nicht ausgebremst wird, sonst kämen wir ja auch zu keinem CPU-Limit, wenn der RAM nicht schnell genug wäre das die CPU die nötigen Daten bekommt.

Der Cache einer CPU ist nämlich auch einfach viel zu klein, da wird die ganze Zeit jede Menge geschaufelt, schon alleine wenn Windows nur im IDLE läuft, man muss also das Speichermanagement schonmal auch verstehen, oder zumindest ansatzweise aus der Praxis heraus.
Ist auf einer Linuxdistribution auch nicht anders, die paar MB's an CPU Cache sind nunmal definitiv knüppeldicke voll und ausreichend sind diese definitiv nicht, dafür kommt der Arbeitsspeicher die ganze Zeit dazu mit zum Einsatz, deshalb gibt es ja den Datenträgercache erst überhaupt.
Den gibt es auf Windows sowie auch auf Linuxdistributionen, anders würde das alles garnicht so gut funktionieren wie es das tut, wäre alles nämlich deutlich langsamer.

Gruss HL
Ergänzung ()

Desweiteren ist die ganze Mathematik die hier dargelegt ist auch ziemlich praxisfern, das auch noch dazu...
Wo sind die Boards und CPU's, die DDr4 sowie DDR5 können und entsprechende Benchmarks ?

Beim Phenom II gab es Boards und die "Deneb" Cores konnten beides, also die Memory Controller darin da konnte man vergleichen.

Das sich alles, also jedes Einzelteil weiterentwickelt und mal ein neuerer besserer Standard kommt ist ja normal..., das ist dann aber auch alles was man dazu zu sagen hat und was relevant ist und das wars.

Das RAM irgenwie FPS erzeugt ist mal der grösste Schwachsinn überhaupt, Rechenleistung kommt immernoch von CPU oder Grafikkarte b.z.w. in Kombination von diesen beiden Komponenten, alles was man zu Arbeitsspeicher beachten muss hierzu ist das die Menge an Arbeitsspeicher ausreichend sein muss und das wars dann auch.
Irgendwelche Nanosekunden, erzeugen jedenfalls keine FPS sowie auch keine Rechenleistung die nicht auch mit im Nanosekunden-Bereich langsameren RAM's vom System genauso erzeugt werden könnten, mit Anwedung X und API X.

Gruss HL
 
Zuletzt bearbeitet:
So ne geistreichen Beiträge findet man nur bei CB😂.
 
  • Gefällt mir
Reaktionen: SeniorY und bad_sign
INe5xIlium schrieb:
zwischen DDR1 und DDR3 ist der Takt nur von 200MHz bis 266MHz gestiegen
Nimmt man DDR1 RAM Module mit 550 MHz, sind es immerhin 275 MHz Real Takt.
Waren aber reine OC Module
Ergänzung ()

HasseLadebalken schrieb:
Rechenleistung kommt immernoch von CPU oder Grafikkarte b.z.w. in Kombination von diesen beiden Komponenten, alles was man zu Arbeitsspeicher beachten muss hierzu ist das die Menge an Arbeitsspeicher
Was nützt dir im Porsche nen 200l Tank, wenn die Pumpe nur für 5l/100km ausgelegt ist?
 
  • Gefällt mir
Reaktionen: I'm unknown
@HasseLadebalken der beste Beitrag auf ganz CB :D
AMD sollte seine Leute kündigen und seine unterlegenen Ryzen einfach wegwerfen und dich in die Entwicklung lassen ;)
 
andi_sco schrieb:
Nimmt man DDR1 RAM Module mit 550 MHz, sind es immerhin 275 MHz Real Takt.
Als Antwort auf "zwischen DDR1 und DDR3 ist der Takt nur von 200MHz bis 266MHz gestiegen" klingt es, als wäre der Takt eigentlich gar nicht gestiegen. Gibt es da ein physikalisches Limit? Der Sockel? Wenn man den Takt danach massivst steigern könnte, wäre es natürlich irgendwann tatsächlich ein Argument für aufgelöteten Speicher. So oft, wie der bei mir schon Probleme gemacht hat, bin ich aber sehr froh, dass ich nicht immer das ganze Board tauschen musste. Und der war in den 00er Jahren schon mehrfach komplett defekt. Von 2007 bis 2018 hatte ich in meinen persönlichen Rechnern kein Problem. Jetzt habe ich aber einen i9, der 1-2x pro Monat abstürzt. Ich schiebe es fast auf die CPU, aber das hatte ich seit dem AMD 2500+ nicht mehr und bei Intel noch nie.
 
bad_sign schrieb:
@HasseLadebalken der beste Beitrag auf ganz CB :D
AMD sollte seine Leute kündigen und seine unterlegenen Ryzen einfach wegwerfen und dich in die Entwicklung lassen ;)
WTF ?
Das AMD da gross viel Marketing gemacht hat, um was, was nicht der Rede Wert ist ist doch bekannt, dennoch sind es verdammt gute CPU's zu vernünftigem Preis.

Was hat das bitte bezüglich der Fakten aus der Praxis heraus, das ich das Vergleiche, mit der Entwicklung zu tun ?

jetz auch aus folgendes Posts älterere RAM's selbst inwiefern auch immer miteinander zu Vergleichen macht halt auch so absolut 0 sinn, einfach weil es völligst praxisfern ist, jede Generation an CPU und Graka's mitsamt der derzeitigen PCIe-Schnittstelle aus der passenden Zeit hat auch entsprechende DDR-RAM was in der Zeit der aktuelle Release-Standard war und das wars auch schon.

@PhoenixMDA:
Ich mache nichts weiter als das komplett-System in der Funktion zu beschreiben und praxisrelevant darauf aufmerksam zu machen, das da so einiges ziemlich Wumpe ist bezüglich des RAM's weil er nunmal in einem gewissen Toleranzbereich der Möglichkeiten, der Konfiguration von Takt sowie Reaktionszeit am Ende des Tages bei richtiger Konfiguration von allem was da wann läuft auf deiner Kiste, völlig egal ist.

Das ist halt die Realitat, kein Marketing oder sowas

Gruss HL
Ergänzung ()

INe5xIlium schrieb:
Jetzt habe ich aber einen i9, der 1-2x pro Monat abstürzt. Ich schiebe es fast auf die CPU, aber das hatte ich seit dem AMD 2500+ nicht mehr und bei Intel noch nie.
ein Kumpel hatte durchaus dasselbe Problem mit einer solchen CPU, da war der Cache oder sowas wohl hin, ab Werk, also reklamieren ;-)

Das ganze passiert nicht reproduzierbar, mal mit Bluescreen, mal einfach nur Freeze, richtig ?
Edit:
Und er läuft auch sonst Stundenlang durch, auch mit ordentlich Last ohne das das OS absemmelt oder ?

Gruss HL
 
HasseLadebalken schrieb:
Ich mache nichts weiter als das komplett-System in der Funktion zu beschreiben und praxisrelevant darauf aufmerksam zu machen, das da so einiges ziemlich Wumpe ist bezüglich des RAM's weil er nunmal in einem gewissen Toleranzbereich der Möglichkeiten, der Konfiguration von Takt sowie Reaktionszeit am Ende des Tages bei richtiger Konfiguration von allem was da wann läuft auf deiner Kiste, völlig egal ist.

Das ist halt die Realitat, kein Marketing oder sowas
Auf die Realität übertragen: Eine Maschine kann 5 Teile pro Sekunde herstellen (verschiedene Varianten, je nach Zulieferung der Rohteile), das Umschalten der Rohteile vom Verteiler dauert bei der Maschine A 0,2 Sekunden und bei B (ansonsten gleiche Maschine) 0,4 Sekunden.

Gleiche Rohteile werden zugeliefert:
A: 5 Teile/s
B: 5 Teile/s

Einmal pro Sekunde wird gewechselt:
A: 4 Teile/s
B: 3 Teile/s

Klar, innerhalb ihrer "Toleranzen" funktionieren beide Maschinen perfekt, die eine ist dann trotzdem langsamer!

Da ist kein Marketingbingo dahinter.
 
HasseLadebalken schrieb:
Das ganze passiert nicht reproduzierbar, mal mit Bluescreen, mal einfach nur Freeze, richtig ?
Edit:
Und er läuft auch sonst Stundenlang durch, auch mit ordentlich Last ohne das das OS absemmelt oder ?

Gruss HL
Ja, so würde ich es beschreiben. 200 Stunden schafft er locker ohne Absturz. Freezes ohne

Ein paar Mal hatte ich den Takt für alle Cores etwas angehoben. Da war mir aufgefallen, dass er stundenlang rechnen konnte, er konnte die Ergebnisse sogar noch wegspeichern und dann ist er danach abgestürzt. Da war es dann wohl der Übergang zwischen den Leistungsstufen.

Freezes, so dass der Ton auch stecken bleibt habe ich möglicherweise nur auf einem 8800K erlebt (dafür schon sicher 4x seit 2019), den ich aber takttechnisch nie angefasst hatte. Auf dem 9900K wollte ich nur mal ein paar Berechnungen beschleunigen und dachte, dass er auch 4Ghz schaffen sollte, statt 3.6 auf allen Cores.
Die 5Ghz auf einem einzelnen Core schafft der auch nur äußerst selten. Ob ich den VCore je angefasst habe, weiß ich gar nicht. Zumindest nie bewusst und nie oberhalb von Spannungen , die ohnehin eingestellt sind (ganz sicher bin ich mir nicht, ob ich versehentlich für ein paar Minuten mal irgendwelche Bios Autotune Funktionen erwischt hatte). Warm geworden ist der auf alle Fälle noch nie sonderlich. Das dürfte eigentlich nichts kaputt gemacht haben, aber beeinflusst das die Garantie?

Gibt es Programme, die speziell den Cache testen? Für die CPU habe ich irgendwo um die 600-700€ bezahlt, dann sollte das Ding auch halbwegs stabil laufen. Und etwas beeilen müsste ich mich auch, ich glaube, der war Ende 2018 so teuer.
Ich dachte eigentlich schon, ob es am Speicher liegt und dachte schon, dass ECC ein schönes Feature wäre, wenn es nich so unglaublich teuer wäre.
 
Funny, das meiste von dem neumodischen Zeugs habe ich übersprungen.

Ich habe mich eher für SIMMs (32pol), PS/2 SIMMs (72pol) und SD-RAM interessiert..

.. und dabei bin ich für ü30 Parties noch zu jung! 😂
 
Bei verschiedenen Latenzberechnungen verschiedener DDR-Sorten komme ich nicht so ganz mit.
Oder habe ich beim Grundrechnen in der Schule gefehlt?

Ich präzisiere:
Wenn 1000/2400*2*17CL 7,08 ns sein soll...?? Bei mir kommt ständig 14,16666..... ns dabei raus.
 
Zuletzt bearbeitet:
I'm unknown schrieb:
Auf die Realität übertragen: Eine Maschine kann 5 Teile pro Sekunde herstellen (verschiedene Varianten, je nach Zulieferung der Rohteile), das Umschalten der Rohteile vom Verteiler dauert bei der Maschine A 0,2 Sekunden und bei B (ansonsten gleiche Maschine) 0,4 Sekunden.

Gleiche Rohteile werden zugeliefert:
A: 5 Teile/s
B: 5 Teile/s

Einmal pro Sekunde wird gewechselt:
A: 4 Teile/s
B: 3 Teile/s

Klar, innerhalb ihrer "Toleranzen" funktionieren beide Maschinen perfekt, die eine ist dann trotzdem langsamer!

Da ist kein Marketingbingo dahinter.
Lasse mal das XMP Profil draussen, Bios-Standard, dann wird DDR4 sicherlich auf 21xx laufen, mache mehrere Benches, dann stell das XMP Profil ein im Bios was bei mir beispielsweise dann 2933 wäre, anstelle händisch 3000 mit den richtigen Settings.
Ich hab da also sogar 3 Möglichkeiten durchgebencht...
Es ist schon fast nichtmal messbar, was meinst du also wie relevant ist das in der Praxis....

Der Vergleich hinkt, weil CPU sowie Grafikkarte können ja dennoch limitieren, egal ob der RAM schneller oder langsamer ist, "die Maschine" muss also keine Rohteile, Umschalten zum einen, zum anderen kann es nicht die gleiche Maschine sein wenn die andere bei der Umschaltung langsamer wäre.
Sie ist nicht gleich weil die nunmal anders eingerichtet wurde in der SPS, offenbar zeitliche Abläufe, irgendwelche Warteschleifen.
"B" wurde also noch nicht so optimiert wie "A"

Dummerweise ist "A" ja aber schon bekannt, da "C" auch nicht schneller kann, da ja CPU sowie Grafikkarte längst limitieren, also "A" maximal darstellen kann.

Vergleiche GPU und CPU meinetwegen mit physikalischen Grenzen einer Schweissmaschine, da ist die Geschwindigkeit hauptsächlich gebremst du die physikalischen Eigenschaften dieser Welt.
Sie kann zwar länger als ein Mensch, aber nicht wirklich schneller, da das ganze nunmal seine zeitlichen Grenzen hat wie es funktioniert, also richtig funktioniert.

Kann die Rechenpower der CPU und oder der Grafikkarte also abgerufen werden, bringt es absolut keinen Unterschied ob die Daten die sie brauchen etwas schneller oder langsamer vorhanden sind.

Gruss HL
Ergänzung ()

Kurzum die Maschine wird niemals schneller arbeiten als 5 Teile, da kannst du noch soviel Rohteile vorhalten, du kannst das komplette Lager mit nem Laufband ankoppeln.

Die Maschine, also die CPU und die Grafikkarte haben dadurch nicht mehr Rechenleistung, also Produktionsleistung vergleichsweise solch einer Maschine.
 
Zuletzt bearbeitet:
HasseLadebalken schrieb:
Die Maschine, also die CPU und die Grafikkarte haben dadurch nicht mehr Rechenleistung, also Produktionsleistung vergleichsweise solch einer Maschine.
Benche mal im CPU-Limit, dann merkst du schnell das deine Aussagen zuvor Unsinn sind.
Gerade in Games wirst du sehr wohl deutliche Unterschiede zwischen verschiedenen RAM-Kits im CPU-Limit sehen.
 
Selas schrieb:
Benche mal im CPU-Limit, dann merkst du schnell das deine Aussagen zuvor Unsinn sind.
Gerade in Games wirst du sehr wohl deutliche Unterschiede zwischen verschiedenen RAM-Kits im CPU-Limit sehen.
Niemand spielt in einem CPU-Limit, das ist einfach nur dumm das ist das eine
Das andere ist, das ein anderer Infinity Fabric Clock in der Tat Performanceunterschiede hergibt, nicht aber der RAM-Takt selbst.

Der IF-Takt (bzw. Cache, das ging schon bei Phenom II und AMD FX genauso, "NB") Takt zu erhöhen bringt natürlich geringfügig etwas.
Da nur niemand im CPU-Limit spielt ist das völlig obsolete

Und besonders Cinebench, womit PES ja mit misst, was ein Skript ist und benutzt genauso wie Fan Control, den OpenHardwareMonitor, bringt witzigerweise bessere Ergebnisse auch ohne PES dahinter wenn man eben nicht den NB SoC (NB steht für Northbridge, die schon vor ewigkeiten mitsamt RAM-Controller in die CPU vom Mainboard gewandert ist) Voltage höher dreht damit das überhaupt stabil läuft.

Was passiert denn wenn man den RAM hochdreht..., XMP wählt..., die NB SoC bekommt anstelle von 0.8xV plötzlich 1,1x V an Spannung.

Es macht auf den ersten Anblick den Schein es sei der RAM, er ist es aber nicht, da der IF-Takt nämlich steigt, den kannst du x2 rechnen und dann kommst du nämlich auch auf deinen RAM-Takt.
Tja dumm gelaufen, wenn man den IF nicht asyncron parallel einstellen kann ist jeder Test da zwecklos, da die meisten das eben nunmal nicht können inkl. mir selbst sind die ganzen Benchmarks die es da draussen so gibt mit noch so schönen noch zusätzlich geschönten Grafiken also pure Dummheit/Fake, einfach weil es auf den ersten Blick genauso auch aussieht.

Auf den Zweiten Blick mit mehr Informationen über das System, peilt man dann mal das man sicherlich genauso wie bei früherer Hardware einfach nur den L3 Cache etwas höher getaktet hat.
Das das etwas bringt steht ausser Frage, das haben wir früher schon gerne gemacht, das ist das was man früher nämlich auch schon spüren konnte, nicht aber der RAM-Takt selbst.

Und selbst das, macht aus einem R5 2600 noch längst keinen 8 Kerner..., oder andersherum aus einem 8 Kerner einen kleineren 2600er.

WIe schon geschrieben, in SOTTR wo das wahre Wunder vollbringen soll, sind es auf meinem System 2666 vs 3000 dann etwa 5 FPS, was schlussendlich aber an einem höheren IF-Takt (Cache) liegt, nicht aber am RAM-Takt.

"8auer" hatte darüber allerdings mal berichtet das es wohl Boards gibt wo man den IF-Takt asyncron einstellen kann, nunja einfach mal ausprobieren.
Man wird feststellen das die stabilität des Systems dabei dann mit "NB SoC Voltage" "skalieren" wird, sprich wenn es instabil ist einen höheren Takt da einzustellen, der dann mit einer höheren Spanung am NB SoC Voltage wieder stabil wird.

Und das wars dann für das RAM-OC gewesen.. puff

Gruss HL
 
HasseLadebalken schrieb:
Niemand spielt in einem CPU-Limit, das ist einfach nur dumm das ist das eine
Das einzig Dumme ist deine Aussage. Natürlich existiert ein CPU-Limit, natürlich in Abhängigkeit vom jeweiligen Spiel, der Engine und Prozessorunterstützung.
Guck dir doch einfach mal an, was allein straffere Timings im CPU-Limit bringen können und das bei selbem RAM-Takt oder sogar geringerem RAM-Takt mit schärferen Timings: https://www.hardwareluxx.de/communi...nd-anwendungen-amd-update-23-05-2020.1269156/

Das restliche Geschwurbel von dir habe ich mal entfernt.
HasseLadebalken schrieb:
mir selbst sind die ganzen Benchmarks die es da draussen so gibt mit noch so schönen noch zusätzlich geschönten Grafiken also pure Dummheit/Fake, einfach weil es auf den ersten Blick genauso auch aussieht.
Klar, jeder da draußen ist dumm und ein Faker, außer natürlich du selbst. :hammer_alt:
HasseLadebalken schrieb:
Und das wars dann für das RAM-OC gewesen.. puff
Und das war es dann mal wieder mit deinem Geschwurbel: puff.
Ich habe "deine Mathematik" innerhalb deiner Auszeit wahrlich nicht vermisst.
 
Selas schrieb:
Das einzig Dumme ist deine Aussage. Natürlich existiert ein CPU-Limit, natürlich in Abhängigkeit vom jeweiligen Spiel, der Engine und Prozessorunterstützung.
Guck dir doch einfach mal an, was allein straffere Timings im CPU-Limit bringen können und das bei selbem RAM-Takt oder sogar geringerem RAM-Takt mit schärferen Timings: https://www.hardwareluxx.de/communi...nd-anwendungen-amd-update-23-05-2020.1269156/
Wenn das System fehlkonfiguriert ist ja, du produzierst normalerweile maximal soviel Frames wie dein Bildschirm benötigt und wenn du es eben nicht fehlkonfiguriert hast, hast du keine Volllast auf der Grafikkarte sowie der CPU also auch kein CPU-Limit, sowie auch kein GPU-Limit
Also Bullshit
Selas schrieb:
Das restliche Geschwurbel von dir habe ich mal entfernt.
Kein Geschwurbel, technische Fakten
Selas schrieb:
Klar, jeder da draußen ist dumm und ein Faker, außer natürlich du selbst. :hammer_alt:

Und das war es dann mal wieder mit deinem Geschwurbel: puff.
Ich habe "deine Mathematik" innerhalb deiner Auszeit wahrlich nicht vermisst.
DIe Mathematik womit jeder Rechner funktioniert, jedes Gesamtsystem, EVA-Prinzip, von der tastatur, der Eingabe, über den Rechner, die verarbeitung, bis zur Ausgabe am Monitor, Ausgabe.

Hier Beweise:
steamuserimages-a.akamaihd.net.jpg
Dann mit etwas mehr Details die besser aussehen
steamuserimages-a.akamaihd.net2.jpg

Nix in irgeneinem Limit, Monitor kann FreeSync mit Nvidia GSync-compatible
Mehr FPS braucht es nicht, weil diese keine bessere Reaktionszeit des Gesamtsystems bringen, Punkt

So sieht "7 Days to Die" beispielsweise auf einem wirklich optimierten System aus, mitsamt Multiplayer

5 FPS mehr, ohne nem FPS-Limit jucken also keine Sau, so einfach ist das
 
Das sind keine Beweise, sondern zwei zufällige Spielszenen mit OSD. Absolut 0 Aussagekraft, vor allem ohne weitere Informationen.

Mach mal einen Run damit und teile das Ergebnis via Cloud: https://www.computerbase.de/downloads/systemtools/grafikkarten/capframex-tool/

Wie schon zuvor: nur Geschwurbel ohne Grundlage, keine Fakten.
Screenshot von HWinfo dazu, damit man von dir angelegte Limits erkennen kann.
 
So sehen die optimierten Einstellungen bei NVidia dazu aus:
1.jpg2.jpg3.jpg

7 Days to Die war noch ohne Undervolting, die Leistungsaufnahme ist durch Undervolting nämlich nochmal gute gesunken.
CPU war da der RAM noch auf 3000 und die cpu bei 3,9gHz, das sieht nun mit 4,0gHz und 2666 beim RAM auch nochmal etwas anders aus, insbesondere bei der Leistungsaufnahme.

...
Ergänzung ()

Selas schrieb:
Das sind keine Beweise, sondern zwei zufällige Spielszenen mit OSD. Absolut 0 Aussagekraft, vor allem ohne weitere Informationen.
Ja was denn sonst
Selas schrieb:
Das sieht in jedem Falle besser aus als ohne FPS-Limit
Selas schrieb:
Wie schon zuvor: nur Geschwurbel ohne Grundlage, keine Fakten.
Screenshot von HWinfo dazu, damit man von dir angelegte Limits erkennen kann.
Ahja, wo sind die Reaktionszeitmessungen zu dem FPS-Geschwurbel von dir ?

Die Reaktionszeit des Gesamtsystems kann nicht besser werden wenn du die "Render Queue" im Rechner verlängerst, also mehr Zeit im Rechner vertrödelst als nötig.
Queue = Warteposition (also mehr Frames, mehr länge Warteschlange)

..., spätere Ausgabe der Frames wenn diese überhaupt vom Bildschirm ausgegeben werden.
Hier wird jedes Frame vom Rechner ausgegeben am Bildschirm

Freesync, GSync compatible funktioniert bei mit von 30 bis 75 FPS/HZ, also marginale Einbrüche auf umd die 60 vielleicht mal 55 jucken keine Sau, weil die Reaktionszeit da immernoch dieselbe ist....

Wenn dir irgend Kram im Hintergrund rumfummelt, beispielsweise der Dienst "Windows Search" wegen der Datenträgindizierung, dann würde es ziemlich kacke laufen ja, dann hast du Probleme.
Dafür bringt dir ein RAM-OC aber rein garnichts und auch kein höherer IF-Takt, dann musst du dein System vernünftig optimieren...
 
Zuletzt bearbeitet:
Zurück
Oben