Leserartikel Dual channel vs. single channel Konfiguration auf Ryzen

Baal Netbeck

Fleet Admiral
Registriert
Apr. 2008
Beiträge
11.953
Dies ist ein ausgelagertes Thema aus diesem Hauptthread:
https://www.computerbase.de/forum/t...kussion-zu-spieletests.1728575/#post-20678303

Intro:

Praktisch alle consumer Platformen unterstützen dual channel Betrieb des Ram.
Werden beide Ram Channel belegt, können die Daten über zwei channel geschickt und gleichzeitig geschrieben bzw. gelesen werden.
Eigentlich weiß das auch fast jeder, denn die Technik ist uralt...laut Wiki ca. 1964 ;)

Manchmal kommt bei Hilfestellungen hier im Forum trotzdem vor, dass herauskommt, dass der Hilfesuchende seine zwei Ram Riegel im gleichen Channel stecken hat oder aus Kostengründen nur einen einzelnen kaufen möchte.

Viele Notebook(so auch meins) kommen nur mit einem einzelnen Ram Modul.

Und da stellt sich die Frage ob das schlimm ist und ob es sich lohnt doch auf dual channel zu setzten.

Einige Tests zu dem Thema kommen zu dem Schluss, dass es das nicht tut.
Dual channel ist nett aber es soll keine große Sache sein wenn man nur single channel benutzt.
Quellen:
https://www.gamersnexus.net/guides/1349-ram-how-dual-channel-works-vs-single-channel
Hier werden zwar große Vorteile in Spielen mit dem Pentium gesehen allerdings nur weil die Integrierte Grafikeinheit benutzt wirdm die natürlich nach Bandbreite verlangt:
https://us.hardware.info/reviews/74...rmance-more-lanes-more-speed-benchmarks-games
und in diesem ältern Artikel waren die Ergebnisse für dual ranked ebenfalls ernüchternd:
https://www.tomshardware.com/reviews/PARALLEL-PROCESSING,1705-11.html
Dieser ältere Leserartikel zeigt ebenfalls keine großen Vorteile in Anwendungen und nur große Unterschiede mit integrierter GPU:
https://www.computerbase.de/forum/threads/single-vs-dual-channel-theorie-und-praxis.1454213/
Und in diesem Test verliert der dual Channel sogar öfter..wobei ich da die Messgenauigkeit in Frage stelle:
https://www.hardwaresecrets.com/does-dual-channel-memory-make-difference-in-gaming-performance/4/


Was stimmt also jetzt und wie sieht es in 2018 aus?

Wie ich meine Tests gemacht und verbessert habe:
Ursprünglich hatte ich für jede Hardwarekonfiguration in jedem Spiel 6 mal hintereinander die Frametimes gemessen.

Dann habe ich die erste Messung("Vormessung") verworfen, da sie in vielen Spielen mit Nachladerucklern zu kämpfen hat und dabei teilweise sogar höhere Durchschnitts-FPS liefert. Ein Mysterium, das ich auf polygonärmere/fehlende Strukturen und schlechtere Texturen schiebe, die bis zum hereinladen der besseren Versionen höhere FPS ermöglichen....oder durch mehr Platz im Cache weil dieser noch nicht so voll ist.....außerdem sind in Spielen, die die GPU stark beanspruchen, kurz nach dem Spielstart die Temperaturen besser und damit der Boost-Takt leicht höher.

Von den fünf verbleibenden Messungen hatte ich mit einem eigenen Auswertungsprogramm die Frametimes über diverse statistische Methoden analysiert.
Um bis zu zwei Ausreißer zu eliminieren bildet das Programm dann nur einen Mittelwert der jeweils besten drei Werte und eine empirische Standardabweichung dieser drei.

Ich denke, dass diese Methode bereits deutlich bessere Ergebnisse lieferte als die der meisten anderen CPU/Ram orientierten Spieletests. ;)

Jedoch musste ich herausfinden, dass die Reproduzierbarkeit trotzdem nicht gut genug für meine Ansprüche war.:(
Bei den älteren Tests, wo ich Ryzen gegen einen ivy i5 oder 2133 gegen 3200MhzRam getestet habe, waren die Abstände in der Regel deutlich genug um Unterschiede klar zu erkennen.
Lediglich mein Versuch mit einer 2+2 gegen eine 4+0 Konfiguration des Ryzen bei unterschiedlichen Ram Frequenzen die Einflüsse des IF zu untersuchen scheiterte an der Genauigkeit.

Nun sollte es also deutlich genauer werden!
Also habe ich mein Programm erweitert um einen zweiten Satz von 5 Frametime Messungen einlesen und verarbeiten zu können.
Das Programm wertet beide Messungen erst getrennt voneinander aus, so wie schon vorher, und dann nimmt es aus beiden, jeweils die 3 Besten und kombiniert diese.
Es werden jetzt also von 10 Messungen, der Mittelwert von 6 Auserwählten gebildet.

Was sich dabei gezeigt hat, ist wie oft die Messungen einen systematischen Fehler bekommen. Auch wenn die einzelnen Messreihen in sich eine geringe statistischen Schwankung haben, können sie von Tag zu Tag merklich abweichen. Teils sogar sehr deutlich.:(

Ich bin auf Ursachenforschung gegangen und habe die verschiedenen Spiele mit aktivem OSD getestet. Habe festgestellt, dass das OSD selbst schon überraschend viel Leistung zieht...egal.... es ist bei den späteren Messungen aus.
Es war aber weiterhin schwer die teils einige % betragenden Abweichungen zu ergründen.
Bei einigen Spielen hat die Arbeit des Schedulers den Ausschlag gegeben. Manchmal wurde die Last auf einzelnen Kernen festgehalten...am nächsten Tag eher hin und her geschoben.....dann haben einige Spiele einzelne Kerne überlastet, indem zwei Threads des gleichen CPU Kerns gleichzeitig stark belastet wurden.
Mal wurden Threads des gleichen CCX benutzt und mal gemischt.
Kurz gesagt macht der Windows Scheduler, (vor allem bei älteren Spielen) einen miesen Job auf Ryzen CPUs!

Um dies reproduzierbarer zu machen, habe ich in allen Spielen, die nur wenige Threads benutzen die zugewiesenen CPU-Threads angepasst.
Heroes of the Storm, Starcraft 2, Prison Architect, The Witcher 2, Thief und Frostpunk wurden nur die Threads 0, 2, 4 und 6 zugewiesen.
Also nur 4 echte Kerne eines CCX. Keine Inter-core-Kommunikation über den Infinity Fabric und keine Probleme mit SMT.
Rome TW habe ich die Threads 0 und 1 zugewiesen, also beide Threads des gleichen Kerns und Company of Heroes hat alle Threads eines CCX bekommen also 0-7...auch wenn es besser läuft mit mehr Kernen und ohne SMT.

Ich versuche den Großteil meiner Tests im CPU limit zu machen und da versucht meine Vega64 natürlich Strom zu sparen und niedrigere PStates zu nutzen. Leider schätzt sie die Last immer mal unterschiedlich ein und taktet dann unterschiedlich weit runter und geht auch beim HBM2 mal auf 500MHz und mal nicht.
Um diese Verhalten zu stabilisieren, habe ich für die Benchmarks den P6 als niedrigsten PState festgelegt.
Da die Karte wassergekühlt ist, kommt sie nie in Situationen, wo sie zu heiß läuft. Da die Taktrate aber die Temperatur als ständigen Faktor in die Berrechnung einbezieht, kann ich nicht ausschließen, das der Takt von Messung zu Messung weiterhin leicht unterschiedlich ist. Die Unterschiede sind aber gering und werden im CPU limit keine Rolle spielen.

Ein weiterer Punkt bei Ryzen ist der "sleep-Bug". Etwas das beim Wechsel in den Standby oder auch beim Herunterfahren unter Windows 10 passieren kann. Danach läuft der Timer falsch und da Frametimemessungen Zeitmessungen sind, fallen die Ergebnisse falsch aus.
Um dem vorzubeugen, habe ich den PC jeweils erst aus und wieder an gemacht und dann noch einen Neustart hinterhergeschoben.
Das an/aus bietet eine gleiche Ausgangsbasis und der Neustart behebt einen eventuell auftretenden Sleep Bug.
Interessanterweise konnte ich mehrere Male feststellen, das nach dem Prozedere die Messungen typische Werte ergaben, bei einem zweiten Neustart, die Ergebnisse jedoch viel zu gut ausgefallen sind. Und nach mehr und mehr Neustarts nährt man sich dann wieder immer mehr dem "Normalfall" an.
Sehr strange:freak:.

Ich habe eine saubere 1803 Win10 Installation aufgespielt.
Nur die Treiber und nötigsten Programme installiert und die HDD abgekoppelt um nur SSDs im System zu haben.

Ich habe musste Elex aus meiner Spieleauswahl streichen, da die neueren Radeon Treiber einen Start des Spiels verhindern:grr:.
Dafür habe ich Company of Heroes 2 und F1 2015 mit aufgenommen.
COH2 fand ich überraschend gut und es hat einen integrierten Benchmark. Leider hat der sich als notorisch unzuverlässig erwiesen.
Es gibt fast jedes mal im Benchmark heftige Frametimeausreißer, die aber eben nicht jedes Mal auftreten und machmal auch häufiger als üblich.
Ich musste also statt 6 Messungen je Durchgang eher 8-9 machen um dann nachträglich die zu guten und zu schlechten auszusortieren.
Dazu sind die Ladezeiten in den Benchmark und auch ins Menü quälend langsam...kurz gesagt werde ich das nicht nochmal testen ;).

F1 2015 wird bleiben...eine Startphase vom Ende des Feldes, bei Sturm, liefert eine hohe CPU Last und kann gut reproduzierbar sein...man darf nur keinen Unfall bauen oder sich von der KI abschießen lassen.

Auch die anderen Spiele habe ich öfter als vorher getestet(7-9 mal je Messreihe) und habe aktiv Ausreißer eliminiert um die "normalsten 5" in das Programm zu füttern. Das führ dazu, das jedes Set an Messungen in sich sehr zuverlässig wird.
Um auf 10 Messungen zu kommen habe ich das zweite Set an Messungen an einem anderen Tag oder zumindest mit Pause/Neustart/usw dazwischen durchgeführt.
Wenn die Auswertung von Set 1 zu Set 2 dann unterschiedliche Ergebnisse gezeigt haben, habe ich mir das notiert und an einem dritten Tag nochmal gemessen...oder noch an einem vierten Tag....um sicher zu gehen, das ich keine versaute Messreihe dazwischen habe.
Ausnahme ist Ashes of the Singularity, wo ich einfach 2x5 Messungen genommen habe ohne zusätzliche Messungen und manuelle Auswahl. Denn der integrierte Benchmark ist einfach mal gut und mal schlecht....mit ca. 40% Chance auf gut...und dann dauert er 3 min.....Ich habe ihn drin weil er große Unterschiede zeigt, dafür habe ich hier bei der Genauigkeit geschludert.

Bei ein paar Spielen habe ich die Messdauer verlängert.(Cities Skylines von 40 auf 50s, Prison Architect von 90 auf 120s)
Hitman hatte bei meinen Tests im März noch einene FPS limiter eingebaut. Dieser ist inzwischen rausgepatched und ich bin gleichzeitig von der Testszene in Paris auf eine Szene in Marrakesh umgestiegen. Die hat noch mehr NPCs auf einem Haufen und noch höhere CPU Last, die teilweise 8 Kerne voll auslastet.

Das alles über 13 Spiele hat mich sehr viel Zeit gekostet! ....über 1800 Messungen und da sind noch nicht die "Vormessungen" drin, die ich nicht aufgezeichnet habe und auch nicht die bei denen was schief gelaufen ist, so dass ich sie direkt gelöscht habe.

Zusammenfassung der Verbesserungen:
-Win10 neu installiert und auf Neustarts geachtet.
-Teils länger und immer mehr als doppelt bis dreimal so oft gemessen.
-CPU Threads festgelegt wo es Sinn ergeben hat.
-Messungen bei Bedarf von Hand sortiert.
-Vega am heruntertakten gehindert..

Spiel Einstellungen:
Hierbei habe ich mich nicht auf maximale FPS durch niedrige Auflösungen und Einstellungen konzentriert, sondern die Auflösung auf 1440p gelassen und nur in komplett CPU limiterten Spielen die maximalen Details genutzt.
Wo die Grafikkarte eine Rolle spielt, habe ich die Optionen individuell angepasst um einen guten Kompromiss aus Grafik und FPS um die 80-100 pro Sekunde zu finden.
Ich habe die Spiele also so eingestellt, wie ich sie selbst spielen würde und dann getestet welche Unterschiede sich bei diesen realen Situationen ergeben.
Die getesteten Szenen waren dabei natürlich so gewählt, dass sie für die CPU typisch bis besonders anspruchsvoll sind.

Benchmarkergebnisse und neue Testsequenzen

Ich habe mich dazu entschieden die absoluten Frametimedaten und die Vorstellung der neuen Testsequenzen in einen extra Artikel auszulagern.
Dann kann ich mich hier auf die prozentualen Unterschiede von dual zu single ranked konzentrieren.

Ramtest-Session Juli/August 2018
.......................

Synthetische Benchmarks(Aida64)

An dieser Stelle nochmal ein kurzer Überblick über das verwendete System und die verwendeten Ramtimings:

Ein Ryzen 1800X mit Pstate OC auf 3,8GHz. 100.2MHz BCLk(für die optik). Ich musste für die sommerlichen Temperaturen etwas undervolting zurücknehmem und komme unter IBT Last auf 1,3-1,312V.

Asus Crosshair VI Hero @ Bios 6002

Vega64 LC mit custom Wasserkühlung für CPU und GPU. PT+50%, P7 = 1702MHz, 1050mV(resultiert in ca 1610MHz bei 1V),
HBM2@1050MHz, P6 als min gesetzt

2x8GB SR DDR4 mit Samsung B-die
Sämtliche im Bios einstellbaren Timings wurden für die höchste effektive Ram Taktrate meines DR Kits optimiert und manuell festgesetzt.

3,8GHz 3200 2x16GB DR, tight CL14.png

Kommen wir jetzt zu den Bandbreiten und Latenzen, die Aida misst:


Aida bandwidth.png


Wenn die 8GB Riegel im single channel Modus gesteckt sind, sieht man wie sich die Bandbreiten fast halbieren. Ein erwartbares Ergebnis.

Es ist allerdings nicht ganz die Hälfte sondern doch noch ein kleines Bisschen mehr.

aida latency.png


Anders als bei den Bandbreiten, scheinen hier SR und SC keine Nachteile zu haben.
Der SC Betrieb hat bei 3200 sogar die besten Werte, wobei man hier praktisch im Bereich der Messungenauigkeit liegt.

Die 2933 Cl16 liegen wieder im Mittelfeld. Ich hatte aufgrund der schlechteren Timings schlimmeres erwartet und bin positiv überrascht.

Die erhobenen Daten sind aus dem Juli/August 2018 und sind sicher gegen Meltdown und Spectre(nach aktuellem Wissensstand).
Windows 10 und Treiber waren aktuell, HPET aus, Energieoptionen auf Höchstleistung.

Mit diesen "theoretischen" Werten im Hinterkopf können wir und jetzt an die Auswertung der Spieleergebnisse machen....

Spieletests: Dual channel vs. single channel

Trotz meines enormen Aufwandes, sind nicht alle Daten so zuverlässig, dass sie eine Aussagekraft haben. Ich zeige daher erstmal nur die Daten die mir zuverlässig erscheinen und wer alles sehen möchte muss den Spoiler öffnen.

DC vs. SC bei 3200 Cl14:

ges DC SC 3200 auswahl.png

ges DC SC 3200 all.png

Ich musste CoH 2, The Witcher 2 u. 3 komplett rausnehmen und auch ein paar der 1% und 0.1% low Werte.

Rome und das ausgeblendete Witcher 3 scheinen sich nicht für den Verlust der Bandbreite interessieren.

Aots, Hitman , Thief und F1 2015 verlieren deutlich an Leistung.
Interessanterweise sind dies auch die Spiele, die bei dem dual ranked Test gut vom dual ranked Ram profitiert haben.

Die anderen Spiele verlieren auch ein paar % an Leistung, sonderlich kritisch sind die Veluste hier aber nicht.

Aber schauen wir uns erst einamal den Vergleich bei 2133Mhz an:

DC vs. SC bei 2133 Cl14:

ges DC SC 2133 auswahl.png


ges DC SC 2133 all.png

Wie wir sehen sind die Nachteile bei nur 2133MHz deutlich größer und öfter vertreten!

Ich nehme an, das mit weniger Ram Geschwindigkeit, der Verlust an Bandbreite deutlich stärker zum tragen kommt.
Das ist besonders ärgerlich, da gerade in Fertigrechnern und Notebooks, wo auf single channel gesetzt wird, in der Regel auch langsamer Ram verbaut wird.


Bewertung der single channel Ergebnisse und Fazit:

Die Verluste durch den single channel Betrieb reichten von "nicht vorhanden" bis "28% avg FPS".
Das ist ein großer Bereich, der wieder mal eine allgemeingültige Aussage schwer macht.;)

Schaut man sich die Aida 64 Ergebnisse an, dann sieht man schlicht eine Halbierung der Bandbreite bei gleich bleibenden(leicht besseren) Latenzen.
Wird der Ram also voll ausgelastet, kann ein zweiter Channel den Durchsatz verdoppeln. Die eigentliche Arbeitsgeschwindigkeit wird jedoch nicht beeinflusst.
Das spiegelt sich auch in den Spieletests wieder. Alte Spiele, die nur wenige Threads benutzen können und nicht viel Daten zu übertragen haben, sind nicht benachteiligt.

Wenn ich die Spiele in Kategorien einteile und versuche Muster zu erkennen, dann würde ich folgendes schlussfolgern:

- Moderne Spiele, die große Mengen an Textur und Effekt-Daten in und aus dem Ram kopieren, verlieren stärker in single Channel Betrieb.
Beispiele sind bei mir AotS, Hitman, ROTTR, Witcher 3 und F1 2015....und irgendwie auch Thief.....das sind auch eher die Spiele, die in meinem Test zum dual ranked Ram die größten Unterschiede hatten.
Offensichtlich brauchen sie große Bandbreiten

-Die restlichen Spiele zeigen keine bis geringe Nachteile....Die Unterschiede zeigen sich aber viel deutlicher bei 2133er Ram.
Mit langsamem Ram kommt man also früher in kritische Bereiche, wo die Bandbreite limitierend wirkt.


Das es Nachteile durch single Channel Betrieb gibt, ist nichts neues.
Ich hoffe ich konnte in diesem Test klären, wie groß sie in verschiedenen Spielen sind.

Für mich steht fest, dass auch wenn in der Vergangenheit und in alten Spielen der Bedarf an Ram Bandbreite nicht gegeben war/ist,
man in 2018, wenn möglich auf dual channel setzen sollte!

Bei Benutzung einer integrierten GPU sowieso...das haben schon ältere Tests immer wieder gezeigt....aber auch in neuen Spielen, die mit großen Texturen/Effekten und komplexen Spielwelten hantieren.



Was sind eure Meinungen dazu?
Habt ihr Verbesserungsvorschläge oder wollt ihr besimmte Sachen sehen, die ich hier nicht behandelt habe?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ALPHA-S, Asghan, wuest3nfuchs und 18 andere
"Ramtest-Session Juli/August 2018 " sollte nicht so ein richtiger Artikel werden....eher ein "Anhang mit den Rohdaten".
Da die Rohdaten die Grundlage für den dual/single Channel Test hier und den dual ranked Test sind, würde natürlich alles da rein passen.
Ich wollte das aber trennen;)
 
  • Gefällt mir
Reaktionen: Fujiyama
@Baal Netbeck: ich finde es echt irre was für nen aufwand du hier immer wieder betreibst. respekt dafür.
 
  • Gefällt mir
Reaktionen: glkz, TermyD, Fujiyama und eine weitere Person
Danke:)
Gerade in diesem Moment betreibe ich wieder Aufwand, weil ich zumindest für zwei Spiele eine Ram Skalierung mit 2133 2400 2666 2800 2933 3066 und 3200 für den DR und SR Ram mache.
Dauert leider trotzdem ewig....vor allem weil ich in andere interessante Sachen laufe.
So ändere ich gerade meine Meinung zum GearDownMode. ;)
 
Klasse Artikel Chewbacca
 
Ich habe 8Gb +16Gb DDR4 an meinem Thinkpad P72.
Laut AIDA ist DUAL aktiv. Nach einem kleiner Recherche bin ich darauf gestossen, dass bei asymmetrischen Bestückungen DUAL Channel aktiv ist, solange symmetrisch Speicher vorhanden ist. Also bis 16GB Nutzung DUAL, 16-24GB Mono.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
HDopfer schrieb:
Also bis 16GB Nutzung DUAL, 16-24GB Mono.
Ja so wird das gehandhabt....ich meine allerdings, dass die Auswahl welcher Speicherbereich genutzt wird zufällig passiert.
Es ist also nicht so, dass du so lange dual channel Betrieb hast bis mehr als 16GB belegt wurden.
DU hast eher eine 75%ige Chance mit dual channel zu schreiben und zu lesen....und 25% dass es single channel ist.
 
Ich poste mal auch hier , weil meine neuen Cruial Ballistix Sport 2mal 16 GB Dual Rank sind bis zu 3533 takten https://www.mindfactory.de/product_...-Rank-grau-DDR4-3000-DIMM-CL15-D_1296002.html , was ich höchst erstaunlich finde , denn ich habe einen Ryzen 1700x und nur ein B450 Board = Asus B450 Gaming F . Der Nachteil : 1,125 v SOC und 1,465v Spannung bei den Riegeln , hart an der Grenze ...
Mit 3600 würde ich sie vermutlich auch zum laufen bringen mit 1,2 v Soc und 1,5v Spannung aber das ist mir einfach zuviel ... , ich bin immer noch begeistert das die 3533 Memtest stabil laufen , allerdings muß ich dazu sagen das ich nicht stundenlang Memtest laufen lasse , doch soweit ich sagen kann sind sie stabil .

Ich bin immer noch begeistert das mein alter 1700x die 32 GB bis auf 3533 pushen konnte mit einem 3000 er Kit das 156,90 incl Porto ( jetzt mit 149 € etwas günstiger ) gekostet hat .
Mit Single Rank wäre ich kaum günstiger gefahren vom übertakten her , da schaffen auch nicht alle die 3600 , vor allem nicht die günstigeren Kits

Habe ich jetzt ein " Golden Sample " erwischt = keine Ahnung , ich mußte ziemlich viel an den Proc ODT und RTT werten rumfummeln , da die " Auto " Werte nur ein takten bis 3400 stabil zuliessen und die Werte aus dem Dram Calculator nicht funktionierten , ProcODT von 43,6 Ohm und RTT Nom mit RZQ4 , die beiden anderen RTT Werte disabled , das hat mit ermöglicht die 3533 Stabil zu bekommen


782618


782619

782620
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
MK one schrieb:
Ich bin immer noch begeistert das mein alter 1700x die 32 GB bis auf 3533 pushen konnte mit einem 3000 er Kit das 156,90 incl Porto ( jetzt mit 149 € etwas günstiger ) gekostet hat .
Mit Single Rank wäre ich kaum günstiger gefahren vom übertakten her , da schaffen auch nicht alle die 3600 , vor allem nicht die günstigeren Kits
Das sind wirklich tolle Werte! :daumen:

Bei mir scheitere ich an 2x16GB 3333.....ich muss irgendwann nochmal gucken ob der Calculator mir neue Möglichkeiten für die Wiederstände vorschlägt, oder ob mit meinem T-topology Board einfach nicht mehr geht....wobei ich glaube ich auch versucht hatte den GDM aus zu lassen...großer Fehler zu so hohen Frequenzen. ;)

Naja ich bin jetzt mit 4x8GB 3466 Cl14 14 14 zufrieden.
Habe ich vor einer Woche ausgelotet....bis 300% HCI Memtest getestet und betreibe es jetzt eine Woche lang.....überraschenderweise voll stabil bis jetzt, obwohl ich für die 300% zwei Lüfter davor stellen musste um die Temperatur extrem niedrig zu halten.

Sind auch unangenehme 1,15V soc und 1,46V DRam.....auf Dauer werde ich da etwas runter gehen und die Spannungen senken.
 
Da würde mich mal interessieren, ob
Baal Netbeck schrieb:
Ja so wird das gehandhabt....ich meine allerdings, dass die Auswahl welcher Speicherbereich genutzt wird zufällig passiert.
Da würde mich mal interessieren, ob es dazu mittlerweile mehr Infos dazu gibt.
Stehe gerade vor der Entscheidung, dem Laptop, Ryzen 5 3500U mit 2x4GB Samsung RAM einen einzelnen 8GB Crucial RAM zu verpassen, also 12 insgesamt oder doch lieber warten und 2x8GB zu nehmen.
 
andi_sco schrieb:
Da würde mich mal interessieren, ob es dazu mittlerweile mehr Infos dazu gibt.
Ich habe es nicht selbst probiert, aber ich habe Mal ein review gesehen, dass eine solche Kombi getestet hat.
Laut dem review waren die Bandbreiten Mal so gut wie dual Channel, mal so schlecht wie single Channel... Und oft dazwischen.
Aber eben von Test zu Test zufällig verschoben.

Das dürfte aber noch DDR3 gewesen sein. Wäre aber Mal interessant zu testen. Wenn ich Langeweile habe, kann ich das ja Mal machen.
 
  • Gefällt mir
Reaktionen: andi_sco
Wäre sehr interessant zu wissen.
Hab auch schon gelesen, das der Aida Test selbst nach mehrmaligem Durchlauf immer im Dual Channel gelandet ist, solange der Test nicht den kompletten RAM nutzte.

Leider muss ich beim hp den verklippten Unterboden entfernen, sonst hätte ich es längst bestellt und probiert.

Schön wäre es ja, wenn AMD so oft wie möglich die Vega im Dual Channel lässt.
Stichwort XBox, da muss es ja auch irgendwie implementiert sein.
 
andi_sco schrieb:
Stichwort XBox, da muss es ja auch irgendwie implementiert sein.
Inwiefern?
Da wird ja kein 64bit channel system verwendet.
Da können sie auch 12GB aus 2*6 im dual Channel nutzen oder anders kombinierten.

Da ist die Situation eher mit einer Grafikkarte zu vergleichen.
 
Der verwendete Arbeitsspeicher ist vom Typ GDDR6 und 16 GB groß. 10 GB des Speichers sind mit 560 GByte/s, 6 GB des Speichers sind mit 336 GByte/s angebunden.
Aus der deutschen Wiki
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Wie ich sagte...es ist eher wie bei einer Grafikkarte verbaut.
Viel breiteres Speicherinterface und sogar unterschiedlich angebunden, wie es z.B. bei der GTX970 der Fall war.

Ich weiß jetzt nicht, ob der Speicher von CPU und GPU gleich genutzt wird, oder ob die GPU immer die 560GB/s bekommt und die CPU die 336GB/s.
Wie die Priorisierung läuft usw, aber bei einer Konsole ist ja alles festgelegt und auch die Software kann darauf ausgerichtet werden, welche Speicherbereiche wie genutzt werden.

Am PC mit dem 64Bit DDR Standard, denke ich nicht, dass sich da jemand die Mühe macht auf eine Mischung von SC und DC Bereichen im Speicher zu programmieren.....denn 99,9% der Leute haben entweder alles im DC oder alles im SC.....es gibt unterschiedliche Kapazitäten und jeder hat eine andere Hintergrundbelegung für den Ram.

Wenn die Speicherkontroller der CPUs und Windows das im Blick haben und vorwiegend den DC Bereich nutzen, wäre eine Mischung ja sogar eine gute Option.

Wie gesagt....müsste man mal mit aktueller Hardware austesten...ich glaube nicht, dass das beachtet wird.
 
  • Gefällt mir
Reaktionen: andi_sco
Zurück
Oben