News „PCIe 4.0 ready“: Z490-Mainboards angeblich bereit für neue Schnittstelle

Doc
KlaraElfer schrieb:
Das schaffe ich persönlich nur bei Streaming.
Ansonsten laufen keine gleichzeitigen Dinge, die die Rechenleistung eines 12 oder 16 Kerners erforden.
Discord + Gaming + Streaming und evtl. noch ein paar Browserfenster ist das Maximum.

Doch die ganzen Gaming Luncher fressen schon einiges davon gibt es ja jede Menge. 😉
 
Esenel schrieb:
Ich glauben nur Zahlen und Fakten und keinen esoterischen Versprechungen ohne Belege.

Vorhin wars noch nebenbei etwas ausführen.
Dann Crunching und Gaming.
Und nun auf einmal massives Multithreading.

Du müsstest dich schon mal entscheiden.

Vollauslastung durch x265 encoding und nebei gamen oder mehrere VMs nebem Officeaufgaben auf dem Host, wovon ich auch meiner Warte spreche, ist schon ein wenig mehr als nebenbei ein Progrämmchen ausführen.

Daher von leichter Last haben wir gar nie gesprochen.

In fast jedem ordentlichen Multithread Szenario putzt selbst der 3700X einen 9900k. Und da gibts
doch massive Verbrauchsunterschiede. Das belegen auch die Zahlen auf die du ja so stehst.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Onkel Föhn schrieb:
Also der 3800X ist in Games gerade mal 3% langsamer als der 9900K und in Anwendungen deutlich SCHNELLER !
Sogar schneller als INTEL´s Speerspitze 9900KS. Verbrauch und Preis mal ganz Außen vor.
Dabei verbraucht er auch noch weniger UND ist günstiger.

Gleich den RAM aus, dann ist er in Spielen noch weiter vorne und schließt bei Anwendungen auf.

Der Verbrauch bei Anwendungen ist höher. Ja.
In Spielen nicht wirklich.

Edit:
Auch der Verbrauch des 9900K in Anwendungen kann gar nicht höher sein als der des 3800X, wenn sich an die Spec gehalten wird.
95 vs 105W.
 
Zuletzt bearbeitet:
Esenel schrieb:
Edit:
Auch der Verbrauch des 9900K in Anwendungen kann gar nicht höher sein als der des 3800X.
95 vs 105W.

? TDP bei Intel und AMD gleichzusetzen und auf den Verbrauch zu schließen ist schon wieder echt stark. Abgesehen, davon das du und andere es immer wieder schaffen absolut OT zu sein. Was ist deine Agenda?
 
  • Gefällt mir
Reaktionen: Onkel Föhn und aldaric
Mcr-King schrieb:
Doch die ganzen Gaming Luncher fressen schon einiges davon gibt es ja jede Menge. 😉

Nö, fressen nur Arbeitsspeicher, keine CPU Last.

modena.ch schrieb:
In fast jedem ordentlichen Multithread Szenario putzt selbst der 3700X einen 9900k.

?! Die CPU´s sind doch 1:1 in Anwendungen.
Ok, heute hab ich definitiv genug gehört. Schönen Abend noch.:)
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Shoryuken94 und Esenel
KlaraElfer schrieb:
Nö, fressen nur Arbeitsspeicher, keine CPU Last.



?! Die CPU´s sind doch 1:1 in Anwendungen.
Ok, heute hab ich definitiv genug gehört. Schönen Abend noch.:)

Naja beim 4 Kerne merkt man es schon alles drüber ist klar besser und was er meint wenn man Multi Trading auf die Spitze treibt da gab es mal einen schönen Test hier auf CB.

Ja RAM fressen die auch gerne für nix da ist Steam noch am besten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Mcr-King schrieb:
Auch meine ich allgemein die FPS sind eigentlich richtig krass für die doch sehr schwache Katzen architecture.

Kommt stark auf das Spiel an. Viele CPU intensive Spiele laufen auf den aktuellen Konsolen halt auch nur mit 30 FPS. Teils das nicht mal stabil. Sicher, einige Spiele sind schon beeindruckend, aber generell ist das eine der größten Baustellen der Konsolen aktuell: Aber hier setzen die neuen ja zum Glück extrem einen drauf. Das wird bewegung in den markt bringen.

Mcr-King schrieb:
Was uns wieder zum Thema Optimierung bringt und die hat dank Intel und NV massiv nachgelassen auf dem PC. 😉

Und das lässt sich wie jetzt nachweisen?:confused_alt: Das Problem ist viel eher, dass die Konsolen die Leadplattform sind und eine wirklich starke Optimierung kaum noch möglich ist, seitdem die Konsolen im Prinzip auch PCs sind.

Dazu gibts schöne Videos bei Digital Foundry, wo sie mit ähnlich starker PC Hardware und ähnlichen Settings Testen und spiele tatsächlich dann am PC sehr ähnlich laufen. Teilweise sind die Settings auf der Konsole aber auch unterhalb der niedrigsten PC Einstellung. Bei Red Dead Redemption 2 gibt es da z.B. einige Settings, die auf Xbox One X und PS4 Pro in niedrigeren stufen laufen, als es am PC überhaupt möglich ist.

Eigentlich hat sich mit dem Einzug von viel Speicher, der x86 Architektur und halbwegs brauchbaren Grafikchips bei den Konsolen nicht mehr so sonderlich viel bei der Optimierung getan.

Mcr-King schrieb:
Desweiteren klar Intel iherer ist der Schnellste nur auch massiv mehr Verbrauch was mir eigentlich zu viel des Guten ist.

Unter Volllast ja, bei Teillast wie beim Zocken sind die Unterschiede nicht so massiv, wie viele immer denken. Nur testen das kaum Seiten. Da wird meistens einfach nur der Cinebench Multicore etc. angeworfen und das als verbrauch angegeben, dass ist aber kein realistisches Szenario. Ob sich Käufer einer High End CPU über die paar Watt jetzt aufregen, wage ich doch eher zu bezweifeln.

Mcr-King schrieb:
Genau deswegen sollten alle die über Vega herziehen auch Intel was P/W angeht mit Vorsicht betrachten.

Eine GPU ist bei den meisten hingegen fast immer unter Dauerlast, anders als die GPU. Das Problem bei Vega ist aber auch eher, dass die Karten viel Strom brauchen, aber dafür relativ langsam sind. Die Intel CPUs sind in ihrem Einsatzzweck dafür aber die schnellsten CPUs, anders als bei vega.

Wobei bei vega auch sehr übertrieben wird. Das einzig problematische sind die extremen Lastspitzen bei Vega. Dazu gibts ein schönes Video von Igor. Der absolute Verbrauch bei Vega war nie das Problem, nur die gelieferte Leistung dabei und die Lastspitzen.

Mcr-King schrieb:
Wie dem auch sei denke ich dass die Boards dadurch auch unnötig Teuer werden können. Was für mich persönlich auch nicht gerechtfertigt ist.


Naja wenn man den ersten Preisen trauen darf, dann sind die auch nicht teurer, als vergleichbare AMD Boards. Die Preisesteigerungen kommen eher nicht von den höheren Anforderungen ans Board. Das ist eher eine Methode der Steigerung der Marge.

Mcr-King schrieb:
Doch die ganzen Gaming Luncher fressen schon einiges davon gibt es ja jede Menge. 😉

kann ich persönlich nicht bestätigen. Habe das mal auf meinem Threadripper mit dem "Gamingmodus" und halb deaktivierter CPU getestet. Das macht im Grunde keinen Unterschied
Mcr-King schrieb:
was er meint wenn man Multi Trading auf die Spitze treibt da gab es mal einen schönen Test hier auf CB.


Wie viele betrifft das wirklich? Wenn man real davon profitiert? Ganz klar einen Ryzen oder gar Threadripper. bezweifle aber ein wenig, dass das wirklich auf viele hier zutrifft.
modena.ch schrieb:
In fast jedem ordentlichen Multithread Szenario putzt selbst der 3700X einen 9900k.


Das geht nicht mal aus dem doch sehr stark Ryzen in die Karten spielenden CPU vergleich von CB hervor.


Letztlich ist das aber eh ein Apfel / Birnenvergleich, da jeder für seinen Anwendungszweck schauen muss. Hier gibt es ja doch durchaus beachtliche Unterschiede zwischen den Architekturen und ich glaube kaum ein 9900K wird mit den doch recht gezügelten Stocksettings laufen. zumindest nicht bei Usern, die Ihren Rechner selbst bauen und in PC Foren unterwegs sind.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Mcr-King
Dai6oro schrieb:
? TDP bei Intel und AMD gleichzusetzen und auf den Verbrauch zu schließen ist schon wieder echt stark. Abgesehen, davon das du und andere es immer wieder schaffen absolut OT zu sein. Was ist deine Agenda?

So, da ich ja vorhin gesagt habe ich vertraue nur Daten.
Auch hier für dich der Beweis.

2 x 3800X Stock durch CB20.

1. CPU mit avg 102W und peak 105W
3800X_CB20_1.png
2. CPU mit avg 118W und peak 122W
3800X_CB20_2.png

Stock 9900K (95W/118W (28s)) mit avg 103W (2. Run 107W) und peak 114W
9900K_Stock_Verbrauch_CB20.png

Merke hierbei handelt es sich um eine Aufnahme von 54 Sekunden.
Haben wir nun eine Anwendung welche länger dauert wird der avg Verbrauch des 9900K hier weiter stark absinken, da er auf 95W eingeschränkt wird.

Der 3800X würde hierbei auf 105W eingeschränkt werden und hätte weiterhin einen höheren Verbrauch.
 
  • Gefällt mir
Reaktionen: PhoenixMDA, PHuV und KlaraElfer
@Shoryuken94

Stimmt soweit nur dein X1950 hat im Gaming Modus immer noch mehr als mein kleiner i5 6600.

Desweiteren klar ist trotzdem erstaunlich was der Katzen CPU alles so noch schafft. Bei allem was ich an Digital Fundery schätze sie machen aber einen Fehler beim Konsolen Vergleich die CPU ist zu stark man müsste schon einen PII x6 nehmen dann hätte man in etwa die Leistung denke ich.
Ergänzung ()

Esenel schrieb:
So, da ich ja vorhin gesagt habe ich vertraue nur Daten.
Auch hier für dich der Beweis.

2 x 3800X Stock durch CB20.

1. CPU mit avg 102W und peak 105W
Anhang anzeigen 906392
2. CPU mit avg 118W und peak 122W
Anhang anzeigen 906391

Stock 9900K (95W/118W (28s)) mit avg 103W (2. Run 107W) und peak 114W
Anhang anzeigen 906393

Merke hierbei handelt es sich um eine Aufnahme von 54 Sekunden.
Haben wir nun eine Anwendung welche länger dauert wird der avg Verbrauch des 9900K hier weiter stark absinken, da er auf 95W eingeschränkt wird.

Der 3800X würde hierbei auf 105W eingeschränkt werden und hätte weiterhin einen höheren Verbrauch.

Ähm da gab es doch mal Mobo Hersteller die dass gerne um gangen haben deswegen TDP ist nicht Verbrauch, grade bei Mobos und RAM und Kühler sehr kräftige Unterschiede gibt.
 
  • Gefällt mir
Reaktionen: Shoryuken94
modena.ch schrieb:
Vollauslastung durch x265 encoding und nebei gamen oder mehrere VMs nebem Officeaufgaben auf dem Host, wovon ich auch meiner Warte spreche, ist schon ein wenig mehr als nebenbei ein Progrämmchen ausführen.
doch massive Verbrauchsunterschiede. Das belegen auch die Zahlen auf die du ja so stehst.

Da hast du dann Recht.
Wie viele Personen machen das privat?

Da würde ich mir die Leistung lieber mieten als zu Hause rumstehen zu haben.

modena.ch schrieb:
In fast jedem ordentlichen Multithread Szenario putzt selbst der 3700X einen 9900k. Und da gibts
doch massive Verbrauchsunterschiede. Das belegen auch die Zahlen auf die du ja so stehst.

Hast zwar keine gepostet, dann mach ich das für dich.
Trotz RAM Unterschied von 2666 zu 3200 ist der 3700X 4 Zählerpunkte vorne.
CB_Anwendungsleistung_CPU.png


Wegputzen würde ich anders definieren.
Gleich den RAM aus, wie viel ists dann noch?
Ergänzung ()

Mcr-King schrieb:
Ähm da gab es doch mal Mobo Hersteller die dass gerne um gangen haben deswegen TDP ist nicht Verbrauch, grade bei Mobos und RAM und Kühler sehr kräftige Unterschiede gibt.

Das ist aber dann nicht mehr in der Spec.

Vergleichen wir Geräte außerhalb der Spec kann ich meinen in schnell + sparsam oder super Schnell und nicht mehr sparsam tunen. Aber darum gehts dann ja nicht.

Es hieß ein 3800X ist in Anwendungen sparsamer.
Meine Aussage:
"Auch der Verbrauch des 9900K in Anwendungen kann gar nicht höher sein als der des 3800X, wenn sich an die Spec gehalten wird.
95 vs 105W.
Zuletzt bearbeitet: Heute um 19:12 Uhr"


Dai6oro schrieb:
? TDP bei Intel und AMD gleichzusetzen und auf den Verbrauch zu schließen ist schon wieder echt stark. Abgesehen, davon das du und andere es immer wieder schaffen absolut OT zu sein. Was ist deine Agenda?

Und dann mein Beleg für Verbrauch nach Spec.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PHuV, Shoryuken94 und KlaraElfer
  • Gefällt mir
Reaktionen: Mcr-King
@Dai6oro
Ich weiß nicht was du eigentlich willst?
Außer stenkern.

Ich habe nur aufgzeigt, dass ein 3800X nicht sparsamer in Anwendungen als ein 9900K nach Spec ist.
Mehr nicht.

Aber mach halt einen auf "PippI Langstrumpf". :daumen:
 
  • Gefällt mir
Reaktionen: owned139, PhoenixMDA, PHuV und 2 andere
Verstehe schon. Einfach mal ne Aussage tätigen die vorne und hinten nicht passt und wenn man dann drauf hingewiesen wird ist es stänkern und Pipi Langstrumpf. Meine Aussagen sind belegbar

1. Intel TDP hat mit Verbrauch nichts zu tun:

"Auch die drei neuen Prozessoren wurden von Intel in die 95-Watt-TDP-Klasse eingestuft. Das heißt, dass sie unter Nutzung des Basistaktes unter von Intel definierter „hochkomplexer Last“ 95 Watt elektrische Leistung in Wärme umsetzen. Alle drei CPUs haben aber einen Turbo, den sie nutzen, solange ein Grenzwert bei der Temperatur oder bei bei der maximalen Leistungsaufnahme nicht erreicht wird. Und das ist mit gutem Kühler auf Mainboards, wie man sie im Handel kauft, in der Regel nie der Fall.


Das Resultat: Unter Nutzung des Turbos unter Last liegt die Leistungsaufnahme deutlich über der TDP. Und der Core i9-9900K stellt in diesem Zusammenhang einen neuen Rekord auf. Und er würde im Extremfall auch noch mehr Leistung aufnehmen."

https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/3/

2. Intel TDP und AMD TDP kann man nicht gleichsetzen.

https://www.computerbase.de/2018-08/cpu-tdp-verbrauch-amd-intel/


Such dir jemand anderes zum "diskutieren"
 
  • Gefällt mir
Reaktionen: dynastes und Mcr-King
Was er meint ist dass die so coolen mobo Hersteller allem voran Asus sich nicht an die Specs halten.

Traurig ist dass Intel dass hin nimmt vielleicht sogar absichtlich man weiß es nicht und dann Säuft der Intel 9900K gerne sehr viel.

Selbst mein i5 6600 kann bis zu 90 Watt saufen wenn mann alles auf Standard bei mein Asus lässt.
 
  • Gefällt mir
Reaktionen: Esenel
Dai6oro schrieb:
Ich nehme mein Quote weil du dein Statement im nachinhein verändert hast.

Ich hatte es auf dem Handy editiert, bevor dein Post erschien.
Korrekt.
Weil es ohne das Wort wieder zu schwammig gewesen wäre.

Dai6oro schrieb:
1. Intel TDP hat mit Verbrauch nichts zu tun:

"Auch die drei neuen Prozessoren wurden von Intel in die 95-Watt-TDP-Klasse eingestuft. Das heißt, dass sie unter Nutzung des Basistaktes unter von Intel definierter „hochkomplexer Last“ 95 Watt elektrische Leistung in Wärme umsetzen. Alle drei CPUs haben aber einen Turbo, den sie nutzen, solange ein Grenzwert bei der Temperatur oder bei bei der maximalen Leistungsaufnahme nicht erreicht wird. Und das ist mit gutem Kühler auf Mainboards, wie man sie im Handel kauft, in der Regel nie der Fall.


Das Resultat: Unter Nutzung des Turbos unter Last liegt die Leistungsaufnahme deutlich über der TDP. Und der Core i9-9900K stellt in diesem Zusammenhang einen neuen Rekord auf. Und er würde im Extremfall auch noch mehr Leistung aufnehmen."

https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/3/
Mcr-King schrieb:
Was er meint ist dass die so coolen mobo Hersteller allem voran Asus sich nicht an die Specs halten.

Traurig ist dass Intel dass hin nimmt vielleicht sogar absichtlich man weiß es nicht und dann Säuft der Intel 9900K gerne sehr viel.

Wie Mcr-King schreibt liegt das am verwendeten Mainboard.
Zu Launch hatte sich keiner an die Specs gehalten.
Ob dies Absicht war oder nicht will ich hier nicht diskutieren.

Aber wenn du (@Dai6oro ) schon den CB Artikel verlinkst, dann auch den nächsten Absatz bitte:
https://www.computerbase.de/2018-10...3/#abschnitt_benchmarks_mit_95wattpowertarget

So wie es die Spec halt vorsieht.

Denn mein Asus Board mit Bios 1105 läuft so....
 
  • Gefällt mir
Reaktionen: KlaraElfer
Dai6oro schrieb:
? TDP bei Intel und AMD gleichzusetzen und auf den Verbrauch zu schließen ist schon wieder echt stark. Abgesehen, davon das du und andere es immer wieder schaffen absolut OT zu sein. Was ist deine Agenda?

Ist ja nicht so als gäbe es keine Messungen hierzu, die Esenels Aussagen bestätigen und zeigen, dass sich TDP von Intel und AMD relativ wenig nehmen.

Oder hier.

Ich denke nicht, dass Esenel eine Agenda hat, ich glaube dass ihm diese Pauschalisierungen aus der uneinsichtigen AMD Ecke auf die Nerven gehen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: owned139, PhoenixMDA, Shoryuken94 und eine weitere Person
KlaraElfer schrieb:
Ich denke nicht, dass Esenel eine Agenda hat, ich glaube dass ihn diese Pauschalisierungen aus der uneinsichtigen AMD Ecke auf die Nerven gehen.

Danke :-)

Als ehemaliger Besitzer eines 1700X und 2700X muss ich mich immer wieder fragen, wie blind manche Leute für eine Firma argumentieren.

Wenigstens gibts auch Leute wie dich, die das neutral betrachten können. :daumen:
 
  • Gefällt mir
Reaktionen: owned139, PhoenixMDA, PHuV und 2 andere
Wer weiß wie Intel sich das alles bezahlen lässt. Billig wird das nicht.

https://www.wepc.com/news/gigabyte-aorus-z490-motherboards/

Gigabyte’s Z490 Hardware Specs
What we know from Gigabyte is that this new motherboard design will feature the following:
  • 2x PCIe 4.0 slots
  • PCIe 4.0 Turbo B-Clock
  • PCIe 4.0 Switches
  • PCIe 4.0 Re-driver
  • M.2 PCIe 4.0 slot
  • 3.3x Slot Signal Stability
  • 4x Lower Low Signal Loss PCB

Gigabyte has also announced that there will be a wide range of different Z490 models available to choose from. As well as the AORUS range, a new addition is the VISION range which is primarily designed for content creators.
The full list can be found below:
  • Z490 AORUS Xtreme WF
  • Z490 AORUS Xtreme
  • Z490 AORUS Master
  • Z490 AORUS Ultra (G2)
  • Z490 AORUS Pro AX
  • Z490 AORUS Elite AC
  • Z490 AORUS Elite
  • Z490 AORUS Ultra
  • Z490 VISION D
  • Z490 VISION G
  • Z490 GAMING X
  • Z490 M GAMING X
  • Z490 UD AC
  • Z490 UD
This looks like a promising announcement from Gigabyte so far. When more details come out surrounding the full lineup, we will keep you updated.


Hier mal was zum Thema TDP:
Vielleicht auch mal die Kommentare lesen, schon sehr aufschlussreich.

https://www.computerbase.de/2018-08/cpu-tdp-verbrauch-amd-intel/

Zitat:

„Intels aktuelle Definition der TDP

Intel definiert die TDP aktuell als „die durchschnittliche Leistungsaufnahme (in Watt), die der Prozessor beim Betrieb auf Basisfrequenz ableitet, wenn alle Kerne bei einer von Intel definierten, hochkomplexen Arbeitslast aktiv sind“.

Was hinter der „hochkomplexen Arbeitslast“ steckt, bleibt zwar ein Geheimnis.
ComputerBase konnte allerdings erst kürzlich zeigen, dass beispielsweise der Benchmark Cinebench R15 im Multi-Core-Test offensichtlich nahe an Intels Last heran kommt, denn der Verbrauch entspricht dort bei Basis-Taktraten der TDP. Eine Orientierung ist also möglich.“

https://www.gamersnexus.net/guides/...lained-deep-dive-cooler-manufacturer-opinions
 
eRacoon schrieb:
Spannender wird es eher ob Intel das auch zulässt... AMD hat da ja auch den Hahn zugedreht obwohl es technisch möglich war mit den alten Boards.
Möglich war es vielleicht auf einzelnen Boards mit einzelnen Karten, aber die Boards waren nie für PCIe 4.0 entwickelt worden und damit wären Probleme vorprogrammiert. Das weder AMD noch die Boardpartner Lust auf den Imageverlust hatten, wenn es dann ständig Probleme gibt, kann ich durchaus nachvollziehen und daher war der Schritt auch richtig dort bei AGESA einen Riegel vorzuschieben.

Aber hier ist es total anderes, man kann die Boards zu PCIe 4.0 kompatibel bauen, auch wenn der Kunde dies dann erst mit der nächsten CPU Generation (Rocket Lake-S) nutzen kann. Sonst beschweren sich doch immer alle, man müsse für jede Generation ein neues Board brauchen und nun wird ein Feature geboten welches es erlaubt für die 2. CPU Generation auf dem Sockel deren neue Features zu nutzen und dennoch wird wieder gemeckert, wieso?

Was ich bei AMD aber nicht nachvollziehen kann ist, dass man mit dem B550 so lange wartet und auch keine neuen, auf PCIe 4.0 ausgelegten Boards mit den alten 400er Chipsätzen erlaubt hat, die dann auch nur PCIe 4.0 bei den Lanes direkt von der CPU und nicht Chipsatz haben, aber eben dafür designt wurden. Sowas geisterte ja mal als B550a durch die Gerüchteküche, scheint aber dann doch nicht gekommen zu sein, dabei wäre dies einfach zu realisieren gewesen, da die Chipsätze selbst ja nichts mit den PCIe Lanes der CPU zu tun haben, die gehen da ja nicht drüber. Der einzige Zusammenhang ist die Freigabe oder Sperre von Features wie der Geschwindigkeit Aufteilung der Lanes durch den Microcode in Abhängigkeit vom verbauten Chipsatz des Mainboards.
0x8100 schrieb:
mit "pcie 4.0 ready" zu werben obwohl sie es mangels cpu gar nicht verifizieren konnten ist schon etwas frech von gigabyte
Da wäre ich mir nicht so sicher, denn Intel testet neue CPUs 1 Jahr vor dem Erscheinungstermin zusammen mit seinen Partner, also lange bevor sie auf den Markt kommen:
Es kann also durchaus sein, dass Gigabit auch schon frühe Rocket Lake-S Samples zum Testen von PCIe 4.0 hat.
Tzk schrieb:
obwohl es bis in über einem Jahr keine PCIE4 Cpu von Intel geben wird
Doch, denn Ice Lake-SP soll dieses Jahr kommen und PCIe 4.0 haben.
estros schrieb:
Hoffentlich sind die Preise im Rahmen des Vorgängers und man muss sie nicht derart schlimm erhöhen, wie bei Ryzen.
PCIe 4.0 macht die Mainboard teurer, aber Du meinst mit "wie bei Ryzen" wohl "wie bei X570". Bei den X570 kommt natürlich dazu, dass zusätzlich auch noch dessen Anbindung und dessen PCIe Lanes ebenfalls PCIe 4.0 sind und damit z.B. bei größeren Leitungslängen ebenfalls redriver benötigt werden und wenn sie umschaltbar sind, dann teurere Muxer um diese Umschaltung zu machen, etc. pp,. während hier ja nur von PCIe 4.0 im Zusammenhang mit den Lanes der CPU die Rede ist. Die höheren Preise werden für all die User blöd, die gar nicht vor haben später auf eine Rocket Lake-S aufzurüsten.

Danach habe ich nicht mehr gelesen, es ist sowieso immer nur der gleiche unsinnige Grabenkrieg der vor allem mit viel Unwissenheit geführt wird und total am Thema vorbeigeht.
 
Zurück
Oben