News Intel auf der IFA: Core i9-9900KS und Cascade Lake-X kommen im Oktober

Also ich muss mal sagen ich hab früher wirklich so gut wie jede Gen gehabt, bis zum 2600k, danach kam erst der 8700k mit dem Upgrade auf den 9900k.
Da ich ehrlich gesagt ganz andere wichtigere Baustellen hab, hab ich erst aufgerüstet wo der 2600k zum hochberechnen von 4K Video auf 60FPS für den Beamer zu lahm war, für Games hat es noch solala gereicht.

Der 2600k@OC hat insgesamt 3 Grafikkarten Upgrade´s erhalten und lief über 7Jahre rund.
Ich hab dazwischen ab und zu für andere was zusammengestellt, allerdings war für mich selber der Mehrwert ohne mehr Kerne einfach nicht gegeben.

Mit nen guten System als Basis kommt man ne lange Zeit hin, wobei in diesem Fall ich bis zum jetzt entgültigen Sys dann doch 6 CPU´s und 5 Board´s hatte.:D
Da war der Spaß am rumprobieren und basteln halt größer als der relative nutzen in dem Moment.Aber so bleibt das jetzt erstmal.

Es wird jetzt erstmal ne Weile dauern bis Mehr Kerne noch was bringen und bei der Einkern Leistung wird sich nicht allzuviel tun, bei 5Ghz+ stecken wir auch schon seit dem 2600k fest und dort scheint auch eine Grenze des machbaren zu sein.
 
Zuletzt bearbeitet:
@SKu
Spiele haben eine gewisse Workload, die sich jetzt über die Jahre hinweg kaum geändert hat.

Es gibt grundlegende Eigenschaften, die unabhängig der darüberliegenden Software allgemeingültige Leistungswerte liefern (siehe z.B. den 3DMark API Overhead Test), die bezüglich der APIs zumindest im Low- Level Bereich auch Leistung anzeigen, die künftig von den Prozessoren im Spielebereich abgerufen werden kann.

Und in der Praxis war es bis jetzt auch immer so, dass eine allgemein in Spielen starke CPU auch in zukünftigen Spielen stark abgeschnitten hat.
Dass irgendwann neuer Prozessor XY den Alten den Rang abläuft bzw. sich die Spielelandschaft auch gaaaaaaaaaaaaaanz gemächlich zu mehr Kernen hin entwickelt tut dem ganzen keinen Abbruch.

Es ist jetzt bald drei Jahre her, dass der 7700K das Licht der Welt erblickt hat- und lt. CB Test (der ja inzwischen sehr viele Multicore- bevorzugende Spiele im Angebot hat), schlägt der 4- Kerner z.B. den 8- Kerner 2700x (ein Jahr später erschienen und bereits ein Facelift), wenn man CB Glauben schenken darf in FHD bei den AVG Frames und unterliegt um 3% bei den Frametimes.

Gegen seinen direkten damaligen Konkurrenten den ebenfalls 8- Kernigen 1800x liegt er in den Frametimes gar 18% in Führung und 15% avg FPS.

Und seit nun fast drei Jahren würde man denken, wenn man den Tenor der Foren verfolgt, dass der 7700K zum Alteisen gehört, die Spiele alle ewig viele Kerne benötigen und der Prozessor eine Totgeburt sei, mehr Kerne immer deutlich smootheres Gameplay und bessere Frametimes liefern usw. usf.

Irgendwas (siehe unter Anderem auch oben) scheint der alte Intel- Prozessor wohl richtig zu machen, so dass auch bei modernen Spielen ein Prozessor damaliger Zeit trotz doppelter Kernzahl nicht an diesem vorbeischieben kann.

Diese Entwicklung wird sich auch von heut auf morgen nicht drastisch ändern. Zumindest nicht in der Lebenszeit einer CPU, wenn wir sagen wir mal 3-5 Jahre anpeilen.
Interessant, dass aber trotz der offensichtlichen Informationen aus der Praxis eine große Zahl an Usern etwas anderes behaupten.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AndyMutz, gunmarine, xexex und 4 andere
Spiele lassen sich bestimmt nicht unedlich parallelisieren, irgendwo sind Grenzen. Nur weil ein Spiel mehr Threads nutzen kann, heißt das auch noch nicht, dass eine CPU mit mehr Threads hier bessere Leistung erzielt. Ich habe das bei Wolfenstein Youngblood gesehen. Das spielt nutzt im Schnitt 80% des 3900X aber der 8700K mit der Hälfte der Threads liefert trotzdem mehr FPS.
 
  • Gefällt mir
Reaktionen: Esenel, PhoenixMDA und .Sentinel.
Das "Problem" mit Ryzen im Highend ist, dass es keine höhere Gaming-Leistung mehr bringt, was für die meisten hier nun mal ausschlaggebend zu sein scheint.

Teurer RAM rennt durch das IF in eine Wand, der Takt rennt durch die Fertigung in eine Wand, mehr Kerne bringen nichts.

3700X oder 3900X? Nahezu egal.
60€ E-Dies oder 300€ gebinnte B-Dies? Nahezu egal, schafft beides 3800 CL 16, dass E-Dies bei tRCDRD, tRC und tRFC und anderen Nebentimings deutlich weniger Spielraum haben, scheint leistungstechnisch keinen großen Unterscheid zu machen.

Das macht die günstigen Builds mit 3600/3700X, B450 und E-Dies sehr attraktiv, im Highend mit CPU-Limit sollte der reine Gamer dann doch eher zu Intel greifen, wenn er für sein Mehr an Geld auch ein Mehr an Leistung sehen möchte.

Durch das monolithische Design erzielt Intel bei selbem Takt bereits eine viel geringere Speicherlatenz, kombiniere das mit AMDs IF-Limit und du hast deutlich mehr Potenzial nach oben. Die etwas höhere Leistung pro Kern ist dann noch die Sahnekirsche auf der Torte.
 
  • Gefällt mir
Reaktionen: Cyberbernd, Floppes und .Sentinel.
Ich sehe das eher als ein Plus als ein Minus, vor allem für die absolute Mehrheit die keine Lust/Zeist/Nerven dazu hat Wochenlang rumzubprobieren.

Einbauen, einschalten und OOTB die fast bestmögliche Leistung haben.

Alles was ich bisher gemacht habe. XMP, Takt auf 3800, IF auf 1900... done.

Alle anderen Versuche mehr Leistung rauszupressen waren zwar auch erfolgreich aber den Preis und die Mühe eigentlich nicht wert.
 
  • Gefällt mir
Reaktionen: yummycandy und .Sentinel.
Banned schrieb:
Nur kauft man sich ne CPU eben in der Regel nicht für jetzt und die nächsten zwei Wochen, wenn du verstehst, was ich meine.

Mal wieder einer, der glaubt, schlauer zu sein als die ganzen Redakteure...

Benchmarks in 720p oder 1080p mit ner 2080Ti sind sogar sehr sinnvoll, weil es dann eben kein GPU-Limit gibt und man die CPUs objektiv nach ihrer Leistung vergleichen kann. Ob das für die Praxis aktuell relevant ist, spielt dabei keine Rolle! Das sehen offensichtlich auch mindestens 99% der Leute so, die im publizistischen Bereich dieser Fachrichtung tätig sind.

Trotzdem kommt immer wieder diese Diskussion auf.


Klar sollte man auch in höherer Auflösung testen (und das wird schließlich auch gemacht). Trotzdem sind die Auflösungen ohne GPU-Limit essentiell wichtig für einen aussagekräftigen und objektiven Test.

Gibt ein tolles Video dazu wie sich diese 720p Ergebnisse durch den Core Count am Ende gedreht haben. 720P eine Garantie für die Zukunft? Würde sagen NICHT IMMER. Wann 8-Core der Standard ist, weiß keiner von uns. Irgendwann sind aber auch die 6-Core fällig. Mit 8-Core Consolen auf Zen Basis vielleicht schneller als man denkt.


Edit: 1080P wird hier gebencht - macht das Ergebnis aber nur dramatischer
 
  • Gefällt mir
Reaktionen: Banned
Dai6oro schrieb:
Ich sehe das eher als ein Plus als ein Minus, vor allem für die absolute Mehrheit die keine Lust/Zeist/Nerven dazu hat Wochenlang rumzubprobieren.

Einbauen, einschalten und OOTB die fast bestmögliche Leistung haben.

Alles was ich bisher gemacht habe. XMP, Takt auf 3800, IF auf 1900... done.

Alle anderen Versuche mehr Leistung rauszupressen waren zwar auch erfolgreich aber den Preis und die Mühe eigentlich nicht wert.

Ja ist ja beim Intel auch nicht anders, wenn man da ein 3600er XMP Profil läd läuft der auch super. Nur sollte man dann halt auch erwähnen, dass der Intel mit dem XMP dann immer noch 20-30% out of the Box vor dem Ryzen liegen kann. Und jetzt kommt mir bloß nicht damit "aber alles über 2666 ist OC beim Intel". Das bekommen fast alle hier im Forum hin ein dämliches XMP Profil zu laden und beim Intel ist auch Verlass drauf, dass nahezu auf jedem Board mit jeder CPU 3600-3800 bei 8 GB Riegeln läuft.

Im Endeffekt wurde ja in den letzten Beiträgen alles gesagt, der Ryzen ist und bleibt eine günstige und gute CPU, aber mehr als die seit 2 Jahren vorhandene Leistung eines 8700K bringt er beim Zocken halt auch nicht und nahezu jeder im 144 HZ Bereich hat da spürbar mehr vom Intel. Und wer das endlich akzeptiert hat mein Amen. Ich persönlich merke in JEDEM Shooter sofort wenn meine FPS unter 100 sind, es fühlt sich im 70er bis 85er Bereich an wie 60 hz bzw 85 hz ;-) Es ruckelt einfach beim Zielen. Und genau deswegen wird solange kein AMD für mich mehr in Frage kommen bis die nicht zumindest die gleiche Leistung wie die Intels bringen. Und das wird noch lange Zeit dauern, wenn man bedenkt, was Ice Lake jetzt schon kann. Spinne ich das Rad mal 18 Monate weiter kann ich mir zumindest vorstellen, dass Intel auch an die 5 ghz mit 10 nm dran kommt. Und bei den jetzigen Ergebnissen können wir schonmal locker von einem Sprung von 20% ausgehen wenn Intel den Takt in den Griff bekommt und da wage ich arg zu bezweifeln, dass AMD da in den nächsten 3 Jahren überhaupt dran kommt, wenn man immer noch beim Zocken 30% hinter Coffee Lake R liegt und mit Comet Lake ja nochmal ein paar % fehlen dürften.
 
Zuletzt bearbeitet:
@Floppes
Darum würde ich jedem aktuell auch einen 3600 empfehlen.
Ist aktuell fürs Geld die beste CPU. So wie der 1600 zuvor.
Ein Freund hat sich aber dann trotzdem den 3700X gegönnt.

Bis auf uns drei oder vier FPS Junkies hier, sollte fast jeder mit einem 3600 oder 3700X mehr als versorgt sein.
Limitiert doch bei den Meisten eh die Grafikkarte :stacheln:
 
gunmarine schrieb:
[...]aber mehr als die seit 2 Jahren vorhandene Leistung eines 8700K bringt er beim Zocken halt auch nicht und nahezu jeder im 144 HZ Bereich hat da spürbar mehr vom Intel[...]

[...]Spinne ich das Rad mal 18 Monate weiter kann ich mir zumindest vorstellen, dass Intel auch an die 5 ghz mit 10 nm dran kommt[...]
1. Nein, man spürt keinen subjektiven Unterschied zu einem 8700K im Vergleich zum 3900X. Auch für 144Hz ist Ryzen absolut geeignet. Die meisten neueren Spiele, gerade aus Triple-A Bereich, kommen aber selbst mit stärkster GPU nicht in die FPS-Bereiche in höheren Auflösungen.

2. Eher nicht. Als klar war, dass Intel erneut seinen 10nm Prozess für Cannon Lake verschieben musste, fingen sie an ihren bereits ausgereiften 14nm Prozess weiter zu optimieren, der dadurch auch schneller bei höheren Spannungen wurde. Das ist halt auch der Grund warum wir 5Ghz Chips gesehen haben. Intels 10nm Prozess hingegen spielt seine Stärke bei der Energie-Effizienz aus, heißt, der Prozess sollte bei niedrigerer Spannung bessere Ergebnisse liefern als der 14nm Prozess. Das ist auch der Grund, warum Intel sich bislang stark auf Mobile mit Ice Lake konzentriert und obendrein ist es durch die kleinere Chipgrößere auch einfacher akzeptable Yieldraten zu erzielen.
Es ist nicht einmal klar, ob Intel wirklich Chips auf Basis von 10nm für den Desktop bringen wird, denn beim Desktop sind höhere Spannungen gepaart mit höherer Frequenz derzeit die bessere Wahl als Chips auf Basis von 10nm, die ebenso 15-20% Frequenz verlieren. Es ist also auch gut möglich, dass Intel bis 10nm++ wartet und erst dann Desktop-Produkte auf Basis eines optimierten 10nm Prozesses auf den Markt bringt, um eben ihren optimierten 14nm Prozess schlagen zu können. Comet Lake ist auch nur ein lauwarmer 14nm Aufguss und spricht zumindest für die oben getätigte Annahme, dass Intel beim Desktop erst auf 10nm umsteigt, wenn der Prozess die optimierten 14nm schlagen kann. 18 Monate sind hier aber eher mehr Wunschdenken als Realität, denn auf Intels aktueller Roadmap ist von 10nm im Desktop bis Ende 2021 nichts zu sehen. Es wird wohl eher auf mehr als 24 Monate hinauslaufen, eher in Richtung 30+.

Bis dahin haben wir auf Seite von AMD aber wahrscheinlich schon Zen 4/5 samt 5nm. Intel betrachtet Ryzen nicht umsonst als eine der stärksten Gefahren der letzten Dekade. Mal gucken was Cannon Lake mit 14nm++ und 10 Kernen leisten wird. Klar sollte aber schon jetzt sein, dass die CPU in Bezug auf MT-Performance den 3950X nicht schlagen wird und ob wir bei dem 10-Kerner dann auch 5Ghz Allcore mit OC sehen werden, wird sich zeigen. Der dürfte dann aber neue Verbrauchsrekorde aufstellen und eine Custom-Wakü zur Pflicht werden lassen.
 
  • Gefällt mir
Reaktionen: Suteki, Floppes und aldaric
SKu schrieb:
Es ist also auch gut möglich, dass Intel bis 10nm++ wartet und erst dann Desktop-Produkte auf Basis eines optimierten 10nm Prozesses auf den Markt bringt, um eben ihren optimierten 14nm Prozess schlagen zu können.

Ich würde das nicht für möglich, sondern für gesichert halten.
819623


Der "Plan" an dieser Stelle dürfte ziemlich klar sein. Optimierte 10++ EUV Technik für die Desktops und 7nm für die GPUs und Mobile. Für Server wird man vermutlich auch zeitnah 7nm anvisieren, kommt letztlich drauf an wie EUV, Foveros und EMIB sich überhaupt entwickeln.
 
Zuletzt bearbeitet:
Vor 2022 brauch man nix Großartiges erwarten, AMD wird durch ihr Chiplet Design euch mit Cores zuballern, was definitiv ja nicht schlecht ist und bei Intel lässt die IPC Steigerung durch Sunny Cove auf sich warten, dafür ist diese dann aber auch beachtlich.
Bis dahin sind dann insgesamt 3 Jahre ins Land gegangen seit dem 9900k, ich würde schätzen das dann ein 9900k@OC die Gaming Leistung wie ein Sunny Cove@Stock hat, bei Anwendungen aber stark zurückliegt.

AMD wird in der Zeit aber auch nicht schlafen.Die reine IPC des 3000'er würde ich leicht höher als die des Coffee Lake schätzen, in CB15 waren es 7% zugunsten des 3900X beide mit 4Ghz und max. RamOC.
Leider kann er das bei Games nicht ganz 1:1 umsetzen.
 
Chapsaai schrieb:
wohl wahr und mit meinem 5ghz 77k bin ich auch noch ganz gut dabei.
man muss aber aufpassen, nur wenige seiten messen frametimes, da sieht es dann manchmal ganz schlecht für meine 77k aus, z.b. in Battlefield (was ich ausschließlich spiele)
ansonsten unterstützen immer noch zu wenige spiele mehr als 4 kerne, daher lohnt es tatsächlich immer noch nicht aufzurüsten.

Weswegen lohnt sich denn das Aufrüsten für Dich nicht, wenn Du ausschließlich Battlefield spielst und Dir andere Games sozusagen am A.... vorbei gehen? Genau, für Dich würde es sich lohnen.
 
naja wegen einem Spiel, dass ich zeitlich kaum zum spielen komme eben 2 much. Darüber hinaus sieht bei den meisten Benchmarks ja alles super aus, also sind ja nur die frame times und subjektiv merke ich sie nicht. Im Vergleich vielleicht, aber der fahlt mir ja. Also warte ich mit dem aufrüsten bis AMD endgültig an die 5ghz bzw an die single core Leistung von Intel kommt.
 
PhoenixMDA schrieb:
AMD wird durch ihr Chiplet Design euch mit Cores zuballern,

Schon jetzt sind die 3900X und 3950X eher CPUs für Leute, die neben dem Spielen noch zusätzliche Aufgaben erledigen wollen oder damit gar nicht vor haben zu spielen. In zwei Jahren werden dann 32 Kerne nicht plötzlich populär, weil AMD es so möchte, die aktuellen plötzliche "Aufstockung" kannst du praktisch bereits als eine einmalige Aktion sehen.

Spiele hängen meist in GPU Limit, das wird durch 4K Monitore oder gar 8K Geräte über die kommenden Jahre noch verstärkt werden. Bei den Konsolen landen wir 2021 bei halbwegs schnellen 8 Kernen und werden dann voraussichtlich bis 2025 dabei bleiben. Ob es später überhaupt noch einmal schnellere Konsolen geben wird oder bereits alles in die Cloud wandert, steht noch in den Sternen.

Das "Rennen" was nun mit einem schnellen Start begonnen hat, ist schneller vorbei als es manchen hier lieb sein kann, unter anderem auch, weil das Thema "Desktop Computing" neben dem mobilen Geräten, mit der Cloud einen immer präsenterem Gegner bekommt.
 
Viele Kerne sind auch nicht verkehrt, ich selber brauche aber auch ne hohe Einkern Leistung InGame unter anderem auch mein Starcraft, da mag ich nicht drauf verzichten.

In meinen Anwendungsfall nutze ich quasi derzeit meist nicht mehr als 2-6 Kerne mit HT von den 8 Kerne HT.
In dem Fall sind natürlich schnellere Kerne besser.8 Kerne mit HT stemmen derzeit ca. 2 aktuelle Games gleichzeitig, also ansich ist da noch sehr viel Luft.
Leute die richtig mit dem Rechner arbeiten müssen, werden allerdings jeden weiteren Kern zu schätzen wissen.

Das mit der Cloud ist ne ernstzunehmende Ansage, wie Google Stadia.
 
PhoenixMDA schrieb:
Vor 2022 brauch man nix Großartiges erwarten, AMD wird durch ihr Chiplet Design euch mit Cores zuballern, was definitiv ja nicht schlecht ist und bei Intel lässt die IPC Steigerung durch Sunny Cove auf sich warten, dafür ist diese dann aber auch beachtlich.
Ich denke das mit den Kernen hat sich dann voerst erledigt. Ich vermute eher, dass als nächstes Memory neben den Cores landet. Quasi ein L4-Cache.
 
gunmarine schrieb:
Ja ist ja beim Intel auch nicht anders, wenn man da ein 3600er XMP Profil läd läuft der auch super. Nur sollte man dann halt auch erwähnen, dass der Intel mit dem XMP dann immer noch 20-30% out of the Box vor dem Ryzen liegen kann.
Und genau da liegt auch das Problem: Kann. Muss aber nicht. Genau so wie der Ryzen zwar im Mittel 10% hinter dem 9900K liegt, aber eben auch da kommt es drauf an, was man betrachtet.

Und mit passenden Profilen überholt der Ryzen auch mal einen 9900k in entsprechenden Bereichen. Klar am Ende ist der 9900K in spielen schneller, nur hat Intel aktuell zwei Probleme: Sich selbst in Form der eigenen Vorgänger und den kleineren Prozessoren 9600 und 9700. Das zweite Problem ist nun AMD in Form der 3600 und 3700X.

All die Prozessoren sind bis zu 10% langsamer, aber gewinnen massiv an attraktivität durch ihren Preis und was man da spart kann man am ende in eine bessere Grafikkarte stecken, denn die 150,- können durchaus auch entscheiden ob man eine Grafikkartenklasse höher kaufen kann oder nicht, was durchaus mehr bringen kann im Schnitt.

gunmarine schrieb:
Im Endeffekt wurde ja in den letzten Beiträgen alles gesagt, der Ryzen ist und bleibt eine günstige und gute CPU, aber mehr als die seit 2 Jahren vorhandene Leistung eines 8700K bringt er beim Zocken halt auch nicht und nahezu jeder im 144 HZ Bereich hat da spürbar mehr vom Intel.
Ach hat er das? Mich limitiert im 144Hz-Bereich bei meiner Auflösung nicht der Prozessor, sondern aktuell die Grafikkarte und eine andere Grafikkarte würde hier für 100€ weniger als für den 9900K - schlappe 15 - 20% mehr Leistung bekommen und für die Kosten eines 9900K + Mainboard sogar bis zu 40%.

Würde ich den 9900K sammt neuen Mainboad kaufen, stehen im Mittel bei meiner Auflösung gerade mal 5% auf dem Schrim. ...

Wofür würde ich nun also 500 - 700€ eher aus geben? Ach doch ganz einfach, wenn ich eine GeForce 2070 Super kaufe zusammen mit einem 3600 oder 3700X komme ich im ganzen sogar noch besser weg oder eher Navi XT + 3700X sicher, Da komme ich locker flockig im Mittel auf 20 - 25% mehr Leistung für das, was mich die Intel CPU + vernüftigs Mainboard kostet.

Und genau das ist der Punkt hier: Wirklich RATIONAL betrachtet ist jede CPU im Bereich von 150 - 350€ egal von welchem Hersteller die bessere CPU als der 9900K. Will ich nur Spielen, würde ich eher zu einem 9700 oder 9700K greifen, als zu einem 9900K. Ist mir der längste Balken nicht ganz so wichtig, dann kann ich auch zu einem 3700X greifen, der zwar dann zwar statt 2% langsamer im Schnitt 10% langsamer ist, aber hey, was solls

gunmarine schrieb:
Und wer das endlich akzeptiert hat mein Amen.
Im Endeffekt geht es dir und ein paar anderen hier doch nur darum, dass jeder eurer Meinung ist, sind sie es nicht, probt ihr den Aufstand.

Man sieht es ja in den Themen der letzten Monate und der letzten 2 Jahre relativ gut. In der Regel sind es nicht die AMD-Fanboys die hier andere Meinungen nicht akzeptierne können, sondern die Leute kommen eher aus dem Intel-Lager. Klar, das was nun aus dem "roten" Lager kommt, gerade auch was die "Sicherheitslücken" angeht, ist nervig, aber ohne es zu übertreiben: Sie machen eingentlich nichts anderes als als die im blauen Lager: Sie reiten darauf herum.

Klar, die Leistung in Spielen kann für manche durchaus interessant sein, gerade wenn man den Rechner nur fürs Spielen nutzten, nur - und das ist der Punkt den viele aus dem blauen Lager absolut nicht anerkennen wollen - ist da AMD eben nicht mehr auf weiter Front verloren, sondern eine attraktive Allternative. Statt sich hier aber mal über die Auswahl zu freuen und zu sagen, dass man mit keinem der Hersteller aktuell etwas falsch macht, wird hier auf den letzten paar % rum geritten und so getan, als wären diese 10% der Faktor der darüber entscheidet, ob man nun Spielen kann oder nicht.

Was machen denn dann die Intel-Besitzer, die alle kein 9900K haben? Können die alle auch nicht mehr spielen?

Ganz ehrlich: Es ist an Lächerlichkeit kaum zu überbieten, was hier bestimmte Leute abziehen.

@ZeroZerp
ich antworte erst jetzt auf die Thematik, sag aber schon mal vorweg: So sehr wie du diese Lücken versuchst herunter zu spielen, so sehr versuchen andere diese Lücken aufzublähen und ehrlich gesagt: Beides ist grundlegend falsch.

Ich habe nicht umsonst hier den Vergleich zum Waldsterben in den 80er gezogen. Vielleicht bist du dafür zu Jung oder dich interessiert die Thematik nicht, dann ist es okay, aber genau das ist es, was du und andere hier betreiben, was diese Lücken angehen.

Und nein, nur weil es noch keine Exploits bekannt sind - und die Betonung liegt hier auf dem Wort Bekannt - bedeutet es nicht, dass diese Sicherheitslücken keine Relevanz hätten oder unbedeutend, so wie du es nun hier versuchts darzustellen. Wäre es nämlich so unrelevant, dann hätte man nicht Speicherverwaltung in Linux umgekrempelt, Microsoft und andere Entwickler nicht gezogen und AMD als auch Intel, ARM und Co würden nicht daran arbeiten diese Lücken zu schließen.

Machen sie aber alle, weil sie den Lücken eben schon eine gewisse Relevanz beimessen. Wäre alles so harmlos wie du es hier darstellen willst oder manch andere, dann frag ich mich, warum Intel und Co so dahinter her sind.

Klar, manche übertreiben es auch, was diese Lücken angeht, nur liegt es daran, dass die Leute keine wirkliche Ahnung von diesen Lücken haben. Ähnliches kann man aber dir ebenso unterstellen, weil du die Lücken pauschal herunter spielst und teilweise auch da weiterhin Bullshit verzapfst und nein in dem Fall kannst du es nicht an mich zurück geben. Wie geschrieben nur weil noch keine Exploits bekannt sind, heißt es nicht automatisch, dass es keine gibt. Hier greift das Prinzip des "Glaubens". Denn beweise du mal, dass es diese Exploits nicht gibt und alles nur in den Laboren existiert. Viel Spaß bei dieser Aufgabe.

Das Gefährliche an Meltdown als auch den Spectre-Varianten ist nicht, dass man sie dazu nutzen kann Code auszuführen oder das System zu kompromentieren, sondern einzig und alleine dadrin, dass man Daten abgreifen kann, ohne dass man es merken kann. Und da braucht man nicht mal Adminzugriff auf das Betriebssystem oder muss dort etwas installiert haben ... Es reicht schon wenn man auf dem gleichen Server läuft.

Und damit kommen wir zu einem weiteren Punkt und das habe ich bereits mehrfach zu diesem Thema auch geschrieben: Die Gefahr für einen einzelnen Rechner ist relativ überschaubar. Der Aufwand, der betrieben werden muss, ist relativ hoch und es ist fraglich ob man an die gewollten Daten überhaupt ran kommt. Wer für sich selbst entscheidet, dass er die ganzen Sicherheitspatches nicht braucht, kann das auch gerne so treffen. Wirklich gezielte Angriffe mit Meltdown und Spectre sind ja nicht möglich und wir wirklich gefährdeten Programme sind alle bereits soweit gepatcht, dass man selbst relativ sicher ist. Auch hier verweise ich mal wieder auf die Browser und auch die haben das nicht aus Spaß umgesetzt.

Die Gefahr die von Spectre und Meltdown ausgehen sind sehr abstrakt, sie sind aber eben nicht unrelevant oder ohne Bedeutung.

Man muss es aber auch nicht übertreiben mit diesen Lücken und darauf rum reiten.
 
  • Gefällt mir
Reaktionen: X8Koenig, Suteki und aldaric
Teralios schrieb:
ich antworte erst jetzt auf die Thematik, sag aber schon mal vorweg: So sehr wie du diese Lücken versuchst herunter zu spielen, so sehr versuchen andere diese Lücken aufzublähen und ehrlich gesagt: Beides ist grundlegend falsch.
Dann muss aber auch in Deine Richtung die Frage gestellt werden, wie Du darauf kommst, dass diese Lücken in der Praxis sinnvoll ausgenutzt werden können/sollen.

Ich habe nicht umsonst hier den Vergleich zum Waldsterben in den 80er gezogen. Vielleicht bist du dafür zu Jung oder dich interessiert die Thematik nicht, dann ist es okay, aber genau das ist es, was du und andere hier betreiben, was diese Lücken angehen.
Nö- Das Thema Waldsterben und den damit verbundenen prognostizierten Weltuntergang habe ich voll miterlebt. Genauso wie alle anderen prognostizierten Horrorszenarien und Weltuntergänge.

Und nein, nur weil es noch keine Exploits bekannt sind - und die Betonung liegt hier auf dem Wort Bekannt - bedeutet es nicht, dass diese Sicherheitslücken keine Relevanz hätten oder unbedeutend, so wie du es nun hier versuchts darzustellen.
Die Art und Weise, wie diese Schwachstellen gestrickt sind, lassen nur ein begrenztes Szenario an Angriffen zu.
Viele verwechseln diese mit komplexer Software oder setzen diese mit sagen wir mal vergleichsweise einem Kopierschutz gleich, der mit unterschiedlichster Vorgehensweise ausgehebelt werden kann- und sei es durch die billigste Art, nämlich Emulation.

So funktioniert das aber hier nicht, denn die Schwachstellen lassen nur einen engen und fest vordefinierten Angriffskorridor zu.

Wäre es nämlich so unrelevant, dann hätte man nicht Speicherverwaltung in Linux umgekrempelt, Microsoft und andere Entwickler nicht gezogen und AMD als auch Intel, ARM und Co würden nicht daran arbeiten diese Lücken zu schließen.
Würden sie nicht handeln, würde ihnen Fahrlässigkeit unterstellt.Das ist erstmal unabhängig einer tatsächlichen Relevanz der Lücken. Schon allein die Presse zwingt die Hersteller dazu auf diese Schwachstellen einzugehen.

Machen sie aber alle, weil sie den Lücken eben schon eine gewisse Relevanz beimessen. Wäre alles so harmlos wie du es hier darstellen willst oder manch andere, dann frag ich mich, warum Intel und Co so dahinter her sind.
Siehe oben- Die Lücken sind in der Praxis völlig uninteressant. Intel &Co. wollen erstens schlechte Presse vermeiden, indem ihnen Untätigkeit unterstellt wird und zweitens waren Ansätze wie Retpoline etc. sowieso schon in der Pipeline.

Klar, manche übertreiben es auch, was diese Lücken angeht, nur liegt es daran, dass die Leute keine wirkliche Ahnung von diesen Lücken haben.

Ähnliches kann man aber dir ebenso unterstellen, weil du die Lücken pauschal herunter spielst und teilweise auch da weiterhin Bullshit verzapfst und nein in dem Fall kannst du es nicht an mich zurück geben.
Ich bin beruflich unter anderem in diesem Feld tätig. Ich kenne die Exploits, kann sie anwenden und wir haben sie mit anderen Sicherheitsteams zig mal sowohl in Praxisszenarien als auch unter Laborbedingungen getestet.

Wenn Du mir annähernd logisch darstellen kannst, wie Du darauf kommst, dass diese Schwachstellen auf einmal durch andere Einfallstore ausgenutzt werden können, dann leite ich das an Intel, AMD, MS weiter und wir teilen uns die Kohle.

Wie geschrieben nur weil noch keine Exploits bekannt sind, heißt es nicht automatisch, dass es keine gibt.
Doch- Die Angriffsvektoren sind bekannt/Auch die Exploits dazu und dadurch eben auch die praktische Risikoeinschätzung dieser Schwachstellen.

Beispiele:
https://github.com/crozone/SpectrePoC
https://github.com/IAIK/meltdown

Diese brauchen aber alle noch ein Vehikel. Ohne bereits kompromittiertes System läuft nichts.

Hier greift das Prinzip des "Glaubens". Denn beweise du mal, dass es diese Exploits nicht gibt und alles nur in den Laboren existiert. Viel Spaß bei dieser Aufgabe.
Natürlich gibt es diese Exploits (siehe oben).

Das Gefährliche an Meltdown als auch den Spectre-Varianten ist nicht, dass man sie dazu nutzen kann Code auszuführen oder das System zu kompromentieren, sondern einzig und alleine dadrin, dass man Daten abgreifen kann, ohne dass man es merken kann.
Und wie würdest Du so einen Angriff starten/ausführen/durchführen wollen?

Und da braucht man nicht mal Adminzugriff auf das Betriebssystem oder muss dort etwas installiert haben ... Es reicht schon wenn man auf dem gleichen Server läuft.
Und wie willst Du den Angriff auf dem gleichen Server starten/ausführen/durchführen wollen?

Und damit kommen wir zu einem weiteren Punkt und das habe ich bereits mehrfach zu diesem Thema auch geschrieben: Die Gefahr für einen einzelnen Rechner ist relativ überschaubar.
Ja

Der Aufwand, der betrieben werden muss, ist relativ hoch und es ist fraglich ob man an die gewollten Daten überhaupt ran kommt. Wer für sich selbst entscheidet, dass er die ganzen Sicherheitspatches nicht braucht, kann das auch gerne so treffen. ...e bereits soweit gepatcht, dass man selbst relativ sicher ist. Auch hier verweise ich mal wieder auf die Browser und auch die haben das nicht aus Spaß umgesetzt.
Genau

Die Gefahr die von Spectre und Meltdown ausgehen sind sehr abstrakt, sie sind aber eben nicht unrelevant oder ohne Bedeutung.
Wenn Du die Gefahr von Spectre und Meltdown so hoch einschätzt, dann musst Du vorher schon alle Systeme vom Netz getrennt haben (vom Internet garnicht zu sprechen), da diesbezüglich das Risiko um Faktoren höher anzusiedeln ist, dass Blödsinn passiert.

Man muss es aber auch nicht übertreiben mit diesen Lücken und darauf rum reiten.
Das wird in jedem Intel und in jedem AMD Thread getan...

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PhoenixMDA, Esenel und xexex
Zurück
Oben