News Weitere Details zur „Broadwell“-CPU-Verschiebung

hamad138 schrieb:
Desktop pc is ja schon tot, notebook cpus vielleicht nicht, deshalb gibt es keine steigerung

Eine Aussage wie aus der Blöd-Zeitung. Ich stimme da Herdware zu, in vielen Büros stehen nach wie vor 08/15 PC's. Nur sind die mittlerweile halt so stark (oder werden gleich kräftig genung) ausgerüstet das sie länger herhalten wie früher.
Ich zocke auch nicht mehr soviel wie früher, da tut's mein Athlon II X2 noch länger. Und im Schleppi werkelt auch "nur" ein Core2Duo aber der werkelt mit einer dedizierten Grafikkarte und packt die meisten Spiele.
Und zum Arbeiten (bissl Word, Interne & dergleichen) muss man ja nicht aufrüsten.
 
muhmaster schrieb:
doof... denn muss mein 2500k Sandy noch bis 2015 durchhalten.

Wieso, ist der nicht schnell genug ? Oder glaubst du dieses Jahr kommt noch die Knalleranwendung, die denen Sandy überfordert ?
 
Tobi4s schrieb:
Videoschnitt und ähnliches wird doch auch immer mehr auf die GPU ausgelagert. CAD doch sicher auch (da kenne ich mich nicht aus). Und selbst hier würde man von einem neuen Befehlssatz doch sicher mehr profitieren als von 3-5 Generationen.
Natürlich haben CPUs noch ihre Daseinsberechtigung, nur sind sie eben nicht mehr so gefragt wie früher bei der breiten Masse.

Stimmt.
Nur mal als Beispiel: In meiner CAD-Workstation bei der Arbeit steckt ein Xeon E5630 (Baujahr 2010, entspricht ungefähr einem i7-920 mit nur 2,5GHz) und eine Quadro FX1800 (G94-GPU, also sowas wie eine alte GeForce 9600GT). Der Rechner hat überhaupt keine Probleme mit professionellem CAD (NX8.5). Der einzige Grund, warum der wohl demnächst ausgetauscht wird ist, weil er inzwischen aus dem Leasing raus ist. ;)

Klar gibt es auch professionelle Anwendungen, wo die Hardware nicht schnell genug sein kann und sich regelmäßige Upragdes lohnen, aber die Masse wird das nicht sein. Wie gesagt halten selbst CAD-Workstions ewig, von den typischen Bürorechnern ganz zu schweigen.

Der Hauptgrund für Privatleute/Consumer aufzurüsten, werden immer noch Spiele sein. Aber auch die sind heute (im Vergleich) viel anspruchsloser und geben sich mit älterer Hardware zufrieden.
 
joa und wenn sie denn anspruchsvoll sind dann nur bei der Grafikkarte, wenn es da mehr optimierungen gäbe müsste man da aber auch deutlich weniger aufrüsten.
Um neuen wachstum auszulösen müsste es etwas neues bahnbrechendes geben wofür die mehrheit der normalen Nutzer ihre PCs aufrüsten würde.
 
5@n!töt3r schrieb:
Ist es wirklich eine technische Verzögerung, oder schaltet man aufgrund mangelnder Konkurrenz einen Gang zurück und spart ein wenig?

Der 14nm Node wird von der Strukturgröße her kaum Einsparungen (~15%) bringen sondern hauptsächlich in Sachen Effizienz. Somit ist es schlicht logisch, dass die U-Serie als erstes kommt. Und sicherlich will man noch ein paar 22nm Desktop-CPUs verkaufen, den Rückgang im PC Markt muß man ja auch irgendwie ausgleichen.
 
Herdware schrieb:
... Meine Mutter hat einen PC mit i3 der ersten Generation und für das was sie damit macht reicht der wahrscheinlich auch noch viele Jahre. ...
Meine Mutter hat einen Athlon XP 3000+ und der einzige Nachteil dieses Prozessors ist die fehlende SSE2-Unterstützung, durch die momentan (HTML5 lässt hoffen) keine Siebentage-Web-Fernsehwiederholung möglich ist, weil Adobe den Flashplayer nur noch mit Voraussetzung für SSE2 kompiliert. Aktuelle Steuerprogramme laufen auf dem uraltrechner sogar in Wine auf Gnome3/Fedora.

Solange die Spiele keinen sinnvollen Einsatz von mehr Prozessorleistung vorgeben, bleibt alles wie gehabt. Das heißt aber nicht, dass mehr Prozessorleistung nicht gebraucht werden könnte, sie liegt nur nicht im Fokus der aktuellen Spieleindustrie, die z.B. bei Schleichspielen (Deus Ex, Thief ...) immernoch darauf setzt, dass die KIs fest verdrahtete Routen haben, die sie niemals ändern, lediglich bei Verdacht kurz verlassen, aber nach Abschaffung des Verdachts wieder verfolgen. Solange Spieleentwickler nicht auf den trichter kommen, wie man KI komplexer machen kann, ohne den Schwierigkeitsgrad des Spiels zu erhöhen, haben wir KI, die ein 486er berechnen könnte. Und solange brauchen wir halt auch keine neuen Prozessoren.
 
Tobi4s schrieb:
Videoschnitt und ähnliches wird doch auch immer mehr auf die GPU ausgelagert. CAD doch sicher auch (da kenne ich mich nicht aus).

Dieses Auslagern von Funktionen nimmt zwar zu, aber es ist eben nur begrenzt sinnvoll. Grafikkarten sind dann stark wenn sie viele parallele Berechnungen gleichzeitig durchführen können und es sich hauptsächlich um Fließkommaoperationen handelt. Daher wird z.B. in Photoshop auch nicht jeder Effekt auf der Grafikkarte berechnet, sondern nur die wo ein Sinn macht.
CPUs haben ihre Stärken bei Integerrechnungen die nicht besonders stark parallelisiert werden können.
In Bereichen wie CAD, Filmschnitt und Bildbearbeitung können Grafikkarten die Arbeit beschleunigen, aber es gibt eben auch Bereiche wo sie es nicht können. CPUs werden immer wichtig bleiben, es sei denn man kommt auf die Idee den Grafikkarten ein paar Mörder-Integereinheiten zu verpassen :D
 
Ich als Technik-Interessent bin natürlich über Effizienz-Steigerungen immer froh, auch wenn ich mal etwas größere Sprünge bei der ICP sehen möchte.
Die Frage hier ist natürlich, wie von vielen schon angeführt: Kann Intel nicht oder will Intel nicht? Lässt sich die ICP nicht mehr großartig steigern? Lässt sich dafür "nur" (selbst das finde ich sehr gut, auch wenn ich Leistung lieber habe *g*) die Effizienz verbessern?

Das Problem des gesamten Marktes ist wohl, dass viele Firmen sich nicht trauen Software zu veröffentlichen, die bei den Hardware-Sepcs mal richtig zupackt und das ganze dann SINNVOLL (also z.B. keine schlechten Ports) nutzt. Dann wäre der gesamte CPU-Markt (wie auch der Hardwaremarkt an sich) wieder um einiges interessanter, ließe sich doch nennenswert Leistungs einkaufen, die man auch braucht. So rennen aktuell ein paar Gamer und auf der anderen Seite die Profis, die wirklich Kerne und Leistung en mass brauchen durch die Gegend, während der allergrößte Teil selbst mit einem Core2Duo gut ausgestattet ist.

Ungeachtet des wahren Grundes der Verschiebung ist wohl bei einer gleichbleibenden Verzögerung der Einführung neuer Modelle mit Skylake (dieser sollte doch der erste 6 Kerner im Mainstream werden) wohl nicht mehr vor Ende 2015/Anfang 2016 oder gar noch später zu rechnen. Nimmt man die Spekulationen um Haswell-E mit ins Boot, kann es sogar sein, dass man bis dorthin einen vollwertigen 8 Kernen für "erschwingliche" 500€ und einen 6 Kerner für 300€ wohl nicht vor diesem Zeitpunkt sehen wird :(
Intel wird sicherlich beim Sockel 2011 3-stufig fahren 4 Kerne (5820K), 6 Kerne (5930K) und die fürstlich bezahlten 8 Kerne (5960K)… wie gern hätte ich einen bezahlbaren 8 Kerner für 500€, um 100% (+/-) an Mehrleistung zu haben - daraus wird wohl so schnell nix werden :(

Das müsste doch heißen: Crysis 3 und andere HighTech-Spiele als Star Citizen dürften in 1440p oder gar UHD bei Crossfire/SLI ins CPU-Limit rennen (vorausgesetzt, man investiert so viel Geld für etwas Technik :D ).
 
Zuletzt bearbeitet:
Hallo @ all,

mMn ist das Problem der zurückgehende Desktop-Nachfrage nicht nur mit dem Massen-Mobil-Wahn zu erklären. Schuld ist mit Sicherheit auch die Monopolstellung von Intel und MS (bitte kommt mir jetzt nicht mit AMD und Linux). Früher hätte ein Hardware-Hersteller sich niemals faktischen Stillstand erlauben können, ohne innerhalb kürzester Zeit Pleite zu gehen. Und hätte MS irgendwelche Konkurrenz zu fürchten, gäbe es mit Sicherheit kein Win8 in der jetzigen, den Desktop-User ignorierenden Form.

Früher haben sich BS und Hardware gegenseitig aufgeschaukelt. Heute haben wir ein auf der Stelle treten bei der Hardware, und ein massiven Rückschritt beim BS zu sehen. Abgesehen davon ist ein immer größer werdende Teil der Anwender absolute Laien. Sie brauchen eigentlich kein Computer sondern nur ein Gerät, mit dem sie Webseiten aufrufen können. Sie sagen dann "Programm" zu einer bestimmten Webseite. Es gibt sogar viele, die eigentlich überhaupt keine klassische Desktop-Anwendung mehr, benutzten den Rechner also quasi nur als Kommunikationsgerät und überhaupt nicht mehr als "programmierbaren Taschenrechner". Die Anzahl derer die überhaupt noch in der Lage sind, selbst die allereinfachste Anwendung selbst zu programmieren, sprich den Desktop dafür zu nutzen wofür er ursprünglich gedacht war, ist eine gegen Null strebende Funktion.

Für solche Anwender ist teilweise schon ein Sandy-i3 ausreichend.

Der immer seltenere Fall des Anwenders, der einen PC ausreizt ist dann logischerweise für die Hardware-Hersteller mittlerweile eine Randerscheinung die überhaupt nicht mehr bedient wird. Die Frage bei der Forschung ist auch längst nicht mehr "wie können wir Technik besser machen" sondern "wie können wir den Gewinn maximieren". Die Folge ist eine relativ betrachtet immer schlechter werdende Technik, die immer problembehafteter wird.

Nun der beste und mit Abstand schnellste Computer den ich je hatte war mein Atari 800 XL (8 MHz CPU, 64K RAM). Eingeschaltet und nach 4 Sekunden war das BS und eine vollständige Programmierumgebung "gebootet". Selbst wenn man heutzutage 10.000€ für einen PC ausgibt, das wird kein Win-Rechner jemals schaffen.

Ein neues Desktop System bringt für den Laien dagegen absolut keine fühlbaren Mehrwert. Mit einer Ausnahme HDD gegen SSD tauschen. Wer aber bereits eine SSD hat, der wird von Hardware-Herstellern wieder ausgebremst. Denn dringende benötigte Innovationen (z.B. eine bootfähige SSD mit nativem PCIe) werden bewußt nicht auf den Markt gebracht um nicht den eigenen Enterprise-Markt zu kanibalisieren. Stattdessen werden Desktop-User völlig sinnfreie Totgeburten aufgetischt wie SATA-Express die lange vor ihrem Erscheinen, völlig überflüssig, überholt und komplett am Kundeninteresse vorbei entwickelt wurde.
 
BlackWidowmaker schrieb:
mMn ist das Problem der zurückgehende Desktop-Nachfrage nicht nur mit dem Massen-Mobil-Wahn zu erklären. Schuld ist mit Sicherheit auch die Monopolstellung von Intel und MS ...
Früher haben sich BS und Hardware gegenseitig aufgeschaukelt. Heute haben wir ein auf der Stelle treten bei der Hardware, und ein massiven Rückschritt beim BS zu sehen. ...

Ich sehe das Problem eher darin, dass wir wohl tatsächlich inzwischen einen Stand erreicht haben, wo die Hardware (und Software, inklusive OS) wirklich einfach ausreicht, für alles, was wir damit tun wollen.

Um was für geniale und hardwarefressende Features könnte Microsoft Windows denn noch ergänzen, die uns dazu motivieren würden dafür aufzurüsten oder spontan neue PCs anzuschaffen?
Ganz ehrlich, mir fällt nicht wirklich etwas ein. Vielleicht "4K", was sowohl erhöhte Anforderungen an die Hardware stellt (zumindest, wenn man nur eine iGPU hat) als auch gewisse Anfoderungen an das OS stellt (flexiblere DPI-Einstellungen usw.). Da sind nicht nur Intel und Microsoft ja auch dran.
Aber so richtig prickelnd ist der Mehrwert nicht. Die meisten können wohl auch gut weiterhin mit niedrigeren Auflösungen leben.

Tatsächlich hat Microsoft sich bei den letzten Windows-Versionen nach Vista statt immer neuer Features eher darauf konzentriert, die Hardwareanfoderungen von Windows zu senken. Obwohl davon wohl nur eine kleine Minderheit (Low-EndNetbook-Benutzer usw.) wirklich was hat, scheinen doch viele darauf Wert zu legen. Vista wurde damals heftig dafür kritisiert, dass es 2007 nicht vernüftig auf Hardware auf dem Niveau von 2000 lief.

Wie gesagt, ich sehe nicht wirklich, was für ein erneutes Anfachen der Hardware-Software-Spirale sorgen könnte, so wie z.B. damals der Schritt von textabsiertem DOS auf grafischens Windows oder das Aufkommen von Multimedia, Super-VGA-Grafik und später 3D bei Spielen usw.
Die letzte größere Hürde war wohl die Wiedergabe von HD-Videos (z.B. Internetsreams) und seit die selbst von Low-End-Hardware gemeistert wird, ist nichts neues mehr nachgekommen.

Ich glaube, wenn da jemandem so ein neues, ressourcenfressendes Killerfeature, das jeder haben will und dafür einen neuen PC mit neuem Windows kaufen, einfällt, werden dem nicht nur Microsoft und Intel vor Dank die Füße küssen. :)

Abgesehen davon ist ein immer größer werdende Teil der Anwender absolute Laien. ... Die Anzahl derer die überhaupt noch in der Lage sind, selbst die allereinfachste Anwendung selbst zu programmieren, sprich den Desktop dafür zu nutzen wofür er ursprünglich gedacht war, ist eine gegen Null strebende Funktion.

Das wären wohl nur die ganz frühen Homecomputer-Zeiten (70er und frühe 80er) gewesen. Damals, als es praktisch gar keine Software zu kaufen gab (und auch der freie Austausch zwischen den Computer-Hobbyisten mangels digitaler Vernetzung nur begrenzt z.B. in Clubtreffen, "Diskettenpartys" oder Abtippen aus Computermagazinen stattfand) und man gezwungenermaßen viel selbst programmieren musste. Aus dem Grund kamen die alten Homecomputer ja mit BASIC oder einer anderen, mehr oder weniger anfängerfreundlichen Programmiersprache.

Aber diese Zeiten sind vorbei (und um ehrlich zu sein traure ich ihnen nur sehr begrenzt nach).

Heutige PCs und Anwendungen/Spiele sind viel zu komplex, als dass ich als Normalsterblicher etwas halbwegs annehmbares selbst programmieren könnte. Schon an einfachen Tools wie z.B. eine Packprogramm würde ich kläglich scheitern, auch nur an das Niveau simpler Freeware-Programme heranzukommen. Und ich würde mich noch als einen PC-Benutzer leicht überdurchschnittlicher Ahnung bezeichnen. (Die meisten heutigen PCler könnten wohl nicht mal ein "Hello World"-Programm in BASIC hinbekommen. ;) )

Man sollte auch wirklich kein Informatik-Studium brauchen, um einen PC zu benutzen. Und selbst mit ausreichend Know How würde man einfach am Umfang z.B. eines Office-Pakets mit zeitgemäßem Funktionsumfang scheitern. Da stecken unzählige Lebzeiten Programmieraufwand drin, der allein gar nicht zu bewältigen ist.
Es bleibt einem gar nichst anderes übrig, als zum reinen Anwender zu werden.
 
Zuletzt bearbeitet:
ConVuzius schrieb:
Ich seh das ähnlich wie Tobi: Für was mehr Leistung? Im Office und Alltagsbereich langweilen sich selbst Einsteiger-CPUs und bei Spielen limitiert zu 99% die Grafikkarte. Für alles andere (Rendern, Server, etc. kommt ja neue Hardware, die aber eben auch meiat auf mehr Kerne setzt). Somit ist doch alles ok, selbst wenn jetzt neue CPUs kämen die 50% schneller wären hätte man eigentlich nichts davon.

Ich kenne genug games die ein heftiges CPU Limit aufweisen können und fast jedes game hat ein heftiges CPU limit in der einen oder anderen Szene im Spiel. Beispiele wofür man mehr CPU Leistung brauchen könnte bei games wäre die Total War Serie, Civ Serie, Sim City, Battlefield, Starcraft, GTA 4, Fußball Manager Serie und quasi jedes Manager Spiel, quasi jedes rundenbasierte game, uvm...
Ich glaube anstatt zu schauen was im Durchschnitt die beste Hardware wäre, ist es besser danach zu gehen was man selbst damit konsumiert oder vor hat. Denn keiner von uns spielt einen Benchdurchschnitt als game sondern jeder hat eigene Vorlieben und gerade Liebhaber von Genres wie Echtzeit Strategie, Runden Strategie, Simulationen, Manager Games, Aufbauspiele oder auch Rennspiele können von mehr CPU Leistung sehr stark profitieren. Sind deine Games aber eher Dinge wie FPS ala Dishonered, Action Adventure ala Batman Serie, usw, dann würde ich mich auf die Grafikkarte konzentrieren wobei auch hier wieder, es kommt darauf an was genau gespielt wird!

BlackWidowmaker schrieb:
Hallo @ all,...

Nun der beste und mit Abstand schnellste Computer den ich je hatte war mein Atari 800 XL (8 MHz CPU, 64K RAM). Eingeschaltet und nach 4 Sekunden war das BS und eine vollständige Programmierumgebung "gebootet". Selbst wenn man heutzutage 10.000€ für einen PC ausgibt, das wird kein Win-Rechner jemals schaffen....

Wenn du bei deinem Desktop die HDDs und SSDs rauswirfst (Wie beim alten Atari) und das OS vollständig in den RAM legst dann hast genau die gleichen bootzeiten. (Vorrausgesetzt das OS ist vergleichbar!) Das hat einfach damit zu tun das du sobald du via HDD oder SSD gehst die Bandbreite in den Keller geht.
 
Zuletzt bearbeitet:
Ein Killerfeature, dass den RAM- und Festplattenbedarf minimal erhöhen wird, ist "Nächste"-Generation-Dateisystem mit der längst überfälligen Anti-Bitrot-Keule.

@ terraconz

Die Spieleliste ist trügerisch - GTA4 kann mit einem aktuellen High-End-Prozessor genausowenig anfangen, wie mit einem drei jahre alten, weil das Spiel auf drei bis maximal 4 Kerne optimiert ist - ab vier Kernen skaliert es ausschließlich über Frequenz. Und das geht vielen anderen Spielen ähnlich. Ein FX 4350 ist da mitunter flotter unterwegs, als ein FX 8320.

P.S.
Ich zocke auf einem Athlon II X4 640 und außer GTA4 und Riesenschlachten in Total War fällt mir nichts ein, für das sich eine Übertaktung lohnen würde.
 
Zuletzt bearbeitet:
MountWalker schrieb:
@ terraconz

Die Spieleliste ist trügerisch - GTA4 kann mit einem aktuellen High-End-Prozessor genausowenig anfangen, wie mit einem drei jahre alten, weil das Spiel auf drei bis maximal 4 Kerne optimiert ist - ab vier Kernen skaliert es ausschließlich über Frequenz. Und das geht vielen anderen Spielen ähnlich. Ein FX 4350 ist da mitunter flotter unterwegs, als ein FX 8320.

P.S.
Ich zocke auf einem Athlon II X4 640 und außer GTA4 und Riesenschlachten in Total War fällt mir nichts ein, für das sich eine Übertaktung lohnen würde.

Es ging ja nicht um die Frage der Skalierung oder wie diese Limits zustande kommen sondern darum das im Raum stand für gaming braucht generell keine gute CPU da eh immer ein GPU Limit herrscht und das ist einfach nicht korrekt. In fast jedem game hast du Szene die im CPU limit rennen ob das durch Takt, kein multithreading oder sonstwas hervorgerufen wird stellte ich gar nicht zur Diskussion.

P.S.:
Dann zockst du anscheind die games nicht die das erfordern.
Geben tut es genug habe ich ja schon einige aufgezählt.
 
Hoot schrieb:
Kann Intel nicht oder will Intel nicht?

Ich denke Intel legt den Schwerpunkt mittlerweile einfach auf andere Dinge, genauso wie AMD. Erstens gibts ja wirklich den Trend zu TAblets und anderen Mobilgeräten und das nicht erst seit gestern und zweitens ist bei den Desktopprozessoren ein Stand erreicht mit dem man performancetechnisch erstmal zufrieden sein kann.
Intel produziert eben auch für den Kunden, und der legt wohl eher Wert darauf dass der Akku seines Mobilgeräts länger durchhält obwohl die Leistung gleich bleibt oder besser wird, als darauf ein Video 30 Sekunden schneller codiert zu haben.

Ich selbst brauch jetzt auch nicht immer noch mehr Rechenleistung. Ich fänds cool wenn es ne Desktop-CPU gäbe die genauso schnell ist wie ein i7 heute und dabei passiv kühlbar wäre :D
Mein Haswell-Xeon kommt in manchen Situationen leider noch nicht mit dem reinen Megahalems-Kühler aus.
Es ist immer noch ein laues Lüftchen nötig damit er bei ungefähr 60 Grad bleibt.
 
Ich zocke vor allem im Einzelspielermodus und da braucht man für Starcraft nichts flotteres, weil die Einheitenmssen selten übertrieben riesig werden. Ich spiel gerne Ego-Irgendwas und da ist halt alles, was nicht nur im Online-Modus, der mich nicht interessiert, stattfindet, Unreal-Engine-3 und lief sogar auf meinem frühren Athlon II X2 mehr als ausreichend flüssig. Skyrim könnte mit mehr Prozessorpower, als ich habe, auch seltenst etwas anfangen - und das wo früher gerade Rollenspiele den prozessor gern überfordert hatten (Ultima IX).

Vielleicht ändert sich das mit dem nächsten Einzelspieler-Anno - falls es jemals wieder eins geben wird.
 
Für 10% mehr Leistung als Haswell, wenn's hochkommt, braucht man nicht Ewigkeiten warten...
Intel soll bei ihren Broadwells mal lieber den Heatspreader verlöten, wenn man schon viel zahlt, erwartet man auch, dass die paar € fürs Verlöten, oder doch eher Cent, drin sind. Spart Kühlaufwand, deckelt Leckströme, ermöglicht mehr OC und ist gesünder für die CPU.
 
Echt doof! Hatte Anfang oder Mitte 2015 auf Skylake gehofft. Wenn die sich bis Anfang 2016 verschieben, dann dauert mir das zu lange und ich brauche einen Plan B. Mal sehen, ob es ein Haswell-E wird, wobei mir 6 Kerne wohl ausreichen.
 
Well, die Leistung brauchen Spieler schon. Wird ja öfter hier angesprochen das die aktuellen CPU da ausreichen.

Ich sag mal kommt auf das Game an. Mal Arma 3 gezoggt? Mach mal mit 3.5 und dann 4.5 Ghz auf Sandy/Ivy/Hash ...

Auch in anderen Games ist das so. Ich denke von 4.5 auf 5.5 ist auch noch mal nen Sprung.
 
MountWalker schrieb:
Ich zocke vor allem im Einzelspielermodus und da braucht man für Starcraft nichts flotteres, weil die Einheitenmssen selten übertrieben riesig werden. Ich spiel gerne Ego-Irgendwas und da ist halt alles, was nicht nur im Online-Modus, der mich nicht interessiert, stattfindet, Unreal-Engine-3 und lief sogar auf meinem frühren Athlon II X2 mehr als ausreichend flüssig. Skyrim könnte mit mehr Prozessorpower, als ich habe, auch seltenst etwas anfangen - und das wo früher gerade Rollenspiele den prozessor gern überfordert hatten (Ultima IX).

Vielleicht ändert sich das mit dem nächsten Einzelspieler-Anno - falls es jemals wieder eins geben wird.

Wie gesagt dann bist du einer der vielen die eher von GPU Leistung profitieren, das bedeutet aber im Umkehrschluß nicht das es niemanden gibt der von CPU leistung profitiert. Quasi jeder Runden Strategie Fan, jeder Manager Sim Fan oder Aufbau SIm Fan, usw...
Aber selbst in games die wie bei dir die UE nutzten wirst du über kurz oder lang in eine Szene laufen die CPU limitiert ist auch wenn 90% in diesem game GPU limitiert ist!
 
Garack schrieb:
Auch in anderen Games ist das so. Ich denke von 4.5 auf 5.5 ist auch noch mal nen Sprung.

Aber nur wenn die CPU zu schwach ist die Grafikkarte 100% auszulasten.
 
Zurück
Oben