News Intel Skylake: Leistungssteigerungen von CPU bis GPU laut Hersteller

Skycrumb schrieb:
Ist es nicht sogar möglich ein monitor über die eine und ein anderen über die andere graka zu betreiben?

HominiLupus schrieb:
So was wie nvidia Optimus oder AMD enduro funktioniert auf dem Desktop nicht und kann technisch auch nicht funktionieren. Ausser du machst es wie in Notebooks: alles fest verlötet auf dem Mainboard.
Und das "2 verschiedene GPUs berechnen das gleiche Spiel" wurde schon mit Sandy Bridge versucht und ist jämmerlich geischeitert. Benchmarks wurden schneller, Spiele sind einfach nur schneller gecrasht.


Da gabs es mal eine Firma namens Lucid mit einem Produkt namens Hydra und Virtu. Dabei konnte die IGP mit der GPU zusammen arbeiten. War so 2010-2012 in aller Munde. Ist aber irgendwie wieder in der Versenkung verschunden.

Freu mich schon auf Skylake. Da bekommt dann mein i3 2100 endlich gegen Ende des Jahres seine Ablösung.
 
Auf mein Board wurde mit Lucid beworben das man auch Nvidia und AMD Grafikkarten parallel laufen konnte aber das hat sich nicht nur nicht durchgesetzt war auch sehr instabil soweit ich weiß.
 
Naja die neue CPU macht zwar nur 2%(taktbereinigt) mehr als ihr Vorgänger, spart aber Intel langfristig viel Geld da die DIEs noch kleiner werden. Bei Notebooks kaufen normale Menschen eh immer wieder neu, einfach weils kaputt geht oder weil NEU ja NEU ist. Selbes bei Smartphones und Tablets. Intel verkauft auch nicht nur CPUs, daher kann es denen ja egal sein was im Desktop Markt los ist, vor allem da alle OEMs im Grunde nur Intels verkaufen bzw AMD Produkte schlecht zusammengestellt sind.

Der Fortschritt besteht also darin das die CPUs jedes Jahr kleiner werden was Intel immer mehr Gewinn realisieren lässt und das die CPus in Notebooks immer weniger verbrauchen was an Akku wieder eingespart werden kann. Letztendlich werden die Geräte also immer flacher und für Hersteller lukrativer, sonst nichts, seit Jahren. Genau das selbe treibt NVIDIA, immer kleinere DIES bei einer inzwischen uralten 28nm Fertigung.

Oc Ergebnisse sollte man erst bewerten wenn sie unter handelsüblicher Kühlung stattfindet und die Stichprobe groß genug ist.
 
Schön wäre es, wenn nicht die Hälfte des Siliziums für Grafikeinheiten drauf geht, die man nicht nutzt.
Und nein, xeons lösen das Problem nicht, da ich gerne Bildschirme anschließen würde, aber da brauch ich keine Leistung.
 
Und was wollt Ihr dann mit der brachialen Super-Duper-CPU-power machen? Jetzt mal von den Schwan*vergleichen in nichtssagenden CPU-Benchmarks und den 0,724% der User die hin und wieder mal ein Urlaubsvideo umwandeln, abgesehen?

Man hat das Gefühl, dass sich auf solchen Plattformen wie cb & Co alle professionellen User der Bundesrepublik bewegen, denen ein 8--Kern gerade mal gut genug ist...

Den Großteil der User interessiert hier die Game-Performance, weniger die Performance in professionellen Video/Audio/Foto-Bearbeitungsprogrammen - wem ernsthaft die Power der aktuellen Haswell-CPUs nicht genügt, darf sich gerne am Workstation-Markt bedienen, da gibt es CPU-Power satt.

Ich habe auch schon User mit ner 6-Core CPU rumlaufen sehen, die Pipi in den Augten hatten, weil das Umwandeln in mp4 so lahm ist, aber hauptsache eine Freeware genutzt die kein Multithreading beherrscht und nur einen Kern ausgelastet hat - das bringts natürlich voll.

Ein 4790k - auch ohne Overclocking - lastet in 2560x1440 jede erhältliche Single-GPU aus und schaukelt sich bei 50% Auslastung die virtuellen Glocken während jede GTX 980 TI in die Knie geht.

Wir sind nach wie vor am GPU-Limit, nicht am CPU-Limit.

Der Profimarkt wird durch die dicken Xeons bedient, für Hans Müller der seine Malle-Videos umwandeln will, muss ein Haswell genügen oder er muss halt 15 Sek länger warten.

Und der Rest darf - genug Bares vorausgesetzt - bedenkenlos zum 5960X greifen, der macht richtig glücklich.
 
Zuletzt bearbeitet:
Klingt durchaus vielversprechend für zukünftige Tablet(-Notebook-Hybrid) Käufer, ein i5 gepaart mit schnellerer Grafikleistung bei weniger Verbrauch (höheren Akkulaufzeiten)? Das Surface Pro 4 könnte schon sehr interessant werden (insbesondere, wenn es auch ein 14" Modell geben sollte), nur die Gedanken an die neuen (höheren) Preise dämpfen die Vorfreude etwas (insbesondere, aufgrund der gesalzenen Preise für Zubehör (z.B. Tastatur, Docking Station) und der ungerechtfertigten Aufpreise zwischen den Ausstattungsvarianten (größere SSD, mehr Speicher).

Ob Dell dann vom vor kurzem eingeführten Broadwell wieder umsteigt auf Skylake bei der Venue 11 Pro 7000 Serie?
 
Genau, zum zocken reicht noch der i7 Sandy...Skylake -E oder Kaby Lake wirds...just for Bastelfun.
 
Zuletzt bearbeitet:
Max007 schrieb:
Und was wollt Ihr dann mit der brachialen Super-Duper-CPU-power machen? Jetzt mal von den Schwan*vergleichen in nichtssagenden CPU-Benchmarks und den 0,724% der User die hin und wieder mal ein Urlaubsvideo umwandeln, abgesehen?

Denke auch, dass wir gegen zwei Mauern zu kämpfen haben. Einerseits stagniert die Leistung und andererseits fällt uns auch nichts ein was wir mit mehr Rechenleistung anfangen könnten.

Früher war das anders. Da bekam man regelmäßig deutlich schnellere Rechner ins Haus und die Programmierer nahmen sie dankbar entgegen, um neue Anwendungsgebiete zu erschließen.

Ich persönlich giere auch nach Leistung wegen VMs und Emulation. Emulation von alten Spielekonsolen, Heimcomputer und MS-DOS PCs belasten die heutigen PCs ja kaum. Diese Leichtigkeit würde ich mir auch für aktuelle Windows wünschen. Ob die dazu notwendige Leistungssteigerung jemals kommen wird?
 
Zuletzt bearbeitet:
Max007 schrieb:
Und was wollt Ihr dann mit der brachialen Super-Duper-CPU-power machen? Jetzt mal von den Schwan*vergleichen in nichtssagenden CPU-Benchmarks und den 0,724% der User die hin und wieder mal ein Urlaubsvideo umwandeln, abgesehen?

Man hat das Gefühl, dass sich auf solchen Plattformen wie cb & Co alle professionellen User der Bundesrepublik bewegen, denen ein 8--Kern gerade mal gut genug ist...

Den Großteil der User interessiert hier die Game-Performance, weniger die Performance in professionellen Video/Audio/Foto-Bearbeitungsprogrammen - wem ernsthaft die Power der aktuellen Haswell-CPUs nicht genügt, darf sich gerne am Workstation-Markt bedienen, da gibt es CPU-Power satt.

Ich habe auch schon User mit ner 6-Core CPU rumlaufen sehen, die Pipi in den Augten hatten, weil das Umwandeln in mp4 so lahm ist, aber hauptsache eine Freeware genutzt die kein Multithreading beherrscht und nur einen Kern ausgelastet hat - das bringts natürlich voll.

Ein 4790k - auch ohne Overclocking - lastet in 2560x1440 jede erhältliche Single-GPU aus und schaukelt sich bei 50% Auslastung die virtuellen Glocken während jede GTX 980 TI in die Knie geht.

Wir sind nach wie vor am GPU-Limit, nicht am CPU-Limit.

Der Profimarkt wird durch die dicken Xeons bedient, für Hans Müller der seine Malle-Videos umwandeln will, muss ein Haswell genügen oder er muss halt 15 Sek länger warten.

Und der Rest darf - genug Bares vorausgesetzt - bedenkenlos zum 5960X greifen, der macht richtig glücklich.
http://www.pcper.com/reviews/System...tro-Last-Light-and-Middle-Earth-Shadow-Mordor

Hier wird viel immer dem Forum Tenor nachgebrabbelt... eine starke CPU macht einen ordentlichen Unterschied vir allem bei den min FPS aus. Eine Sandy Bridge limitiert da schon stark bei vielen Spielen.

Also dieser Test zB sagt was ganz anderes. Die cpu spielt sehr wohl eine Rolle bei vielen Spielen...
 
Zuletzt bearbeitet:
Mir fallen so spontan 2 Spiele in meiner doch sehr kleinen Sammlung ein, bei denen ich gerne CPU-begrenzt mal auf unter 40 fps abstürze. Und es soll auch Leute geben, die haben einen Bildschirm mit 120+ Hz und schrauben eher die Einstellungen herunter, bevor sie bei 61 fps im GPU-Limit hängen.

Die Aussage, es gäbe ein generelles CPU-/GPU-Limit ist einfach Schwachsinn.
 
Zuletzt bearbeitet:
paulinus schrieb:
Mir fallen so spontan 2 Spiele in meiner doch sehr kleinen Sammlung ein, bei denen ich gerne CPU-begrenzt mal auf unter 40 fps abstürze. Und es soll auch Leute geben, die haben einen Bildschirm mit 120+ Hz und schrauben eher die Einstellungen herunter, bevor sie bei 61 fps im GPU-Limit hängen.

Die Aussage, es gäbe ein generelles CPU-/GPU-Limit ist einfach Schwachsinn.

Genau so ist es !

Die CPU-Limitierung und die GPU-Limitierung haben miteinander eigentlich nichts zu tun.

Leute mit 2 Grafikkarten im Verbund koennen ruckzuck ihre CPU ins Limit treiben, besonders bei 120/144 MHz -Monitoren,
wo man ueber 100 FPS zum ruckelfreien Spielen erreichen moechte.

Ferner wird immer wieder die CPU einzeln betrachtet. Die neue Chipssatz Z170 bringt DDR4-Unterstuetzung und M.2 max. Anbindung mit (bis zu 2000 MB/s) mit. Aber das kann vielen egal sein, weil sie damit ohnehin nichts anzufangen wissen.
 
@Max007

Als es damals erste Dual/Quad Core CPUs gab gab es gar keine mehrikernunterstützende Software.
Nach deiner Logik hätte man also niemals derartige CPUs an Anwender verkaufen können da keine Anwendung davon profitiert, weder Office noch Browsing oder sonstwas was der Normalnutzer macht.

Zuerst kommt immer die Hardware, den niemand schreibt teure Software für nicht existierende Hardware...
 
1.) Wenn die Grafikkarte limitiert und das Spiel ruckt, kann man einfach die Details runter fahren (Auflösung/AA/AF/diverse Grafikeffekte) und schon läuft alles wunderbar. Wenn die CPU limitiert, kann man hier nur sehr wenig dagegen machen. Deshalb ist für mich die CPU eher wichtiger. Ein paar Details weniger tun nicht weh, aber Ruckerei in entscheidenden Situationen schon.

2.) Bis zu 11% mehr Performance hört sich nach einem ziemlichen Reinfall an. Hier wird gegenüber Broadwell überhaupt nichts geboten und der ist schon kein Fortschritt. Die 5% mehr IPC kommen nur durch den integrierten RAM, der als L4 Cache herhalten muss.

3.) Spiele auf einer integrierten und dedizierten Grafikkarte gleichzeitig zu betreiben ist Unfug:
a) Die Leistung der dedizierten Karte ist so viel größer, dass das nicht ins Gewicht fällt
b) Die Sychronisation haut schon bei 2 gleich schnellen Karten nicht hin (siehe Mikroruckler), wie soll das bei 2 verschieden schnellen funktionieren
c) Beide Karten haben komplett andere Features mit verschiedenen Treibern
d) Die ganzen Daten müssen wie bei SLI doppelt abgelegt werden. Versuch einmal die Daten die in den 3GB RAM einer dedizierten Karte passen in ein paar MB Cache zu stopfen. Da wird nur über den normalen RAM ein- und ausgelagert. Bei einfachen Spielen in niedriger Auflösung kein Problem, aber bei den Details einer High End Karte eine Katastrophe, vor allem weil die Bandbreite dann ja der CPU fehlt.

Das ganze kann bestenfalls für diverse Video Encoding Aufgaben herhalten aber sicher nicht für Spiele.
 
wenn die die skylakes gut übertakten lassen wird einer angeschafft :) Single Thread for the win
 
Seit Monaten liest man von 10%. ZB. "Schon wieder keine 10%...oder : sind ja nur x% - dann bleibe ich bei xxx"
Das regt mich auf. Gut gemeint oft, aber durch das nachplappern wird es umso schlimmer, weil wir die nicht bekommen. Bereinigt 2, 3, 5 ?.. Jo. Ich zB. Möchte endlich eine potente CPUs mit maximaler grafikpower. Die 2 broadwell haben es doch gezeigt. Egal, dass 90 % die Grafikkerne ablehnen... Intel verbaut die trotzdem und bietet die maximale Grafikleistung nicht frei. Reine werbeaktion. Leistung auf dem fast-neveau einer nv 750 und 3 Monitore oder von mir aus 2 große möcht ich. Das kann man schon länger aber man will es uns nicht geben! AMD genauso wenig. Ich möcht sofort auf skylake wechseln, weil mein schwiegerpaps den ivy nimmt ... Mit mir aber nur , wenn die Grafikleistung stimmt. Dieser perfiden marktsteuerung können wir nur mit bewusstem Kaufverhalten entgegenwirken... Überbegriff Konsumverzicht , mit dem sich Jeder ; jeden Tag auseinandersetzen sollte. Am ande gehts nicht mal ums Geld , sondern um diese verknackte Überproduktion und Ressourcenverschwendung und um Macht denn politisch werden wir nichts verändern....es sei denn in der EU wird ein einheitlicher Sockel für alle CPU's eingeführt, der mind. 10 Jahre bedient werden muß. Bevor letzteres oder das koriosum mit der nichtgewollten gpu-leistung nicht beseitigt ist , bleibt bei jeder von uns diskutierten neuen Technik der fade Beigeschmack von vorne bis hinten auf Kosten der Umwelt gemolken zu werden.
 
JiJiB! schrieb:
Also tritt man weiter seit Sandy Bridge Prozessortechnisch auf der Stelle, schade.
Das ist doch totaler Quatsch und wenn man über den kleinen Tellerrand der Mainstreamsockel hinausschaut, so gibt es schon oden beim Haswell-E 8 Kerne und bei den entsprechenden Xeon-E5 sogar bis zu 18, was war da noch bei SandyBridge das Limit?

Larve74 schrieb:
Interessant ist auch der 170-er Chipsatz mit DDR 4 -Unterstuetzung und schneller M.2 SSD-Anbindung mit bis zu 2000MB\s.
Wie kommst Du auf 2000MB/s? Die ganzen Lanes, auch die des Chipsatzes und die 4 Lanes zu dessen DMI Anbindung sind PCIe 3.0, also 8Gb/s bei 128b130b statt 5GB/s bei 8b10b. Damit sind bei 4 Lanes praktisch etwa 3000MB/s möglich, die Intel 750 bzw. deren Brüder der DC P Serien zeigen das doch auch.

Larve74 schrieb:
Dieses "Sandy ist ja noch sooooo gut"- Geheule bezieht sich doch nur auf die CPU isoliert betrachtet und dann nur auf Gaming bezogen.
So ist es und statt sich zu freuen, dass das alten System von der CPU Performance noch einigermaßen mithalten kann, wird gemeckert das es für das Upgrade nicht genug Motive gibt, weil man ja alle anderen Verbesserungen, inklusive der besseren Effizenz nicht braucht. Freut euch doch und spart das Geld, irgendwann geht jetzt HW auch mal kaputt, dann braucht ihr es.
Larve74 schrieb:
Tatsaechlich ist schon der 4790K ca. 21% schneller in Anwendungen als Sandy.
So ist es!

D0m1n4t0r schrieb:
Falls die bisherigen Gerüchte stimmen, dürfte der i7-6700T ziemlich interessant werden. Nicht wegen der integrierten Grafik, sondern wegen der geringen TDP und dem recht hohen Turbo.
Dir ist aber schon klar, dass die TDP nicht der Leistungsaufnahme entspricht und schon gleich gar nicht, wenn der volle Turbotakt genutzt wird? Dann braucht die T CPUs auch nicht weniger als z.B. eine K CPU bei gleichem Takt und gleicher Last und das ist weit mehr als die TDP. Damit kommen deren Taktraten dann ganz schnell wieder runter und die Kisten sind lahm, weil siese Energiespar-CPUs nur bei Grundtakt eine Leistungsaufnahme unterhalb der TDP haben, weshalb der auch so gering ist, umso geringer im Verhäätnis zum max. Turbotakt, je geringer die TDP ist. Achte mal drauf!

Außerdem ist für ein rein passenden Desktop die TDP von meist 45W immer noch viel zu hoch, das bekommt man ohne einen oder ein paar Lüfter selbst mit dem dicksten Kühler nicht aus dem Gehäuse, passiv heiß ja auch nur, dass Kühler selbst keinen Lüfter haben aber eben gerade nicht, dass sie keinen Luftstorm brauchen. Bei Enterprise-HW wird meist auch genau spezifiziert wie stark der zu sein hat.
D0m1n4t0r schrieb:
Damit könnte man dann äusserst kompakte, weil leicht zu kühlende, und dennoch leistungsfähige Systeme bauen.
Kombiniert mit z.b. der Radeon Fury Nano wäre sowas eine gute Basis für eine selbstgebaute Steammachine.
Was soll den eine leicht zu kühlende CPU neben einer AMD Fipi Graka? Da würde ich einen K nehmen und einen vernüftigen Kühler drauf packen oder eher noch eine richtig lauten damit man das Elend von AMDs Sparbemühungen nocht höhren muss. Es macht überhaupt keinen Sinn eine Low-TDP-CPU wie einen 6700T in einem Desktop zu verbauen, außer man kühlt den semipassiv und nutzt die Leistung nur selten und immer nur kurzen, aber das wird beim Gaming wohl nicht der Fall sein und wenn dann nebenbei eine starke Graka sowieso Lärm macht, kommt es doch auf den CPU gar nicht mehr an.

Jenergy schrieb:
Diese Steigerung kommt aber auch durch den höheren Systemtakt zustande. Berücksichtigt man diesen, bleibt am Ende nicht einmal 10% Mehrleistung.
Blödsinn! Mit welchem Benchmark der wirklich etwas über die CPU Leistung aussagt, untermauerst Du diese Behauptung?

Da werde ich wohl lange warten drüfen und wenn, dann kommen nur Ergebnisse von etwas, wo die CPU sowieso nicht der limitierende Faktor ist, wie die Zeit zum Download der Win 8 iso :evillol: Also halte ich mal mit Cinebench 11R5 aus dem Review des i7-5775C dagegegen. Bei den Ergebnisse für Einzelkern gehe ich mal vom maximalen Turbotakt aus, der ist beim 5775C 3.7Ghz, beim 4770k 3,9GHz, beim 3770k 3,9GHz und beim 2600k 3,8GHz.

2600K: 1,49 / 3,8GHz = 0,392 Pkt/GHz
3770K: 1,66 / 3,9GHz = 0,426 Pkt/GHz 8.6% mehr als der 2600k
4770K: 1,77 / 3,9GHz = 0,454 Pkt/GHz 6,6% mehr als der 3770k, 15,7% mehr als der 2600k
5775C: 1,79 / 3,7GHz = 0,484 Pkt/GHz 6,6% mehr als der 4770k 13,7% mehr als der 3770k, 23,4% mehr als der 2600k

Also bei Singlethread taktbereinigt von SandyBridge zu Broadwell sind es 23,4%!

Alle haben 4 Kerne + HT und sind damit gut vergleichbar, bei Multikern nehmen ich die angegeben Taktraten:
2600K: 6,77 / 3,4GHz = 1,991 Pkt/GHz
3770K: 7,54 / 3,5GHz = 2,154 Pkt/GHz 8,2% mehr als 2600K
4770K: 8,16 / 3,5GHz = 2,331 Pkt/GHz 8,2% mehr als 3770k 17,1% mehr als 2600k
5775C: 8,35 / 3,3GHz = 2,530 Pkt/GHz 8,5% mehr als 4770K,17,5% mehr als 4770k, 27% mehr als 2600k

Bei Multithread sind es taktbereinigt von SandyBridge zu Broadwell sogar 27%! Das mag nicht die Welt sein, aber mehr als die 10% die hier aus der Hüfte geschossen wurden sind es allemal.

andr_gin schrieb:
2.) Bis zu 11% mehr Performance hört sich nach einem ziemlichen Reinfall an. Hier wird gegenüber Broadwell überhaupt nichts geboten und der ist schon kein Fortschritt. Die 5% mehr IPC kommen nur durch den integrierten RAM, der als L4 Cache herhalten muss.
Dumm nur, das auch der 5775C 128MB L4 Cache in Form von eDRAM hat die auch die CPU nutzen kann, also wieder mal eine Aussage für den Mülleimer, weil es am Wissen des Schreibenden eklatant gemangelt hat.

Die ersten Vorab-Benchmarks zeigen aber weniger als 11%, ich würde mit 4% bis 8% rechnen wenn die stimmen sollten.

Außerdem hat sich auch bei der Effizienz einiges getan! Für den Vergleich der Effizienz schaue man im https://www.computerbase.de/2015-06...mm-leistungsaufnahme-volllast-cinebench-x-cpuReview des i7-5775C auf die Leistungsaufnahme bei Cinebench 11R5 Multicore[/URL], zu den nderen Benchmarks gibt es da leider eine Angaben zur Leistungsaufnahme bzw. keine Benchmarkergebnisse von prime. Da braucht der 5775C 92W, der 4770k 113W, der 3770k 100W, der 4770k 113W und der 2600k 115W, alle liegen zwischen 3.3GHz und 3.5GHz. Damit ergibt sich:
2600K: 6,77 / 115W = 0,0589 Pkt/W
3770K: 7,54 / 100W = 0,0754 Pkt/W +28% zum 2600K
4770K: 8,16 / 113W = 0,0722 Pkt/W -4% zum 3770K +22% zum 2600K
5775C: 8,35 / 92W = 0,0908 Pkt/W +26% zum 4770K, +20% zum 3370K, +54% zum 2600K
Ok, der 5775C hat einen etwas geringeren Takt sowie eine geringere TDP, der ist für einen anderen Betriebspunkt als die anderen optimiert und der 6700K wird als 95W Desktop CPU dagegen eher schlecht aussehen, aber trotzdem bleibt da unterm Strich ein klarer Fortschritt mit jedem Shrink und der 3770k sieht nur gegenüber Haswell gut aus.

Außerdem ist heute weniger die CPU Performance ein Grund für ein Systemupgrade im Mainstream, sondern die neuen Featuers der Chipsätze und Boards. Wer mehr CPU Power will oder braucht, wird bei den Enthusiasten Plattformen bedient und da gibt es i7 mit inzwischen bis zu 8 Kernen, bei den Xeons bis zu 18! Zu behaupten die Leistung wäre seid Generationen nicht gestiegen ist also etwa so sinnvoll als würde man sagen, die Leistung von motorisierten Zweirädern wäre seid Jahrzehnten nicht gestiegen, nur weil Mofas immer noch nur 25km/h schnell sind, die dicken Kisten aber außen vor lassen.
 
Also Xeons gibt es auch mit GPU.
Ebenso die letzten 6+ Kerner.
Gab auch Zeiten da war ein nativer Intel 6 Kerner fast genau so teuer wie der 4 Kerner (z.B 4790K).
Natürlich war da das Board und DDR4 teurer (wobei beim RAM je nachdem und wird immer günstiger).
 
Also ich finde die derzeitige Entwicklung aus der Sicht eines Gelegenheitsspielers fantastisch.
Meines Wissens nach reicht mein i5-2500k Sandy Bridge immer noch für so ziemlich jedes Spiel aus -
die Prozessorleistung war seit Sandy Bridge im Überfluss vorhanden. Daher reichen moderate Leistungssprünge bei der CPU-Leistung zwischen den Generationen doch völlig aus, um dort ohne Kompromisse schritt zu halten.

Die Perspektive, die Intel eröffnet, mittelfristig die Leistung einer Mittelklassegrafikkarte in eine solche CPU zu integrieren, begeistert mich.
Ein Kühlkonzept würde sich quasi erübrigen, die Gehäuse-Wahl für kleine PCs wäre stark vereinfacht, insgesamt müsste man weniger Kompromisse machen, gerade bei begrenztem Budget.
Mein Wohnzimmer-PC, der derzeit noch mit separater Grafikkarte auskommt, könnte vielleicht nochmal um die Hälfte kleiner ausfallen (Lian Li Q11) und keinerlei WAF-Probleme mehr - das wäre schon genial... :D:D:D
 
Holt schrieb:


Außerdem ist heute weniger die CPU Performance ein Grund für ein Systemupgrade im Mainstream, sondern die neuen Featuers der Chipsätze und Boards. Wer mehr CPU Power will oder braucht, wird bei den Enthusiasten Plattformen bedient und da gibt es i7 mit inzwischen bis zu 8 Kernen, bei den Xeons bis zu 18! Zu behaupten die Leistung wäre seid Generationen nicht gestiegen ist also etwa so sinnvoll als würde man sagen, die Leistung von motorisierten Zweirädern wäre seid Jahrzehnten nicht gestiegen, nur weil Mofas immer noch nur 25km/h schnell sind, die dicken Kisten aber außen vor lassen.

'seit' für zeitangaben 'seid' für wesen?!
 
Zurück
Oben