Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Echt dramatisch wie "langsam" ein 8x/8x/4x SB-System im Vergleich zu einen 16x/8x/8x X58er ist.
ich kann diese Mär echt nicht mehr hören.
Intels Sockelpolitik ist was fürn Hintern, da geb ich Dir ausnahmslos Recht, leider kommt AMD mit dem Bulldozer nicht aus den Puschen. Deswegen ist der TE mit einem i2500k auch sehr gut bedient.
GTA4 soll also die Zukunft weisen? Das Spiel dass so toll programmiert wurde, dass es nach zig Patches immer noch Probleme macht? Das (einzige?) Spiel dass es irgendwie geschafft hat dass das AA von keiner Grafikkarte damit klar kommt?
Davon abgesehen, die Tatsache man mit einem inoffiziellem Mod nachträglich so viel aus dem Spiel rausholen kann wie die ursprünglichen Entwickler zeugt auch nicht gerade von Qualität.
Zwirbelkatz schrieb:
Wenn man das als Zukunftsmaßstab nimmt, kann man kaum behaupten, dass die pro MHz-Leistung der AMDs, die auf einer Basistechnologie von 2006 oder 2007 (ich glaube K8) beruht, noch konkurrenzfähig ist.
Ich versteh nicht so ganz wo da das Problem ist? Wenn man etwas richtig gemacht hat in der Vergangenheit ist es doch nicht verkehrt darauf aufzubauen oder? Macht man bei Intel sowas nicht?
Zwirbelkatz schrieb:
H61 Boards sind ebenso günstig wie die Pendants von AMD.
H61 Boards? Such mal ein H61 Board mit USB 3 und Sata 3 .. da bleiben 2 Option, und eine davon hat nur 2 RAM-Bänke. Und das Board soll dann für die kommenden Jahre ausreichen?
Was kostet mich so ein Board auf SB-Basis? Und der Aufpreis wird noch viel schlimmer wenn man nicht nur auf die PCIe Steckplätze sondern auch auf die Anzahl der USB-Anschlüsse schaut.
Zwirbelkatz schrieb:
Pci-Express x8 bedeutet gegenüber x16, wenn überhaupt, einen Nachteil im sehr niedrigen, einstelligen Prozentbereich. Multi-GPU mal ausgenommen. Aber Multi-GPU Kunden sind keine Pfennigfuchser, womit auch der Punkt noch entkräftet wäre.
Ja, jetzt ist das so. Ob es in Zukunft so bleibt? Wenn PCIe 3.0 dann mal auf jedem Board Standard sein wird?
Und was wenn es nicht nur um Grafikkarten sondern einfach um weitere Sata/USB Anschlüsse geht? Sind dann die 1x Anschlüsse noch ausreichend? Ganz abgesehen davon dass da 4x/8x Karten die ja auch an PCIe 1x funktionieren würden, dann gar nicht rein Passen weil der Anschluss physisch nicht mehr als 1x zulässt?
Davon abgesehen geht's hier nicht um "Pfennigfuchser" sondern darum auch etwas für sein Geld geboten zu bekommen - und damit meine ich nicht sinnlose FPS-Werte von denen man nichts hat.
Ob das Spiel viel Leistung braucht, weil es mangelhaft optimiert ist oder eben, weil es State-of-the-art-Technologie verwendet und deshalb ressourcenfressend ist, ist doch für das Beispiel absolut unerheblich.
Ich versteh nicht so ganz wo da das Problem ist? Wenn man etwas richtig gemacht hat in der Vergangenheit ist es doch nicht verkehrt darauf aufzubauen oder? Macht man bei Intel sowas nicht?
Wirds nicht. Nicht einmal PCI-Express hat sich die ersten Jahre wirklich deutlich rentiert. Ich erinnere an Exemplare der HD3850 für AGP.
Sind die die 1x Anschlüsse noch ausreichend - ganz abgesehen davon dass da 4x/8x Karten die ja auch an PCIe 1x funktionieren würden, dann gar nicht rein Passen weil der Anschluss physisch nicht mehr als 1x zulässt?
Diese ganzen Anschlüße in Ehren. 90% der Leute brauchens vermutlich nicht und die restlichen 10% werden die 10 bis max. 20 Euro wohl zur Verfügung haben.
Tut mir Leid, wenn ich das so drastisch sagen muss, aber fast alle deine Argumente sind klar dementierbar.
Ob das Spiel viel Leistung braucht, weil es mangelhaft optimiert ist oder eben, weil es State-of-the-art-Technologie verwendet und deshalb ressourcenfressend ist, ist doch für das Beispiel absolut unerheblich.
Und dass man irgendwann 16 GB odser mehr haben will ist auch kein argument?
Zwirbelkatz schrieb:
Diese ganzen Anschlüße in Ehren. 90% der Leute brauchens vermutlich nicht und die restlichen 10% werden die 10 bis max. 20 Euro wohl zur Verfügung haben.
16GB RAM? Das ist doch für den Gamer kein Argument. Selbst 8GB RAM sind da nicht nötig.
Und es sieht nicht so aus, als würde sich das in den nächsten Jahren ändern. Und wenn doch, dann ist der Rechenr sowieso schon veraltet.
Ich seh schon wie ich noch 32GB Vollausbau beim I7 mache, weil ich meine 17 Usb-Geräte versorgen muss, während jeder Core gerade so allein mit dem Overhead von ICQ, MSN, Skype und Firefox fertig wird, während die 3D Oberfläche von Minesweeper meine GTX590 in die Knie zwingt.
Die Sache ist einfach, dass nicht mehr Rechenleistung benötigt wird. Deswegen funktionieren doch die Atom und Zacate CPUs, deswegen wandert alles aufs Handy. Ja, damals saß Bill Gates da und hat gesagt, man braucht niemals mehr als 640kb Ram. Das wär ja auch richtig gewesen, wenn man nicht gern mehr gemacht hätte mit dem PC. Jetzt sitzen wir da und keiner will mehr mehr machen mit seinem PC.
Die CPU Entwicklung läuft im privaten Bereich nur für Videospieler weiter, die vielleicht dann auch mal ein Video bearbeiten. Einzig, wenn die Spiele irgendwann mehr Kerne brauchen, werden auch mehr Kerne benötigt. Nur wenn die mehr RAM brauchen, wird auch mehr RAM gekauft.
Da allerdings fast alles für Konsolen programmiert wird, werden wir bis zur nächsten Generation warten müssen bis vielleicht mal 8GB wirklich gebraucht werden...
Einzig wenn irgendwann mal ein anderes Interface kommt, wird vielleicht wieder mehr Leistung benötigt, um Gehirnströme direkt zu wandeln oder so...
Ob das Spiel viel Leistung braucht, weil es mangelhaft optimiert ist oder eben, weil es State-of-the-art-Technologie verwendet und deshalb ressourcenfressend ist, ist doch für das Beispiel absolut unerheblich.
Hier muss ich mich jedoch mal einschalten. Das ist so nicht ganz korrekt. Wenn es um Ressourcen"verschwendung" geht, dann schon. Jedoch macht es deutlich Unterschiede, wie qualitativ hoch- oder niederwertig an den Algorithmen einer Software gearbeitet wurde, wie sie wirklich skaliert. So ist bspw. ein sehr ressourcenfressendes altes Programm tlw. mit anderen Schnittstellen zur Hardware geschrieben, hat andere Ansprüche (bspw. tendenziell eher geringere Anzahl genutzter CPUs, weniger GPU-Programmierung, wo man es anwenden kann, etc. Sprich, ich würde auch einen alten Ressourcenfresser nicht als Messlatte für aktuelle Software nehmen...
Sonst hätte ich vor 7-8 Jahren auch Novalogics Delta-Force 2 als Maßstab zur Performancemessung nehmen, da die grandiose Idee, bei simulierten zig oder hunderten km² Fläche mit einer Voxelspaceengine Grashalme auf der Karte zu simulieren die komplette Technik gut gebremst hat. Also jeder Grashalm als Poligonset, statt bspw. großflächige Poligone mit teiltransparenter Textur, was damals Gang und gebe war...
Sprich: Wenn ich einfach sage, mir ist egal was ich zum Ressourcenfressen nehme und verlasse damit das erwartete zukünftige Softwareprofil, für dass ich mir die Maschine kaufen will - und das ist nicht nur heute, sondern je nach Charakter für die nächsten 1-3 Jahre. Sprich, was erwarte ich an Software? Erwarte ich, dass die Multicore-Entwicklung stagniert? Erwarte ich, dass die Spiele alle grütze geschrieben sind, so dass es nur schwer möglich ist, sie performant zu betreiben? Oder erwarte ich, dass die Softwareschmieden, die von mir das Geld haben wollen, vernünftige Arbeit abliefern?
Ich persönlich würde sagen, mehr Kerne wird eher kommen als weniger. Es mag sein, dass der i3 ein wenig performanter bei der mehr oder minder groß angelegt skalierenden Software läuft. Aber ich vermute, dass er 1. den Vorteil einbüßt, wenn es zur vernünftigen Skalierung auf ausreichend Threads geht. Ebenso bin ich wie viele bei der Sockelpolitik von Intel skeptisch. Frage wäre auch, ob nicht auch eine Option wäre ein AM3+-Bord mit günstigem Quadcore, ggf. sogar Athlon II zu nehmen und dann direkt bei Bulldozer erst rechten Prozessor zu nehmen...
Frage ist und bleibt, was wann wie gut ist... Aber naja... Da muss jeder selbst entscheiden...
Ergänzung ()
Qarrr³ schrieb:
Die Sache ist einfach, dass nicht mehr Rechenleistung benötigt wird.
Naja, die Frage ist immer, wofür. Ich sag mal, wir haben einiges schon heute. Stimmt. Teilweise fotorealistische Spiele, etc. Wobei ich teilweise bei Ideen, was eine geniale Spielidee wäre, wahrscheinlich bei vielen aktuellen Prozessoren locker an den Rechengrenzen knapseln könnte.
Denn, was ich über die letzten Jahre des Realitätsnähe-Wahns mit erlebt hatte, war, dass gute Spielideen wie ein Eufloria, World of Goo, etc. komplett in Vergessenheit geraten.
Und ich sag mal, speziell beim Arbeiten - ich meine damit nicht *Office 2060 - wird man mehr und mehr Ressourcen brauchen für vieles. Sprich, bekannte Aufgaben lassen sich leicht lösen. Mit vielen Kernen schneller, wenn die Software passend geschrieben wurde.
Deswegen funktionieren doch die Atom und Zacate CPUs, deswegen wandert alles aufs Handy. Ja, damals saß Bill Gates da und hat gesagt, man braucht niemals mehr als 640kb Ram. Das wär ja auch richtig gewesen, wenn man nicht gern mehr gemacht hätte mit dem PC. Jetzt sitzen wir da und keiner will mehr mehr machen mit seinem PC.
Naja, ich sag mal die Atoms und Zacates haben komplett anderes Spezifikum als die "aktuellen" Desktop-CPUs. Die aktuellen Desktop-CPUs sagen klar: ICH WILL BRACHIALE RECHENLEISTUNG. Sprich man möchte eigentlich für jede Aufgabe gewappnet sein. Die Atoms und Zacates sind neben der Energiesparproblematik für mobile Computer speziell darauf ausgerichtet, i.d.R. die Aufgaben der "klassischen" Desktop-CPU zu übernehmen. Also ausreichend Leistung zum normalen Arbeiten zu bieten. Soe warem jedoch niemals als vollwertiger Ersatz für die "echte" Desktop-Sparte gedacht.