Bericht Bericht: GPU braucht CPU

@nospherato
Es freut mich, dass du so einen grossen Bekanntenkreis hast, wiklich beeindruckend. Wenn das Thema für so viele Menschen von Bedeutung ist, dann frag doch CB ob sie da mal was machen. Aber hier ist deine Post einfach nur Offtopic.

@rift
Ich kenne das Spiel nicht, aber nur weil du zwei mal gemessen hast und wer aus einem Forum mal getestet hat, werden das noch keine handfesten Fakten.

Z.B. könnte es sein, dass die Q9 und die PII Systeme eine langsame HDD hatten, und das SB System eine schnelle und daraus der Unterschied resultiert. Unterschiedliche Betriebssysteme, andere Treiber, anderer Patchstand all das müsste ausgeschlossen werden, und selbst dann ist es noch möglich, dass der Programmierer Sandybridge so gerne mag, dass er die anderen CPUs absichtlich ausbremst.

Selbst in den absolut synthetischen / theoretischen Benchmarks erreicht der SB nicht eine solche Mehrleistung. Es ist nicht Plausibel, warum es in einem Spiel zu so einem Unterschied kommen sollte.
Jedenfalls ist das wohl reines cherrypicking darf wohl erwähnt werden, aber für alle die dieses Spiel nicht spielen, hat es einfach keine Relevanz.
 
@mace1978:
Interessant, zu den CB Tests habe ich mich geäussert, und diese können die These nicht bestätigen.
In deinem Test existiert kein i3.
Dafür verbraucht der 970, gleich viel wie der 955 und weniger als der 965 im Lastmodus. Im Idle ist er der sparsamste.
Ausser das man ne Menge Werte hat, stellt man fest, kann man garnichts sagen.
Ein Vergleich zweier unterschiedlicher Systeme und dann auch noch im Idle ist per se völliger Unsinn. Da braucht das eine Motherboard gerne mal 10W mehr, als das andere, und auf einmal sind alle Werte unbrauchbar.
Von Schwankungen zwischen den gleichen CPUs hast du vermutlich auch noch nichts gehört.

Sorry, ich habe falsch verlinkt, ist korrigiert.

Interessant, ich lese aus dem CB-Test, dass der i3-2100 unter Last deutlich weniger verbraucht als der Phenom X4. Und Gleiches spiegelt sich auch im Test auf HT4U wieder.

Um einen Vergleich im Idle ging es mir auch garnicht. Denn dort liegen die Werte zu dicht beieinander, als das man daraus eine ernsthafte Diskussions-/Kaufentscheidungsgrundlage schließen sollte. Gute Stromsparmechanismen gibt es bei auf beiden Seiten und irgendwo ist wahrscheinlich auch eine Grenze des Machbaren erreicht. Dass da zusätzlich noch die Boards und durch Serienstreuung bedingte Schwankungen eine Rolle spielen, erschweren die Sache zusätzlich, keine Frage.

Aber die Lastwerte sprechen eine so deutliche Sprache, dass selbst Ungenauigkeiten von +/- 10W nicht ins Gewicht fallen.

Übrigens misst HT4U in einigen Tests nur den Verbrauch der CPUs (also ohne das Restsystem). In diesem Test ist zwar wieder keine i3-2100/20 vertreten, doch war dessen Verbrauch ähnlich dem des i5 661 (siehe korrigierter Link) und der verbraucht die Hälfte im Vergleich zum X4 970: http://ht4u.net/reviews/2011/amd_phenom_ii_x4_980/index7.php

Worin begründest du also deine Behauptung:
Also die Tatsache, dass der Enegiebedarf eines i3 geringer ist, als der eines Phenom II 955, wurde wo nachgewiesen?
 
Genau das ist die Problematik. Es ist kein Offtopic, da sowohl CPU, als auch GPUs auch für anderes verwendet werden;)

Zur Spielethematik:
Alleine dieser eine Thread (bezüglich Rift) beinhaltet 300~ Antworten, bei dem mehr als 30 Leute mit unterschiedlichen Systemen getestet haben. Dazu kommen nochmal ettliche ähnliche Threads.

Übrigens: Nur weil du deine subjektive Meinung vertrittst, sind dies ebenfalls immernoch keine handfesten Fakten, da du hier ebenfalls nur Cherrypicking betreibst... aber gut, weiter..

Was die langsame HDD angeht:
Was soll bitte eine langsame HDD im Zusammenhang mit FPS zutun haben?
Eine langsame HDD sorgt lediglich für erhöhte Ladezeiten oder für Nachladeruckler, das wars allerdings auch schon...Sind die Daten erstmal im Speicher, hat die Festplatte erstmal nichts mehr zu melden.
Zudem kann ich dir sagen, dass ich momentan 4 verschiedene SSDs daheim rumliegen habe: 1x OCZ Solid, 1x Supertalent UltraDrive, 1x Vertex2, 1x M4.
Was allerdings total unerheblich ist, wie erwähnt, was die FPS ansich angeht.
Wo hier deine Logik liegt ist für mich irgendwie nicht ersichtlich...
Aber bitte erleuchte mich doch.

Sooo bezüglich Cherrypicking:
Wenn ich sowas machen wollte, würde ich z.B. den Truecryptspeed (Kryptografietest) vergleichen:
AMD Phenom II X6 1100T, 6 Kerne, 3,30 GHz, 45 nm, Turbo
VS
Intel Core i5-2500K, 4C/4T, 3,30 GHz, 32 nm, Turbo
--> Erreicht der 2500K 234% mehr Leistung... (Ich habe extra diesen PII genommen, da er hier von den Ps den höchsten Wert erreicht hat).

Wo bitte ist hier also kein Test vorhanden, in dem der SB nicht enorm mehr Leitung bietet!
(Und erzähl mir jetzt bitte nicht wieder, dass keiner Truecrypt benutzt...)

Du siehst aber auch bei anderen Spielen (siehe den CPU/GPU Test hier bei CB) oftmals einen Leistungsgewinn von 40-45%. Wo siehst du dann, dass diese CPU keine Mehrleistung bietet?

Du kannst natürlich immer schön solche Settings wählen, dass viele CPUs gleich auf liegen, allerdings biete ich dir hier ein Beispiel, welches nicht einfach aus der Luft gegriffen ist, sondern bei Usern und Spielehersteller (von Rift) bekannt ist und ebenfalls nachgeprüft, als auch ohne Probleme nachgelesen werden kann.
Ähnliche Effekte kannst du z.B. auch bei Aion beobachten.

Das sind alles Spiele die nunmal extrem CPU lastig sind (Stichwort Raids). Und genau darum geht es. Nur weil hier ein kleiner Testparcour (verständlicher weise, da alleine das schon einen riesen Aufwand mit sich zieht!), wo schon bei diesen eine Mehrleistung zu sehen ist, oftmals im Bereich von 40%, heißt es nicht, dass diese für alle spricht.

Und bevor die hier wieder von Randgruppen sprichst: Das sind zusammengenommen, alleine bei diesen 2 Spielen, mehrere Mio Leute...
 
Ahh rift nutzt also die erweiteren Verschlüsselungsbefehlssätze der intel CPU und ist deshalb auf denen so viel schneller.

In diesem Test geht es um Spielebenchmarks. Das mag dir nicht gefallen, es ist aber einfach so.
Kein Encoding, kein Verschlüsseln.

Man könnte auch rift testen, oder als Erweiterung zum Test sehen.
Wurde es aber nicht, trotzdem bin ich auf dein Beispiel eingegangen. Mehr kann ich dazu nicht sagen, ich kenne das Spiel nicht.

Mir Cherrypicking vorzuwerfen ist aber wirklich Abenteuerlich. Ich habe gar nichts ausgewählt.
Das war CB mit 7 Beispielen, die da bin ich mir sehr sicher eine durchaus weitere Verbreitung als rift haben.

Deine 300 Antworten, wozu du nichtmal einen Link hinführst, ergeben möglicherweise ein schlüssiges Bild. Aber wie ich schon geschrieben habe, ist dieses Bild nicht schlüssig und nicht repräsentativ.
 
Dir mag entgangen sein, dass das Beispiel mit dem Verschlüsselungstest ein Beispiel für das vorgeworfene Cherrypicking war. Nicht für den Vergleich mit Spielen, aber evtl. kam das nicht klar genug rüber.

Der Link zu dem Thread wäre dieser:
http://foren.riftgame.de/feedback-f...phenom-cpu-problem-low-fps-thread-inside.html

Im selben Forum sind weitere Threads zu finden...Wie erwähnt: Sichtbar erst nach Anmeldung im Forum.

Du bist auf die Beispiele hier eingegangen. Und ich versuche dir seit meinem ersten Post klar zu machen, dass die Welt aus mehr besteht als nur diesen 7 Spielen. Und vor allem bei MMORPGs die CPU weitaus entscheidender ist, als die GPU.
Vereinfacht gesagt: Kommt die CPU hier mit der Datenverarbeitung nicht mit (bei den genannten Raids oben können hier locker mal 100-200+ Spielerdaten aufkommen), dann kann dir auch ein 3x SLI/CFX nicht weiterhelfen...

Was Rift angeht, wurden bis heute (will man den News glauben) zwischen 2-3Mio. Accounts erstellt. Wieviele effektiv spielen sei natürlich dahin gestellt. Aion ist in Korea und Co. eines der beliebtesten Onlinespiele, kannst also davon ausgehen, dass hier ebenfalls mehrere Mio spielen. (die Spiele sind ja so wie deine 7 Stück nicht nur in Europa erhältlich...)
Was hier zu beachten ist, ist dass diese Spiele eine längere Lebenserwartung haben dürften, als alle 7 Spiele hier zusammen genommen.
Dies soll jetzt keinen Zusammenhang zu der Performancethematik haben, sondern nur um deine Scheuklappensicht etwas zu lindern...
Kurz: Es handelt sich hier nicht um eine Randgruppe, die vernachlässigbar wäre...
 
@mace1978:
Wenn ich deine Posts so verfolge, ist bei dir alles nicht schlüßig und repräsentativ, was nicht von dir kommt. Alle Zahlen, die eine eindeutige Sprache sprechen, scheinen dich nicht so recht zu interessieren.

Wenn es also nur um Spiele gehen soll, beschränken wir uns wieder auf diesen Test. Und daraus lese ich immer noch, das selbst der i3 mit dem X4 und X6 mithalten kann und das bei weniger Verbrauch (wie oben nachzulesen). Da gibt es auch nichts wegzudiskutieren, wie du es hier versuchst, das ist Fakt.

Deine 300 Antworten, wozu du nichtmal einen Link hinführst, ergeben möglicherweise ein schlüssiges Bild.
Naja, deine Aussagen sind auch nicht vollständig mit Links belegt.
 
Zuletzt bearbeitet:
@ mace1978

Wir drehen uns im Kreis.

Deine erste Aussage war:

Stellt einfach eure Thesen von den überlegenen IPC und dem geringen Stromverbrauch auf und was euch noch so in den Sinn kommt.

Und diese ist nach Strich und Faden falsch, da kannst du noch so sehr die Diskussion in die Länge ziehen. Es ist ein unumstößliches Faktum, dass ein SB-Prozessor eine höhere IPC als ein K10.5 aufweist, ebenso ist bei gleichem Takt und gleicher Kernanzahl der Energieverbrauch unter Last bei der SB-CPU signifikant geringer. Kann man ganz leicht vergleichen, indem man einen 965 hernimmt und seine Leistungen mit denen eines 2500K misst. Trotz der Taktdifferenz zugunsten des AMDs ist dieser durchgängig langsamer. Ebenfalls sind die SB-CPUs beim Lastverbrauch vorne.



1. Wo ist dein Punkt? Es geht darum wieviel Frames rauskommen.

2.Richtig, die Spiele sind andere. Der Parcours wurde dem aktuellen Stand angepasst.

3. Ähh würdest du das jetzt noch begründen und nicht einfach aus dem blauen heraus behaupten? Was soll ich wie falsch gedeutet haben?
Ich habe einen alten Test genommen und einen neuen und festgestellt, bei dem neuen Bedarf es weniger CPU-Power um eine gleich schnelle oder sogar eine gleichwertige moderne Grafikkarte zu befeuern. Das sind die Fakten aus diesen Tests. Wenn du behauptest, ich hätte da was falsches hereininterprefiert, zeig mir den Fehler, oder zeig mir wenigstens eine Plausible Begründung warum ich irre. Sowohl die Tatsache, dass die Spiele gewechselt wurden als auch die Tatsache dass die GPUs ans Limit kommen widersprechen nicht meiner Überlegung, sie sind der Grund warum meine Beobachtung so existiert.

4. Dann sollten wir alle warnen nun einen i3 zu kaufen, wenn der i5 in Zwei jahren schon auf den Schrottplatz gehört.....ich bin mir sicher, vor 2,3,4 Jahren hat das selbe irgendwer über die Top-CPUs gesagt, und er könnte heute feststellen, nein es ist falsch.
Der 955 ist immerhin 2,5 Jahre alt, und reicht wie man sieht immer noch ganz gut.

https://www.computerbase.de/2009-04...ion/24/#abschnitt_realitaetsferne_spieletests
Das so genannte Potential der CPUs in der Zukunft....
Der q9550/q9450 der heut zu tage nichtmal einen PII 935 schlägt. https://www.computerbase.de/2011-06/test-llano-cpu-leistung/11/#abschnitt_spiele_hohe_aufloesung
Über den E8600 brauche ich wohl nichts zu sagen...schon super genau diese Zukunftsperspektive.
Wie ich sehe, die ersten werden die letzten sein. :duck: Zumindest muss dieser sich schon ein halbes Jahr später einem PII 925 geschlagen geben. :evillol:
https://www.computerbase.de/2009-12/test-prozessoren-2009/24/#abschnitt_performancerating
Für intel scheint es also zu stimmen, Lebensdauer 6 Monate an guten Tagen.

5. Die Zahl ist aus der Luft gegriffen, vielleicht ist sie etwas hoch, aber das Spielt auch keine Rolle, ob es nun 6 oder 8 oder 10 Jahre sind.


6. Hmm kommt mir irgendwie aus der Diskussion um i3 und x4 x6 bekannt vor.
Euer Blick in die Zukunft funktioniert jedenfalls nicht so trivial, wie er von vielen hier angewand wird. Ich behaupte sogar er funktioniert nie.



1. Nona geht es in dem Test darum. Mir ging es aber darum zu zeigen, dass dieser Test nicht für die Bewertung von absoluter CPU-Leistung taugt, wofür du ihn aber in Post #434 herangezogen hast. Das ist der Punkt.

2. Eigentlich wollte ich mit dieser Aussage klarmachen, dass du hier nicht so einfach direkte Vergleiche anstellen kannst.

3. Die ursprüngliche Aussage war, dass es Unsinn sei, dass die CPU-Anforderungen bei Spielen ansteigen würden. Wenn dem so wäre, wieso wird dann bei jedem neu erscheinenden Spiel mit halbwegs moderner Engine ein QuadCore empfohlen, wo früher doch immer ein DualCore ausreichte?

Besagter Fehler liegt mE darin, dass zum Einen eine HD6850 um 20% schwächer ist als eine HD5870 und daher eher limitiert. Zum Anderen liegt er darin, dass du einfach so einen Test mit einem anderen vergleichst, der aber einen völlig anderen Umfang (mehr Spiele, ein Haufen an Anwendungen) aufweist. Dann nimmst du den Test mit dem geringeren Umfang, der auch noch (bedingt durch sein Setting) in einem GPU-Limit stattfindet (bzgl. HD6850) und verwendest ihn als Grundlage dafür zu behaupten, dass eine Stagnation beim CPU-Leistungsbedarf bei Spielen eintritt. Das ist so aber nicht richtig. Eine Verlangsamung dank der Konsolen ist wahrzunehmen, aber keine Stagnation. Beweisen kann ich es abgesehen von den steigenden Systemanforderungen der Spiele nicht, aber ich kann dir deine Aussage bzgl. der Stagnation aufgrund des GPU/CPU-Testes widerlegen. Mehr kann ich dazu nicht mehr sagen.


4. -.-

Was soll dieses ins Lächerliche ziehen meiner Aussage? Ich verkneif mir das bei dir ja auch, also lass das bitte. Der Q9450 war zu seinem Erscheinen das, was der 2500K oder der 2400 heute ist. Du solltest daher die Aussage "am Limit laufen" nicht gleich mit "völlig unbrauchbar" gleichsetzen. Mein alter E5200 lief in BFBC2 auch völlig am Limit, spielbar war es trotzdem.

Falls du es nicht bemerkt hast: mir geht es hier rein um meine Aussage, dass man mit CPUs, die eine höhere IPC haben als ihre Konkurrenz, über einen längeren Zeitraum hin gesehen besser fährt als mit ihren Gegen-Modellen. Sprich im Vergleich gegen einen 2500K kann ein 965 BE einpacken gehen, jedoch heißt das eben nicht, dass er unbrauchbar wäre. Er liefert nur eben um einiges weniger an Leistung. Wieso vermengst du das hier so einfach?


5. Doch, eigentlich schon. Heute kommt man mit einer 5 Jahre alten CPU stellenweise noch gut zurecht, 8 oder 10 Jahre alte Modelle jedoch sind eindeutig im Hintertreffen.


6. Weil du das so gerne von den anderen hier verlangst: Beweis für deine Behauptung? Ich kann keinen Fehler in dieser Logik entdecken. Das Bild, welches man jetzt bei 800x640 siehen kann, wird man mit potenteren GPUs und den gleichen CPUs in 2 Jahren auch bei 1680x1050 sehen können. Rechne es nach. ;)

Abschließend: wäre es möglich uns auf das Hauptthema zu beschränken und die ganzen Nebenfronten wegzulassen? Das würde das Ganze um einiges entkomplizieren.
 
Zuletzt bearbeitet: (fehlende Satzteile ergänzt)
Sowohl die Leistung pro Kern ist entscheidens, als auch die Leistung des gesammten Prozessors.
Bei Software die nicht alle Kerne nutzen kann ist die Leistung pro Kern bei diesem Programm entscheidend und bei Software die alle Kerne nutzen kann natürlich die Leistung des gesammten Prozessors.
Anhand des sehr guten Abschneidens der i3 Modelle im Vergleich zu AMDs X4, X6 und zu Intels eigenen i5 und i7 Modellen sieht man sehr schnell wie viele Kerne die Spiele wirklich effektiv nutzen.
 
Held213 schrieb:
@mace1978:
Wenn ich deine Posts so verfolge, ist bei dir alles nicht schlüßig und repräsentativ, was nicht von dir kommt. Alle Zahlen, die eine eindeutige Sprache sprechen, scheinen dich nicht so recht zu interessieren.
Wie kommst du darauf. Natürlich interessieren die mich. Nur die meisten Rechner laufen meistens im idle. Dort ist der i3 laut den Tests, die ich bisher gesehen habe im Stromverbrauch höchstens gleich auf, womöglich sogar schlechter. Für den Lastverbrauch wird ein Extremtest gewählt, der real wenig zum Tragen kommt.
Ich bestreite nicht, dass der i3 unter Last Stromsparender agiert. Die Tests messen logischerweise gravierendere Unterschiede als es im täglichen Gebrauch tatsächlich auftritt.

Wenn jemand behauptet, der i3 wäre ein Stromsparwunder, und liegt massivst vor dem PII, dann ist die Aussage nur richtig, bei Leuten, die einen reinen Volllast-PC haben.
Für den Grossteil der User wird der Unterschied gering sein, und stark auch von anderen Komponenten abhängen.

Fetter Fettsack schrieb:
Und diese ist nach Strich und Faden falsch, da kannst du noch so sehr die Diskussion in die Länge ziehen. Es ist ein unumstößliches Faktum, dass ein SB-Prozessor eine höhere IPC als ein K10.5 aufweist, ebenso ist bei gleichem Takt und gleicher Kernanzahl der Energieverbrauch unter Last bei der SB-CPU signifikant geringer. Kann man ganz leicht vergleichen, indem man einen 965 hernimmt und seine Leistungen mit denen eines 2500K misst. Trotz der Taktdifferenz zugunsten des AMDs ist dieser durchgängig langsamer. Ebenfalls sind die SB-CPUs beim Lastverbrauch vorne.
Das ist mitnichten meine erste Aussage. Desweiteren ist es aus dem Kontext gezogen. Die Aussage war, dass ihr Werbewirksame Sprüche/Thesen verwendet, deren Bedeutung doch mehr als Zweifelhaft ist.
Die IPC ist doch völlig egal, es kommt auf die Gesamtleistung an.
Dass der SB unter Last weniger verbraucht habe ich doch nie bestritten. Aber meines Erachtens wird dieser Punkt völlig überbewertet. Nicht weil ich Energieverbrauch als unwichtig ansehe, sondern da dieser Komplettlastzustand nicht so häufig vorkommt, und im Idle ist der PII laut den CB-Tests mindestens gleich auf, ich habe sogar einen Test offensichtlich mit einem anderen MB gepostet, in dem er bessere Werte erziehlt hat, als der i3 in seinen Tests.
Hier ist die Informationslage jedenfalls sehr ungenau, wer behauptet, der i3 ist insgesamt Energieeffizienter muss erstmal nachweisen, dass er auch im Idle effizienter ist.
Wenn er dies nämlich nicht ist, kommt es stark auf das Nutzungsverhalten an.

Fetter Fettsack schrieb:
1. [...] Mir ging es aber darum zu zeigen, dass dieser Test nicht für die Bewertung von absoluter CPU-Leistung taugt, wofür du ihn aber in Post #434 herangezogen hast.

2. Eigentlich wollte ich mit dieser Aussage klarmachen, dass du hier nicht so einfach direkte Vergleiche anstellen kannst.

3. Die ursprüngliche Aussage war, dass es Unsinn sei, dass die CPU-Anforderungen bei Spielen ansteigen würden. Wenn dem so wäre, wieso wird dann bei jedem neu erscheinenden Spiel mit halbwegs moderner Engine ein QuadCore empfohlen, wo früher doch immer ein DualCore ausreichte?

Besagter Fehler liegt mE darin, dass zum Einen eine HD6850 um 20% schwächer ist als eine HD5870 und daher eher limitiert. Zum Anderen liegt er darin, dass du einfach so einen Test mit einem anderen vergleichst, der aber einen völlig anderen Umfang (mehr Spiele, ein Haufen an Anwendungen) aufweist. Dann nimmst du den Test mit dem geringeren Umfang, der auch noch (bedingt durch sein Setting) in einem GPU-Limit stattfindet (bzgl. HD6850) und verwendest ihn als Grundlage dafür zu behaupten, dass eine Stagnation beim CPU-Leistungsbedarf bei Spielen eintritt. Das ist so aber nicht richtig. Eine Verlangsamung dank der Konsolen ist wahrzunehmen, aber keine Stagnation. Beweisen kann ich es abgesehen von den steigenden Systemanforderungen der Spiele nicht, aber ich kann dir deine Aussage bzgl. der Stagnation aufgrund des GPU/CPU-Testes widerlegen. Mehr kann ich dazu nicht mehr sagen.

4. Was soll dieses ins Lächerliche ziehen meiner Aussage? Ich verkneif mir das bei dir ja auch, also lass das bitte. Der Q9450 war zu seinem Erscheinen das, was der 2500K oder der 2400 heute ist. Du solltest daher die Aussage "am Limit laufen" nicht gleich mit "völlig unbrauchbar" gleichsetzen. Mein alter E5200 lief in BFBC2 auch völlig am Limit, spielbar war es trotzdem.

Falls du es nicht bemerkt hast: mir geht es hier rein um meine Aussage, dass man mit CPUs, die eine höhere IPC haben als ihre Konkurrenz, über einen längeren Zeitraum hin gesehen besser fährt als mit ihren Gegen-Modellen. Sprich im Vergleich gegen einen 2500K kann ein 965 BE einpacken gehen, jedoch heißt das eben nicht, dass er unbrauchbar wäre. Er liefert nur eben um einiges weniger an Leistung. Wieso vermengst du das hier so einfach?


5. Doch, eigentlich schon. Heute kommt man mit einer 5 Jahre alten CPU stellenweise noch gut zurecht, 8 oder 10 Jahre alte Modelle jedoch sind eindeutig im Hintertreffen.


6. Weil du das so gerne von den anderen hier verlangst: Beweis für deine Behauptung? Ich kann keinen Fehler in dieser Logik entdecken. Das Bild, welches man jetzt bei 800x640 siehen kann, wird man mit potenteren GPUs und den gleichen CPUs in 2 Jahren auch bei 1680x1050 sehen können. Rechne es nach. ;)

Abschließend: wäre es möglich uns auf das Hauptthema zu beschränken und die ganzen Nebenfronten wegzulassen? Das würde das Ganze um einiges entkomplizieren.
1. Das habe ich nicht, denn genau das ist mein Punkt, dieser Test soll nicht die CPU Leistung wiedergeben, sondern gucken, welche CPUs und GPUs was erreichen. Das Nebenziel des Testes ist offensichtlich möglichst viele Intelbalken on the top zu zeigen.

2. Ich vergleiche ja auch nicht. Ich stelle nur fest, dass es keine Indizien dafür gibt, dass aktuelle Testergebnisse irgendwie in die Zukunft schauen können. Das konnten sie nämlich noch nie.

3. Ich habe die Anwendungsanalyse doch komplett rausgenommen und Spiele vs Spiele gesetzt. Desweiteren habe ich auch die Werte der 6970 genommen, und auch da schrumpfte der Abstand. Also deinen Punkt mit den 20% weniger GPU-Leistung kannst du dir getrost sparen.

4. Ich wollte deine Aussage keineswegs ins lächerliche ziehen. Aber deine Aussage ist nun mal, alles unter dem 2500er ist in 2 Jahren zu schwach. Da kann ich doch nichts für.
Wie schön, dass du nur auf eine von 13 Zeilen eingehst. Denn in den 12 Zeilen darauf, und den dahinter stehenden Links kann man gut sehen, dass die Führenden in dem einen Test keineswegs sicher bessere Chancen in der Zukunft haben werden.
Zwei der vor dem 955 liegenden CPUs liegen bei allen neuen Tests hinter ihm. Vermutlich würden das noch mehr CPUs machen, aber diese werden nichtmal mehr getestet. Warum wohl?

6. Irgendwie scheinen wir hier aneinander vorbeisprechen. Im alten Test liegt der x6 hinter dem x4(Bei 1680 2%, bei 800 11%) im neuen liegt der X6 vorne.
Das ist ein klarer widerspruch zu eurer Behauptung, man könnte mit diesen Tests in die Zukunft schauen.
Unter 4 habe ich ja auch noch weitere Beispiele gebracht, wo man schön sehen kann, dass das so einfach nicht geht. Natürlich kann man das meistens sehr gut erklären.
Aber dann braucht man die Tabelle mit den Werten nur noch als Hilfsmittel, alles andere machen die Weissager.

wadenbeisser schrieb:
Anhand des sehr guten Abschneidens der i3 Modelle im Vergleich zu AMDs X4, X6 und zu Intels eigenen i5 und i7 Modellen sieht man sehr schnell wie viele Kerne die Spiele wirklich effektiv nutzen.
Das ist völlig richtig. Allerdings ist das ja der Status quo, das kann sich auch irgendwann mal ändern. Und an sich ist es auch nicht der Status quo, denn Benchmarks sind die eine Sache, im Alltag kann es durchaus anders aussehen, wenn dann einige Anwendungen noch nebenher laufen etc.

7. Was ist denn genau Nebenschauplatz?
 
Zuletzt bearbeitet:
0.5: So sehr aus dem Kontext gezogen war die meines Erachtens nicht.

Wen interessiert den die IPC?

Wichtig ist was hinten rauskommt. Und selbst das ist ja offensichtlich nicht trivial entscheidbar, warum wollt ihr das dann noch verkomplizieren?

Erschreckend, wie einige hier Zukunftssicherheit verstehen....wegen einem per se ungenauen da vereinfachten Testszenario und einem Unterschied von 10% in Settings, die den Unterschied noch stärker betonen.

Mir ist das langsam zu mühsam, dann kauft doch eure doppelt und dreifach so teure CPU, wenn ihr euch damit gut fühlt.

Um den so intel-freundlichen TH-Test zu zitieren, den ein Intel Jünger hier gebracht hat
In der Vergangenheit haben wir statt Metro 2033 noch Crysis genutzt. Dabei zeigte sich ein deutlicher Unterschied zwischen Core-i3-CPUs mit zwei Kernen plus Hyper-Threading und echten Drei- und Vierkern-Modellen wie dem Athlon II.

Und das ist ein Vergleich mit Athlons nichtmal mit Phenoms.

Stellt einfach eure Thesen von den überlegenen IPC und dem geringen Stromverbrauch auf und was euch noch so in den Sinn kommt. Diese Firma belügt euch seit über einem Jahrzehnt, und ist da offensichtlich sehr geübt drin. Wenn ihr das mögt, euer Bier.


Wichtig ist, was hinten raus kommt. Und was soll den hinten rauskommen außer der Single/Multithreaded-Leistung (ersteres ist de facto IPC in Reinform, zweiteres hängt davon auch merklich ab) und dem Energieverbrauch? Gut, wenn es Kombinationen gibt, wo takt- und kerngleiche (von der Anzahl her) AMD-CPUs eine Intel-CPU (SB) im Idleverbrauch um sagen wir 10 Watt schlagen, gut, eindeutiger Punkt für AMD. Allerdings ist das, soweit ich deinen Post überblicken kann, der einzige Pluspunkt von K10.5 gegenüber SB (wenn CPUs mit gleicher Kernanzahl und Taktfrequenz verglichen werden).

Betreffend Lastverbrauchsunwichtigkeit: Wenn man zwei Stunden ein Spiel spielt, dass den Prozessor ordentlich auslastet, sollte sich der Unterschied zwischen einer 95W CPU, die nochdazu eine viel höhere Leistung aufweist und demensprechend nicht so voll ausgelastet ist und einer 125W CPU, die um einiges intensiver (mehr Load = mehr Verbrauch) an den gleichen Rechenaufgaben kauen muss (da mehr als ein Viertel weniger IPC) schon dergestalt auswirken, dass die Ersparnis im Idle mehr als aufgebraucht wird. Hängt aber letztenendes vom Nutzungsverhalten ab, da hast du recht. Das ist daher eine individuelle Sache, wo wir wohl kaum eine endgültige Antwort finden werden. SB ist unter Last offensichtlich effizienter (dort ist der meiste Verbrauch, ich halte es daher für gerechtfertigt, overall von einer höheren Effizienz zu reden), im Idle ist deiner Ansicht nach K10.5 besser.

Durch die Bezeichnung "These" bekommt man als Leser zudem den Eindruck, dass die gerade von mit erläuterten Punkte falsch seien. Deswegen habe ich auch überhaupt darauf geantwortet, weil es eben nicht falsch ist. SB ist K10.5 leistungstechnisch und auf jeden Fall energieverbrauchstechnisch bei Last überlegen. Was gibt es da zu diskutieren? Das hat nichts mit Parteilichkeit zu tun oder sonstigen kindischen Animositäten, die man allenortens unterstellt bekommt, weil man nicht sagt, was diverse Leute hören/lesen wollen, sondern ist die simple Realität.


Die IPC ist doch völlig egal, es kommt auf die Gesamtleistung an.

Ach ja. Woraus setzt sich denn die Gesamtleistung zusammen?


1.

Der ein Jahr alte Test von CB (Zwei 3-Kern-CPUs) sieht in den Spielen bei 560BE=100%;Grafikkarte 5870
Den x4 965 bei +31%
den 1090 bei +28%
Die intels sind damals logischerweise noch nicht getestet worden.

Heut zu tage ist bei der etwa gleichstarken 6850 auf einmal nur noch ein Unterschied von 5-6% messbar.
Bei der 6970 sind es 17%/18%.

Wie man sieht, je älter die 560 wird, desto Zukunftsfähiger wird sie.
Zukunftsfähigkeit des Prozessors ist also Nachweislich ziemlicher Unsinn.

Wenn das keine Bewertung einer CPU ist, was ist es dann?
Betreffend "Nebenziel": Nein, ist es nicht. Keine Sau kann hier etwas dafür, dass SB in der Regel leistungsmäßig einfach besser ist als K10.5 (bei gleichem Takt und gleicher Kernanzahl). Der Test sollte nur verdeutlichen, welche Ergebnisse welche Kombination hervorbringen kann. Der übertaktete I7 diente dazu, zu zeigen, wie es mit einer (momentanen) High-End-CPU aussieht. Warum soll man dann auch noch mit einem möglichst starken AMD-Prozessor testen? Um zu sehen, dass der langsamer ist als der 2600K? Wieso kommt jedes Mal sofort von der einen oder anderen Seite immer der Vorwurf der Parteilichkeit, wenn einem das Ergebnis nicht ins Konzept passt?

Soll man vielleicht nur Spiele nehmen, wo AMD gut abschneidet?
Viele, die so groß herumschreien, wissen oft nicht einmal die Grundlegensten Dinge über CPUs, aber ernstnehmen soll man sie, sonst ist man ein arroganter und eitler Gockel.

Ja, das ist polemisch und angriffig, aber diese Penetranz, mit der diese ewige Parteilichkeits-Behauptung von alles und jedem aufgestellt wird, ist auch nimmer lustig.

2. Doch, können sie prinzipiell. Wenn jemand wissen will, welche Leistung seine CPU mit einer besseren GPU (HD7970 z.B) in einem Spiel mit den Anforderungen X erbringen könnte, kann er das aus den LowRes-Benches herauslesen. Wenn du nun mit dem "Argument" kommst, dass der X4 früher vor dem X6 gewesen sei, so ist das deswegen nicht schlagend, weil jedem mit ein bissl Sachverstand klar ist, dass der X6 mit der Zeit mehr von seinen Kernen profitieren kann.
In Kurzfassung: in die Zukunft schauen = zeigen, was mit zukünftigen GPUs bei den getestenen Spielen in etwa möglich sein wird.
Wie das geht, hab ich weiter oben schon dargelegt. Wir können ja gerne in 9 Monaten nochmals nachschauen (bei den ensprechenden Spielen) und dann sehen, wer recht hatte.

3. Hier hast du bzgl meiner Gegenargumente recht, diese sind großteils falsch. Mein Fehler war der, dass ich die Spieleauswahl ausgeblendet habe. Die Spiele beim GPU/CPU Test sind (soweit ich das beurteilen kann) GPU-fordernder, daher sehen wir erst bei den Highend-Karten, inwieweit sich die jeweiligen Prozessorn in ihrer maximal möglichen Leistung unterscheiden. Ich halte daher meine Aussage aufrecht, wonach man die beiden Tests nicht vergleichen kann, stütze sie nun aber auf die geänderte Spieleauswahl.

4.1 Nein, eben nicht. Ich habe schon oben geschrieben, dass "am Limit laufen" (also eine sehr hohe Auslastung zu haben) eben _nicht_ mit "unbrauchbar" gleichzusetzen ist. Man hat dann halt weniger Frames, was aber auf dem hohen Niveau eh nicht wirklich schlimm ist. Das war doch eindeutig.

4.2 Die Unterschiede zwischen Q9550 und dem X925/935 sind durch die jeweilige Taktdiferenz begründet, wobei sich diese "Unterschiede" im 2% Bereich bewegen. Der langsamere 925 (2,80GHz zu 2,83GHZ des Q9550) ist 2% unter diesem, der X935 ist mit seinen 2,90GHz um 2% schneller als der Q9550 mit seinen 2,83 GHZ. Was soll ich denn da noch schreiben? Das dieser Vergleich von dir kein sonderlich geglückter war?
Betreffen des LowRes Testes von 2009 und dem HighRes Test von 2011 mit dem 955 und dem Q9550: wie ich oben schon erwähnt habe: der Ausblick gilt (eigentlich sagt einem das der Verstand) für die getesten Spiele (und im begrnezten Umfang für Spiele mit sehr ähnlicher Engine und ähnlichen Anforderungen). Welche Spiele wurden 2009 und welche 2011 getestet? Eben...

6. Dass der X6 im 2x 3Kern CPU-Test hinter dem X4 liegt und im GPU/CPU-Test plötzlich vorne, liegt an der Spieleauswahl. Die jetzigen haben eine vielfach bessere MEhrkernoptimierung. Daher auch der Unterschied.

Es spießt sich bei uns wohl am Begriff "Zukunft". Ich verstehe darunter "Zukunft mit dieser CPU und einer besseren GPU". Für mich war das selbstverständlich, weil ja einzig die Auflösung varriert wird, also ist es ja logisch, dass sich das auf ein zukünftiges Szenario mit einer besseren GPU aber der selben CPU bezieht. Für diesne Bereich sehe ich das sehrwohl als brauchbar an.


7. Nevermind, mir wurde das ganze Nachschlagen in den Posts und Tests kurzzeitig ein bissl zu mühselig, weil ich eigentlich tewas ganz anderes machen wollte und meine letzte längere Forendiskussion auch schon eine Weile her war. Mittlerweile geht es wieder.^^
 
1. Ich könnte jetzt dahergehen, und dir die Begrifflichkeiten These,Schlussfolgerung und Fakt genauer erklären.
Es ist nun mal so, dass ihr die verwendeten Begriffe als Fakten dargestellt habt. Sie sind aber keineswegs Bewiesen. Also keine Fakten. Ob ich idle/Last anders interpretiere als du, spielt einfach keine Rolle.
Deine Aussage ist in keiner Weise in seiner Allgemeingültigkeit eingeschränkt. Und so einfach faktisch nicht richtig, oder zumindest faktisch nicht nachgewiesen.

2. Ich habe doch garnichts dagegen gesagt, dass ich eure Ergebnisse anzweifel oder sie nicht für repräsentativ halte. Ich finde es nur merkwürdig, dass
a) Man bei einem "GPU braucht CPU"-Test der Hauptartikel fast der komplette Platz für Grafen draufgeht, die eine CPU vs eine Andere CPU stellt, im Anhang dann zu 100%.
Eine Gegenüberstellung der Komplettsysteme hätte mehr Sinn gemacht.
b) Man auf den bei computerbase üblichen Preis-Leistungsgrafen verzichtet. Gerade bei einem Test, wo es sich absolut anbietet. Wäre es nicht super gewesen, wenn man gleich teure Systeme gegeneinander gestellt hätte?
c) Der Titel etwas anderes impliziert, als das Fazit.

3+4/6) Du verstehst mich hier leider nicht. Ich versuche es trotzdem noch einmal.

Natürlich sind das andere Spiele+GPUs, der Testparcours wurde auf ein aktuelles Niveau angepasst. Mit den gleichen Spielen und GPUs, würde der Vergleich ja nicht funktionieren.
Somit bekommt man einfach den Nachweis, dass die Zukunftsprognose (z.B.von vor 2 Jahren) sich nicht mit Fakten erhärten liess, sondern im Gegenteil klare Widersprüche widerlegen diese Behauptung.

Es hackt nicht am Begriff Zukunft, so wie du es darstellst.
Zukunft --> neuere GPU+neuere Spiele ---> ein neuer Benchmark Parcours und ein angepasstes Testsystem

Ich glaube wenn es am Zukunftsbegriff scheitert, dann daher, dass du nicht bemerkt hast, dass von 2009 aus gesehen 2011 die Zukunft ist.


Und richtig schlimm wird es dann, wenn du behauptest, es ist ja klar, dass der x6 den x4 schlägt, wegen mehr Kernen. Logisch schlüssig. Aber nicht siehst, dass die Entwicklung durchaus auch dazu führen könnte, dass der x4 den i3 bald schlagen könnte.


Gehen wir den aktuellen Test mal durch:
- SC geht ohne AA klar an intel. Mit AA geht es mit NV und der 6990 an Intel. Der x2 bricht häufiger ein
- Witcher x2 ist sichtbar langsamer. GTX570(ohne AA) und 590 und 6990 weisen i3,und AMD in die Schranken
-BC X2 bricht deutlich ein. Die 6990 und 590 gehen wieder an Intel, allerdings stellt sich schon die Frage, was man mit bis zu 171 FPS machen soll. Ansonsten läuft AMD mit NV besser, intel mit AMD, aber keine grossen Unterschiede.
- Crysis X2 schwächer. Bei der 6990 scheint der Treiber den Crossfiresupport zu zerstören bei i3,x4,x6. Ansonsten bleibt festzustellen, dass die gtx 590 zeigt, dass es in den anderen Grafen wohl eher nicht am CPU Limit liegen kann. Denn AMD hat einen klaren Rückstand auf der 590, aber weit mehr Frames, als bei den anderen Tests.
-Dragon Age, die Multigpu Karten haben einen etwas grösseren Vorsprung für Intel, der Rest ist beinahe Gleichauf
- Metro hier ist alles sehr ausgeglichen, möglicherweise hält der x2 in Kombination mit der 6990 ein wenig auf.

Insgesamt fällt auf, dass die 590 sehr schlecht mit dem x4 harmoniert, in Metro+Dragon Age liegt er am letzten Platz. In dirt3,crysis(aa),the witcher(leichter) mit deutlichem Rückstand zum x6, welcher bei der 6990 und 570er nicht existiert. Für plausibel halte ich diese Einbrüche nicht.

Das Fazit, dass man einen schnellen Prozessor für Multigpu braucht, dann ist dies in dem Test sicher ablesbar.
Aber wenn man sieht, dass wie bei crysis nicht unbedingt ein GPU Limit dahinter stecken muss.
Und wenn dann die ersten 4 Tests alle kein bisschen von der Multigpu profitieren, solange nicht ein 2500er,2600er(teilweise nicht mal da) drin ist und man mitunter auch weiss, dass das tatsächlich nicht an einem bremsenden Prozessor liegen muss, sondern auch einfach mangelnder MGPU support, muss man auch dieses Fazit wieder ein wenig hinterfragen.
 
1. Wenn sich der gesamte Absatz auf die Effizienzfrage bezieht: Es ist mehrfach bewiesen, dass der i3 unter Last um einiges weniger an Strom braucht, im Idle auf jeden Fall nicht mehr als ein paar Watt mehr (zudem abhängig vom jeweiligen Board). Wieso soll dieser Umstand es nicht rechtfertigen, den i3 als energieeffizienter zu bezeichnen? Ich habe bislang noch immer kein hieb- und stichfestes Gegenargument von dir dazu gelesen.


2. Ich bin offensichtlich nicht in der Lage den Konnex zwischer deiner mit "2." bezeichneten Antwort und meinem ursprünglichen Text zu erkennen. Bitte erklären, was das miteinander zu tun hat.


3 fortfolgende.

Es hackt nicht am Begriff Zukunft, so wie du es darstellst.
Zukunft --> neuere GPU+neuere Spiele ---> ein neuer Benchmark Parcours und ein angepasstes Testsystem

Ich glaube wenn es am Zukunftsbegriff scheitert, dann daher, dass du nicht bemerkt hast, dass von 2009 aus gesehen 2011 die Zukunft ist.

Somit bekommt man einfach den Nachweis, dass die Zukunftsprognose (z.B.von vor 2 Jahren) sich nicht mit Fakten erhärten liess, sondern im Gegenteil klare Widersprüche widerlegen diese Behauptung.

Die Prognose mitsamt ihren Einschränkungen:

Zitat aus einem Test 2011:

Parallel dazu geben wir aber auch das Rating aus, was einen Blick mehr in die Zukunft offenbart, wenn die Anwendungen nahezu gleich bleiben, Spiele aber weiterhin nicht nur auf Grafik sondern auch auf CPUs optimiert werden.

Zitat aus einem Test 2009:

Parallel dazu geben wir aber auch das Rating aus, was einen Blick mehr in die Zukunft offenbart, wenn die Anwendungen nahezu gleich bleiben, Spiele aber weiterhin nicht nur auf Grafik sondern auch auf CPUs optimiert werden.

Die Prognose erfolgte unter der Einschränkung darauf, dass man zukünftig die (singlethreaded) CPU-Leistung mehr auszunutzen vermögen würde. Beispiel:

Test 2009: 965 gegen i5 750, 93% zu 100% bei 800x600

Test 2011: 975 vs. i5 760, 89% zu 100% bei 1680x1050

Prognose eingetreten. (Ja, diese CPUs kann man in etwa vergleichen, da bei beiden Modellen der Takt nur unwesentlich angehoben wurde[das leichte Absacken des 975 deswegen, weil 166MHz bei Lynnfield IPC mehr ausmachen als 200MHz bei K10.5 IPC])

----------------------------------

Und richtig schlimm wird es dann, wenn du behauptest, es ist ja klar, dass der x6 den x4 schlägt, wegen mehr Kernen. Logisch schlüssig. Aber nicht siehst, dass die Entwicklung durchaus auch dazu führen könnte, dass der x4 den i3 bald schlagen könnte.

Vielleicht weil der i3 (SB-Generation) eine völlig andere Architektur hat, die um einiges mehr Leistung aufzuweisen hat?

https://www.computerbase.de/2011-04/test-intel-core-i3-2100-2120/31/#abschnitt_resident_evil_5

RE5 skaliert sehr gut mit der Kernanzahl, der Phenom kann hier also sein volles Potenzial entfalten. Dennoch kann ein 2120 trotz 300MHz und zwei Kernen weniger einem 975 Paroli bieten.

Selbst unter 1680x1050 beträgt der Unterschied sagenhafte 2% oder 2,6 Frames pro Sekunde mehr für den X4, was sozusagen unter die Messtoleranz fällt. Das zieht sich durch den ganzen Test so durch, sowohl bei 1680x1050 als auch in den LowResolution Benches. Deswegen wird es eben nicht "richtig schlimm".

----------------------------------

Erkläre mir bitte deine Kritik am Fazit nocheinmal, entweder bin ich zu dumm diese zu verstehen oder du warst schon ein wenig müde beim Schreiben.
 
Zuletzt bearbeitet:
Irgendwie ist mir nicht so ganz ersichtlich, warum du die Daten richtig beschreibst, aber doch so seltsam interpretierst.
Wie du bereits richtig feststellst:
Vor allem die i5 und i7 Prozessoren bieten fast durchweg mehr Leistung. Ein Mainboard, da du ja darauf angesprochen hast, dass hier nicht die Komplettsysteme verglichen wurden, macht sicherlich keinen Unterschied von 5-10FPS oder sogar mehr aus (Ja hier sind es Prozente, allerdings kann man ja bei den anderen Tests nachschauen wie der Bereich so aussieht). Was ich bisher so an Mainboardtests gesehen habe, kann sich dies zwar im Bereich 0-2 FPS bewegen im hohen Bereich, allerdings sind dies immernoch Werte die man auch als Messtoleranz festlegen könnte. Und das hier sicherlich kein DDR1 Speicher bei i7 Prozessoren verwendet worden ist sollte auch klar sein...


Was allerdings erstaunlicher ist, ist die Tatsache (siehst du auch an den von die beschriebenen Graphen), dass du selbst sagst, dass die i5+i7 Prozessoren vor allem bei den MultiGPU Tests z.B. im Falle eines i5 exakt 24% mehr FPS liefert, egal ob man eine 6990 oder eine 590 zur Hand nimmt. (seltsamer Zufall oder?)

Und genau dies zeigt ganz deutlich, dass ein 965 zwar momentan noch nicht ganz unter den Tisch zu kehren ist, allerdings nunmal doch nicht mehr für die nächste Grafikkartengeneration genügend Leistung liefert. Kannst du ja an den letzten Generationen beobachten, die meistens ca. die Leistung der letzten MultiGPUs erreicht haben. (4870x²-->5870; GTX295-->470; wobei die 69XX Reihe hier aus dem Rahmen fällt...Aber da diese Reihe ja nicht umbedingt ein Schuss ins schwarze war, da sind wir uns ja, denke ich mal, einig. Einzig eine geringe Verbesserung der 5er Serie, was ja aber eh klar war im Vorfeld nach den Produktionsproblemen)

Und ich nannte dir schon Beispiele, welche nunmal nur von einer starken CPUs jetzt bereits profitieren, bei denen dies auch sehr deutlich bemerkbar ist.
 
Dieser Test ist schlichtweg unglaubwürdig.
Keinerlei Angaben zum Gesamtsystem, nichts ist nachvollziehbar.
Ich habe esa bei CB schon öfter gesehen das für AMD Graka schon ältere Treiber verwendet wurden als bei nVidia. Da wurde sich dann raus geredet neuere Treiber hätten nicht zur Verfügung gestanden, seltsam seltsam...:king:
Die nVidia pendants hatten dagegen die neuesten neuen Treiber überhaupt, die AMD dagegen waren über 2 Monate alt.
Welcher Speicher wurde auf dem AMD Sys verwendet, genug Speicher überhaupt vorhanden usw usw ????
CB, man muss euch mal wieder eine absolut Pro Intel vorgefertigten Test vorwerfen.
 
Wie sieht es aus rumpel01 mit evtl. Plänen die Preis-/Leistungsskala noch nachzureichen? Wäre sicher für den ein oder anderen Leser trotz allem interessant meinst du nicht?

Edit: Sorry, irgendwie falschen Namen im Kopf gehabt...
 
Zuletzt bearbeitet:
Der gleiche Ram auf beiden Systemen?
Ok, sry. Normalerweise schreibt ihr sowas eher an den Anfang von Tests, nicht so weit hinten, mein Fehler.
 
mace1978 schrieb:
Wie kommst du darauf. Natürlich interessieren die mich. Nur die meisten Rechner laufen meistens im idle. Dort ist der i3 laut den Tests, die ich bisher gesehen habe im Stromverbrauch höchstens gleich auf, womöglich sogar schlechter. Für den Lastverbrauch wird ein Extremtest gewählt, der real wenig zum Tragen kommt.
Ich bestreite nicht, dass der i3 unter Last Stromsparender agiert. Die Tests messen logischerweise gravierendere Unterschiede als es im täglichen Gebrauch tatsächlich auftritt.

Wenn jemand behauptet, der i3 wäre ein Stromsparwunder, und liegt massivst vor dem PII, dann ist die Aussage nur richtig, bei Leuten, die einen reinen Volllast-PC haben.
Für den Grossteil der User wird der Unterschied gering sein, und stark auch von anderen Komponenten abhängen.

Falsch, auch idle sind die SB wesentlich sparsamer, wenn man auf den richtigen Unterbau setzt.

https://www.computerbase.de/forum/t...h-nur-konfigs-ergebnisse.857615/#post-9362834

Das Board vom Test hat einen deutlichen Mehrverbrauch zur Folge. Bei SB sind mit gutem PSU 15-25W idle für das komplette System die Regel, ohne Untervolting. Natürlich kommt noch die GPU eines Gamingrechners dazu.

Bei den AMD / Intel CPU an sich gibt es wenig Unterschiede im Idle Verbauch, der liegt bei unter 3W / CPU. AM3 ist aber nicht so schlank und sparsam wie 1155... liegt an den wenigen PCIe Lanes, USB3 fehlt, "nur" 2x SATA III etc.

Die letzte Kiste die ich gebaut hat beherbergte einen 2600K @ 4,6 ghz Luft, idle mit HD6850 lächerliche 52W.
 
Zuletzt bearbeitet:
@FF
zu 2. Richtig, so macht das wenig Sinn, eigentlich bezieht sich 2 auf den Spoiler von 1.

@Dein Beispiel
Was hast du mit deiner Argumentation vor. Zum einen gibst du mir ja grundlegend Recht, indem du die zitierten Textpassagen vorlegst. Da liegt aber ein Missverständnis vor. Als ich gesagt habe, ihr betrachtet das ganze als Zukunftmeter und das falsch, meinte ich damit nicht vorwiegend CB, sondern vor allem Poster in diesem Forum, die anhand eines 2% Unterschiedes erkennen, welcher Prozessor für die Zukunft die richtige Wahl ist.
Auf der anderen Seite versuchst du dann doch nachzuweisen, dass an der Zukunftsprognose was dran ist. Aber du kannst diese These nicht dadurch beweisen, dass du ein Beispiel nennst, in dem es klappt. Du kannst nur mit einem Beispiel nachweisen, dass diese These nicht allgemeingültig ist.

@nospheratu
Meine Intention liegt nicht darin anzuzweifeln, dass durch falsche Boards der Unterschied zustande gekommen ist.
Meine Intention ist, zu sehen(folgende zahlen sind aus der Luft gegriffen):
Für 350€ kriegt man ein System mit x2+6850, kriegt dafür Leistung a.
Für 500€ kriegt man ein System mit x2+570 oder eines mit x4+6970 oder eines mit i5+6850, und dann vergleicht man, welches dieser Systeme die beste Leistung liefert.

@Rest meines Postes gestern.
Dieser Teil ist nicht Teil der bisherigen Debatte.
Es wäre meines Erachtens hilfreich, wenn cb die Testwerte der Kombination x4 und 590 noch einmal überprüft, an einigen Stellen liegt der X4 klar hinter dem x2, dafür würde mir keine logische Erklärung einfallen. Den Grossteil dieser Testreihe ist er unerwartet schwach.

17.png
Auf allen Karten ist dieses Spiel offensichtlich GPU-limitiert, bei der 590 dann auf einmal CPU-limitiert. Und das ist noch der Graf ohne AA mit AA zieht dann sogar der X2 vorbei.

Auch ist die Frage, ob die MGPU-Tests brauchbar sind zu stellen.
15.png

In Crysis 2 sieht man Anhand der eingebundenen Grafik super, dass der Prozessor die 6990 nicht ausbremsen sollte, denn die Prozessoren schaffen mehr als die Framezahl der 6990. Trotzdem liegt diese sogar hinter der 6970.
Man muss sich schon die Frage stellen, ob es vielleicht noch einen anderen Grund geben könnte, warum die 6990/590 in 4/3 Spielen, garnicht von ihrer Power profitieren können. Zumindest bei Crysis und AMD+I3 ist es offensichtlich nicht die CPU-Power.

@busta
Sicher gibt es bei vielen Tests noch verbesserungsmöglichkeiten im kleinen, aber deswegen cb Parteilichkeit vorzuwerfen geht meiner Meinung nach zu weit.
Allerdings würde mich bei diesem Test schon interessieren, wie cb auf die Idee gekommen ist den Test durchzuführen, wie er ist.
 
Zuletzt bearbeitet:
Zurück
Oben