4 jahre lang i5 750, nu xeon 1230. was hats gebracht?

Status
Für weitere Antworten geschlossen.
Dann sind die 60 Post alle für umme. Der Xeon hat dir "spürbar" nix gebracht. Das bringt uns gar nix, weil man daraus keine Allgemeingültigkeit ableiten kann, und ohne die bringt es gar nix zu diskutieren. Wird sind also da, wo wir angefangen haben.
 
Dann spiel bei 1024 x 768, dann hast du vielleicht 300fps :D

Allerdings glaube ich kaum, dass du wesentlich mehr als ein Drittel davon zu sehen bekämst, weil deine Monitore das Ganze gar nicht darstellen können
 
genau! im grunde hat es so gut wie nix gebracht.. das wollte ich damit mitteilen! :D
ich habe 3 monitore mit full hd bessesen... was soll ich dazu sagen. das war eine wand... die ich nicht mehr will.
obwohl das besimmt geil war und ich bald auf den malidiven hätte urlaub machen können.
 
Zuletzt bearbeitet:
Hardwaremensch schrieb:
Nimm zum Beispiel WatchDogs als ersten Vertreter der neuen Spielegeneration die mehr als nur vier Kerne nutzt.

so nicht ganz korrekt, weil ich glaub das Crysis 3 das auch schon konnte


zudem scheint der TE es immer noch nicht ganz kapiert zu haben, dass seine GPU einfach zu schwach ist, um den Xeon auszureizen bzw. DirectX vollgemüllt ist und da noch Verbesserungspotenzial liegt (DX12)
 
fana... wenn du mit dx12 anfängst, hasst du den ganzen thread nicht verstanden.
mit dem gpu hat das ganze ding eingentlich sowieso nix zu tun.

oder willste deine titan reinwerfen?
 
du kennst aber schon den unterschied zwischen GPU-Limit und CPU-Limit

wenn du jetzt also deine Spiele im GPU-Limit betreibst.... verrat mir mal bitte, wie du dann erkennen willst, dass die CPU besser/schlechter/anders ist?!

das geht eigentlicht nicht, weil die GPU am Limit ist (eben deswegen ja der Name) und die CPU also keine Probleme hat, der GPU die nötigen Daten in der Zeit zu geben
die meisten Spiele sind einfach Grafikfresser und das schlägt sich bis heute immer noch ziemlich heftig auf die GPU.
die CPU langweilt sich dann eben

das der Xeon gegenüber dem 750 in den meisten Fällen nicht wirklich eine Mehrleistung bringt ist nix neues
das wissend die meisten User
deswegen frag ich mich schon die ganze Zeit, was du damit sagen willst
im Grunde wolltest du doch nur ausdrücken, dass es dir stinkt, dass da keine "spürbare" Mehrleistung da ist
aber das liegt nicht an der CPU sondern vorallem auch an der Software
da müsstest du dene mal aufs Dach steigen

MS hat mit Windwows 8 zumindest schonmal eine Verbesserung bzgl. Multicorescheduling gebracht gegenüber Windows 7

gn8 ;)
 
Zuletzt bearbeitet:
nö.. ich betreibe die meisten meiner anwendungen nicht am gpu limit.
früher aber sehr selten am cpu limit.. gpu holt auf.

letzten endes gehts doch nur im die cpu.. von gpu habe ich nie was schlechtes gesagt.

darum frage ich mich auch, warum die meisten hardcore-user die cpu aufrüsten.. ich gehörte ja quasi schon zum "alteisen". mit meinen 750er.

mit software hat das gar nichts zu tun... oder willste du alle programmierer eines besseren belehren?! wir sind am "lmit"..

deswegen ging es mir ja überwiegend um den vorteil der neuen schnittstellen.. wenn man genau liest.

die bringen hier und da schon etwas.. nach meinem gefühl.
 
Zuletzt bearbeitet:
Am limit? viele der proramme nutzen ja garnicht alle 8 threads/kerne und wenn dan nicht richtig und dx11 hat massig treiber overheat (fällt bei starken cpus dank gpu limit nicht auf).
 
Bin vom PH II 970 4 x 3,5 Ghz , zum Xeon .

Es bringt nur da was wo der PH II zu langsam ist und nur da .!

Hier beide male mit der selben Grafikkarte .

Gohtic 3 Ja von 60 auf 100 Fps

Far Cry 3 nein gut 40 Fps


Gohtic 3 mit 100 fps.jpggohtic 3 CPU limit.jpgXeon 1230 & 660 GTX ohne MSAA suf sehr hoch.jpgFar Cry 3  mit Ph 970 4 x 3,5 Ghz & 660 GTX auf Sehr hoch ohne MSAA.jpg
 
Also das mit der Leistungsaufnahme ist schon lustig.
Offenbar spürst du nichts, aber damit der Xeon genausoviel unter reiner CPU-Last verbraucht, musst du schon SW an den Start bringen, die ihn voll auslastet; und da hätte es dann immerhin bei der Performance was zu spüren.
Interessant wäre bei deinem Nutzerprofil der idle-Verbrauch.
Ach und btw: C6/C7 States im Bios angestellt? -> Idleverbrauch.

Davon ab:
Der Unterschied ist selbstredend nicht gigantisch. Aber schon vorhanden. Ich habe von einem Q9650 gewechselt und bei meinem Nutzungsprofil habe ich deutlich bis deutlichst Unterschiede merken können. (Videoencoding & Co).

Im übrigen: auch "früher" gab es nicht immer große Sprünge, aber da hat man schon bei 33-50% Mehrleistung aufgerüstet. War allerdings wohl auch eher dazu angespornt, damit Spielchen XY überhaupt (!) lief, statt nur auf ULTRA XY wie mittlerweile.

Und ich kann anderen hier beipflichten: das hat alles auch seine Vorteile mittlerweile. Man kann mittlerweile für wirklich wenig Kohle äußerst gute PCs zusammenbasteln. Die Verschiebung von Holzklasse über Mittelklasse bis hin zur Ober- und Spitzenklasse verschiebt sich eben immer noch etwas mehr - wohlgemerkt performancetechnisch Richtung Oberklasse, vom Preis jedoch nicht wirklich.
 
Zuletzt bearbeitet:
Hey Sebbl,

Hast du jetzt erwartet, dass wir dir zustimmen ? LoL. Du verkraftest einfach die imbaness von sonem krassen Prozessor nicht. Vielleicht ist dein Rechner auch einfach irgendwie an die langsamere Geschwindigkeit von dem i5 gewöhnt und muss erstmal wach werden! Am besten holste dir da direkt neue Sachen und schmeist die alten weg. Da is ja bestimmt auch schon Staub drin und so. i5 ... lächerlich! Der Xeon hat 8 Threads und das ist einfach imba, weil weist du in Zukunft braucht alles drölf Kerne und der Xeon braucht auch kaum Strom und friert im Sommer weil, weisst du ist ja eigentlich eine Server CPU und an viel krassere Sachen gewohnt da wo der früher gearbeitet hat. Und ausserdem braucht Watch Dogs, dieses neue Spiel was jetzt jeder, aber auch wirklich jeder für den Rest seines Lebens spielen wird, ja das braucht mindestens 64 Kerne um flüssig zu laufen. Weil das einfach so imba programmiert ist, da kann ein schnöder i5 garnicht erwarten da irgendwie Einfluss zu nehmen. Und der Xeon hat natürlich auch nicht genug Kerne für Watch Dogs aber immerhin versucht der das und der kann ja immernoch seine Brüder holen und die schmeissen dann alle Kerne zusammen die die haben und dann läuft das flüssig, glaub mir mal!

Also im Endeffekt bist du einfach das Problem hier. Wenn du den Xeon nicht hundertmal besser findest als jeden i5, dann haste einfach mal gar keine Ahnung von Kernen und Threads und spielst wahrscheinlich nur Barbies Traumhaus 3D. Komm mal lieber in die richtige Welt wo wir jetzt alle Watch Dogs spielen. Das haben wir nämlich vorbestellt seit uns das Internet gesagt hat, dass das voll gut ist. Da haben wir uns alle Xeons gekauft weil ja das so imba programmiert ist, weisste das kommt ja von den Konsolen und nichtmal die können das in Full HD wiedergeben, weil Watch Dgos einfach so krass fortschrittlich ist.

Meinem Dad hab ich auch erstmal nen Xeon eingebaut, der schreibt nämlich immer so Briefe an seinem PC und wenn man da die Tasten so voll schnell drückt, dann sind die lächerlichen Kerne von so nem i5 sofort am Ende. Nee da brauchste schon HT wenn de da nebenbei noch Musikhören willst sonst schmiert die ganze Kiste ab. Da war der voll Dankbar.

So ich muss jetzt mal wieder Watch Dogs spielen, was sonst?!, und du gibst dir mal Mühe dass de da auf deinen Rechner klarkommst.

Peace Out!
 
Zuletzt bearbeitet:
wat is imba? ich bin zu alt für diesen scheiss :D
 
fanatiXalpha schrieb:
so nicht ganz korrekt, weil ich glaub das Crysis 3 das auch schon konnte


zudem scheint der TE es immer noch nicht ganz kapiert zu haben, dass seine GPU einfach zu schwach ist, um den Xeon auszureizen bzw. DirectX vollgemüllt ist und da noch Verbesserungspotenzial liegt (DX12)

Bei Crysis haben sie diesen Mangel durch Patches beseitigt :D

In der Urversion ist der FX 8350 sogar mit dem i7 Schlitten gefahren - und sowas konnte man doch nicht lassen, also hat man herumgepatcht bis es wieder stimmte.

Im Übrigen fährt er seine Grafikkarte im Multimonitorbetrieb und FullHD, was wiederum GPU-Limit bedeutet. Er nutzt auch sicherlich kein Spiel, dass vom HT profitiert und er fabuliert davon, dass sein i5 genauso wenig Strom verbrauchte und mindestens so wenig Abwärme erzeugte wie der Xeon, und das bei 1GHz Übertaktung. Eigentlich disqualifiziert ihn schon das.
 
du kennst den prozessor nicht... da braucht man für den takt keine grosse vcore-erhöhung.
bei 4ghz sieht das ganze natürlich anders aus.

abgesehen davon habe ich geschrieben, das es kaum einen unterschied macht.. nicht keinen.

lass es unter volllast! 20-30 watt sein. das sind aber bei ca 300 watt gesamtverbrauch 10%.

multimonitor zieht natürlich etwas saft/kraft... aber das ist nicht die welt. ich spiele ja nicht auf dem zweiten.

die temps sind nahezu identisch.. liegt aber wohl auch an der DIE, da der xeon die wärme schlechter abführt.
 
Zuletzt bearbeitet:
mit software hat das gar nichts zu tun... oder willste du alle programmierer eines besseren belehren?! wir sind am "lmit"..

Okay
Du hast echt keine Ahnung
Zu sagen Software hat nichts mit der Leistung zu tun ist so ziemlich die disqualizifierendste Antwort die du hättest geben können

Bau mal ein polo-getriebe in einen SLS (entsprechend die Bauteile anpassen damit sie der Leistung stand halten)
Der SLS wird einfach seine Leistung nicht mehr auf die Straße bringen können we ein normaler
Ja, auto vergleiche sind kacke, aber mir ist kein besserer Vergleich eingefallen

abgesehen davon habe ich geschrieben, das es kaum einen unterschied macht.. nicht keinen.

Komisch
Also bei mir ist die Leistung knapp 1:1 angestiegen zum anheben des Taktes
Okay
Das war jetzt nur ein spiel wo ich da genauer verglichen habe
Aber wenn du willst Vergleich ich gern noch ein paar andere
 
Zuletzt bearbeitet:
du verstehst es auch nicht... was hast du denn bei software für eine wahl? so ziemlich gar keine...
entweder gibt es sie für multicpu optimiert oder nicht... und oft ist es "nicht" der fall.
also welche relevanz hat das dann?
 
naja, was erwartest du? du bist halt entaeuscht ob der Tatsache, dass dein neuer "i7" der 4th Generation auch nicht viel schneller ist, als ein uebertakteter i5 der ersten..

was sollen wir jetzt tun, dich bemitleiden? die frage die du dir selber stellen solltest, warum habe ich mich nicht fuer ein K-Modell entschieden.. denn wenn man schon seit Anbeginn mit einem, um "30%", uebertakteten Prozessor arbeitet, sollte man dies auch vom "neuen" erwarten. Zumindest sollte man sich darueber im Klaren sein, das diese Mehrleistung, optimal auch 30%, irgendwie kompensiert werden muss.

Welche Software wolltest du den einsetzten, damit sich HTT rechnet? wenn du solche nicht nutzt, ziehst du natuerlich auch keinen Vorteil aus HTT.

also kurz, du hast dir den, fuer deine ansprueche, falschen Prozessor gekauft.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben