AMD FX-9590 oder Intel Xeon-1231v3 zum Rendern

AMD FX oder Intel Xeon-1231v3 zum Rendern


  • Umfrageteilnehmer
    2
  • Umfrage geschlossen .
Ulukay schrieb:
indem der FX9590 14% schneller ist, als der Xeon E3-1231-v3.
Damit ist wohl alles gesagt. :)
Ja, ist es?

Und wenn ich die 14% Mehrleistung mit einer 2,75-fach höheren TDP gleichsetze? :confused_alt:
(80 Watt vs. 220 Watt)

:D
 
@rocker was ist TDP?

@TE nimm den 8320 und übertakte (und spare 100€) oder nimm den Xeon. Der 9590 ist eine interessante, aber nicht wirklich brauchbare CPU was das P/L angeht.
 
SchmetterFalter schrieb:
@rocker was ist TDP?
Sind wir hier bei Jeopardy?
Was ist Google? :lol:

TDP = Thermal Design Power

Gut, das liegt natürlich auch nicht ganz so nah, weil ich ja auch nur 2x eine Wattzahl angegeben habe :D :evillol:
 
das war wohl eine retohrische frage, weil deine tdp-angabe nix mit dem realen verbrauch zu tun hat. der FX9590 brauch idle 25 watt und last 55 watt (gesamtsystem!) mehr als der xeon. nicht 140 watt mehr wie deine tdp-angabe unterstellt.

https://www.computerbase.de/2014-05/intel-xeon-e3-1231-v3-nachfolger-1230-test/5/

@te: ich würde bei verwendung von linux und zum rendern auch den FX83X0 empfehlen, da er baugleich zum FX9590 ist, aber deutlich weniger kostet als dieser und der xeon. er scheint mir für deine verwendung der beste kompromiss aus leistung, preis und verbrauch zu sein.

ich habe selbst den FX8350 und lasse ihn üblicherweise über dem niveau eines FX9590 rennen, allerdings macht der bei mir kaum stunden und daher spielt der verbrauch bei mir keine rolle.
den xeon würde ich auf platz 2 setzen aufgrund seiner energieeffiziens und den FX9590 als schlusslicht, auch wenn er zum renden vllt der schnellste der drei ist, aber die unterschiede sind eher marginal.
 
Zuletzt bearbeitet:
Naja bei Last auf allen Kernen sinds schon so 150W Differenz, die 55W nur bei Last auf einem Kern.
 
Aber bei AMD gibt es bisher kein Mainboard außer ein noch nicht erschienenes das PCIe 3.0 unterstützt, macht das einen großen unterschied?
 
SchmetterFalter schrieb:
lol .. keine aktuelle chiopsatz? selten so gelacht :D was fehlt denn bitte einem 970er Chipsatz?

@TE wenn dir ein paar Prozent Leistung für den doppelten Preis nichts ausmachen, nimm den Xeon. Ansontsen Nimm den 8320 und übertakte ihn auf 8350er Niveau (sind ja baugleich)

Die Dinger sind 3 Jahre alt! Herstellung immer noch 65Nm. USB 3.0 ohne Zusatzchips nicht möglich. Es geht aber auch im die Mainboardauswahl: ITX findet man nicht. Ein FX 6350/8320 auf ITX wäre sicher interessant gewesen. Im Prinzip die Chipsätze vom FM2+ nehmen, AM3+ tauglich machen, ITX-Board druckenj und fertig. 3D-Drucker sind leider noch nicht soweit:-(
 
3 Jahre alt .. ja und? 65nm .. ja und? USB3.0 ohne zusatzschip .. nur lächerlich

kein ITX ist das einzige was folgen haben könnte. Der erst ist wirklcih nebensächlich und führt nicht mal bei Messungen zu einem Unterschied
 
Eigentlich sind die ja schon sieben Jahre alt. Die Unterschiede bei den 8xx und 9xx muß man ja schon mit einer Lupe suchen.
Und es gibt auch keine modernen µATX (mehr).
Zusätzlich zu dem was der Prozesssor unter Last mehr verbraucht versaut der Chipsatz einem den Verbrauch im Leerlauf.

Insgesamt nur Mittelmaß und ärgerlich.
 
Genau deswegen bin ich zu Intel gewechselt, da AMD keine moderne matx Mainboard anbietet.
Ansonsten wäre es auch ein fx8350 geworden.
Gruß
 
"modern"? ... das ein schweres Wort ;) "hochwertig" würde ich gelten lassen :D da ist Intel grad wirklich besser bei den µATX Boards
 
xyz- schrieb:
so ein blödsinn @3TR
beim rendern ist ein 8320 schon schneller als jeder intel quad

Es geht um keinen Intel Quad.

Ulukay schrieb:
In dem Review gibts Povray (ein Render Programm), indem der FX9590 14% schneller ist, als der Xeon E3-1231-v3.

Dafür zahlst du gleich mal +100€ fürs Board damit der FX-9590 aufgrund des hohen Verbrauchs nicht runtertaktet und hast generell 100W Verbrauch mehr. Tolle Wurst :freak:
 
Zuletzt bearbeitet:
SchmetterFalter schrieb:
3 Jahre alt .. ja und? 65nm .. ja und? USB3.0 ohne zusatzschip .. nur lächerlich

kein ITX ist das einzige was folgen haben könnte. Der erst ist wirklich nebensächlich und führt nicht mal bei Messungen zu einem Unterschied

Dann erklär das mal den OEMs wie HP oder Apple. Warum hatte es da lange kein USB 3.0 bei der Hardware verbaut? Richtig, weil die Intelchipsätze das nicht von Haus aus konnten. Man konnte es bei HP haben...über Zusatzkarten für 120 Franken. Bei 1500 Rechnern, die in einem Unternehmen ausgetauscht werden....kannst selber rechnen. Die Hersteller wollen heute alles aus einer Hand haben...und da ist AMD mit dem FM2+/AM1 samt "Aufkleber" auf RAM und SSD auf dem richtigen Weg.

Es geht also auch ums Marketing. Und 15W weniger sind 15W weniger. Wenn die auch im "Leerlauf" benötigt werden, braucht das System dort also statt 30W mal eben 45W. Bei 140W zu 155W sind es immer noch 10%...und dann schau mal, was die 990er Boards zum teil verbrauchen. Das bringt häufig die ganze Bilanz vom FX-83xx in ein ganz anderes Licht...auch das ist Werbung auf die eine Art!

Einfach mal nicht nur an den eigenen Rechner, sondern etwas weiterdenken. Es geht nicht nur darum, ob man es braucht oder nicht!

Die Intelchipsätze haben auch keine "richtigen" Fortschritte gemacht, aber trotzdem wirken sie "neuer" und haben eben alltäglich gebräuchliche Features direkt Onboard oder in der CPU.

3 Jahre alte Hardware gehört ins Museum. So sehen es die OEMs. Weil in der Regel genau dann die Garantie abläuft. Auch wenn wir es vielleicht anders sehen.

Manchmal reicht auch ein neuer Name mit minimalen Änderungen, wie man es bei den GPUs sieht...
 
also das 5-6 Jahre alte AM3 Board von msi GX890M oder so hat USB3, mehr als die 2 werden die wenigsten brauchen. Wenn HP und Apple (wegen Bestechung/Betrug) nur Intel verbrauen "dürfen" und deshlab kein USB 3 erhältlich ist, dann kann AMD da nichts dafür.

Der Verbrauch ist wirklcih nebensächlich, zumindest fast. Der Stromverbrauch in solchen Firmen (selbst die mit 200 Arbeitsrechnern) ist absolut nebensächlich. Da kostet der Kaffee in den Kaffeemaschinen ein Mehrfaches des Stromverbrauchs, ein wirklich sehr schlechtes Argument.

Intel wirkt nur neuer, weil jeder sich das einreden lässt und es an Neuerungen egal wie unnütz sie sind fixiert. Es ist echt drollig wie Leute immer kommen mit "Dein chipssatz ist total veraltet, du hast kein natives USB3.0" oder solche Sätze. Mitlerweile (ein paar Jahre später) gibt es immerhin Festplatten die etwas von USB3 profitieren, doch der Unterschied zwischen nativem und "altem USB3" ist immernoch nicht spürbar. Genau so ist es mit UHD beim Fernsehr oder sonst was, es ist neu aber nicht besser, vorallem weil es noch keinen Nutzen dafür gibt. Oder auch den M.2 Schnittstellen und was es da noch so alles gibt wie PCIe3 und und und. Was bringt es einem wen man was "neueres hat" wenn man dafür nur einen enormen Aufpreis zahlt aber keinen Nutzen dafür hat?
 
Zurück
Oben