AMD im Rückstand?

Danke für deine weisen Worte, die uns aus dem dunklen Tal der Unwissenheit ins strahlende Licht der Profi-PC Ecke erhoben haben.

Kein Mensch auf CB interessiert sich für Quattro Karten, AES und Photoshop Filter.
Wer mit seinem Rechner Geld verdient, rennt ins Systemhaus und kauft zur Software den passend zertifizierten Rechner.
Den Meisten hier ist doch noch nicht mal bewußt, das Videos für's iPhone recoden keine Videobearbeitung ist!

https://www.computerbase.de/artikel...-2010-test.1377/seite-9#abschnitt_specjvm2008
Das Testsetup finde ich eigentlich ausgesprochen gelungen, allerdings ist gerade der Anwendungsteil eher schwer zu lesen, da die passenden Hintergrundinfos fehlen.
Wenn Tests nur 1-2 Kerne auslasten, brauch ich keinen Quad gegen HexaCore antreten lassen.
Das ist pure Zeitverschwendung und führt hinterher nur zu merkwürdigen Disskussionen ("Der IntelDC ist ja schneller als der AMD HexaCore")

Leider ist die CPU-Auswahl bescheiden - beinahe willkürlich.

Einen Athlon II X3 / X4 gegen gleich getaktete PhenomII X2 / X3 / X4 und dazu meinetwegen ein X6 hätte deutlich mehr Aussagekraft gehabt.
Das gleiche für Intel mit i3 und i5 DC, dazu der 760er als "reiner" Quad und jeweil ein hoch getakteter i7-8xx und i7-9xx.
Dazu die derzeitige Referenz i7-980X Extreme Edition und gut ist.
 
Zuletzt bearbeitet:
Weißt du überhaupt wielange man braucht um mit nem Xeon 8 Core eine Szene von 1er Stunde gescheit zu rendern?

Gerade mittelständische Unternehmen greifen auf die Cluster Technologie zurück weil sie einfach upzudaten ist und sie günstiger ist als jedesmal ne neue Workstation zu kaufen. Zudem ist das Cluster System mehr als ausfallsicher.

Das will ich sehen wenn bei einem Mittelständler eine Workstation stillsteht. Das kostet mehr als wenn ein Rechner im Cluster ausfällt und dann das rendern halt 10 min mehr dauert.

Appropo, man greift heute über eine billigen Rechner über über den Internet Browser auf den Cluster darauf zu.

Hinzu kommt, dass wenn nur wenige Menschen im System Arbeiten, sie mehr Rechenleistung zur verfügung haben als bei eine einzelne Workstation, da sozusagen die Rechner der anderen mitdazu genutzt werden könnnen.

Workstations gibts heute eigentlich nur noch in kleinen Firmen.
 
Zuletzt bearbeitet:
Nebenbei kurz: ich mache ab und an kleinere Arbeiten für einen großen und bekannten "HD Sender" (der mit A anfängt...). Bin da auch ab und zu im Büro und quatsche mit den Jungs die dort jeden Tag rund um die Uhr Beiträge schneiden, bearbeiten, Animationen machen und was weis ich nicht alles.

Von Cluster oder Serverfarmen ist da nix zu sehen.

Viele der Jungs arbeiten dort mit OSX und benutzen dann einen Mac Pro, meist die günstigeste Variante. Nun, die Leute die mit Windows arbeiten: früher waren da nur HP Workstations mit XEONs zu sehen. Die Dinger waren allerdings schweineteuer (geht ab 2500 Euro los), hatten viele Ausfälle, aufrüsten war ebenfalls sehr teuer. Der HP Kram wurde also nach und nach abgeschafft.

Jetzt benutzen die alle selbst zusammengestellte Rechner auf i7 Basis (teils auch noch C2Q 9xxx auf Sockel 775). Resultat: weitaus weniger Kosten, schneller als die alten Workstations, aufrüstbar.
 
Wine schrieb:
Kann sich AMD diesen rückstand erlauben?
Klar doch. Neue Herstellungstechniken immer erst 15 Monate nach den Technologieführern einsetzen, spart einen Haufen Kohle. Das erlaubt den Verkauf von nicht ganz so modern hergestelltem Zeug zu günstigen Preisen. Der Markt dafür ist da.
 
Marius schrieb:
Im professionellen(Kleinbetrieb) Bereich greift man ohnehin einfach zum schnellsten, weil der CPU-Preis komplett Banane ist.
500 Euro von einem X6 zu einem i7 970 sind doch gar nicht der Rede wert, wenn das Ding in PS CS5 pro Stunde z.B 50 statt 30 Bilder aufbereitet(Stapelverarbeitung, Anwendung von 6 Filter bei einem 69MB Tiff)
Wenn du wüsstest. Meist gerade nicht in Kleinbetrieben. Gerade Fleiß-Arbeiten erledigen heute Praktikanten oder Nebenjobber an Billigrechnern, auch in Werbeagenturen. ^^ Und in Produktions- und Fachbetrieben jenseits der kreativen Branche steht oft noch 10 Jahre alte Technik. Meist hat dann vllt. der Chef einen Highendrechner, nutzt den aber seltener, da auch kaum da. :)

Highend findet man vorallem im wissenschaftlichen Bereich, IT-Dienstleistungsbereich oder Schnitt-/3D-Bereich. Das ist nicht der lukrative Massenmarkt.
 
ampre schrieb:
Wenn du wirklich Ahnung von "Echten High End Rendersystem" hättest, dann würdest du wissen das das heute alles Cluster Rechner sind und keiner singel CPU lösung.

Die 980x ist für den privaten Bereich gedacht und da glaube ich, dass jemand mal 2-3 Minuten länger warten kann, bis ein Video gerendert wurde. Dafür gibt er bestimmt nicht 750 € Mehr aus.

Zumal der Phenom x6 bei OpenGl rendern schneller vorankommt als der 980x.
Und open Gl ist der Standard in CAD und CAM SYstemen.

1. Nicht jedes Rendersystem steht bei Disney oder Dreamworks. Gibt mehr als genug kleine und mittlere Firmen die eine einzelne Workstation dafuer verwenden (12 Kerne, 12-24GB RAM).

2. 980X ist nicht ausschliesslich fuer den Privat-Markt. Gibt genuegend Freelancer die ihre Arbeit von einer einzelnen Workstation aus erledigen, von denen kauft sich auch niemand einen Cluster. Und speziell diese Leute merken es deutlich, wenn man 200 mal am Tag das Preview-Fenster aufmacht und dabei jedes mal 1 Minute einspart kommt man auf 200 Minuten oder mehr als 3 Stunden Einsparung.

3. WAS ZUM GEIER hat OpenGL mit CPUs zu tun?? :freak: Meinst wohl Software-Open-GL. Tja, das passiert dann, wenn man KEINE passende Grafikloesung verbaut hat (Quadro z.B.). DANN wird das Rendering von der CPU uebernommen. Wer eine Workstation derart konfiguriert gehoert erst geschlagen und dann gefeuert.
 
Auch mittelständische Unternehmen setzen eher auf Cluster.
1. Wegen der Redundanz
2. Wegen der beschleunigten Rechenleistung
3. Man muss dem Arbeiter nicht nen teuren Rechner an den Schreibtich geben, das der es dann mit Kaffee verschandelt. Die Dinger stehen dann schön irgendwo abgeschottet in Serverfarmen.
4. Viele Sofrwarehersteller für 3d Programme gehen sogar her und verkaufen nicht mehr Software sondern sie verkaufen Rechenleistung auf Ihren Rechnern die mit Ihrer Software laufen. Ist sehr effizient und spart den Firmen so manches an Geld. Gerade Mittelständler porfitieren von solchen Lösungen, wenn sie Rechenleistung mieten.

Das lezte mal wo ich eine einzelne Workstation gesehen habe war in einem kleinen Unternehmen. Die machten aber auch nur sehr einfache Arbeiten. Etwas Videoschnitt etc. dafür braucht man keinen großen Cluster. Cluster braucht man zum berechenen von modellierten 3d szenen.Da würdest du 3 Tage mit nem 980x auf die Ergebnisse warten bei einer Szene mit nur 15 Minuten. Zudem wäre der 980x noch teurer als 20 Billig Semperon Server die zu nem Cluster verschaltet sind.

Ps. Man braucht eine gute CPU für OpenGl um die Grafikkarte auch richtig füttern zu können.
 
Zuletzt bearbeitet:
ampre schrieb:
Auch mittelständische Unternehmen setzen eher auf Cluster.
1. Wegen der Redundanz

Im Sinne von?

ampre schrieb:
2. Wegen der beschleunigten Rechenleistung

Steht nicht im Verhältnis.

ampre schrieb:
3. Man muss dem Arbeiter nicht nen teuren Rechner an den Schreibtich geben, das der es dann mit Kaffee verschandelt. Die Dinger stehen dann schön irgendwo abgeschottet in Serverfarmen.

Ehm ja.... :rolleyes:

Zudem wäre der 980x noch teurer als 20 Billig Semperon Server die zu nem Cluster verschaltet sind.

Semperson, Cluster, Billiger.... is klar :evillol:

Ps. Man braucht eine gute CPU für OpenGl um die Grafikkarte auch richtig füttern zu können.

O Rly? Aber sicher keine 980X, da tuts sogar jeder Core2.
 
Mehr muss man wohl nicht sagen:

http://www.nvidia.de/object/realityserver_de.html

Anscheinend ist bei manchen hier das Cloud Computing vorbeigeganngen.

Ein Cluster ist einfach mehr Redundant als eine Workstation. Fälllt die Workstation aus kann der Designer nicht mehr dran arbeiten. Fällt im Cluster ein Rechner aus, rechnet der Cluster zwar nicht mehr so schnell, der eine Designer (Der viel Geld kostet) kann trozdem noch weiter arbeiten.

Zudem ist eine Workstation totes kapital wenn sie nicht vom Designer gentutz wird. Im Cluster wird der Rechner weiterbenutzt. Dadurch spart ein 2 Designer Zeit ein, wenn der erste Designer nicht arbeitet, kann dieser die Rechenleistung nutzen und so seinen Szene in kürzer Zeit rendern lassen.
 
Zuletzt bearbeitet:
mal eine Frage an die ganzen "Profi-PC"-Schreiber:
Macht ihr das professionel, oder habt ihr das nur irgendwann irgendwo gelesen?
Ich zumindest bin seit 2006 als Systemadministrator tätig und kann hier bei 3 von 4 Posts nur die Hände überm Kopf halten, so falsch sind manche Aussagen.
 
@eXEC-XTX
Dann erzähl uns doch mal deine Sichtweise. Ich bin für alles offen.

Ich schätze mal das das stark Branchenabhängig ist. In ner Bank wird man wohl eher auf Workstation als auf Cluster setzen. Da wird ja kaum Rechenleistung benötigt. Es seidem man will wirklich ne Hardcore-Finanzanalyse über Matlab starten.
 
Zuletzt bearbeitet:
Rückstand ist eine Ansichtssache... Kommt doch immer darauf wo man sich als Firma den Schwerpunkt legt. AMD Produziert gute und günstige Prozessoren. Und bei Intel naja gut sind sie ja aber ob es den immer den Preis rechtfertigt? Glaube nicht... Und ich denke mal man kann doch froh sein das AMD z.B. mal nen 6 Kerner auf dem Markt hat den sich auch "Herr Mustermann" leisten kann. Ob es jetzt sinnvoll ist das erstmal kaum Anwendungen sowie Spiele gibt die ihn voll ausnutzen steht auf nem anderen Blatt. Und ob jetzt 22 nm oder 32 nm wäre mir vom Prinzip her egal... Hauptsache das Ding läuft und es kann meine Anfoderungen erfüllen. Benchmarks sind ja schön und gut aber mal ganz im Ernst... Ist doch Jacke wie Hose ob da nun 150 oder 145 Bilder übers TFT laufen. Hauptsache man kann es spielen und es gibt keine Probleme. Und außerdem hab ich z.B. kein Bock für einen neuen Prozessor gleich immer eine Platine zu kaufen nur weil Intel sagt wir nutzen jetzt den 1155er Sockel, und du lieber Kunde wenn du den Prozessor haben und nutzen willst dann kauf doch auch gleich noch die passende Platine dazu und gib bitte mindestens 1.300 Tacken aus weil du ja nur mit den besten Komponenten alles machen kannst was du eh nicht machst...
 
So langsam glaube ich, hier wissen einige nicht was eine Workstation ist.

JEDER CAD-Konstrukteur/Designer arbeitet an einer Workstation. Einzelner PC. Netzwerkzugang.

Wenn was gerendert wird, so wird das extern vergeben oder nachts in der eigenen Firma gemacht wenn die Rechner stillstehen (Einzelplatz oder Netzwerkrendering) ---> der Designer modelliert die Szene an seiner WORKSTATION, richtet lighting&shading, macht ein paar Previews, bis alles OK ist ---> fertig.

Wenn eine Firma SEHR viele Renderings macht, dann haben sie einen Rendercluster (der nur dafuer da ist), insofern sie es nicht extern vergeben.

Ich habe in meiner frueheren Taetigkeit immer alles selber gemacht, tagsueber modelliert, nachts dann gerendert, je nach Anforderung per Batch oder einzelne Files. Man kommt am naechsten Morgen und alles ist fertig.

Nochmal: Workstation = grundsaetzlich nichts anderes als ein normaler PC, nur mit etwas besserer Hardware, ausgelegt auf 24/7. Je nach Anforderung mit Dual-Socket (FEA z.B.), Quadro-Grafikkarten (CAD), zusammen mit (manchmal) speziellen Eingabegeraeten (Tablets, 3D-Maus, etc). DAS nennt sich Workstation.

Oder kennt ihr einen Designer der an einem Rendercluster arbeitet? Zum Rendern, ja, aber der Arbeitsaufwand dafuer beschraenkt sich auf: fix-fertige Szene laden, "DO IT"-Button druecken. ARBEITEN tut der Designer an einer Workstation. Der braucht keine 500GHz Rechenleistung um zu modellieren!
 
Zuletzt bearbeitet:
Zurück
Oben