Zukünftige CB-Testmethoden: Alltags- und Pro-Anwendungen in CPU-Tests

Yuuri schrieb:
Was wollt ihr mit Handbrake/RipBot/...? Im Endeffekt nutzen alle den gleichen Encoder. :rolleyes:

@ CB: Nehmt bei der Videocodierung lieber x264 (x265 falls es mal irgendwann gut/final wird) mit nem ordentlichen CRF (18 - 22 im Durchschnitt taugt für gutes Material in 1080p bei geringer Größe). 2pass ist immer zweckfrei, außer man will den Content auf ne bestimmte Größe quetschen. Filme/Videos will man aber primär in guter Qualität, die Größe steht da ganz hinten an und ist nur für Omas DVD-Player von Relevanz. 1080p mit 24p und 4k mit ggf. 60 FPS wären gut. 4k mit 24p/30 FPS wären mir aber auch genug, dann weiß ich was ich zukünftig an Zeit brauche. Evtl. auch mal in VP9 reinschnuppern zwecks Videos im Internet. Aber was nicht große Relevanz hat...

Danke für diesen Post. Ich wollte es auch gerade schreiben. x264 ohne GUI wäre toll. Mit ein paar Handgriffen kann man den alten x264 HD Benchmark auch CRF ready machen, die revision updaten und die Sequenz anpassen :)
 
Dem kann ich mich nur anschließen, nutze MegUI für x264, alles nutzt den gleichen Encoder.
CRF18 scheint mir sinnvoll bei 1080p, bei höherer Auflösung auch weniger.

@x265: Also ich hab das auch diverse Male probiert, da ist einfach noch zu viel Schwankung drin je nach Version mMn.
 
Zuletzt bearbeitet:
Cool Master schrieb:
@TomG87

x265 bringt noch nichts. Gibt noch keine guten De- und Encoder.

Ich Ziele eher auf die Vergleichbarkeit zwecks Hardwareunterstützung ab. Is ja allmählich so am kommen.

@mctheripper: so 18-22 is gut und mit Medium Preset. Bin selber bei 20@720p und 22@1080p. Evtl auch mit mixed-refs und ref 5@1080 bzw 8@720, aber des wäre schon zu spezifisch...
 
Zuletzt bearbeitet:
Ja, ich habe die Settings meist recht hoch, das bestimme ich aber einfach je nach Quelle auch selbst. Der Bereich passt aber sicher.
Jetzt unterschiedlich testen mit verschiedenen ref-Werten fänd ich auch zu krass, da geht die Aussage ja auch je nach Quelle dann unter, dennoch sollte der Standard dann entsprechend einmal genau festgelegt werden.
 
Genau meine Rede
 
MichiSauer schrieb:
Ein paar cad-anwendungen wären ganz interessant, speziell da das rendering:
Beispiele:
Inventor (autodesk)
NX (hoher single-core aufwand, neuste variante auch mehrkernig)
Solidworks

Dito:
Meine letzte Erfahrung mit CREO 2.0 hat gezeigt das beim Kantenverunden mein Core i5 4670 permanent im Turbo eines einzelnen Kerns hing.
 
konvertierung von videos nur mit dvd fab !! sehr detailierte anwendung der hardware mgl. mit oder ohne gpu, anzahl der kerne/threads waehlbar, codec mit einbeziehen usw... also ich wuerd mich freuen falls dvdfab aufgenommen wird
 
VikingGe schrieb:
Handbrake nutzt afaik FFMPEG bzw. die ganzen Standard-Bibliotheken zur Konvertierung. Wäre nicht verkehrt als Ersatz für den x264-Benchmark, vor allem, wenn man es dann auch mit realistischen Einstellungen betreibt - oder nutzt hier ernsthaft irgendwer 2-Pass-Codierung?

Ja tut man, vor allem bei sehr körnigem Ausgangsmaterial, bei guter Source dann CRF. Warum nicht einfach einen h264 Benchmark, Handbrake ist nichts anderes als eine GUI dafür, genau wie MeGUI, Staxrip uvm.
 
geschwindigkeitsmessung(eventuell auch Lautstärke) mit boxed Kühler(immer mit dabei) und mit einem "üblichen" Towerkühler in einem normalen Gehäuse.
ist ein i5 mit super Kühler(ca30€) schneller(dank mehr Turbophasen) als ein I7 mit Boxed?
 
Für mich wäre eine Cache-Effizienz, Nachladezeiten etc. recht interessant. Wie auch, wie unterschiedlich die Kerne zusammen arbeiten.

Leider habe ich gerade keine Idee wie man so etwas gezielt testen kann.

Als ein theortischer Test fällt mir gerade parallel-sort ein. Ist soweit ich weiß in c++11 drin.
 
Ich würde einen Compiliervorgang recht gut finden.
Mit einem aktuellen Compiler ein größeres Projekt kompilieren. z.B.: Mit dem neuen Roslyn den eigenen Quellcode.
 
Ich würde cinebench r15 auf jeden Fall drin behalten. In Verbindung mit dem hauseigenen Vergleichsthread bekommt man eine gute Übersicht.
 
Also mich würde bei CPU-Tests auch immer sehr die Spieleleistung in einem Multi-GPU-Gespann bei hoher/(für die GPUs)"normaler" Auflösung interessieren. Also beispielsweise 2x Titan X in 4K. Wie das mit verschiedenen CPU's skaliert fände ich sehr interessant.
 
beckermann schrieb:
...
Ich hätte bitte gerne als Test 7zip Komprimieren. Kompressionsstärke Ultra.
...
Sorry für das raus picken, Beckermann, aber du regst mit deiner Aussage einen Gedanken bei mir an.

Bitte keine übertriebenen und weltfremden Einstelllungen, nur weil sie existent oder möglich sind!
Nehmt die Grundeinstellungen und noch eine gebräuchliche / vertretbare Einstellung, die zu einem spürbaren! besserem Ergebnis führt (Qualität der Optik / des Sounds / Dateigröße) ohne dass der Zeitfaktor sich potenziert.

Niemand würde für den zusätzlichen Speicherplatzgewinn von unter 10% beim komprimieren, aus einem 20 Minuten Vorgang, einen x Stunden Vorgang machen. - Sicherlich überzogene Werte, sie sollen aber nur dazu dienen, um verständlich zu machen, worauf ich hinaus möchte)
 
Volker schrieb:
[..]

- Exel oder sowas ist auch eine gute Idee, aber auch nicht so einfach zu benchen - schaun wir aber mal rein.
Naja, man misst die Zeit vom Start des Prozesses, bis das Hauptfenster fertig geladen ist? Benutze davon ein c# Funktion für automatisierte Tests.

Noch einfacher gehts mit dem Apptimer von Passmark

apptimer.PNG

Einfach die richtigen Pfade angeben und bei Window Name den Namen des Excelfensters angeben, also [Dateiname.xlsx] - excel
Kann man für viele Anwendungen nutzen, einfach ein bisschen mit rumspielen, nicht überall klappt jede Fenstererkennungsmethode bzw Schließmethode fürs Fenster.
 
@ nur ein Mensch: Jap, Ultra bringt außer vergeudeter Zeit nix. Die Kompression nimmt kaum zu, dauert aber alles extrem lange.

@ Scheitel: Was hat man vom Öffnen eines Spreadsheets? Interessant ist doch, was nach Ändern einer/mehrerer Zelle(n) mit vielen Bezügen passiert und wie lange das dauert, siehe #43:
Eusterw schrieb:
Als Controller habe ich schnell mal Dateien, von mehreren 100 MB. Wenn da dann noch diverse verschachtelete Verweise drin sind, dann kommen schnell mal Rechenzeiten von 5-10 Sekunden bei jeder EIngabe zu Stande, was dann entweder eine Reorganisation der Dateien nötig macht (mit Logik kann man ja vielles erschlagen), oder eben schnellere Rechner.
 
Interessant wäre auch der Test von Audioeditoren wie Audacity oder Digital Audio Workstations wie z.B. Ableton Live 9, Cubase 8 oder Studio one 3.
In einer DAW könnte man einen CPU-lastigen Testparcour aufbauen und die benötigte Zeit zum Rendern messen.
Wichtig dabei wäre noch, dass man die CPU load mit Effekt-Plugins erzeugt ohne dass z.B. der RAM zum Flaschenhals wird.
 
@Yuuri
Das läßt sich einfach messen und wird bei richtig großen Dateien eben auch von der CPU Geschwindigkeit beeinflusst. Klar ist die Änderung von Zellen mit Bezügen interessant, aber das wird der Otto Normalverbraucher wohl nicht ständig machen. Im selben Zusammenhang wird auch kaum einer von uns privat ellengroße Exceldateien öffnen.

Ging sich um Beitrag #34 von Volker, dass es eben doch recht einfach sein kann, Anwendungen mit Dateien beim Starten zu Benchen.
 
Mich würden bei CPU-Benches folgende Dinge interessieren:

Reine CPU - Rechenleistung mit im Verhältnis gesetzter Leistungsaufnahme des Systems in verschiedenen Single und Multicore Szenarien.
  • Handbrake
  • Datei-/Ordnerkomprimierung (WinRAR, 7zip, o.Ä.)
  • Datei-/Ordnerverschlüsselung
  • ggf. einen/zwei Batchgesteuerten Vorgang/Vorgänge zur Simulation eines Arbeitstages/Feierabends (Surfen, parallel Musik, Word, Videostream (Full-HD), Mail,....., halt so ein System mit einem Haufen Idle Zeug im Background, wie es viele nunmal haben)

Da aber immer mehr Komponenten/Funktionen der "Bridges" in die CPU wandern, wäre es interessant zu erfahren, ob die CPU bzw. die integrierten Controller auch Full Speed arbeiten bzw. in welchen Bereichen nicht mehr. Als Stichworte: SATA3, PCIe3, USB 3.1, ...

Zusätzlich wäre es auch "nett" zu erfahren, wie schnell die QuickSync Geschichte wirklich ist bzw. sein kann und ob es da Unterschiede zwischen den Modellen gibt.

MfG
 
Test die ich ohne Probleme und großen Aufwand auch auf meinen Rechnern ablaufen lassen kann.

Cinebench

Videos umrechnen x264/x265 .
Mit einer runterladbaren Video Datei.
Auch das Programm das zum Umwandeln benutzt wird sollte dann zum runterladen angeboten werden.

Blender ,Berechnung einer kurzen Animation und einer Raytracing Szene.
Auch wieder mit Download.

Packen mit 7zip finde ich auch gut, vielleicht per Batch Datei gestartet.
Mit Ausgabe der Ergebnisse der in einer Text Datei.

Ich denke für mich sind die Sachen Interessant die ich hier an meinen Rechnern
leicht nachmachen kann.

Produktiv Software wie:
Adobe Software
AutoCAD
Visual Studio
Maya etc. sind auch interessant , aber für die Masse der Benutzer zu Hause eher schlecht nachzuvollziehen.
Für die Menschen die damit Ihr Geld verdienen sind sie aber bestimmt von Interesse.
So das man auch hier genau angeben sollte was wurde mit welcher Software Version unter welchen Parametern
gearbeitet wurde.
Vielleicht auch hier mit Dateien zum Runterladen zum nachvollziehen der Tests für Menschen die mit
dieser Software arbeiten.
 
Zuletzt bearbeitet:
Zurück
Oben