GTX980 in 2D langsamer als GTX770

Ostfriese

Forenkasper
Registriert
Dez. 2001
Beiträge
2.387
Moin.

Weil ich etwas bzgl. meiner CPU testen wollte, lud ich mir die Trial-Verison von "PerformanceTest 8.0" herunter.

Dort habe ich dann aus Neugier noch etwas mehr herum getüdelt und dabei entdeckt, dass bei den Grafikkarten-Benchmarks die GTX980, die dort als Vergleichs-Referenz angegeben wird, im 2D-Modus langsamer ist, als meine GTX770. Nur in einer einzigen Disziplin ist sie dort schneller als meine GTX770 (beim Rendern von Bildern).

Warum ist das so? (Chiptakt?)
Spielt das überhaupt eine Rolle in irgend einer Weise?


Ergebnisse im 2D-Test: GTX980 / GTX770

Zeichnung einfacher Vektoren: 33,9 / 34 tausend Vektoren pro Sekunde
Zeichnung komplexer Vektoren: 155,2 / 203,3 Vektoren pro Sekunde
Schrift und Text: 255,7 / 332,3 Operationen pro Sekunde
Windows Interface: 147,1 / 157,4 Operationen pro Sekunde
Bildfilter: 968 / 1097 Filter pro Sekunde
Bild Rendering: 936 / 864 Bilder pro Sekunde
Direct 2D: 28,5 / 31,2 FPS

Gesamtscore: 894 / 993 (d.h. die GTX770 ist ca. 11% schneller als die GTX980) - das darf man natürlich nicht aus dem Kontext gerissen irgendwo zitieren... :D ;)
 
Die 980 hat soweit ich das weiß noch weniger CUDA-Krams an Board wie die 770.
Damit würde sich das ganz einfach erklären, die 980 ist eine reine Gamer-Karte
 
Die 2D Leistung wird zum großen Teil immer weiter beschnitten, weil das ein Feature ist, was Geld kostet, den Chip groß macht und für die beworbene Leistungseffizienz Kontraproduktiv ist.
Das die 2D Leistung beschnitten wird ist nicht erst seit dieser Generation so.

Gerade für mein 2D CAE/CAD ist das immer bescheuerter geworden.

Wenn du da Tests hast würden mich mal die Titan und Quadro Karten im Vergleich dazu interessieren
 
Außerdem kann dann die Titan-Serie als Workstation Karte beworben werden, auch wenn die die normalen Geforce Treiber verwendet O_o
Und das ist auch der Grund, warum die R9 290x und 780Ti die GTX 980 in den meisten Computing-Tests mit teils deutlichem Abstand schlagen.
Die Karte ist in allen Bereichen aufs Gaming optimiert.
 
Zuletzt bearbeitet:
Ich glaub beim Passmark 2D Test war die GT 640 schneller als meine 7970, kann mich aber auch irren:D
 
10% :lol: Peanuts
Guck mal hier, dann weißt du was langsam heißt.



Hier hat TH das Problem anno dazumal untersucht und AFAIR auch ein Tool zum testen entwickelt.
http://www.tomshardware.de/wddm-2d-performance,testberichte-240487.html
http://www.tomshardware.de/radeon-hd-7770-7750-benchmark-Cape-Verde,testberichte-240960-16.html

Nichtsdestotrotz wäre es schön wenn jemand der Sache bei Nvidia Karten nachgehen könnte, vielleicht mal TH anschreiben und um ne Untersuchung bittet?

EDIT
@SavageSkull Hängt sicher auch davon ab ob deine Software mit der Schnittstelle arbeitet auf die aktuelle Kartentreiber optimiert werden (GDI+, Direct2D, OpenGL, ...)
Wenn das Testprogramm eine ander Schnittstelle verwendet, dann nutzt dir das Ergebniss nichts.

@hrafnagaldr
GPUcomputing hat jetzt genau was mit 2D Beschleunigung zu tun?
 
Zuletzt bearbeitet:
GPU computing heißt lediglich, die CPU die GPU als coprozessor her nimmt also deren aufgaben teilweise übernimmt. Das kann im 2d Bereich aber genau ein Filter in einem Grafikprogramm sein oder zb die pdf Anzeige im Adobe reader.
 
Nichtsdestotrotz wäre es schön wenn jemand der Sache bei Nvidia Karten nachgehen könnte, vielleicht mal TH anschreiben und um ne Untersuchung bittet?
Ich beobachte das schon seit Längerem, deshalb habe ich ja damals das Tool auch geschrieben, samt dazugehörigem Artikel. Es ist ein generelles Problem, da die aktuellen Treibermodelle (ab Vista und neuer) für GDI, GDI+ und Manches aus Direct2D keine Hardwarebeschleunigung mehr unterstützen. Bis auf Blitting, also simple Speichermanipulationen, wird alles von der CPU berechnet und dann erst im Treiber umgesetzt und in den 3D-Renderer geschickt. Das, was auf dem Desktop abgeht, ist faktisch 2.5D, da die Fensterhirarchie ebenfalls im 3D gerendert wird. Man merkt den Nachteil nur bei älteren Programmen, die ausschließlich auf GDI/GDI+ setzen und - lustigerweise - bei jedem GUI. So ist die selbstgestaltete Oberfläche von Adobe grottenlahm geworden, was aber einzig und allein am GDI liegt.
 
Hallo Igor, schön das du dich hier "outest" ;)

Gibt es eigentlich auch einen Benchmark der die verschiedenen Schnittstellen vergleicht, also die gleichen Operationen mit verschiedenen APIs ausführt und hinsichtlich Geschwindigkeit und GPU/CPU Auslastung bewertet?
Tom2D bedient ja nur GDI, oder? Direct2D verwendet zwar kaum die Hardware, wie du schriebst, aber der Overhead der APIs ist sicher auch verschieden.

Mit Direct3D wird ja dann wieder Hardware verwendet, also müßte man die neuen Karten unter Direct3D 2D Funktionen zeichnen lassen um mit GDI unter WinXP vergleichen zu können?
 
Das GUI ist eigentlich in fast 90% der Fälle GDI. Und die 2D-Zeichnerei geschieht entweder über GDI/GDI+, OpenGL oder Direct3D. Direct2D gibt es ja gar nicht mehr, das läuft jetzt alles über die 3D Engine (siehe AutoCAD). Wobei es z.B. bei Corel heute noch so ist, dass das GDI(+) eine große Rolle spielt.

Wenn man sich nicht sicher ist, was verwendet wird: Programmdatei(en)/-bibliotheke(n) des jeweiligen Programms mal mit einem Binäreditor anschauen und den Part mit den Deklarationen suchen. Das ist meist Klartext und zeigt die API-Aufrufe. Dinge wie Rect, Line, Polygon, Fill, BitBlt, CreatePen etc. deuten meist aufs GDI(+) hin.

@Vader:
Ich muss mich doch nicht outen, mein Nick ist in allen Foren der selbe :)
 
Zurück
Oben