Grafikkarten-Fibel – ein Guide für Käufer

Dabei seit
Apr. 2013
Beiträge
7.014
#1
  1. Vorwort
  2. GPU-Kauf-Checkliste kurze Checkliste für Käufer
  3. Übersicht über die Hersteller Informationen über GPU-Hersteller
  4. Übersicht über die Boardpartner Informationen über Kartenhersteller
  5. Aufbau einer Grafikkarte - Was dient wozu? Wichtigste Komponenten erklärt
    • GPU - Was ist die GPU?
    • Das PCB - Von Stromversorgung und Spulenfiepen
    • Speicher - Wofür dient der Speicher und wie viel brauche ich?
    • Kühler - Was ist bei Kühlern wichtig?
  6. Leistung - Leistungsklassen von Entry bis Enthusiast. Verweis auf CB-Kaufberatung
  7. Bildausgabe
  8. System-Limits, Grafik-APIs, Treiber, Software und Features
  9. Zusammenfassung/Schlusswort



1. Vorwort


Dieser Guide ist für alle Käufer von Grafikkarten, sowie für all die fleißigen User, die in diesem Forum Kaufberatungen erteilen, als ein schnelles Nachschlagewerk für alles wichtige rund um die Welt der Grafikkarten gedacht.

bis Mitte 2016 war dieser Thread eine Kaufberatung mit Leistung, Preis und Effizienz im Vergleich mit umfangreichen Tabellen. Da Computerbase aber inzwischen selbst eine monatliche, aktuelle Kaufberatung abgibt und der Ersteller keine Zeit mehr zum Pflegen hatte, habe ich mich dazu entschieden, diese Fibel zu schreiben.



2. GPU-Kauf Checkliste


Wenn du dir eine Grafikkarte kaufen willst, solltest du dir über diese Dinge vorher Gedanken machen:

  1. angepeilter Preis
  2. gewünschte Lautstärke und Temperatur
  3. gespielte Spiele
  4. gewünschte/genutzte Auflösung und Qualitätseinstellungen
  5. angepeilte fps
  6. vorhandene restliche Komponenten (Platz im Gehäuse, Dimensionierung und Anschlüsse des Netzteils, CPU, G-/A-Sync.-Monitor)
  7. gewünschter Stromverbrauch
  8. gewünschte spezielle Features (Farbe, Hersteller, Beleuchtung, Software, etc.)

Wenn du die genannten Punkte in einer Kaufberatung angibst, kann dir schnell und einfach geholfen werden :)



3. Übersicht über die Hersteller

(Die genannten Fachbegriffe werden später noch erklärt)

Aktuell herrscht ein Duopol im GPU-Segment. Nach dem Ausscheiden von 3dfx im Jahre 2000 und der Fokussierung von Matrox auf spezielle Multimedia-Lösungen sind nur noch folgende beiden nennenswerte GPU-Hersteller im Geschäft:
AMD und NVIDIA

Man könnte Intel durchaus noch als Mitstreiter nennen, da Intel in jeder ihrer CPUs der Core-i Reihe eine integrierte Grafikeinheit (iGPU) mit eigens entwickelter Grafikarchitektur verbaut, jedoch sind diese Grafikeinheiten nicht einzeln erhältlich und sind aufgrund ihrer geringen Leistung weder für ambitionierte Spieler, noch für intensive GPGPU-Anwendungen in Business und Forschung geeignet. Intel kündigte zuletzt jedoch für das Jahr 2020 konkurrenzfähige GPUs an.
Bis dahin konzentriert sich diese Fibel auch hauptsächlich auf NVIDIA und AMD.

Zu AMD:

AMD ist einigen älteren Lesern sicherlich noch unter dem Namen ATi geläufig. Nach dem Kauf durch den CPU-Hersteller AMD 2006 wurde aus ATi AMD und der Konzern um eine Grafiksparte reicher.

AMD nutzt als µArchitektur Graphics Core Next (GCN), welche Anwendung in Grafikchips von Grafikkarten und Mischprozessoren (APUs) findet. Dessen aktuellste Iterationen sind die "Polaris" und "Vega" getauften GPUs.

Grafikkarten von AMD für den Consumer-Markt erkennt man am Radeon-Label:

Die für professionelle Anwender gedachten Grafikkarten werden unter dem FirePro- bzw. RadeonPro-Label verkauft, die Karten für Deep Learning werden mit dem Namen Instinct gelabelt.
AMDs Treiber für Consumer heißt aktuell Radeon Software (Adrenalin Edition) und ersetzt damit den alten Catalyst-Treiber.

Zu NVIDIA:

NVIDIA ist einer der ältesten Mitspieler am GPU-Markt. Im Jahr 2000 übernahm NVIDIA den ehemalig dritten großen Mitspieler (neben ATi) 3dfx, der den ältesten Computer-Freunden noch ein Begriff sein sollte.

NVIDIAs µArchitekturen basieren auf der "Fermi" getauften Architektur der GeForce 400-Reihe. Seit dieser werden alle ein bis zwei jahre neue Iterationen (benannt nach versch. Physikern) entwickelt, aktuell ist die Turing-Architektur.

Grafikkarten von NVIDIA für Spieler erkennt man am GeForce (GTX/RTX)-Label:

Die für professionelle Anwender gedachten Grafiklösungen werden unter dem Quadro-Label verkauft. Für High-Performance-Computing (u.a. Forschung) führt NVIDIA zudem noch die Tesla-Reihe.
NVIDIAs Treiber für Gaming nennt sich wie die Grafikkarten-Serie GeForce.



4. Übersicht über die Boardpartner


Boardpartner sind Hersteller, die die GPUs von AMD und NVIDIA kaufen, um diese auf ihre eigenen Grafikkarten zu bauen. Das heißt, die GPU kommt immer von AMD und NVIDIA, das "Brett" (engl. "board", also die Grafikkarte) in der Regel vom Boardpartner. Zudem entwickeln die Boardpartner oft ihre eigenen Kühllösungen, die von simplen Passiv- und Luftkühlern bis hin zu Wasserkühlungen reichen. Als letztes wird von den Boardpartnern ein eigenes Karten-BIOS mit anderen Taktraten und Temperatur-/Spannungswerten aufgespielt und häufig noch eine Überwachungs- und Übertaktungssoftware (auf CD oder per Download auf der eigenen Website) mitgegeben.

Die Spezialisten und Allrounder
Es gibt Boardpartner, die exklusiv für den einen oder anderen GPU-Hersteller fertigen. Das heißt von Herstellern wie EVGA und Palit wird man keine AMD-basierte Karte bekommen, bei Sapphire und HIS gibt es nichts von
NVIDIA im Angebot. Diese Hersteller sind teilweise mit außergewöhnlich guten Karten unterwegs, da sie nicht zwischen zwei Stühlen sitzen und die Macken ihres GPU-Zulieferers(also GPU Herstellers) in- und auswendig kennen.

Beide HerstellerNur NVIDIANur AMD
ASUSEVGAClub3D (TUL Corp.)
GigabyteGainward (Palit Micros.)HIS
MSIInno3DPowerColor (TUL Corp.)
KFA² (Galax)Sapphire
Palit (Palit Micros.)VTX3D (TUL Corp.)
PNYXFX
Zotac

Garantie - eine Boardpartner-Sache

Zusätzlich zur gesetzlichen Gewährleistung von 2 Jahren mit Abwicklung über den Händler (und Beweislastumkehr nach 6 Monaten),, bieten einige Boardpartner auch Garantien an. Dazu gehören sowohl längere Garantiezeiten (z.T. ab Produktionsdatum oder gegen Aufpreis) als auch die Abwicklung über den Hersteller selbst. Zu beachten ist, dass der Garantieverlust immer eintritt, wenn Modifikationen an der Karte (Übertaktung, Kühlerwechsel) eine mögliche Ursache des Defekts sind.

Eine ausführliche Auflistung der Garantiebedingungen aller Boardpartner wird von Computerbase regelmäßig gepflegt.

Grafikkarten: Garantiebedingungen von Abwicklung bis Kühlerwechsel


 
Zuletzt bearbeitet: (Wartung)

psYcho-edgE

Vice Admiral
Ersteller dieses Themas
Dabei seit
Apr. 2013
Beiträge
7.014
#2
5. Aufbau einer Grafikkarte


Eine Grafikkarte ist eine Erweiterungskarte für das Mainboard. Sie wird in der Regel direkt in ein Mainboard eingesteckt. Auf ihr befinden sich alle Komponenten, die ein Grafikprozessor zur Arbeit benötigt. Hier folgt eine Erklärung aller Komponenten.

Die GPU - Was ist die GPU?


GPU steht für "Graphics Processing Unit", zu deutsch also Grafikprozessoreinheit. Sie dient der Berechnung von parallelen Problemen, hauptsächlich Grafikanwendungen.
Es gibt zwei Bauarten von GPUs, die diskreten GPUs (dGPU), also einzeln verbaute GPUs auf Grafikkarten oder Mainboards (onboard-GPU), oder die integrierten GPUs (iGPU), also im gleichen Chip, wie die CPU/das SoC ("System on Chip", CPU+GPU+Modems etc., meist in Smartphones). Die letzgenannten CPUs mit iGPU werden bei AMD APU ("Advanced Processing Unit") genannt, Intel hat keinen speziellen Namen für diese u.a. in der Core-Reihe genutzten Mischprozessoren und nVidia hat iGPUs in ihren Tegra-SoCs verwendet.

Der Hauptunterschied einer GPU zu bspw. einer CPU liegt darin, dass diese hervorragend dafür geeignet ist, parallelisierbare Aufgaben zu bearbeiten, bei einzelnen komplexen Tasks aber schnell Probleme bekommt. Beispiele für hochparallelisierbare Aufgaben sind neben der Bildberechnung (Spiele, Videorendern) sogenannte General Purpose Computations on Graphics Processing Units (dt. Allzweck-Berechnung auf Grafikprozessoreinheit(en)), kurz GPGPU). Dazu gehören bspw. Physikberechnung (u.a. Strömungen, Wetterdaten), massenhafte Auswertung von Daten (bspw. bei SETI@Home), Bearbeitung von div. Kryptographiealgorithmen (u.a. Blockchain-Mining) oder die Erzeugung neuronaler Netze (Künstliche Intelligenz).


Video von AMD über die verschiedene Arbeitsweise von CPU und GPU, Erklärung des APU-Konzepts und HSA ("Heterogenous System Architecture")

Die GPU ist eine der Hauptverantwortlichen für die Leistung des Rechners in Grafikanwendungen. In ihr gibt es verschiedene Einheiten, die die verschiedene spezielle Aufgaben ausführen. Der Aufbau der GPU ist inzwischen sehr komplex, deshalb hier nur eine kurze Zusammenfassung, damit die Specs einer GPU nicht völlig unverständlich klingen:

  • Shader/Shading Units - Früher aufgeteilt in Pixel- und Vertex-Shader, heutzutage in "Unified Shaders" zusammengefasst. Recheneinheiten der GPU, die für die Berechnung von Polygonen, deren Bewegungen und deren Farbzusammensetzung zuständig sind. Viele/starke Shader sorgen für eine hohe Rechenleistung. Sie können auch für GPGPU-Anwendungen "missbraucht" werden.
  • TMUs - "Texture Mapping Units". Einheiten, die die Koordinaten der Polygone im Sichtfeld mit den Daten der zugehörigen Texturen im Speicher verknüpfen. Geben diese Daten dann an die Shader weiter.
  • ROPs - "Raster Operation Processors". Er nimmt die von den Shadern fertig berechneten Pixel, sorgt für die finale Farbberechnung (bspw. Transparenz-Effekte) und speichert die (veränderten) Pixel dann im Speicher ab. Wenn es zu wenige ROPs gibt, kann dies zu einem Flaschenhals führen, da die GPU nicht schnell genug die berechneten Pixel in den Speicher schreiben kann.
  • Speicherinterface - Speicheranbindung von VRAM an GPU. Wird in bit angegeben. Typischerweise zwischen 128bit und 512bit. Ein großes (GDDR-)Speicherinterface hat zwar einen größeren Durchsatz, braucht jedoch auch mehr Strom.



Nahaufnahme und Blockschaltbild von nVidia GF100-Chip.
Die GPU hat, wie eine CPU, eine bestimmte Taktrate (" Core Clock"), mit der Berechnungen vorgenommen werden. Die maximale Taktrate ist abhängig von der µArchitektur und dem Fertigungsprozess, sowie von der Temperatur der GPU. Deshalb ist eine gute Kühlung wichtig, um hohe Taktraten zu erzielen.
Die Taktrate ist jedoch nur eine Stellschraube der bereits vorhandenen Rohleistung. Die Hauptverantwortlichen für diese sind die Shader, ROPs, TMUs und das Interface, die über die Stärke der GPU aussagen. Ein hoher Takt ist dann ein Bonus oben drauf. Die Leistung wird i.d.R. in FLOPS ("Floating Point Operations Per Second", Fließkommaberechnungen pro Sekunde) angegeben, ist jedoch nur die Rohleistung, welche durch Treiber- und Anwendungsoptimierung mal besser oder schlechter ausfällt.

Öfter hört man den Begriff "ASIC-Quality". Dieser beschreibt relativ ungenau die Chipgüte mithilfe eines Werts, der von 0 bis 100 Prozent gehen kann und besagt, wie viele Lecksröme in der GPU auftreten und damit, wie viel Spannung der Chip benötigt um bei einer bestimmten Taktzahl stabil zu bleiben. Hohe ASIC-Werte bedeuten theoretisch niedrige Leckströme und eine niedrigere Spannung.
Bis jetzt konnte keine wirkliche Korrelation mit Ergebnissen von Übertaktungen unter Luft und Wasser festgestellt worden, wahrscheinlich sind zu viele andere Bauteile (Spannungswandler, Kühlung, etc.) auch am Ergebnis beteiligt.

Das PCB - Von Stromversorgung und Spulenfiepen


PCB steht für "Printed Curcuit Board", zu deutsch Platine. Sie dient zur mechanischen Befestigung und elektronischen Verschaltung der Komponenten der gesamten Grafikkarte.



PCB der AMD Radeon Pro Duo (mGPU-Karte).
Es besteht bei Grafikkarten aus mehreren Schichten, in welchen sich Kupferleitbahnen zwischen Mainboard, GPU, Speicher und Stromversorgung befinden. Bei PCBs ist die Größe teilweise abhängig davon, wie große und wie viele verbaute Komponenten sich auf der Grafikkarte befinden. Es gibt sie in fast allen Größen und Farben, in der Regel sind Grafikkarten jedoch zwischen 15-30cm lang und 10-15cm breit. Die Höhe der Karten im Gehäuse wird in der Slothöhe angegeben.



Eine GeForce-Grafikkarte im 2-Slot-Design (üblich für Grafikkarten). Die Slothöhe entspricht (aufgerundet) den Blenden im Gehäuse zur Verschraubung von Erweiterungskarten.
Das PCB der Grafikkarte hat an der unteren Kante goldene Kontakte, die in den PCIe-Slot des Mainboards (PEG) eingesteckt werden. Über diese Leitungen wird die Grafikkarte mit Strom und mit Daten von der CPU versorgt.



Die PCIe Kontakte sind leicht zu erkennen.
Auf dem PCB ist auch die Stromversorgung der GPU realisiert, die wichtigsten Begriffe, die man dazu hört sind die folgenden beiden:

  • VRM - "Voltage Regulation Module", auf deutsch Spannungswandler, eine Schaltung aus Dioden, Spulen und Kondensatoren. Dient dazu, die vom Netzteil gelieferten 12V auf ~1,2V Betriebsspannung zu senken, ohne dabei eine große Verlustleistung zu erzeugen.
  • Phasen - Abteilungen des VRMs über die der Strom verteilt wird. Je mehr desto sauberer (störungsfrei) und verlustfreier kommt der Strom an der GPU an. Bei besseren Karten erhält der Grafikspeicher ein bis mehrere einzelne Phasen, anstatt sich diese mit der GPU zu teilen, so kommt es zu weniger Störungen untereinander.
Da im VRM u.a. Spulen verbaut sind und sich die Lastwechsel in modernen Grafikchips im Mikrosekundenbereich bewegen, kann es passieren, dass die Spulen Resonanzen erzeugen. Sollten diese nicht ordentlich verbaut sein, tritt womöglich das berüchtigte Spulenfiepen auf. Ein relativ hoher Ton, der zwischen nicht hörbar und äußerst störend auftreten kann. Eigentlich hat jede Grafikkarte Spulenfiepen, es tritt jedoch normalerweise nur bei hohen dreistelligen fps-Werten auf.

Die Stromversorgung der GPU selbst ist zum einen über den PCIe-Slot (PEG), als auch über PCIe-Kabel des Netzteils möglich. Über den PEG werden i.d.R. um die 50-80W aufgenommen, der Rest kommt über die 6/8pin PCIe-Kabel.



PCIe-Stromkabel mit 6 und 6+2 Pins.
VRAM - Von Bytes und Stapeln


Der VRAM ist im umgangssprachlichen Gebrauch die Abkürzung für Grafikspeicher ("Video Random Access Memory"). Er enthält alle Daten, die die GPU zum arbeiten benötigt. Bei Grafikanwendungen sind das hauptsächlich Modell- und Texturdaten. Der VRAM wird, mit Ausnahme von HBM, direkt über das PCB mit dem Speicherinterface der GPU verbunden. Der Begriff umfasst heute allgemein verschiedenste Typen von Speichern, die auf Grafikkarten verwendet werden. VRAM als solcher war auch einer dieser Speichertypen, ist aber heutzutage weitestgehend von DDR & GDDR abgelöst.

Im folgenden verschiedene beliebte Speichertypen kurz vorgestellt.

  • DDR - "Double Data Rate", ein eigentlich als normaler CPU-RAM verwendeter Speicher. Äußerst günstig, aber langsam. Meist in kleinen Office-Karten verwendet. Für Grafikkarten aktuell ist DDR3, jedoch ist durch die gesunkenen GDDR-Preise keine Verwendung vom Nachfolger DDR4 abzusehen. Der DDR-SDRAM wird immer von iGPUs zusammen mit der CPU verwendet, weshalb beim Einsatz von iGPUs auf schnellen RAM geachtet werden sollte.
  • GDDR - "Graphics Double Data Rate". Hervorgegangen aus dem normalen DDR-SDRAM, wurde der GDDR mit der Zeit immer weiter an die Bedürfnisse von GPUs angepasst. Relativ schnell, relativ günstig, jedoch teuer, stromfressend und platzverschwendend in großen Mengen. Aktuell ist GDDR5X/GDDR6.
  • HBM - "High Bandwith Memory". Neuentwicklung von Micron (in Partnerschaft mit AMD) aus dem Jahr 2015, der einen deutlich erhöhten Durchsatz im Gegensatz zu DDR oder GDDR hat. Kann aufeinander gestapelt werden und liegt direkt neben der GPU auf einem sogenannten "Interposer". Vorteile sind ein deutlich geringerer Platzverbrauch, höherer Durchsatz und die einfache Verwendung großer Mengen. Da dieser Speichertyp noch relativ jung ist, ist er aber noch teurer als GDDR.


Close-Up von AMDs Fiji-GPU mit HBM neben der GPU.



Rückseitige Aufnahme des GTX Titan X-PCBs mit aus Platzgründen zusätzlich rückseitig verbautem GDDR5-Speicher.
Die Leistung des Speichers wird mit dem Durchsatz beschrieben. Er wird in Gbit/s angegeben. Er errechnet sich aus der Größe des Speicherinterfaces und der Taktrate des Speichers. Je höher der Durchsatz, desto mehr Daten können zwischen VRAM und GPU gleichzeitig geteilt werden, so dass die GPU weniger häufig auf den Speicher warten muss, wenn große Datenmengen benötigt werden.

Stand heute wären mindestens 4GB Speicher empfohlen, um neueste Spiele mit qualitativ hochwertiger Texturdarstellung zu spielen. Weniger als 2GB Speicher sind aus heutiger Sicht nicht mehr zu empfehlen.

Der Kühler - Leise Rippen und dampfende Kammern


Wie bereits angesprochen steht und fällt die Leistung einer GPU auch mit ihrer Temperatur. Da die der Grafikkarte zugeführte Energie nicht anders als über Wärme abgegeben kann, muss diese Wärme von der GPU und den anderen Komponenten weggeleitet werden.

Dafür gibt es, wie bei den CPUs auch, Kühler, die diese Aufgabe erledigen. Heutzutage gibt es verschiedene Konzepte für die Kühlung von Grafikkarten, die nun folgend erklärt und verglichen werden.

Kühler-TypFunktionsweiseVorteileNachteile
Passive LuftkühlungEin passiver Kühler besitzt keine eigenen Lüfter, die die warme Luft aus den Kühlrippen drücken, sondern nutzt den vorhandenen "Airflow" (dt. Luftzug) im Gehäuse aus. Diese Kühler sind von Natur aus natürlich lautlos, sind jedoch nur für Grafikkarten geeignet, die einen Verbrauch bis um 100W haben (je nach Größe des Kühlkörpers).



GTX 750Ti mit Passivkühler.
Lautlos, Reinigung i.d.R. sehr einfachNiedrige Kühlleistung, auf guten Airflow im Gehäuse angewiesen
Aktive Luftkühlung (Radiallüfter)Auch "Direct Heat Exhaust" (kurz DHE, dt. direkte Wärmeausströmung) genannt. Eine solche Kühlung setzt auf einen Metallkühler in einer geschlossenen Abdeckung, auf den ein sog. Radiallüfter Luft bläst. Diese Konstruktion bläst die Luft waagerecht zur Karte durch den Kühler, bis die aufgewärmte Luft den Kühler durch die Slotblende der Grafikkarte verlässt. I.d.R. sind diese Kühler etwas lauter, da sie nur einen Lüfter nutzen, der die Wärme abtransportiert.



GTX Titan X mit DHE Kühler
Unabhängig von Airflow im GehäuseLauter, Reinigung i.d.R. sehr schwer
Aktive Luftkühlung (Axiallüfter)Auch diese Kühlung setzt auf einen Metallkühler, jedoch ist dieser meist nur aus Designgründen mit einer Abdeckung versehen. Die sog. Axiallüfter blasen hier die Luft senkrecht zur Grafikkarte durch die Kühlrippen. Meist sind es zwischen ein bis drei Axiallüfter die nebeneinander angebracht sind. Da diese Kühler im Gegensatz zu Kühlern mit Radiallüftern die warme Luft in das Gehäuse verteilen, benötigt es einen leichten Airflow im Gehäuse. Diese Kühler sind häufig auch von Drittherstellern erwerbbar, die noch größere Kühlleistung durch größere Dimensionen des Kühlers und eigene Lüfterwahl erlauben.



GTX Titan X mit Axial-Luftkühler
Leise, hohe KühlleistungAuf Airflow im Gehäuse angewiesen
WasserkühlungDiese Art der Kühlung ist eine Welt für sich. Im Gegensatz zu Luftkühlern wird die Wärme auf der Grafikkarte primär mithilfe von Wasser aus dem Kühler abgeführt, welches in einem geschlossenen Kreislauf zu einem Radiator gepumpt wird, wo die Wärme an die Luft abgegeben wird. Wasserkühler gibt es als AiO-Variante ("All in One", dt. "alles in einem"), bei denen alle Teile (Kühler, Pumpe, Radiator, Schläuche) bereits montiert mitgeliefert werden. Grade im Wasserkühlungsbereich befinden sich aber die meisten Bastler, die sich ihre Teile alle einzeln zusammenstellen und -bauen, um die Effizienz weiter zu erhöhen. Wasserkühlung ist für GPUs hervorragend geeignet, da diese im Gegensatz zu CPUs seltener kleine Hotspots haben, sondern die Wärme meist auf der ganzen Fläche der GPU erzeugt wird und somit gut abgeführt werden kann. Wasserkühlungen sind die effizientesten Kühlungen für den normalen Nutzer.



GTX Titan X mit Fullcover-Wasserkühler

Wasserkühlungs-FAQ
Sehr leise, sehr hohe Kühlleistung, Lüfter der Radiatoren sorgen für Airflow im Gehäuse, frei konfigurierbarTeuer, AiO-Pumpen oft billig und laut, Konfiguration und Zusammenbau erfordert zusätzlich Vorsicht

Heutzutage werden zur besseren Verteilung der Wärme von der Auflagefläche des Kühlers auf der GPU zu den Kühlrippen sogenannte Heatpipes verwendet. Dies sind hohle, mit ein wenig Flüssigkeit gefüllte, hermetisch geschlossene Kupferrohre. Die Flüssigkeit verdampft an der heißen Stelle des Rohres (GPU Auflagefläche) und steigt durch den Druckunterschied in die kühleren Stellen des Rohres (nahe der Kühlrippen) wo es abkühlt, sich verflüssigt und wieder zur heißen Auflagefläche fließt. Heatpipes arbeiten nach dem Dochtprinzip, so dass sie schwerkraftunabhängig sind.



Schematische Darstellung der Funktionsweise einer Heatpipe.
Im folgenden die Typen der Auflageflächen von Heatpipes:

Auflage-TypFunktionsweise
Heatpipes mit KupferplatteHäufig werden Heatpipes einfach mit einer simplen Kupferplatte verbunden, welche auf der GPU liegt. Das Design ist relativ simpel und erfordert nur wenig Material.



Heatpipes mit Kupferplatte bei Gigabyte HD 7950 Windforce 3X.
Direct-Touch HeatpipesDirect-Touch Heatpipes werden flach gedrückt und angeschliffen, so dass sie selbst eine plane Fläche bilden, die auf der GPU liegt. Das Verfahren benötigt kein zusätzliches Material und funktioniert, sollten die Heatpipes sehr gut aneinander liegen und plan sein, genau so gut wie die Kupferplatte.



Direct-Touch Heatpipes bei ASUS R9 290X DirectCU II.
Vapor ChamberDie Vapor Chamber ist eine Kammer, die im Inneren wie eine große Heatpipe aufgebaut ist, aus der die Heatpipes direkt die Flüssigkeit beziehen, die verdunstet. Sie erfordert mehr Material, ist jedoch sehr effektiv, da kein Wärmeübergang zwischen verschiedenen Metallstücken (Kupferplatte zu Heatpipe) stattfindet und die Vapor Chamber die Effektivität der Heatpipes erhöht.



Vapor Chamber mit Übergang zu Heatpipes in Raijintek Morpheus Kühler.
 
Zuletzt bearbeitet: (Wartung)

psYcho-edgE

Vice Admiral
Ersteller dieses Themas
Dabei seit
Apr. 2013
Beiträge
7.014
#3
6. Leistung und Generationen


Die Leistung von GPUs kann in grobe Überklassen kategorisiert werden, die fließend ineinander übergehen. Von einfachen Office-Karten bis hin zur Enthusiastenklasse wird wie folgt unterschieden.

Leistungsklassen


Die folgenden Leistungsklassen sind bewusst allgemein gehalten, da sich die Anforderungen mit der Zeit immer wieder verschieben.

  • Office - diese Klasse liegt auf dem sterbenden Ast. Es sind sehr kleine, einfache aber auch sparsame GPUs, die eher weniger für aufwendige 3D- als für 2D-Darstellungen geeignet sind. Die Bezeichnung Office rührt daher, dass diese GPUs i.d.R. für Fertig-PCs im Bürogebrauch verwendet werden, wo Spieleleistung nicht wichtig ist, sondern einfach nur die Desktop-Oberfläche, Office-Programme und Internetbrowser dargestellt werden müssen. Durch die hohe Verbreitung von Intels Core-i-CPUs, welche eine iGPU besitzen, werden diese Karten langsam aber sicher überflüssig.
  • Entry - die günstige Einsteigerklasse, für Gelegenheitsspieler oder Spieler von grafisch anspruchslosen Spielen. Zu diesem Segment gehören aktuell auch noch die stärksten APUs und iGPUs.
  • Budget - günstig, aber schon gut brauchbar für anspruchsvollere Spiele.
  • Mittelklasse - der Löwenanteil der Spieler-GPUs befindet sich in diesem Segment. Anspruchsvolle Spiele sind mit guter Performance darstellbar. Gutes P/L-Verhältnis.
  • Performance - GPUs für AAA-Titel in sehr hohen Einstellungen unter normalen Auflösungen mit akzeptablen fps.
  • High-End - für die anspruchsvollere Einstellungen und Auflösungen.
  • Enthusiast - das Beste vom Besten. Exorbitant teure GPUs, die die stärksten am Markt sind.
  • Professional - extrem teure GPUs für professionelle Anwender, z.T. mit speziellen Treibern für GPGPU. Nicht zu empfehlen für Spieler.

Generationen im Vergleich


Diese Tabelle vergleicht AMDs und nVidias Generationen untereinander.

Generation / µArchichtektur / ZeitraumFeaturesEmpfehlenswerte Karten
(ATi) Radeon HD 5000 / TeraScale2 (TSMC 40nm HPC) / 2009DX11/DX12, OpenGL/Vulkan
GeForce 400/ Fermi (TSMC 40nm HPC) / 2010DX11/DX12, OpenGL/Vulkan, CUDA, PhysX
Radeon HD 6000 / TeraScale3 (TSMC 40nm HPC) / 2010DX11/DX12, OpenGL/Vulkan
GeForce 500 / Fermi (TSMC 40nm HPC) / 2011DX11/DX12, OpenGL/Vulkan, CUDA, PhysXGTX 580 3GB GDDR5 (Budget)
Radeon HD 7000 / GCN1.0 (TSMC 28nm HPC) / 2012DX11/DX12, OpenGL/VulkanHD 7850 2GB GDDR5 (Budget), HD 7870 2GB GDDR5 (Budget), HD 7950 3GB GDDR5 (Budget), HD 7970 3GB GDDR5 (Budget)
GeForce 600 / Kepler (TSMC 28nm HPC) / 2012DX11/DX12, OpenGL/Vulkan, CUDA, PhysX, G-SyncGTX 670 4GB GDDR5 (Budget), GTX 680 4GB GDDR5 (Budget)
GeForce 700 / Kepler (TSMC 28nm HPC) / 2013DX11/DX12, OpenGL/Vulkan, CUDA, PhysX, G-SyncGTX 750(Ti) 2GB GDDR5 (Maxwell 28nm) (Entry), GTX 770 4GB GDDR5 (Budget), GTX 780 6GB GDDR5 (Budget)
Radeon R 200 / GCN1.1 (TSMC 28nm HPC+) / 2013DX11/DX12, OpenGL/Vulkan, FreeSyncR9 270(X) 4GB GDDR5 (GCN1.0 28nm) (Budget), R9 280(X) 3GB GDDR5 (GCN1.0 28nm) (Budget), R9 290(X) 4GB GDDR5 (Mittelklasse)
GeForce 900 / Maxwell (TSMC 28nm HPC+) / 2014DX11/DX12, OpenGL/Vulkan, CUDA, PhysX, G-SyncGTX 960 2GB GDDR5 (Budget), GTX980 4GB GDDR5 (Mittelklasse), GTX 980 Ti 6GB GDDR5 (Performance)
Radeon R 300 / GCN1.2 (GF 28nm SHP) / 2015DX11/DX12, OpenGL/Vulkan, FreeSyncR7 370(X) 4GB GDDR5 (GCN1.0 28nm) (Entry), R9 380(X) 4GB GDDR5 (Budget), R9 390(X) 8GB GDDR5 (GCN1.1 28nm) (Mittelklasse), R9 Fury 4GB HBM (Performance), R9 Fury Nano/X 4GB HBM (Performance)
GeForce 1000 / Pascal Architektur (TSMC 16nm FF+) / 2016DX11/DX12, OpenGL/Vulkan, CUDA, PhysX, G-SyncGTX 1060 6GB GDDR5 (Mittelklasse), GTX 1070 8GB GDDR5 (Mittelklasse), GTX 1070 Ti 8GB GDDR5X (Performance), GTX 1080 8GB GDDR5X (Performance), GTX 1080Ti 11GB GDDR5X (High-End)
Radeon RX 400 / GCN2.0 (14nm LPP) / 2016DX11/DX12, OpenGL/Vulkan, FreeSyncRX 460 4GB GDDR5 (Entry), RX 470 8GB GDDR5 (Budget), RX 480 8GB GDDR5 (Mittelklasse)
Radeon RX 500 / GCN2.0 (GF 14nm LPP+, GF 12nm LPP) / 2017-2018DX11/DX12, OpenGL/Vulkan, FreeSync 2 HDRRX 550 4GB GDDR5 (Entry), RX 560 4GB GDDR5 (Entry), RX 570 8GB GDDR5 (Budget), RX 580 8GB GDDR5 (Mittelklasse), RX 590 8GB GDDR5 (12nm) (Mittelklasse)
Radeon RX Vega / GCN2.0 (GF 14nm LPP) / 2017DX11/DX12, OpenGL/Vulkan, FreeSync 2 HDRRX Vega 56 8GB HBM (Performance), RX Vega 64/Liquid 8GB HBM (Performance), RX Vega 64 Frontier Edition 16GB HBM (Professional)
Volta / Volta (TSMC 12nm FFN)DX11/DX12,
OpenGL/Vulkan, CUDA, Tensor Cores, G-Sync
Titan V 12GB HBM (Professional), Titan V CEO Edition 32 GB HBM (Professional)
GeForce 2000 / Turing (TSMC 12nm FFN)DX11/DX12, OpenGL/Vulkan, CUDA, T.C., Raytracing, PhysX, G-SyncRTX 2070 8GB GDDR6 (High-End), RTX 2080 8GB GDDR6 (High-End), RTX 2080 Ti 11GB GDDR6 (Enthusiast)

ComputerBase hat im Januar 2017 einen Überblick mit Benchmarks über die Entwicklung von Grafikkarten in Mittelklasse und High-End von AMD und nVidia seit 2009 zur Verfügung gestellt:

nVidia-Mittelklasse im Vergleich
AMD-Mittelklasse im Vergleich

nVidia-High End im Vergleich
AMD High-End im Vergleich

Gebrauchtkauf


Die im vorigen Absatz auffindbare Tabelle bietet grobe Anhaltspunkte, welche Karten älteren Semesters sich für den Gebrauchtkauf lohnen. Man sollte sich beim Gebrauchtkauf immer über folgende Punkte versichern:

  • Garantie - sollte die Karte noch Garantie haben, ist sie sehr zu empfehlen.
  • Zustand - staubfreier Kühler, nie oder nur wenig übertaktet, Lüfter klackern nicht.
    Tipp: immer fragen, warum die Karte verkauft wird.
  • Preis - hier im Forum kann schnell ein passender Preis für die gewünschte Karte angegeben werden, falls man es selbst nicht einschätzen kann.
  • Seriosität - auf eBay und Co tummeln sich auch unseriöse Händler, die Karten mit anderen Kühlern versehen und als eine bessere ausgeben. Im Computerbase-Marktplatz ist man durch die 50 Beiträge-Regel vor solchen schwarzen Schafen eher geschützt.

Wer wissen will, wie viel seine Hardware noch wert ist, der darf sich gerne dieser Faustformel bedienen:

Code:
Kaufpreis * (0,75 ^ Alter in Jahren)
 
Zuletzt bearbeitet: (Wartung - GPU-Tabelle aktualisiert)

psYcho-edgE

Vice Admiral
Ersteller dieses Themas
Dabei seit
Apr. 2013
Beiträge
7.014
#4
7. Bildausgabe


In diesem Kapitel geht es um alles, was mit der Bildausgabe zu tun hat. Also Auflösungen, Monitore, Anschlüsse etc.

Seitenverhältnisse, Auflösungen, Bildmodi - von 4:3 zu 2160p


Inzwischen ist eine Vielzahl verschiedener Auflösungen und Seitenverhältnisse auf dem Monitormarkt erhältlich.
Das Seitenverhältnis beschreibt das Verhältnis zwischen Breite und Höhe der Monitore. Die Auflösung kann zum einen in der Gesamtheit der Pixel (z.B. in Megapixeln) oder, wie üblich, in Form von vertikalen mal horizontalen Pixeln angegeben werden. Im Folgenden werden die gängigsten Seitenverhältnisse und Auflösungen aufgelistet.

  • 4:3 - eins der ältesten Seitenverhältnisse. Bekannt von alten Röhrenmonitoren. Bei sehr alten Spielen tw. das einzig auswählbare Format.
  • 16:9 - das beliebte Multimedia-Format. Findet Verwendung in Fernsehern, Beamern und Monitoren. Dieses Bildformat ist deutlich breiter als hoch.
  • 16:10 - ein dem beliebten 16:9-Format ähnliches Verhältnis, jedoch mit mehr Pixeln auf der Vertikalen. Geeignet für Vielleser, da mehr Zeilen darstellbar sind.
  • 21:9 - Kino-Format. Sehr breites Bild mit deutlich mehr Pixeln zu den Seiten als 16:9. Fast doppelt so breit wie 4:3.

  • HD (ready): 1280x720 (0.92MP) - mit 720 Pixeln in der Vertikalen ist HD die kleinste Auflösung, die für Spieler gewählt werden sollte. Diese Auflösung erfordert kaum Rechenleistung von der GPU.
  • Wide XGA: 1366x768 (1.04MP) - bietet schon ein paar mehr Pixel, führt aber bei der Vollbilddarstellung von 720p oder 1080p-Videos dazu, dass interpoliert werden muss. Eine vor allem bei etwas älteren Notebooks übliche Auflösung.
  • FullHD: 1920x1080 (2.07MP) - der Standard in der Industrie. Mehr als die Hälfte aller (Gaming-)Monitore weltweit nutzen diese Auflösung.
  • Wide UXGA: 1920x1200 (2.30MP) - der 16:10 Gegenpart von FullHD. Geeignet für Leute, die eher surfen als spielen.
  • Ultra Wide UXGA: 2560x1080 (2.76MP) - mit einem Seitenverhältnis von 21:9 ist diese Auflösung vor allem bei Film-Schauern beliebt, aber auch bei Freunden großer Sichtfelder.
  • Wide QuadHD: 2560x1440 (3.69MP) - die vierfache Auflösung von HD. Erfordert Grafikkarten aus dem Performance-Segment.
  • Wide QXGA: 2560x1600 (4.09MP) - der nächsthöhere Vertreter der 16:10-Gattung. Aufgrund der großen Pixelmenge nur bei größeren Diagonalen geeignet für lange Texte.
  • UltraWide QuadHD: 3440x1440 (4.95MP) - mit 21:9 für Gaming mit großem Sichtfeld geeignet.
  • UltraHD: 3820x2160 (8.29MP) - der aktuelle Peak der Auflösungsentwicklung für Spieler. Um die über 8 Millionen Pixel mit hoher Bildrate zu berechnen, benötigt man die absolute Oberklasse der GPUs.


Bei der Angabe der vertikalen Auflösung wird häufig ein p oder i mit angegeben (z.B. "1080p"), diese Buchstaben stehen für die beiden Bildaufbau-Modi, die es gibt, d.h. auf welche Art der Monitor die Bilder erzeugt.
  • Progressiv (p) - dieser Bildmodus sorgt dafür, dass nur Vollbilder gezeichnet werden, also eins nach dem anderen.
  • Interlaced (i) - dieser Bildmodus entstand durch das analoge Fernsehen. Dabei werden nacheinander nur Halbbilder übereinander gelegt, so dass ein vollständiges Bild entsteht.

Panelkunde


Heutige Monitore sind zum Großteil mit LCDs versehen. LCD steht für Liquid Cristal Disyplay, zu deutsch Flüssigkristallanzeige. Die Flüssigkristalle bewegen sich bei angelegter Spannung, so dass Lichtstrahlen an ihnen vorbei können, oder nicht. Allen LCDs gemein ist der Einsatz von Polarisationsfiltern, die Licht nur in einem Winkel durchlassen und pro Subpixel eine Farbe mit Farbfiltern erzeugen. Im folgenden die drei LCD und der neuere OLED-Paneltyp:

Twisted Nematic (TN)

Dieser Paneltyp gehört zu den ältesten LCDs. Er besteht aus von zwei um 90° gedrehten Polarisationsfiltern, zwischen denen sich die Flüssigkristalle befinden. Diese sind (ohne anliegende Spannung) waagerecht zum Glas angebracht und vom ersten Polarisationsfilter zum zweiten Stück für Stück von 0° bis 90° gedreht. So wird das Licht automatisch um 90° gedreht, damit es den Polarisationsfilter verlassen kann. Wenn Spannung anliegt, drehen sich die Flüssigkeitskristalle, so dass sie senkrecht zum Glas stehen, es entsteht ein sattes schwarz, da sowohl durch die Kristalle als auch die Polarisationsfilter kein Licht durchdringen kann.
TN-Panele werden vermehrt für Spieler eingesetzt, da sie z.T. sehr hohe Bildwiederholraten ermöglichen, die IPS und VA noch nicht erreichen können.

Vorteile:
  • Niedrige Reaktionszeit
  • Guter Schwarzwert
  • Gute Helligkeit
  • Geringer Preis

Nachteile:
  • Schlechtere Farbtreue
  • Geringe Blickwinkelstabilität



Aufbau eines TN-Panels.
In-Plane-Switching (IPS)

Um die Blickwinkel- und Farbstabilitäts-Probleme von TN auszugleichen, wurde ein weiterer Paneltyp ins Leben gerufen. Der In-Plane-Switching besteht aus einem Polarisationsfilter, auf dem Flüssigkristalle angebracht sind. Die Flüssigkristalle stehen waagerecht zum Glas, drehen sich auch waagerecht bei Spannung um bis zu 90°, so dass mehr und mehr Licht durchscheint. Da die Kristalle in Ruhestellung mehr Licht durchlassen, als bei TN-Panelen ist der Schwarzwert schlechter, man sieht häufig die LED Hintergrundbeleuchtung durchscheinen. Insgesamt ist jedoch die Lichtstärke von IPS geringer als bei TN, da die Kristalle selbst ein wenig Licht blockieren, anstatt es umzuleiten.
Der Paneltyp PLS ist übrigens nur ein IPS-Klon von Samsung, also ein Markenname.

Vorteile:
  • Sehr hohe Farbtreue
  • Exzellente Blickwinkelstabilität
  • Robustheit

Nachteile:
  • Schlechterer Schwarzwert
  • Geringere Helligkeit
  • Höhere Reaktionszeit
  • Hoher Preis



Aufbau eines IPS-Panels
Vertical Alignment (VA)

Da man bei IPS etwas über das Ziel hinausgeschossen ist, so dass zwar Blickwinkelstabilität und Farbtreue deutlich besser als bei TN sind, jedoch die Reaktionszeit, Lichtstärke und der Schwarzwert darunter leiden, hat man VA für einen Kompromiss entwickelt.
VA ist dem TN-Aufbau sehr ähnlich, genau wie bei TN befindet sich ein VA-Flüssigkristall zwischen zwei Polarisationsfiltern, die um 90° gedreht sind. Wenn keine Spannung anliegt, sind die Flüssigkristalle, im Gegensatz zu IPS, senkrecht zum Glas ausgerichtet (daher der Name "Vertical Alignment", zu deutsch "vertiakale Ausrichtung"), der Schwarzwert ist hoch. Legt man nun Spannung an, drehen sich die VA-Moleküle nun horizontal, so dass Licht durch sie hindurch dringen kann. Da die Kristalle in spezieller, unterschiedlicher Ausrichtung über den kompletten LCD verteilt sind, wird der unterschiedliche Blickwinkel zwischen linkem und rechtem Auge ausgeglichen und der (korrekte) Mittelwert beider Bilder ist das Ergebnis.

Vorteile:
  • Hohe Farbtreue
  • Hohe Blickwinkelstabilität
  • Geringere Reaktionszeit
  • Guter Schwarzwert
  • Guter Kompromiss aus TN und IPS

Nachteile:
  • Hoher Preis



Aufbau eines MVA Panels

OLED

OLED steht für "Organic Light Emitting Diode", zu deutsch also organische Leuchtdiode. Im Gegensatz zu LCDs, die eine Hintergrundbeleuchtung durch LEDs benötigen und dann das Licht je nach Bedarf abdimmen, sind OLED-Disyplays selbstleuchtend. Daraus ergibt sich, dass schwarze Pixel auch wirklich aus sind, also in keinem Fall schwarz heller als der ausgeschaltete Monitor ist. OLED-Displays haben hervorragende Kontrastwerte und glänzen mit satten Farben. Besitzer von Samsung-Smartphones dürften sich bereits mit OLEDs vertraut gemacht haben, Samsung verbaut in diesen ihre selbst produzierten AMOLEDs.
Da OLEDs aber erst seit kurzem in der Massenproduktion zu finden sind, kranken sie am Einbrenn-Effekt. Wie schon bei alten Röhrenmonitoren, brennt sich ein immer gleich dargestelltes Bild irgendwann in den Display ein, so dass es an dieser Stelle zu verfälschter Farbdarstellung kommt (bei Smartphones bspw. die Nachrichtenleiste, bei PCs die Taskleiste).

Vorteile:
  • Sehr hohe Farbtreue
  • Sehr hoher Kontrast
  • Hohe Blickwinkelstabilität
  • Sehr niedrige Reaktionszeit
  • Perfekter Schwarzwert
  • Ermöglicht biegsame Displays

Nachteile:
  • Hoher Preis
  • Einbrenn-Effekt
  • Kaum erhältlich



Aufbau eines OLED-Panels

Anschlusskunde


Im folgenden werden gebräuchliche Displayanschlüsse gezeigt und erklärt.

VGA / Mini-D-Sub

Das Virtual Graphics Array ist ein analoger Standard für Kabel und Stecker zur Bildübertragung. Der Stecker ist eine Miniatur des D-Sub-Steckers mit 15 Pins. Häufig ist er blau eingefärbt, was ihn leicht zu erkennen macht. Er wurde 1987 von IBM eingeführt. Seit 2015 wird VGA nicht mehr von AMD und Intel in neuen Produkten unterstützt bzw. verwendet. Er ist für sehr hohe Auflösungen und Bildwiederholraten nicht geeignet.

Maximale Auflösung: 1920x1080p
Maximale Bildwiederholrate: 60Hz
Sound: nein
Kopierschutz: nein
HDR: nein
A-Sync: nein
Typ: analog



VGA-Anschluss und Buchse (v.l.)

DVI

Das Digital Visual Interface ist ein etwas neuerer Standard für Bildausgabe bzw. -übertragung. Abhängig von der Pin-Belegung kann der Stecker analog (DVI-A), digital (DVI-D) oder auf beide Wege (DVI-I) Signale übertragen. Die normale Variante überträgt 1920x1200p mit 60Hz, die Dual-Link Varianten mit mehr Pins erlauben sogar 2560x1600p mit 120Hz. Wenige gute Kabel erlauben sogar 144Hz. Da DVI-I und -A analoge Übertragung erlauben, gibt es Adapter von VGA auf DVI. Bei der Verwendung von DVI-I mit aktuellen Grafikkarten und einem HDMI-Adapter ist es sogar möglich Audiosignale zu übertragen.


DVI-Typen im Vergleich

Maximale Auflösung: 2560x1600p (Dual-Link)
Maximale Bildwiederholrate: 120/144Hz (Qualität der Kabel entscheidend)
Sound: ja (DVI-I mit HDMI-Adapter)
Kopierschutz: nein
HDR: nein
A-Sync: nein
Typ: analog (DVI-A), digital (DVI-D), a/d (DVI-I)


DVI-I Dual-Link Buchse und Stecker (v.l.)

HDMI

Das High Definition Media Interface ist ein digitaler Standard, der seit 2002 entwickelt wird und aus DVI hervorging. Wesentliche Merkmale sind die Fähigkeit zur Tonübertragung und ein einheitlicher Kopierschutz für Bild und Ton. Er ist hauptsächlich für Multimediageräte wie Fernseher, Spielekonsolen etc. konzipiert, eignet sich aber auch als Bildschirmanschluss.

Maximale Auflösung: 4096/3820x2160p (ab V1.4)
Maximale Bildwiederholrate: 60Hz (...bei UHD, ab V2.0)
Sound: ja
Kopierschutz: ja
HDR: ja (ab V2.0a)
A-Sync: ja (ab V1.4b)
Typ: digital


HDMI Buchse und Kabel (v.l.)

DisplayPort

Der Displayport ist ein universeller, lizenzfreier Standard der VESA, der seit 2006 entwickelt wird. Er zeichnet sich durch die sehr hohen Datenraten aus, die für moderne Auflösungen und Qualitätseinstellungen erforderlich werden.

Die von Apple entwickelte Miniatur des Displayport wurde von Intel und Apple zum Datenübertragungsstandard Thunderbolt weiterentwickelt. Beide Standards sind mechanisch und elektrisch kompatibel.

Maximale Auflösung: 7680x4320p (ab V1.3)
Maximale Bildwiederholrate: 60Hz (...bei 4320p, ab V1.4)
Sound: ja
Kopierschutz: nein
HDR: ja (ab V1.4)
A-Sync: ja (ab V1.2), G-Sync (ab V1.2)
Typ: digital, analog (per Adapter auf VGA, DVI-A)


Displayport Stecker und Buchse (v.l.)

Zusammenhang zwischen Hertz, fps und Sync-Techniken


Im folgenden wird erklärt, was die Bildwiederholrate ist, wie sie mit fps zusammenhängt und wie verschiedene Sync-Techniken arbeiten.

Bildwiederholrate - Refreshrate

Normale LCD-Panele haben eine mehr oder weniger feste Bildwiederholrate. Das heißt, dass sie immer nach einem gewissen Zeitabstand ein neues Bild darstellen können. In der Regel liegt die Bildwiederholrate bei 60Hz, das heißt, dass jede 1/60 Sekunde (16,66ms) das Bild "refresht" (dt: aufgefrischt) wird, egal, ob die GPU bis dahin ein neues vollständiges Bild geliefert hat, oder nicht. Ein solches Zeitfenster wird im folgenden auch Refreshzyklus genannt.

Frames per Second und Frametimes

Eine GPU ist im Gegensatz zu einem Monitor (zumindest in Spielen) ständig mit unterschiedlicher Last konfrontiert.
Dementsprechend wird sich die Menge der Bilder, die die GPU errechnen kann, immer verändern und nie konstant sein.
Es gibt zwei Parameter, mit der sich die ausgegebenen Frames der GPU beschreiben lassen. Zum einen sind dies die fps ("frames per second", dt: Bilder pro Sekunde), welche die pro Sekunde durchschnittlich errechneten Frames angeben, zum anderen die Frametimes, die angeben, wie viele Millisekunden ein Frame zur Berechnung benötigt (ms/f, "milliseconds per frame", Millisekunden pro Frame), womit sich in Diagrammen Ausreißer deutlicher erkennen lassen, als wenn man nur die fps betrachtet.

Fallbeispiel: warum fps ein trügerischer Wert ist

In einem (nicht-realistischen) Extremfall, könnte die GPU mit 400fps (2.5ms/f) für 100ms rechnen und die restlichen 900ms nur mit 10fps (100ms/f). Am Ende bekommt man zwar mit rund 49fps zwar einen halbwegs guten Wert, die Frametimes würden aber deutlich zeigen, dass ab der 100ms-Grenze die Framerate in den Keller sinkt und beim Spielen würde man ein deutliches Rucken bemerken.

Es gilt: je stabiler die Frametimes, desto weniger Ruckeln

Zusammenhang Bildwiederholrate - fps

Da die Bildwiederholrate eines Monitors in der Regel fest ist, sollte man versuchen, immer mindestens die Menge an fps zu erreichen, die der Monitor maximal darstellen kann. Bei einem 60Hz Monitor sollte man also mindestens 60fps erreichen. Tatsächlich ist jedoch jeder Frame, der pro Sekunde mehr berechnet werden kann, eventuell wichtig, da, falls die Frametimes durch Last kurzzeitig steigen, durch die häufiger vorhandenen Frames eventuell eine Framewiederholung (Frame Skipping) verhindert werden kann.

Es gilt: die minimalen fps sollten so hoch wie möglich sein, mindestens jedoch über der Bildwiederholrate liegen.

Screen Tearing

Screen Tearing ist eines der häufigsten Probleme bei der Bildausgabe und beschreibt den optischen Effekt wenn zwei (oder mehr) von der GPU berechneten Frames um den gleichen Refreshzyklus des Monitors konkurrieren. So werden bei einer Bildausgabe auf dem Monitor sowohl ein älterer, bereits fertiger Frame als auch ein neuerer, z.T. nicht fertig gestellter Frame übereinander gelegt. Dabei entsteht durch die Veränderung an dem Übergang zwischen dem älteren und dem jüngeren Frame ein visueller Unterschied, der sich wie ein Riss ("tearing" - dt. reißen) quer über den Bildschirm zieht. Gerade in schnellen Spielen (Shooter, Rennspiele, etc.), wird der Effekt von Tearing besonders deutlich, bei langsameren Spielen wäre Tearing theoretisch auch vorhanden, jedoch ist es dann nicht so leicht erkennbar durch die geringe Differenz zwischen den Frames.

Tearing kann nicht durch das Feststellen der Framerate auf die Bildwiederholrate verhindert werden, da diese dadurch nicht zwangsläufig synchron sind - tatsächlich kann man sich dadurch sogar dauerhaftes Tearing einbrocken (nämlich wenn bei etwa halber Zyklenperiode immer ein neuer Frame bereitsgestellt wird). Tearing kann nur verhindert werden, indem eine Sync-Technologie verwendet wird, die die Bildausgabe auf die Refreshzyklen des Ausgabegeräts abstimmt.

Doppeltes Screen Tearing während drei Frames um den gleichen Refreshzyklus im Monitor konkurrieren


Frame Skipping

Beim Frame Skipping überspringt der Monitor in einem Refreshzyklus die Darstellung eines Bilds (bspw. bei aktiviertem V-Sync) und zeigt stattdessen einen älteren Frame an. Dies stellt eine Art von Input Lag dar, da der explizite Input (bspw. Drehung in einem Shooter) in der Bildausgabe effektiv ignoriert wird. Frame Skipping kann aber auch allgemein durch fehlende neue Frames entstehen (z.B. wenn vor Beginn des nächsten Refreshzyklus noch kein neuer Frame zur Verfügung steht), wenn die Framerate niedriger ist, als die Refreshrate.

Vertikale Synchronisierung - V-Sync

Um dem Screen Tearing Herr zu werden, wurde die sogenannte Vertikale Synchronisierung entwickelt. Bei dieser hält die GPU die Frames so lange in einem Framebuffer (Zwischenspeicher für fertige Frames), bis diese passend zu einem Refreshzyklus ausgegeben werden können. So wird zwar gewährleistet, dass kein Tearing auftritt, jedoch kann es zum sogenannten Frameskipping kommen, wenn bspw. im Buffer für den nächsten Refresh kein fertiger Frame liegt und ein alter Frame wiederholt werden muss. Dieser Effekt ist jedoch noch weniger erwünscht als Screen Tearing.

Es gilt: V-Sync sollte möglichst mit höherer Frame- als Refreshrate und common Triple Buffering (cTB, üblicherweise nur "Triple Buffering") verwendet werden.

Variable Refreshrate - A-Sync / FreeSync / G-Sync

Um das Hauptproblem der Vertikalen Synchronisierung, den durch Frame Skipping erzeugten Input Lag, in den Griff zu bekommen, wurden in den letzten Jahren Bildschirme mit variablen Refreshraten (VRR) hergestellt, die die Möglichkeit bieten adaptive Synchronisierungstechniken einzusetzen. Diese sorgen dafür, dass die Bildschirme auf die kommunizierte Framerate der Grafikkarte reagieren und ihre Refreshrate auf diese abstimmen.

Dazu müssen sowohl die Grafikkarte als auch der Monitor eine der folgenden A-Sync-Technologie zu unterstützen.

  • Adaptive Sync
    • optionaler, freier Standard der VESA für den Displayport-Anschluss ab Displayport 1.2a. Erlaubt einen Monitor mit VRR durch kompatible adaptive Synchronisationstechniken anzusteuern.
  • G-Sync
    • proprietärer adaptiver Sync-Standard von NVIDIA für Monitore zur Kommunikation mit GeForce-Grafikkarten über Displayport. Erfordert ein relativ teures Zusatzmodul, welches auf einem speziellen Chip aufbaut.
    • Sync-Standard auf GeForce-Grafikkarten
  • FreeSync
    • freier adaptiver Sync-Standard von AMD, der sowohl über den Displayport Adaptive Sync-Standard als auch über einen eigenen, erweiterten HDMI-Standard implementiert werden kann.
    • Sync-Standard auf Radeon-Grafikkarten

Kompatibilität ist nur zwischen Monitoren mit Adaptive Sync bzw. FreeSync und GPUs mit FreeSync oder zwischen Monitoren und Grafikkarten mit G-Sync möglich. Eine AMD-GPU an einem G-Sync-Monitor kann die VRR nicht steuern und eine NVIDA-GPU keinen Adaptive Sync- bzw. FreeSync-Monitor ansteuern.

Praktisch sind auch Intel und NVIDIA dazu in der Lage in ihren Treibern das offene Adaptive Sync zu unterstützen. NVIDIA hat A-Sync-Support jedoch zurzeit abgelehnt. Intel zeigte sich zuletzt an einer offenen A-Sync-Implementierung interessiert, die demnach eventuell mit zukünftigen (i)GPU-Generationen auf dem Markt erscheinen könnte.


 
Zuletzt bearbeitet: (Update in Progress - Synctechnologien erklärt)

psYcho-edgE

Vice Admiral
Ersteller dieses Themas
Dabei seit
Apr. 2013
Beiträge
7.014
#5
8. System- und GPU-Limits, Grafik-APIs, Treiber, Software und Features


In diesem Kapitel werden System-Limits, die Arbeit von Grafikschnittstellen, Treibern, BIOS, verschiedener Software und Features wie CUDA, oder TressFX erklärt.

System-Limits


Obwohl GPUs in Spielerechnern die Hauptleistungsträger sind, heißt es nicht, dass eine große GPU allein ausreicht. In jedem System existieren sogenannte Flaschenhälse, Stellen an denen die Gesamtleistung des Rechners limitiert wird, also zu deutsch nicht mehr gesteigert werden kann.

Es wird übrigens immer einen Flaschenhals in einem System geben, da verschiedene Programme verschiedene Anforderungen besitzen. Je nach Auflösung, Qualitätseinstellungen und Programm ändert sich das Limit.

CPU-Limit

Von CPU-Limit spricht man, wenn die GPU ihre Arbeit in so kurzer Zeit erledigt, dass sie auf die CPU warten muss, bis diese die Daten für das nächste zu rendernde Bild vorbereitet hat.
Ein CPU-Limit erkennt man daran, dass die GPU nicht ausgelastet ist. Wenn die Auslastung immer unter 90% liegt, ist in der Regel die CPU langsamer als die GPU, welche warten muss.

Was erzeugt CPU-Limits?
  • Hohe Sichtweite
  • Hohe Objekt-/Einheitenzahl

Welche Spiele neigen zu CPU-Limits?
  • Online-Spiele (die ständigen Abgleiche der Positionen anderer Spieler mit dem Server erzeugen CPU-Last)
  • Strategiespiele (die große Menge an Einheiten erzeugt CPU-Last)
  • Open-World Spiele mit hoher Sichtweite (je größer die Sichtweite, desto mehr Objekte müssen erfasst und kontrolliert werden, eine hohe Sichtweite erhöht die CPU-Last)

Im CPU-Limit hilft es nicht die Grafikkarte zu tauschen.

GPU-Limit

Vom GPU-Limit spricht man, wenn die GPU vollständig ausgelastet ist. Die Auslastung liegt im Spiel mit den gewählten Einstellungen immer über 95%.

Was erzeugt GPU-Limits?
  • Hohe Auflösungen
  • Hohe Detail-/Qualitätseinstellungen
  • Kantenglättung

Welche Spiele neigen zu GPU-Limits?
  • AAA-Titel
  • Shooter
  • Spiele ohne offene Welt

Im GPU-Limit hilft es nicht die CPU zu tauschen.

VRAM-Limit

Vom VRAM-Limit spricht man, wenn der Grafikspeicher schnell voll ist. Es entstehen sog. Nachladeruckler, da die Daten im VRAM für die Anwendung nicht genügen, müssen sie erst von der Festplatte geladen werden, welche deutlich langsamer ist als VRAM.
Es ist ein weit verbreiteter Irrglaube, dass Spiele mit hoher Auflösung automatisch deutlich mehr VRAM benötigen.

Was erzeugt VRAM-Limits?
  • Hohe Texturdetails
  • Texturmods

Welche Spiele neigen zu VRAM-Limits?
  • AAA-Titel
  • Open-World Spiele mit hochauflösenden Texturen
  • Spiele mit Texturmods

Die Beobachtung der Auslastung verschiedener Komponenten erfolgt mittels Programmen wie GPU-Z, MSI Afterburner und CPU-Z.

Wie man die Messungen genau durchführt, um seine Limits zu ermitteln, wurde vom Forumuser HisN in folgenden Threads genau erklärt:

Limitiert CPU XYZ die Graka ABC?

FAQ: Performance-Probleme. Es Ruckelt. FPS brechen ein. Framedrops. Lags.

GPU-Limits


GPU-Limits sind die internen Limits, die die Chiphersteller oder Boardpartner für die Karte vorgeben. Dazu zählen das Temperaturlimit, das Powerlimit und das Spannungslimit. Sollte eins der Limits erreicht werden, wird die Karte heruntertakten, egal welches zuerst auftritt.

Temperaturlimit

Das Temperaturlimit ist die Maximaltemperatur, die das Package (GPU-Chip) erreichen darf. In der Regel liegt dies zwischen 80 und 95°C und ist mit bestimmten Tools veränderbar. Die Obergrenze des Temperaturlimit ist im Grafikkartenbios festgelegt und erfordert zur Veränderung einen Reflash.

Powerlimit

Um die Gesamtleistungsaufnahme der Grafikkarte zu begrenzen, lässt sich das Powerlimit einstellen. Dieses erlaubt der Karte x% mehr oder weniger Strom zu verbrauchen, als voreingestellt. Das Powerlimit hat in der Regel einen Maximalwert bei +50% des voreingestellten Gesamtverbrauchs der Karte. Die Veränderung des Maximalwerts erfordert hier wieder einen Reflash.

Spannungslimit

Das Spannungslimit ist meist gleichbedeutend mit der Maximalspannung der GPU. Das heißt eine Erhöhung des Werts erlaubt der Karte beim Hochtakten eine höhere Spannung anzulegen, was ihr im also einen theoretisch höheren Takt erlaubt. Das Limit wird bei aktuellen Grafikkarten meist per Offset zur Standardspannung angegeben. Da zu viel Spannung den Chip beschädigen kann, ist in jedem VGA-BIOS ein Maximalwert hinterlegt, der nicht überschritten werden sollte, außer man weiß genau was man tut.

Asynchronous Computing


Asynchronous Computing (deutsch asynchrones Berechnen) bezeichnet eine Technik, bei der diverse Rechenaufgaben neben der Grafikberechnung von der GPU übernommen werden. Zusätzlich sorgt es dafür, dass Computing und Grafikanwendungen gleichzeitig ablaufen können und nicht die eine Aufgabe auf die andere warten muss.

Async Computing wurde entwickelt, um die CPU-Last zu verringern und um GPUs effektiver und gleichmäßiger auszulasten (sorgt dementsprechend tw. indirekt für höhere GPU-Last), also die Wartezeiten der GPU für andere Aufgaben zu nutzen.

AMDs GCN-Architektur besitzt eigene, ACE ("Asynchronous Computing Engines") genannte Einheiten, die diese Aufgabe auf Hardwareebene umsetzen können. Mithilfe der Lowlevel-APIs DX12 und Vulkan können die ACEs direkt angesprochen werden und Programmierer steuern selbst, welche Berechnungen von den Shadern asynchron vorgenommen werden.

Bei nVdia hingegen wird die Steuerung des Async Computing abstrakt durch den Treiber durchgeführt. Die Programmierer steuern also den Treiber, der dann die Aufgaben verteilt.


Informationsvideo von AMD über die Funktionsweise von asynchron arbeitenden Shadern.

Grafikschnittstellen


Eine Schnittstelle bezeichnet in der Informatik ein Konstrukt, durch das verschiedene Soft- und/oder Hardwarekomponenten miteinander kommunizieren können. Wenn es sich dabei um Anwendungen handelt (bspw. Spiele), die über eine Schnittstelle kommunizieren, ist es eine sog. Anwendungs-Programmierschnittstelle, oder auf englisch kurz API ("Application Programming Interface").

Eine Grafikschnittstelle sorgt dafür, dass das Spiel entweder über den Grafiktreiber (high-level-API) abstrahiert die GPU anspricht, oder direkt auf die Hardware zugreift (low-level-API). Bei low-level-APIs werden Funktionen genutzt, die die GPU nicht als Blackbox betrachten, sondern ihre einzelnen Komponenten direkt ansprechen können.

DirectX: Direct3D 11

D3D11 ist eine high-level-API für Windows. Sie ist Teil der DirectX API-Bibliothek, welche u.a. auch auf Sound und andere Hardwareressourcen zugreifen kann. Direct3D abstrahiert den Zugriff auf die Hardware über die Treiber. D.h. um tiefgreifende Optimierungen zu ermöglichen, muss der Treiber diese unterstützen. So ist es möglich, mehrere CPU-Kerne auszulasten, da D3D11 i.d.R nur im Singlethread funktioniert und die Mehrkern/-thread-Optimierung der Treiber übernimmt.

Der Großteil aller Windows-Spiele der letzten Jahre ist DX11-basiert.

OpenGL

OpenGL (zu deutsch "Offene Grafikbibliothek") ist eine high-level-API für alle möglichen Betriebssysteme (u.a. Windows, Linux/UNIX-basierte OS wie Ubuntu und Android, macOS, uvm.). Sie spezifiziert diverse Funktionen für 2D und 3D Grafikanwendungen, die von anderen Programmierern um eigene Funktionen erweitert werden können (z.B. im Grafiktreiber). OpenGL weist weniger für Spiele gedachte Optimierungen auf, diese müssen meist ergänzt werden.

OpenGL findet hauptsächlich in Spielen Verwendung, die für verschiedene Plattformen entwickelt werden. Der Publisher Valve nutzt für seine Spiele i.d.R. OpenGL, da diese auch auf dem eigens entwickelten SteamOS Verwendung finden.

DirectX: Direct3D 12

D3D 12 ist eine low-level-API, die u.a. Multithreading, hardwarenahe Programmierung und einen niedrigeren Overhead mitbringt. D3D 12 läuft nur auf Windows 10 basierten Systemen. D3D 12 wurde zusammen mit den restlichen Bibliotheken als DirectX12 von Microsoft vorgestellt. Die Veröffentlichung geschah nachdem AMDs Mantle-API das zweite Zeitalter der low-level-Grafik-APIs für den PC eingeläutet hat und knapp nach Release der ersten Windows 10 Builds.

Sehr aktuelle (AAA)-Spiele setzen auf DX12, um GPUs effektiver auszulasten und den CPU-Overhead zu verringern. Beispiele für frühe DX12-Spiele sind Ashes of the Singularity oder Quantum Break.

Vulkan

Vulkan ist eine low-level-API, die wie D3D 12 Multithreading, hardwarenahe Programmierung und einen niedrigeren Overhead mitbringt. Sie ist plattformübergreifend und quelloffen. Release geschah zeitnah nach DX12, wobei Vulkan die low-level-API Mantle von AMD beerbt.

Neben DX12 setzen sehr aktuelle Spiele auch auf Vulkan. Beispiele für frühe Vulkan-Spiele sind Doom 4 und DotA 2.


Video von AMD, das den Ursprung und die Features von Vulkan erzählt.
 
Zuletzt bearbeitet:
Dabei seit
Jan. 2008
Beiträge
6.606
#10
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

Finde ich auch sehr übersichtlich, gut gemacht! ;)
 
Dabei seit
Okt. 2006
Beiträge
5.051
#11
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

Der Vollständigkeit halber wäre es gut wenn die Nvidia Kontrahenten der unteren Preisklasse (GT240, GT430, GTS450) auch noch mit in den Vergleich aufgenommen würden. Für das Diagramm 'Leistung/Watt' würde ich übrigens eher die Angaben von HT4U verwenden, da dort die Leistungsaufnahme einzig bezogen auf die Grafikkarte (und damit auch sicher vor Veränderungen im jeweiligen Testsystem) angegeben wird.

Ansonsten eine sehr gute Idee, das trägt sicher ganz gut als Entscheidungshilfe bei. Wird nur ein heftiges Stück Arbeit für den armen Rufus die Preisbewegungen einzupflegen :p
 

Hibble

Redakteur
Teammitglied
Dabei seit
März 2010
Beiträge
11.786
#12
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

Danke für die Anregungen.

Das mit HT4U werde ich dann demnächst übernehmen, da hast du Recht ;)
Mit der bisherigen Lösung war ich auch noch nicht ganz zufrieden.

Allerdings wird es schwierig werden, von allen Referenzdesignen die Leistungsaufnahme unter Spielen herauszubekommen, weil selbst HT4U testet nicht alle. Und wenn ich verschiedene Quellen benutze, also werden auch unterschiedliche Spiele zum Test verwendet, verfälscht das Ergebnis auch möglicherweise wieder.
 
Zuletzt bearbeitet:
Dabei seit
Aug. 2009
Beiträge
2.142
#13
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

schön, danke finde ich echt gut. und wie gesagt, zumindest die GTS450 könnte noch rein.
 

Hibble

Redakteur
Teammitglied
Dabei seit
März 2010
Beiträge
11.786
#14
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

Also was meint ihr, lieber die Werte von HT4U + andere Quellen (hab zur GTX 460 das hier mal gefunden http://www.heise.de/ct/artikel/Hoffnungstraeger-1037694.html weil ht4u nur OCed 460er getestet hat)

oder vllt die TDP Werte vom hersteller benutzen ?

oder bei den CB Werten bleiben?

so hab das Leistung/Watt Diagramm mal aktualisiert.
Sieht schon mal viel realistischer aus^^
 
Zuletzt bearbeitet:

sudfaisl

Admin
Teammitglied
Dabei seit
Sep. 2008
Beiträge
20.804
#15
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

TDP-Werte der Hersteller zu nehmen wird Mumpitz.
Ich würde die von HT4U nehmen. Das mit der GTX460 ist ärgerlich.
Da könntest du aber einen relativ gut geschätzen Wert nehmen.
Beispiel (Werte sind frei erfunden): CB misst für die HD5770 im Gesamtsystem 200Watt. HT4U für die HD5770 alleine 100 Watt. Jetzt weißt du, dass das CB Restsystem ca. 100 Watt schluckt. Verbraucht die GTX460 + Restsystem bei cb 220 Watt, weißt du, dass die Grafikkarte in etwa 120 Watt nimmt.
 
Dabei seit
Okt. 2006
Beiträge
5.051
#16
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

Auf HT4U ist das manchmal etwas schwer zu finden, aber in dem Fall eigentlich nicht. Die haben vorgestern sogar einen Vergleich von 9 verschiedenen GTX460 präsentiert, darunter auch die Referenz-Zotac.

http://ht4u.net/reviews/2010/nvidia_geforce_gtx460_gesamtvergleich/

Ich hab dort auch vor kurzem noch aus einer der Vergleichstabellen die Werte einer 768er GTX460 rausgefischt. Leider find ich die spontan nicht mehr. Ich könnte mir aber vorstellen dass einem die Kollegen von HT4U unter die Arme greifen wenn man sie direkt drum bittet :)
 

Hibble

Redakteur
Teammitglied
Dabei seit
März 2010
Beiträge
11.786
#18
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

Ich glaub ein Fazit wird schwer zu ziehen sein, wenn sich das Preisgefüge andauernd verändert.

Ich könnte höchstens am Schluss nochmal auf Empfehlungen eingehen, z.B. dass eine 5750 der GTS 450 vorzuziehen ist. Wie wäre das?
 
Zuletzt bearbeitet:

dorndi

Fleet Admiral
Dabei seit
Apr. 2008
Beiträge
12.350
#19
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

Ich denke sein Fazit kann sich dank der guten Grafiken jeder selber bilden.

Danke für den gelungenen Thread.
Hoffentlich hältst du ihn lange am Leben, indem du ihn regelmäßig aktualisierst.

mfg dorndi
 
Dabei seit
Aug. 2009
Beiträge
2.142
#20
AW: Grafikkartenkaufberatung (Was kriegt man für sein Geld)

denke auch dass hier kein fazit notwendig ist. die diagramme sind objektiv und bestehen aus Fakten. Bei einem fazit, könnte die eigene meinung zu sehr auftauchen oder dem leser weniger platz für eigene schlussforgerungen lassen.
 
Top