Ich mach mal nen kleinen Anfang - so puzzeln wir das schon zusammen
Quelle:
http://www.elektronik-kompendium.de/
Hier sieht man sehr schön, die Grundkomponenten einer Grafikkarte.
Die wichtigste Einheit ist sicherlich die GPU (GraphicsProcessingUnit), das Herz der Karte. Das Die Darstellung beginnt quasi in der Software, z.B. einem Spiel - so arbeitet das Spiel nun seinen Grafikcode ab und schickt Befehle zum Rendern eines Pixels via Treiber nun an die GPU.
Dort worden Pixel über die sogenannten Pixel Pipelines einer nach dem anderen (1by1) verarbeitet - je mehr Pipelines, desto mehr Schritte können parallel laufen. Darüber hinaus stehen der GPU noch sogenannte "Shader" zur Verfügung. Einfach ausgedrückt sind Shader Einheiten, welche Pixel in Farbe und ein Objekt in geometrischer Form verändern können - Besonders bei Effektgestaltung werden die Shader gefordert.
Während der ganzen Pixelbearbeitung, steht der GPU & Co VRAM, also Video-/Grafikspeicher zur Verfügung - GPU und Speicher sind dabei über ein Businterface (quasi die Datenautobahn) mit dem Speichercontroller verbunden. Der Speicher-Controller selbst steuert den Speicherzugriff auf die Register und Zellen im Speicher (Soll gelesen oder geschrieben werden, in welche Zelle soll die Information bzw. wo steht die Information, die wir brauchen).
So, ist der ganze Pixel zu Ende "gerendert" soll er auf den Bildschirm. Zumindest bei Analogen Anschlusstechniken zum Monitor, wird noch der RAMDAC hinzugeschaltet (daher auch ein direkter und indirekter Weg von der GPU zum "Ausgang").
DAC steht für "Digital->Analog-Konverter": Da der Computer ja nur mit digitalen Zuständen 0 und 1 arbeitet, müssen diese über den RAMDAC wieder in elektrische Signale übersetzt werden, damit das Bild an einem analog angeschlossenen Monitor dargestellt werden kann. Seit DVI und jetzt überwiegend HDMI, werden die Bits und Bytes direkt aus dem Framebuffer (ein Bildpuffer) über die jeweilige Schnittstelle (digital) an den Monitor geliefert.
Das Bild am Monitor wird in Zeilen unterteilt und auch Pixel für Pixel, zeilenweise aufgebaut. Besonders bei Röhrenmonitoren war das ganze schön zu erkennen, wenn man diese einmal mit einer Kamera abgelichtet hat - ein Teil des Bildes war schon aufgebaut, der Rest noch "schwarz". Für unser träges Auge aber nicht live zu erkennen.
Anyway - der Monitor gibt darüber hinaus über die "Bildwiederholfrequenz" vor, wie oft er ein Bild pro Sekunde komplett erneuert darstellen kann. Ein bei TFTs vorliegender Standardwert ist z.B. 60Hz. Das heißt 60 mal pro Sekunde muss die Grafikkarte alle Pixel einer "Szene / eines Bildes" abrufen, verarbeiten und an den Monitor schicken, welcher dann zeilenweise ebenfalls versucht, 60 mal pro Sekunde (60Hz) das Bild darzustellen.
Bei Leistungsstarken System ist es oft so, dass die Grafikkarte weitaus mehr, als 60 Bilder pro Sekunde (engl. FPS (Frames Per Second)) rendern und senden kann. Dies führt nicht selten zu sogenannten "Tearing". Dabei werden die überschüssing Bilder (der Monitor kann ja in seiner festgelegten Frequenz nicht mehr als 60 darstellen) abgeschnitten, was sich visuell leider bemerkbar macht - es entstehen horizontale Risse auf dem Schirm, welche besonders bei Links-/Rechtsschwenks auffallen.
Diesem Übel setzt man Vsync entgegen: Vertical Synchronisation.
VSync soll dafür sorgen, dass das Timing zwischen Grafikkarte und Monitor im Lot ist. Die Karte wartet so gesehen, die Kapazität des Monitors genau ab, so dass keine überberechneten Bilder mehr abgeschnitten werden müssen bzw. überhaupt die Karte verlassen. Sie rendert dann 1:1 mit dem Monitor.
Sofern genug Leistung vorhanden ist, sorgt das für ein "Butterweiches" Erlebnis auf dem Schirm - bricht es ein, schnellen die FPS ganz schnell nach unten - auch schwammige Maussteuerung ist ein Nebeneffekt von VSync in diesem Moment.
So - das sollte erstmal reichen - und während ich getippt habe, sind nicht hoffentlich schon eine Fantastillion ähnlicher Posts entstanden

Ansonsten - doppelt hält besser ^^
:edit: okay okay, das nächste Mal reservier ich mich den Post. Darn!
P.S: Nein, die CPU berechnet die Bilder nicht - dafür ist sie viel zu langsam, weil sie nicht die Parallelleistung einer GPU heranreicht - denn genau dafür ist die ja da
