Grafikkarten Wissen-Allgemein.

Status
Für weitere Antworten geschlossen.

Aixander

Cadet 3rd Year
Registriert
Nov. 2009
Beiträge
43
hey leute.

wollte mal durch ein paar kleine Fragen herausfinden ob ihr auf dem Bereich Grafikkarten fit seid.
Aber bitte ein bissel zurückhalten.. nicht alle verstehen die Fachbegriffe die manche Chracks können!! =) =)

1. Was ist die Funktion einer Graka?
2. Wie lautet die Entwicklungsgeschichte
3. Heutiger Stand?
4.Probleme mit Graka (Kühlung etc. )


mfg
Aixander



--Für Berufschule :P --
 
Zuletzt bearbeitet:
Grafikkarten Wissen

Google hilft auch... ;)

Hört sich so an als bräuchtest du wohl einen Vortrag für die Schule. :D
 
klingt als ob da jemand ein referat macht ;)

hahah wenn 3 leute in der gleichen minute das gleiche posten dann MUSS es wahr sein :)
 
Zu 1.
Eine Grafikkarte steuert in einem Personal Computer die Bildschirmanzeige. Bei Ausführung eines Programmes berechnet der Prozessor die Daten, leitet diese an die Grafikkarte weiter und die Grafikkarte wandelt die Daten so um, dass der Monitor alles als Bild wiedergeben kann. Grafikkarten werden entweder als PC-Erweiterungskarten (über die Bussysteme ISA, VLB, PCI, AGP oder über PCI-Express) mit der Hauptplatine verbunden oder sind im Chipsatz auf der Hauptplatine enthalten.

Die wichtigsten Komponenten moderner Grafikkarten sind: GPU, Video-RAM, RAMDAC sowie die Anschlüsse für externe Geräte (z. B. für den Monitor).

Das Grafikkarten-Prinzip wurde in Serienprodukten erstmals beim Mikrocomputer Apple II verwendet, dessen auf der Hauptplatine integrierte Grafikfähigkeiten durch zusätzlich zu erwerbende Steckkarten verbessert werden konnten. („PAL-Farbkarte“, „80-Zeichen-Karte“).

Der erste IBM-PC kam 1981 mit einer Karte auf den Markt, die lediglich die einfarbige Darstellung von Text ermöglichte (MDA = Monochrome Display Adapter). Die Firma Hercules bot 1982 eine sehr viel bessere Karte an, die Hercules Graphics Card.

Bis 1989 setzten sich die Farb-Grafikkartentypen als Standard durch, die IBM neu auf den Markt brachte:

* 1981 die CGA-Karte (populär ab 1984)
* 1984 die EGA-Karte
* 1989 mit den PS/2-Modellen die MCGA- und VGA-Karte

Auch heute noch ist der VGA-Modus (640 × 480 Punkte in 16 Farben) der „Notfall-Modus“ bei allen PCs; nur bis zu diesem Modus kann die Hardware aller heutigen PC-Grafikkarten von der Software auf einheitliche Weise angesprochen werden.

VGA war allerdings nicht der letzte Grafikkartenstandard. Die Video Electronics Standards Association (VESA) stellte einen Standard für Videomodi bis zu einer Auflösung von 1280 × 1024 Punkten in 16 Bit Farbtiefe auf, die heute jede PC-Grafikkarte beherrscht.

Die weiteren Bezeichnungen SVGA, XGA usw. sind keine Grafikkartenstandards mehr, sondern Kurzbezeichnungen für Bildschirmauflösungen, zum Beispiel XGA mit 1024 × 768 Punkten.

Bis etwa 1990 beschränkten sich die Grafikkarten darauf, den Inhalt des Video-RAM über einen sogenannten RAMDAC-Baustein in Ausgangssignale für den Monitor umzuwandeln. Der Programmierer konnte im Wesentlichen nur den Textmodus nutzen sowie im Grafikmodus einzelne Pixel auf eine bestimmte Farbe setzen. Das war die erste Generation der Grafikkarten. Es folgten zwei weitere:

* Die sogenannten „Windows-Beschleuniger“
* Die 3D-Beschleuniger

Ab 1990 entwickelten sich die Grafikkarten zu eigenständigen kleinen Computern mit eigener GPU (Graphics Processing Unit), einer sogenannten Graphics- oder Pixel Engine oder dt. Grafikprozessor, bei dem man nicht nur einzelne Pixel setzen konnte, sondern dem man Befehle zum Zeichnen von Linien und Füllen von Flächen schicken konnte (Windows-Beschleuniger). Diese Funktionen beschleunigten vor allem das Verschieben der Fenster (Windows) der grafischen Benutzeroberfläche, daher der Name. Das Konzept der Zusatzfunktionalität wurde mit der Zeit immer weiter geführt, so wurden z. B. seit 1995 auch Funktionen zur Beschleunigung der Videowiedergabe (z. B. im AVI-Format) und Dekodierung von komprimierten Videodaten (z. B. MPEG) eingeführt (Videobeschleunigung). Diese Funktionen wurden vorher auf separaten Steckkarten angeboten.

Nachdem Mitte der 1990er Jahre mit Doom der große Boom der 3D-Spiele begonnen hatte, kam bald von 3dfx der erste brauchbare 3D-Beschleuniger, der Voodoo Graphics-Chipsatz. Einem 3D-Beschleuniger kann ein Programm in einem dreidimensionalen Raum die geometrischen Figuren in Form von Polygonen und die Texturen angeben, mit denen die Flächen der Polygone gefüllt werden sollen (Rendern). Diese recht simple, aber rechenintensive Aufgabe hatte in den frühen 3D-Spielen noch die CPU übernehmen müssen; nun konnte sie an die Grafikkarte delegiert werden, was zu einer massiven Leistungssteigerung von 3D-Spielen führte (bessere Bildauflösung, wesentlich realistischere Bilder).

Waren die 3D-Beschleuniger der ersten Generation noch auf eigenen Steckkarten verbaut, durch die das Grafiksignal der im System verbauten 2D-Grafikkarte durchgeschleift wurde, setzten sich bald Lösungen durch, die 2D- und 3D-Funktionalität auf einer Karte vereinten.

Um noch mehr 3D-Leistung anzubieten, werden heute mit der Multi-GPU-Technik (siehe auch SLI und Crossfire) zwei oder mehr 3D-Grafikkarten bzw. -prozessoren parallel geschaltet, um noch mehr Grafikelemente je Zeiteinheit berechnen zu können. Da diese Technik aber recht hohe Kosten und einen erhöhten Energiebedarf mit sich bringt, hat sie bisher nur geringen Einfluss auf den Grafikkartenmarkt.

Aufbau und Funktionsweise [Bearbeiten]
Grafikkarte für den AGP-Bus
Hardwareschnittstellen zum System [Bearbeiten]

Die bekanntesten Hardwareschnittstellen für Grafikkarten sind PCI, AGP und PCI-Express, früher waren auch ISA oder VESA Local Bus gängig. Diese Schnittstellen sind entweder Bussysteme oder Direktverbindungen (AGP, PCI-Express), die den Buscontroller mit der Grafikkarte verbinden. Da die Spezifikation der Schnittstellen zumeist durch Interessenverbände vorgenommen wird, in denen sowohl die Controller- als auch die Grafikkarten- bzw. Grafikchiphersteller Mitglied sind, funktionieren (im Idealfall) alle konformen Grafikkarten mit allen konformen Controllern. Es gab in der Vergangenheit aber verschiedene Probleme mit einigen Schnittstellen, die die Interoperabilität einschränkten, beispielsweise „AGP Fast Writes“ bei AGP (auf Intel-Plattformen konnte es die Leistung erhöhen, auf AMD-Plattformen für Instabilität sorgen) oder IRQ-Probleme bei PCI (mögliche Abstürze/Einfrieren oder Leistungseinbrüche, Ursache meist schlechte/fehlerhafte Implementierung der Schnittstelle).

Bei anderen Plattformen als den IBM-kompatiblen Rechnern gab es entsprechend den dort üblichen Stecksystemen Grafikkarten für die Apple-II-Steckplätze, später bei den ersten Macs für nuBus (später PCI und Nachfolger wie bei PC), für Amigas für deren Zorro-Bus und auch Europakarten für Systeme, die auf letzteren aufbauen.
Grafikspeicher [Bearbeiten]

Der Grafikspeicher dient zur Ablage der im Grafikprozessor (GPU) verarbeiteten Daten sowie als Bildspeicher („Framebuffer“): Das sind digitale Bilder, die später auf dem Computer-Bildschirm ausgegeben werden.

Die Größe des Grafikspeichers bestimmte die maximale Farbtiefe und Bildauflösung. Dabei ließ sich der benötigte Speicher für eine gewünschte Auflösung und Farbtiefe vom Anwender leicht errechnen: Wenn beispielsweise die Auflösung 1600*1200 mit einer Farbtiefe von 24 Bit (True Color) erwünscht ist, berechnet man zunächst die Anzahl der Bildpunkte (Pixel) dieser Auflösung (1600 horizontal * 1200 vertikal = 1.920.000 Pixel insgesamt). Die Farbtiefe "24 Bit" bedeutet, dass für jedes dieser Pixel 24 Bit Farb-Informationen vorliegen. Somit multipliziert man die Pixelanzahl mit der Farbtiefe (1.920.000 * 24 Bit = 46.080.000 Bit). Nunmehr ist nur noch die Umrechnung in Byte erforderlich. Da ein Byte aus 8 Bit besteht, wird die Zahl durch 8 geteilt (46.080.000 Bit / 8 = 5.760.000 Byte). Da ein Megabyte aus 1.000.000 Byte besteht, teilt man dieses Ergebnis durch eine Million (5.760.000 / 1.000.000 = 5,76 Megabyte). Für die gewünschte Einstellung sind also 5,76 Megabyte Grafikspeicher erforderlich (Bemerkung: 1 Megabyte ist exakt eine Million Bytes. 1.048.576 Bytes sind heute definiert als Mebibyte = MiB). Da früher Grafikkarten in der Regel mit 4 oder 8 Megabyte Grafikspeicher ausgeliefert wurden, hätte man für die gewünschte Einstellung eine Grafikkarte mit mindestens 8 Megabyte Grafikspeicher benötigt.

Heute werden ausschließlich Grafikkarten mit sehr viel mehr Speicher gebaut, als zur reinen Bildspeicherung notwendig wäre. Beim Rendern dreidimensionaler Grafiken werden hier zusätzlich zum Framebuffer die Daten der Objekte, beispielsweise Größe, Form und Position, sowie die Texturen, die auf die Oberfläche der Objekte gelegt werden, gespeichert. Besonders die immer höher auflösenden Texturen haben für einen starken Anstieg der Speichergröße bei aktuellen Grafikkarten gesorgt. So liegt die Speichergröße aktueller Grafikkarten bereits im hohen drei- bis vierstelligen Megabytebereich (256 MB, 512 MB, 1024 MB, 2048 MB), 128 MB und weniger sind selten geworden. Bei Spielegrafikkarten ist die Obergrenze Anfang 2009 bei 2 GB, wohingegen professionelle Grafikkarten schon mit bis zu 4 GB Grafikspeicher ausgestattet werden.[1]

Bei Onboard-Lösungen wird meist der Hauptspeicher des Systems als Grafikspeicher genutzt, das wird als Shared Memory bezeichnet. Der Zugriff erfolgt über das jeweilige Bussystem und ist deshalb langsamer als direkt angebundener Speicher.
Grafikprozessor [Bearbeiten]
NVIDIA NV24-Grafikprozessor

Der Grafikprozessor dient zur Berechnung der Bildschirmausgabe. Mitte der 1990er Jahre kamen die ersten 3D-Beschleuniger auf den Markt. Diese Grafikprozessoren waren in der Lage, einige Effekte und dreiecksbasierte Algorithmen (wie u. a. Z-Puffern, Texture Mapping) und Antialiasing selbstständig durchzuführen. Besonders dem Bereich Computerspiele verhalfen solche, zusätzlich zu installierenden Steckkarten (z. B. 3dfx Voodoo Graphics), zu einem Entwicklungsschub.

Heute sind GPUs wegen ihrer Spezialisierung auf Grafikberechnungen den CPUs in ihrer Rechenleistung überlegen. Als Vergleich diene die Transistoranzahl des aktuellen Grafikprozessors von Nvidia (Geforce 8800GTS 512, 754 Millionen) mit der des aktuellen Spitzenmodells von Intel (Core 2 Extreme QX9650, 820 Millionen). Der Unterschied wird deutlich, wenn man bedenkt, dass über die Hälfte der CPU-Chipfläche für die 2x6 MB Cache verbraucht werden. Die Entwicklung der Integrationsdichte der Grafikprozessoren hat mit einem jährlichen Faktor von 2,4 sogar das Mooresche Gesetz übertroffen.

Wie bei den Hauptprozessoren der Rechner, in die die Grafikkarten eingebaut werden, sind auch die GPUs auf den Grafikkarten oft Gegenstand von Übertaktungsmodifikationen zur Performancesteigerung.

Quelle: http://de.wikipedia.org/wiki/Grafikkarte

Bekomme ich jetzt was?
 
Zuletzt bearbeitet:
Oh mann..
Eure Kommis..
ZU GEIL..

Ich habe mich weg geschmissen..

@ TE..
Denkst du wir wären Blöd?
Du willst unser wissen testen, und tust so, als ob du was wüsstest..
Aber verrätst dich, indem du oben schreibst, bitte nicht so.. usw..

Ohman..

Google ist dein Freund..
Das weißt du, oder?

Mit lachenden Grüßen..^^
 
hehe. ja ist teilweise für schule.. xD Schaby du bekommst nen nutscha von meiner ollen lehrerin xD
ja ich versteh den scheiß in fachsprache aber meine kamaraden auf berufschule net XD
vondaher.. xD

HLK. das bring ich im Vortrag dann ma ein xD
wie die dann wohl gucken :P XD
 
Bitte mache deine Hausaufgaben selber, wir sind nämlich kein Hausaufgaben-Forum.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben