Maximale Auflösung einer Grafikkarte

Dabei seit
März 2009
Beiträge
1.799
#1
Weiß jemand, wie man herausfinden kann, welche Auflösung theoretisch machbar wäre mit seiner Grafikkarte? Denke mal, dass es von der Architektur abhängt - oder doch vom Grafiktreiber?
Besitze eine HD5850.

Will meinen 1080p Monitor nicht auf eine unmögliche 2160p Auflösung bringen, wäre aber vielleicht eine mögliche Antwort auf ein recht triviales Problem ;)
 

DUNnet

Lt. Commander
Dabei seit
Sep. 2008
Beiträge
1.612
#3
o_O Der Grafikchip hat keine limitierung,
Du kannst dir auch ein Bild mit 100 MegaPixeln anzeigen lassen, interessiert den doch nicht.
Du kannst doch auch die ganze Welt kategoriesieren und Panorama Bilder anleinander legen, wie lang er benötigt um das anzuzeigen und zu Cachen wäre interessanter.

Was ist das für eine Frage?
 
Dabei seit
Juni 2009
Beiträge
4.053
#4
Mit ein klein wenig Eigeninitative wär das doch recht schnell gewesen es allein rauszubekommen.
Laut AMD Homepage zur HD5850 sind möglich:

Zitat:

Integrierter Dual-Link-DVI-Ausgang mit HDCP
Max. Auflösung: 2560 x 1600
Integrierter DisplayPort-Ausgang
Max. Auflösung: 2560 x 1600
Erweiterter Farbraum und Audioverarbeitung mit hoher Bitrate durch integrierten HDMI 1.3-Ausgang mit Deep Color X.v.Colour Wide-Gamut Unterstützung
Max. Auflösung: 1920 x 1200
Integrierter VGA-Ausgang
Max. Auflösung: 2048 x 1536
 
Dabei seit
Apr. 2008
Beiträge
3.266
#5
Du kannst dir ja die Spezifikationen der Ausgänge anschauen.
HDMI

DVI
Die mögliche Auflösung bei Single-Link-Kabeln umfassen daher beispielsweise bei 60 Hz 1600×1200 Pixel (UXGA), oder auch noch 1920×1200 (WUXGA), wenn Grafikkarte und Monitor Reduced blanking unterstützen. Bei Dual-Link-Kabeln ist entsprechend die -fache horizontale und vertikale Auflösung möglich. Durch eine Reduzierung der Bildwiederholfrequenz sind auch noch höhere Auflösungen möglich.
VGA
Generell ist der VGA-Anschluss für hohe Auflösungen bis 400 MHz Videobandbreite geeignet; dies reicht für die Darstellung von 2560 x 1440 Pixeln bei einem Bildseitenverhältnis von 16:9 und einer Bildfrequenz von 75 Hz aus. In der Praxis ist bei klassischen, analogen Röhrenbildschirmen besonders bei hohen Auflösungen ab 1280 x 1024 auf ein hochwertiges, gut geschirmtes VGA-Kabel zu achten, um ein scharfes, störungsfreies Bild zu erhalten.
 

DUNnet

Lt. Commander
Dabei seit
Sep. 2008
Beiträge
1.612
#6
Es geht nicht um die max. Auflösung von einzelnen Anschlussstandards,
vor allem weil eine Auflösung noch überhaupt nicht interessant ist!
Interessant ist es die Bandbreite des Anschlusses um zu wissen wieviele Bilder pro Sekunde der Anschluss auf der geforderten Auflösung überhaupt übertragen kann!

Und, da deine Frage nach dem Grafikchip sowieso spätetens auf dem Monitor endet:



Du wirst tech. sowieso nicht in höhere Bereiche wie 8MP kommen, im Extremfall mal 60-100MP.
Trotzdem find ich die Frage immer noch "bescheuert" bzw. er hätte sie selber Rechachieren sollen und dann nach dem "richtigen" Fragen!
 
Dabei seit
Juni 2008
Beiträge
2.195
#7
Wenn du mehr Auflösung und ein besseres 2D Bild brauchst sollst. Solltest du dir mal Matrox um schauen die sind noch erschwinglich^^.
Da sind 2048x1536x32Bit 85 Hz möglich
 
Zuletzt bearbeitet:
Dabei seit
Juni 2004
Beiträge
8.199
#8

DUNnet

Lt. Commander
Dabei seit
Sep. 2008
Beiträge
1.612
#9
Genau,
über diese 2 limitierende Faktoren sollte man rangehen!
VRAM, mehr als gespeichert werden kann nicht, wobei der VRAM gar nicht belegt wird bei einer RAW Weitergabe der Daten...
Oder halt über die maximale der Übertragungsart.

Andere Fragen sind falsch, es wäre so als fragt man: Wie groß kann eine Datei maximal sein!
Unendlich natürlich, die CPU kann sie ja nutzen, nur wie schnell das geht...
 

bruteforce9860

Lt. Commander
Ersteller dieses Themas
Dabei seit
März 2009
Beiträge
1.799
#10
Bin wohl falsch an die Sache rangegangen^^

Mein Problem war:
Bei Trackmania Nations Forever kann man ingame ein Replay aufnehmen, auch die Auflösung ist dort eintellbar.
1080p funktioniert wunderbar, auch 2160p, also die 4-fache Auflösung geht. Danach geht aber auch nichts mehr, dachte, dass es hierbei daran liegt, dass die Grafikkarte limitiert.
 
Dabei seit
Juni 2009
Beiträge
4.053
#11
Da wird wohl eher der verwendete Codec limitieren, aber wozu so hoch aufnehmen wenn es doch quasi keine passenden Displays gibt für die Auflösung, dann müßte ja immer runtergerechnet werden von den darstellenden Monitoren/TVs.
 

bruteforce9860

Lt. Commander
Ersteller dieses Themas
Dabei seit
März 2009
Beiträge
1.799
#12
@Waldheinz: Durch die höhere Auflösung werden auch mehr Details dargestellt, wenn es letztlich wieder auf 1080p runtergrechnet wird, sieht es trotzdem noch deutlich besser aus, als wenn man es direkt in 1080p aufnimmt :)

Würde mich ja interessieren, ob der VRAM doch limitiert (hat jemand ne 2GB VRAM Karte und TMNF? ;))

Habe versucht die Auflösung auszureizen, 5400x2100 (11 340 000) geht noch, 5500x2100 (11 550 000) und 5400x2150 (11 610 000) nicht.

Codec habe ich keinen (? Unkomprimierte Bilder) genommen, als ich einen anderen ausgewählt habe, hat das aber auch nichts gebracht.
 
Zuletzt bearbeitet:
Dabei seit
Juni 2009
Beiträge
4.053
#13
Das eine höhere Auflösung auch mehr Details bedeutet ist mir schon klar, aber das andere ist doch eher Einbildung würd ich sagen. Ob ich nun gleich nur 1080 hab oder es dann irgendwann runtergerechnet wird auf 1080 ist doch relativ egal und wer das macht, also das Aufnahmeprogramm oder zum Schluss der TV sollte keine allzugroße Rolle spielen. Außerdem müßte man das Spiel auch auf der hohen Auflösung spielen, sonst macht der codec beim Aufnehmen schon ein Upscaling und dann das ganze nochmal einem Downscaling zu unterziehen ist auch eher kontraproduktiv irgendwie. Normalerweise nimmt man am besten immer die native Auflösung des Wiedergabegerätes, daher ist schon 1080p optimal.
Wenn ich 1080p an einem Röhrenfernseh schaue sieht das deswegen auch nicht besser aus als normales PAL, insofern die Bitrate stimmt, daher lieber die Bitrate etwas höher nehmen, insofern möglich, als eine höhere Auflösung.
Das ist nur meine Meinung, machen kannst du da was du willst natürlich. Und Qualität ist immer Subjektiv und kann auch viel mit Einbildung zu tun haben. :)
 

bruteforce9860

Lt. Commander
Ersteller dieses Themas
Dabei seit
März 2009
Beiträge
1.799
#14
Ich kann dir gerne Beispielbilder zeigen, vor allem in der Ferne dargestellte Objekte sehen deutlich besser aus :)

Ich sollte dazu sagen, dass ich letztendlich aus den Videos einzelne Frames weiter zur Bildbearbeitung benutze^^
 
Dabei seit
Okt. 2007
Beiträge
527
#15
Das eine höhere Auflösung auch mehr Details bedeutet ist mir schon klar, aber das andere ist doch eher Einbildung würd ich sagen. Ob ich nun gleich nur 1080 hab oder es dann irgendwann runtergerechnet wird auf 1080 ist doch relativ egal und wer das macht, also das Aufnahmeprogramm oder zum Schluss der TV sollte keine allzugroße Rolle spielen. Außerdem müßte man das Spiel auch auf der hohen Auflösung spielen, sonst macht der codec beim Aufnehmen schon ein Upscaling und dann das ganze nochmal einem Downscaling zu unterziehen ist auch eher kontraproduktiv irgendwie. Normalerweise nimmt man am besten immer die native Auflösung des Wiedergabegerätes, daher ist schon 1080p optimal.
Es bringt schon etwas, nämlich SSAA. So lässt sich dergleichen auch dann nutzen, wenn das Spiel kein SSAA - oder gar kein AA - unterstützt. Stichwort Downsampling
 
Dabei seit
Juni 2009
Beiträge
4.053
#16
Sicher bringt das was bei der Bildbearbeitung, das wußte man ja vorher nicht, da machts auch sinn, aber ein Video hin und her konvertieren bzw. ein Scaling damit mehrmals zu machen, macht das Bild nunmal nicht besser, wenn das ganze einmalig ist von einer hohen Auflösung auf eine kleinere ist das ja auch ok, aber kein Upscaling und dann wieder ein Downsampling, das ist irgendwie unsinnig.
Wenn eine Grafikkarte das von vorn herein hoch berechnet und dann nur in kleiner Auflösung wiedergibt ist das auch noch was anderes, das mag auch glattere Kanten machen, das seh ich ein, bin ja auch immer von Video ausgegangen welches dann irgendwo dargestellt werden soll, aber wenn es sich um Bilder handelt ergibt das ganze auch für mich mehr Sinn. :)
 

bruteforce9860

Lt. Commander
Ersteller dieses Themas
Dabei seit
März 2009
Beiträge
1.799
#17
Beim Video fallen die Unterschiede sicherlich marginal aus ;)


edit: Unterschiede werden im Standbild deutlich auffallen
 
Zuletzt bearbeitet:
Dabei seit
Sep. 2007
Beiträge
1.474
#18
@Waldheinz

WTF!? Noch nie was von Downsampling gehört? Mehr Ausflösung, egal ob runtergerechnet oder nicht, wirkt als SSAA und schaut sowohl im Video (warum benutzt man denn AA in Spielen) als auch auf Standbildern viel besser aus.
 
Dabei seit
Juni 2009
Beiträge
4.053
#19
Ja klar kenn ich Downsampling, mir war nur anfangs nicht klar das es eher um Bilder geht, bei Videos seh ich das trotzdem nicht unbedingt als riesen Vorteil. Mag sein das es bei irgendwelchen Tieraufnahmen wo man jedes Härchen einzeln zählen kann was ausmacht aber nich wirklich bei irgendwelchen schnellen Actionszenen.
Ausserdem hab ich auch nix dagegen, finds gut womit sich Leute so alles beschäftigen und was die Leute alles so beschäftigt. :)
 
Zuletzt bearbeitet:
Dabei seit
Okt. 2007
Beiträge
527
#20
Ja klar kenn ich Downsampling, mir war nur anfangs nicht klar das es eher um Bilder geht, bei Videos seh ich das trotzdem nicht unbedingt als riesen Vorteil. Mag sein das es bei irgendwelchen Tieraufnahmen wo man jedes Härchen einzeln zählen kann was ausmacht aber nich wirklich bei irgendwelchen schnellen Actionszenen.
Ausserdem hab ich auch nix dagegen, finds gut womit sich Leute so alles beschäftigen und was die Leute alles so beschäftigt. :)
Da "normale" Bilder/Videos nicht aus Polygonen zusammengesetzt sind, stellt sich das Problem (bspw. Kantenflimmern, fehlendes AA, mangelnde Texturschärfe etc) dort auch gar nicht. ;)
 
Zuletzt bearbeitet:
Top