News VESA: DisplayPort 1.4 frühestens 2017 auf Grafikkarten

mittlerweile bietet die meiste verfügbare hardware im gamingbereich vernünfiges und ausgereiftes um in FHD spielen zu können.
jetzt kommen wir mit der vierfachen pixelzahl daher und erwarten dass die zwischendurch eingesobener revamp der alten graka-architekturen diese auflösung sinnvoll befeuern kann....ganz schön optimistisch.


... was ein voodoo!


spiele wie GTA V oder bioshock infinite oder auch project cars lassen sich auf einer 980ti in 4k spielen und zwar flüssig.

nur weil die meisten nicht fähig sind die qualität von nerdy-ultra auf high oder medium zu stellen, da kann doch der entwickler oder nvidia/amd nichts für.
wobei - ein großteil der menschen sind heutzutage ja schon mit smart phones inkl. der one click apps überfordert. :lol:


ps. in 1080p kann man mit einer ~100-200€ gpu spielen, dazu benötigt man keine high-end gpu.
man sollte sich nicht immer an daus orientieren, die null ahnung von spiele-settings haben.


gta-v-bench-4k-h.jpg
 
Zuletzt bearbeitet:
Das heißt, dass der DP 1.3 Anschluss schon bei Erscheinen veraltet ist. HDR erachte ich als signifikante Steigerung der Bildqualität - und das bitte mit 120 fps. Schade, dann eben 2017 erst eine neue GPU - hoffentlich.
 
rulezzz schrieb:
... was ein voodoo!

spiele wie GTA V oder bioshock infinite oder auch project cars lassen sich auf einer 980ti in 4k spielen und zwar flüssig.

nur weil die meisten nicht fähig sind die qualität von nerdy-ultra auf high oder medium zu stellen, da kann doch der entwickler oder nvidia/amd nichts für.

...nur das eben die wenigsten (also eine minderheit!) eine graka für 500euro+ in ihrem system haben! (auch wenn der eindruck dieses forums das anders vermitteln mag..).
zudem ist gta5 ein zwei jahre altes game, bioshock infinite sogar 3 jahre...ich kann natürlich auch sowas wie F.E.A.R von 2005 nehmen und sagen dass es in max details in UHD flüssig laufen kann. (falls das game überhaupt diese auflösungen unterstützt...)
ich habe das jetzt bewusst überzeichnet, aber ich mag mich garnicht über sowas streiten - ich wollte nur für einen tick mehr realismus und blick für die gegebenheiten ausserhalb eines "enthusisastenforums" einbringen...

wir krebsen noch auf einer hochgezüchteten graka-arch die für FHD entworfen wurde und träumen uns die 4k-welt herbei; das ist vielleicht hier im forum ein nettes geplänkel, aber in der breite der gamer noch lange nicht angekommen. erstmal abwarten was die kommende hw-generation so mitbringt und was die dx12 erscheinungen/engines die da kommen so an leistung brauchen.
wenn ich mir nur mal die steam hw-surveys anschaue, dann sehe ich dass immernoch die FHD auflösungen dominieren und die meistverwendeten grakas entweder intels 4400er integriertelösungen sind bzw. die nv/amd mittelklasse (sowie gute portion lowend).
verbreitung der potenten hw die UHD zumutbar gut kann ist noch sehr minimalistisch...

außerdem sehe ich wenig sinn darin auf den 27-zoll monitoren die auflösung auf UHD hochzuschrauben, aber dafür die qualität so runterzuschrauben dass es von der gesamtqualität her ein nullsummenspiel wird...
 
ChrisM schrieb:
Da freut man sich über die Ankündigung über DP 1.4 und keiner bekommt auch nur den Vorgänger auf die Reihe. D.h. nochmal locker 3 Jahre warten, bis da was kommt...

Averomoe schrieb:
Das heißt, dass der DP 1.3 Anschluss schon bei Erscheinen veraltet ist. HDR erachte ich als signifikante Steigerung der Bildqualität - und das bitte mit 120 fps. Schade, dann eben 2017 erst eine neue GPU - hoffentlich.

Nur weil ein Standard gerade vom Reißbrett der Planer und Ingenieure ist, heißt das noch lange nicht, daß man morgen etwas damit im Geschäft kaufen kann. Verabschiedung ≠ Verfügbarkeit. Macht euch mal mit Industriestandards und deren Lebenszyklen vertraut. Egal ob das jetzt DSL, ADSL, VDSL, G.fast, HD, UHD, HDMI oder DP ist – sich etwas nicht zu kaufen, weil übermorgen mit der Arbeit am Nachfolgestandard begonnen wird, ist Quark. Es gibt da nicht drei Lahre Leerlauf und dann klöppeln die Kittel in ’nem Monat den Nachfolger zusammen. Das ist ein ständiger Prozeß.
 
rulezzz schrieb:
... was ein voodoo!


spiele wie GTA V oder bioshock infinite oder auch project cars lassen sich auf einer 980ti in 4k spielen und zwar flüssig.

nur weil die meisten nicht fähig sind die qualität von nerdy-ultra auf high oder medium zu stellen, da kann doch der entwickler oder nvidia/amd nichts für.
wobei - ein großteil der menschen sind heutzutage ja schon mit smart phones inkl. der one click apps überfordert. :lol:

Anhang anzeigen 547036

Es ist zwar durchaus möglich, GTA V auf der 980Ti wie wohl jede andere Grafikkarte der letzten 3 Jahre zum Laufen zu bekommen, die Frage ist nur wie hübsch und wie schnell. Es gibt schlichtweg unterschiedliche Interessen respektive Ansprüche des jeweiligen Users, wie man das Spiel genießen möchte (vor dem Hintergrund des verfügbaren Budgets für Hardware).
Sprich nebst High gibts ja noch Very High und Ultra bei GTA. Ich spiels halt gern in Ultra, weshalb ich derzeit nen WQHD Monitor hab und die 980Ti für diesen gute Frames zwischen 40 - 80 in aktuellen Spielen erreicht. Durch Gsync auch einwandfrei genießbar. Es mutet allerdings komisch an, auf Darstellungsqualität zu verzichten, nur um UHD flüssig zu bekommen; da bringt mir doch persönlich das native UHD nicht wirklich einen Vorteil (finde ich).

Mir persönlich ist der Hype um UHD bereits viel zu aufgebläht und man vergisst die erforderliche Rechenpower im Vergleich zu UHD, weil man ohne Not den Zwischenschritt WQDH einfach übersprungen hat. Zwar mag manch einer auf Kantenglättung dann verzichten, manche hingegen selbst bei nativen Monitor-Auflösungen jedoch nicht. Da man das ja grob vorab einschätzen kann, kauft sich solch eine Person vermutlich keinen UHD Monitor. Ich selbst wechsel auf UWQHD erst, wenn die dicken Pascal und Polaris Karten verfügbar sind und mit DP1.3 ohne Overclocking hohe Hz-Zahlen möglich werden.
 
mittlerweile bietet die meiste verfügbare hardware im gamingbereich vernünfiges und ausgereiftes um in FHD spielen zu können.
jetzt kommen wir mit der vierfachen pixelzahl daher und erwarten dass die zwischendurch eingesobener revamp der alten graka-architekturen diese auflösung sinnvoll befeuern kann....ganz schön optimistisch.

Also ich kann fast alles auf Hohen bis sehr hohen Settings in voller Auflösung spielen. Verwende halt nur MSAA x 2 oder FXAA, ansonsten kann ich die Regler in der Regel fast auf Anschlag schieben.^^
 
Naja solch eine Top Karte ist ja eher extrem die Ausnahme. Wie viele Spieler haben solche Karten vielleicht 2-5% . Und das ist wahrscheinlich schon extrem optimistisch der Wert.
 
Ist auch mit einer GTX 970 kein Problem wenn man die Setting auf Mittel bis hoch stellen kann.;)

Selbst mit meiner r9 390x konnte ich in 3200 x 1800 per VSR problemlos Far cry 4 auf Hoch mit MSAA x2 mit ca. 50 FPS spielen.
 
Bible Black schrieb:
Interessant aus dem AMA war die Aussage das jetzt wohl doch alles an Polaris in 14nm kommt und nicht 14nm für Low End und 16nm für High End wie bisher angenommen.

Das wird/wurde aber schon seit längerem nicht mehr angenommen. Wenn ich mich recht erinnere, hat AMD im Januar bei der Ankündigung von Polaris schon bestätigt gehabt, dass alles in 14nm gefertigt wird. Von daher keine Überraschung.

Hinsichtlich der Diskussion zur Bildqualität ist es meiner Meinung nach totaler Quatsch in 4K mit runtergeschraubten Details zu zocken. Das ist dann so wie Ferrari-Motor in einen Fiat Punto einbauen.
Es macht meiner Meinung nach viel mehr Sinn zunächst mal die maximalen Details (Ultra) anzustreben. Die Auflösung ist eher sekundär.
Die Zeit für 4K ist entgegen irgendwelchen Marketinggeblubbers noch nicht reif. Hoffen wir mal, dass Polaris und Pascal das ändern werden.
 
Zuletzt bearbeitet von einem Moderator:
Schade, dass Displayanschlüsse technisch immer so maximal auf Kante genäht sind.
Die dürfen je Port ja keine 10 Cent zu viel kosten!

So etwas kommt raus, wenn man ein Industriekonsortium Standards ausknobeln lässt. Brauchbare Verbreitung aber immer der kleinste Gemeinsame Nenner (siehe USB-Typ-C und diese unsäglich USB3.1 Geschichte oder OpenGL).
Wie schön wäre doch mal ein Kabel, von dem man wissen kann, dass man es auch mit 8K Inhalten noch bedenkenlos wird verwenden können.
Das wäre vor allem bei der Beschaffung von exorbitant teurem Heimkino Equipment hilfreich. Bei HDMI ist die ganze Geschichte noch viel schlimmer, weil das ja immer schon beim Verabschieden des Standards veraltet ist und beim Erscheinen von echten Endgeräten damit dann regelrecht obsolet und am Limit.
 
bis man dp1.4 sinnvoll verwendeen kann gehen noch einige jährchen ins land, von daher denke ich wird 1.3 erstmal komplett ausreichen 4k 60hz in hdr, dazu wird man dual polaris/pascal high end gpu brauchen, also ca 1400€ da ist der monitor sicher günstiger
 
woher weißt du wie leistungsfähig kommende Grafikkarten sein werden?

Wenn man doch einen Monitor mit 4K HDR und 120 HZ haben kann wäre das doch super. Selbst wenn man nur ca. 60 FPS zustande bekommt verringert mehr Herz das Tearing bei deaktiviertem Vsync, zusätzlich kommt noch die Tatsache das man einen Monitor ja nicht nur ein bis zwei Jahre nutzt. Sehe den Sinn dahinter nicht, sich was schlechtes zu kaufen, weil man kann das bessere ja eh nicht voll nutzen um dann in zwei Jahren noch mal kaufen zu dürfen.
 
Was ich mich frage, wie sieht der Standart 1.4 jetzt genau aus im Gegensatz zu 1.3? So wie ich das verstehe, ist es eine Kompression der Daten. Klar wird das wohl dann Hardware technisch gelöst, aber wäre es nicht generell auch per Software möglich. Quasi der Monitor muss nur DP 1.4 verstehen und die Graka mit eigentlich 1.3 komprimiert das Signal per Software. was ich mich dazu frage, klappt GSync dann dazu? Das ist ja nen extra Modul, dass da zwischen gepappt wird und quasi in the Fly die Hertz den FPS angleicht.
 
G-Sync wird es dann hoffentlich nicht mehr geben, sondern einen einheitlichen Standard (*hust* Adaptive Sync *hust*) den alle Benutzen.
Der dann auch bei jedem Monitor gleich mit bei ist und die Voraussetzung erfüllt ist, dass die minimale Bildrate maximal die maximale Bildrate durch 2 ist, also Frame-Doubling funktioniert und der effektive Bereich somit von unspielbar bis zum gekauften Bereich geht.

Das steckt alles noch so ein bisschen in den Kinderschuhen aber ich sehe in einer proprietären Lösung keine Zukunft, weder für nVidia noch für den Nutzer.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
Naja 4K ist schon ein ganzes Stück.

Das Problem ist, dass die Auflösung auf einen Schlag vervierfacht wird, und mindestens 200% mehr Leistung gefordert sind.
Da kommt die normale Entwicklung nicht mit, denn, die Leistung der Grafikkarten steigt zwar, aber, die benötigte Leistung der Spiele steigt ebenfalls. Das hat sich bisher immer ausgeglichen, aber, bei so einem Sprung ist das eben vorbei.

Fixed it:

Auf einem 4K Display werden vier mal so viele Pixel wie auf einem FullHD Display dargestellt weil sich die Auflösung verdoppelt. Für 400 Prozent mehr Pixel benötigt man eine Grafikkarte mit 400 Prozent Mehrleisstung, nicht 200 ;)

Bisher sind die Anforderungen der Spiele langsamer gestiegen als die Grafikchips schneller wurden. Wenn das nicht so wäre, würden wir alle noch in 640x480 spielen :D
 
Das habe ich schon absichtlich so gewählt.
4K hat zwar die vierfache Pixelmenge, aber benötigt nicht die vierfache Leistung.
Kann man doch in Benchmarks recht gut beobachten, die Framerate ist bei 4K nicht ein Viertel von Full HD, sondern meistens ca. die hälfte oder etwas weniger.

Beispiel, hier werden in Full HD drei mal so viele FPS gerendert:
https://www.computerbase.de/2016-02...-2/2/#diagramm-pvz-garden-warfare-2-1920-1080
Also braucht 4K 300% mehr Leistung.

Hier das gleiche Spiel:
https://www.computerbase.de/2016-01...tomb-raider-1920-1080-ssao-keine-tessellation

Hier mal ein Beispiel, bei dem UHD nur etwas mehr als die doppelte Leistung benötigt:
https://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#diagramm-dirt-rally-1920-1080

Also, 300% sind durchaus die Regel, aber 400% eine Seltenheit.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
G-Sync wird es dann hoffentlich nicht mehr geben, sondern einen einheitlichen Standard (*hust* Adaptive Sync *hust*) den alle Benutzen.
Der dann auch bei jedem Monitor gleich mit bei ist und die Voraussetzung erfüllt ist, dass die minimale Bildrate maximal die maximale Bildrate durch 2 ist, also Frame-Doubling funktioniert
Warum sollte man eine Spec künstlich so verkrüppeln? Sowas gestaltet man möglichst frei und weit parametrisierbar. Du denkst nur an Spiele und definierst frei Schnauze alles unter der Hälfte als "sinnlos". Es gibt jedoch andere Szenarien, in denen viel seltenere Bildupdates durchaus sinnvoll sind.
 
Alles unter der Hälfte ist mit weiterer Vervielfältigung abgedeckt...
Ab 9Hz gehts dann los und das ist denke ich wirklich kaum brauchbar, egal wofür, das mindeste wären 24Hz für Filme.
 
Marcel55 schrieb:
DP1.4 ist doch quasi "nur" 1.3 mit Komprimierung.
Hätte erwartet, dass es deshalb dann doch etwas schneller geht, oder evtl. sogar per Software nachrüstbar ist.

Wobei ich von der Kompressions-Lösung noch nicht ganz überzeugt bin. Ob man das wirklich nicht sieht?
Bei Videos ist man noch rechzt weit davon entfernt, wenn es schnell viele Farbwechsel gibt wird das Bild zu Pixelbrei, zumindest bei Youtube. Gut, die nutzen auch nur ~6Mbit/s für 1080p60.

Komrimierung ist auch immer mit zusätzlicher Latenz verbunden. Ich finds irgendwo recht dämlich jetzt wieder auf verlustbehaftet zu gehen. Immerhin hatte man das damals bei der Analogtechnik schon, fiel dann Weg als es digital wurde und nun geht man wieder ein Schritt zurück?
Da hätten sie von mir aus eher was gänzlich neues Erschaffen können, idealerweise auf Basis von LWL wenn es mit Kupfer nicht geht.

Was ich mich frage, wie sieht der Standart 1.4 jetzt genau aus im Gegensatz zu 1.3? So wie ich das verstehe, ist es eine Kompression der Daten. Klar wird das wohl dann Hardware technisch gelöst, aber wäre es nicht generell auch per Software möglich.
Generell kannst du alles in Software machen, nur ist es in dem Fall nicht wirklich ratsam. Machst du etwas in Software brauchst du Rechenpower, die dürften 1.3 Monitore nicht haben. Obendrein etwas in Hardware zu machen ist immer schneller als in Software.
Wird also auf spezielle Mikrochips hinauslaufen die sich nur darum kümmern. Eine Softwarelösung sollte deutlich teurer kommen, bräuchte sowieso auch mehr Strom usw.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
Das habe ich schon absichtlich so gewählt.
4K hat zwar die vierfache Pixelmenge, aber benötigt nicht die vierfache Leistung.
Kann man doch in Benchmarks recht gut beobachten, die Framerate ist bei 4K nicht ein Viertel von Full HD, sondern meistens ca. die hälfte oder etwas weniger.

Beispiel, hier werden in Full HD drei mal so viele FPS gerendert:
https://www.computerbase.de/2016-02...-2/2/#diagramm-pvz-garden-warfare-2-1920-1080
Also braucht 4K 300% mehr Leistung.

Hier das gleiche Spiel:
https://www.computerbase.de/2016-01...tomb-raider-1920-1080-ssao-keine-tessellation

Hier mal ein Beispiel, bei dem UHD nur etwas mehr als die doppelte Leistung benötigt:
https://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#diagramm-dirt-rally-1920-1080

Also, 300% sind durchaus die Regel, aber 400% eine Seltenheit.

Aha.

Hast du schon einmal daran gedacht das deine Beispiele bei 1920x1080 schlichtweg alle am CPU Limit hängen?

Wenn die verwendete CPU noch schneller wäre, würden die Spiele in FulHD noch schneller laufen und in 4k würde die Framerate dann tatsächlich nur noch ein Viertel betragen.
 
Zurück
Oben