News AMD Radeon: Support für HDR- und 4K-Displays mit 120 Hz ab 2016

Pixelwahn hat halt zur Folge dass du keine GPU die nächsten 3 Jahre finden wirst die ansatzweise in der Lage ist 120hz mit 4K zu befeuern, geschweige denn im Eyefinity.
Bessere Grafik dürfte man gar in kleineren Auflösungen sehen, (wenn man nicht grad nen 40" 4K Moni hat).

Die Konsolen machen es vor. 900p statt 1080p - dafür aber 50% Pixel gespart und die freigelegte Gameleistung in Effekte stecken - das Gesamtresultat ist besser als zwangsweise 1080p zu fahren. 120hz finde ich gerade im Office Bereich eher nen Mehrwert. 120hz bei 4K ausfahren zwecks zocken ist wie gesagt eh schon unwahrscheinlich, dazu muss die Auflösung (oder Effektgewalt) meist eh runter. Und SpieleGrafik mal eben in 10 Bit berechnen dürfte nochmal massiv Leistung kosten.

Zudem hab ich doch nicht gesagt dass es heiße Luft ist oder alles was AMD gebracht hat "heißer Luft" gleich kam. Wie gesagt, es reicht ein Chip im Dezember 2016 von AMD der DP1.3 mitbringt und AMDs Folien sind keine heiße Luft sondern erfüllt. HDR kann man bereits heute (10 Bit Ausgabe). HDMI 2,0 ist nicht sonderlich Kunst, einzig DP1.3 würde schlicht für denn dann angemessenen zeitgemäßen Displaycontroller sprechen.

Ich hoffe natürlich auch, dass es nicht nur auf einen Chip im Dez. 2016 raus läuft sondern auf ein breites Angebot zur Jahresmitte, in <28nm.

Genial fände ich eher HBM2 in Action zusammen mit 16nm. Beides findet keine Erwähnung.

Edit:
Genau genommen ist der neue Displaycontroller der DP1.3 kann wohl die einzige Ankündigung die man aus der News rausziehen kann. Und sowas find ich eher lächerlich: ;)
6-1080.1523299009.png


aber gut, Marketing halt ^^

Edit2:
10 Bit fände ich generell auch für Hobby Grafiker interessant. Können die aktuellen Karten denn 10 Bit bei 4K @ 60p betreiben? Ich musste dafür glaube ich bei AMD auf 30p zurückgehen (mit meiner alten Karte und DP 1.2 an 4K) - genau das dürfte sich mit den neuen GPU dann ändern. Bei Nvidia braucht es dafür meine ich noch immer eine Quadro, da punktet AMD seit langem (sofern man ein 10 Bit Display kleiner 4K hat).
 
Zuletzt bearbeitet:
chithanh schrieb:
Das "A" steht übrigens für "Advanced".

M für Micro
D für Devices

und nun?

Hoffentlich tut sich was und es ist nicht alles nur Marketing blabla was noch 20 mal nach hinten verschoben wird.
Ergänzung ()

jbauer schrieb:
Das stimmt tatsächlich, kleiner faux pas meinerseits.
Aber gerade dann, wenn sie das "A" ernst nehmen würden, sollten sie sich an den Standard halten. Jedenfalls gibt es keinen Grund sich nicht an den Standard zu halten und es ist gerade für einen Technologiekonzern wie AMD doch ein wenig peinlich, wenn man das eben nicht tut.

Wie viele Posts regst du dich noch darüber auf, dass einer US Firma die europäischen Standardeinheiten relativ egal sind? Ist doch nicht neu. Man kann sich auch über total belanglosen Mist aufregen ^^

Die eigentlich wichtigen Dinge im Text: DP , HDMI, Ausbau von Freesync.
Ergänzung ()

Pr0kill0r schrieb:
korrekt erkannt und ein weiterer beleg der latenten hilflosigkeit seitens amd. der gut informierte [...]
da ist es kaum verwunderlich, dass amd als unternehmen nichts mehr wert ist. wer will schon investieren in einen laden ohne jegliche zukunftsperspektive?

Sontin hat einen Zweitaccount weil den richtigen alle Ignorieren? :lol:
 
Zuletzt bearbeitet:
jbauer schrieb:

Mit Firmensitz in Sunnyvale, also den USA.
https://www.comdirect.de/inf/aktien...t/unternehmensbericht.html?ID_NOTATION=252219
TenDance schrieb:
Aha. Welcher Fernseher/Beamer auf dem Markt unterstützt denn 8k 3D? Und das bei 120Hz?
Wenn Du Ahnung hättest, wüsstest Du dass das derzeit noch nichtmal im HDMI-Standard vorgesehen ist.
Geschweige denn dass HDMI 2.0 das packt.

Was Du als PC-Monitor da anschliesst... gut, Du könntest viermal DP 1.3 dafür anschliessen, das dürfte dann gehen.

Aber hauptsache mal unqualifiziert versucht AMD zu bashen.

P.S.: Auch nVidia hat diesen ominösen Nachfolgestandard von HDMI 2.0, der dann 8k 3D bei 120Hz schaufelt, nicht im Angebot. Mysteriös mysteriös...
Genau darum geht es doch. Meckern um des meckerns Willen.
Setze die Erwartungen so hoch das sie nicht erfüllt werden können und wenn doch dann wird gemeckert das es kein Mensch brauchen würde.

Was sollen die da "fixen"? Das ist kein Fehler, das wurde von nVidia mit Absicht so designed.
Gibst Du Deinen Golf auch zurück weil da ein Vierzylinder drinsteckt und VW ihn nicht zum Zwölfzylinder "repariert" hat?

Das Tolle ist aber: was für eine Frechheit das doch ist - in Deinen Augen. Und brav kaufst Du die nächste Karte von nVidia.
Kunden wie Dir ist es zu verdanken dass sich nVidia solche Frechheiten überhaupt rausnimmt, da die Lemminge brav ihr Geld in den grünen Arsch blasen.

P.S.: Wenn Dich die 3,5GB der GTX 970 stören, werden 4GB auf einem kommenden Nachfolger Dir nicht weiterhelfen. Wobei ich mir fast sicher bin dass nVidia im Sommer wieder eine "Highend"-Karte anbieten wird die über ein gemütliches 256er SI ihre 4GB VRAM anspricht.
Wenn er mir als 6 Zylinder verkauft wurde und nach "Korrektur" des Datenblattes beim Abfordern der zugesicherten Leistung der Motor stottert weil die Benzinversorgung zusammenbricht auf jeden Fall.
 
Zuletzt bearbeitet von einem Moderator:
Faust2011 schrieb:
Sehr nice :daumen:

Jetzt muss nur noch mit dem nächsten GPU-Lineup, Arctic Islands, auch eine gute Performance herausgeholt werden... und die Technik auch gut vermarktet werden.

Ich muss sagen AMDs Marketing ist eigentlich ganz gut.
Die sind partner von freaks for you. Wenn die einen LOl Stream machen oder Videos auf youtube, dann haben die doert auch sehr dezente AMD Werbung. Bei deren public Viewing zu den LOl Finals hat AMD die auch tatkräftig unterstützt.

Am geilsten finde ich aber immernoch die AMD Werbung, die ein Youtuber gemacht hat. Sucht mal nach Let'sreadsmallbooks (ist nen LCS Caster und LOL Caster). Der hat vor einige seiner Videos selber AMD_Werbung gemacht (also selbst ausgedacht und so) finde ich ganz witzig. Ich geb mal den link dazu: https://www.youtube.com/watch?v=_L9_RGYkkSE
SummonersInn (das ist der Deutsche LOL Caster-Channel) wird standardmäßig von AMD gesponsord. Das erreicht schon recht viele Leute.

Aber so oder so kann AMD mal nen besseres Marketing einstellen. Wobei ja viel über Mund zu Mund Propaganda geht. Da muss man halt sein image aufbessern.
 
TenDance schrieb:
Aha. Welcher Fernseher/Beamer auf dem Markt unterstützt denn 8k 3D? Und das bei 120Hz?
Wenn Du Ahnung hättest, wüsstest Du dass das derzeit noch nichtmal im HDMI-Standard vorgesehen ist.
Geschweige denn dass HDMI 2.0 das packt.

Was Du als PC-Monitor da anschliesst... gut, Du könntest viermal DP 1.3 dafür anschliessen, dae dann gehen.

Richtig erkannt, das gibt es auf dem Markt (wenn auch sicher nicht im Mediamarkt)
Fakt ist, dass es 4k seit Rolle gefühlten Ewigkeit auf dem Markt gibt und während Nvidia zumindest dafür schon etwas im Angebot hat, schafft es AMD gerade mal, etwas vergleichbares für Ende des nächsten Jahres anzukündigen. Das ist ein blanker Offenbarungseid, weil das anderthalb Jahre nach der Finalisierung sein wird. Und soviel Finale Verabschiedung und das Angebot brauchbarer Produkte miteinander zu tun haben, kann man sehr gut am Beispiel WLAN sehen. In der Endphase eines solchen Spezifikationssprozesses geht es i.a. nämlich nur noch um Feinheiten, nicht jedoch um die grundsätzliche Funktionsweise. AMD hätte also auch schon locker vor zwei bis drei Jahren entsprechende Produkte auf den Markt bringen können. Aber sie haben lieber gepennt und alte Ware unter neuem Namen veröffentlicht. Dass auch NVIDIA sich nicht mit Ruhm bekleckert, ist wohl jedem klar, aber in der Meldung ging es nu mal um AMD und nicht um NVIDIA vs. AMD.
 
Was für ein Unsinn! Was hat denn Nvida zurzeit besseres im Angebot?

Die Fury-X ist schneller als die Titan X in 4K. Also bis jetzt liegt AMD vorne und Nvida hat nichts ordentliches zu bieten.

Außerdem dauert es immer einige Zeit bis ein Standard wie Displayport 1.3 in ein Produkt implementiert wird, gibt ja schon so viele Nvida Grafikkarte damit.
 
fuyuhasugu schrieb:
Fakt ist, dass es 4k seit Rolle gefühlten Ewigkeit auf dem Markt gibt und während Nvidia zumindest dafür schon etwas im Angebot hat, schafft es AMD gerade mal, etwas vergleichbares für Ende des nächsten Jahres anzukündigen.
Erstmal Gesundheit.
Fakt ist du hast keine Ahnung wovon du laberst.
AMD Karten, egal ob von 2013 oder 2015, skalieren in höheren Auflösungen alle samt wesentlich besser als Nvidia.

fuyuhasugu schrieb:
Aber sie haben lieber gepennt und alte Ware unter neuem Namen veröffentlicht.
"Alte Ware". Meinst du die 390X, die in halbwegs gut optimierten Games wie Battlefront selbst die neurere 980 OC vernichtet?

Wenn ein Rebrand reicht um Nvidia Karten im Zaun zu halten, dann thats the way it's meant to be played.

mfg,
Max
 
Zuletzt bearbeitet:
max_1234 schrieb:
Fakt ist du hast keine Ahnung wovon du laberst.
Das sagt der richtige. Weil du ja offensichtlich gleich gar keine Ahnung von der Materie hast, bleibt dir wohol nichts anderes uebrig, als jedes Mal den gleichen Unsinn von AMD vs. Nvidia vorzubringen, was leider vollkommen am Thema vorbeigeht. Dafuer musst Du Dir aber jemanden auf Deinem Fanboiniveau suchen.
 
fuyuhasugu schrieb:
Richtig erkannt, das gibt es auf dem Markt (wenn auch sicher nicht im Mediamarkt)
Fakt ist, dass es 4k seit Rolle gefühlten Ewigkeit auf dem Markt gibt und während Nvidia zumindest dafür schon etwas im Angebot hat, schafft es AMD gerade mal, etwas vergleichbares für Ende des nächsten Jahres anzukündigen. Das ist ein blanker Offenbarungseid, weil das anderthalb Jahre nach der Finalisierung sein wird. Und soviel Finale Verabschiedung und das Angebot brauchbarer Produkte miteinander zu tun haben, kann man sehr gut am Beispiel WLAN sehen. In der Endphase eines solchen Spezifikationssprozesses geht es i.a. nämlich nur noch um Feinheiten, nicht jedoch um die grundsätzliche Funktionsweise. AMD hätte also auch schon locker vor zwei bis drei Jahren entsprechende Produkte auf den Markt bringen können. Aber sie haben lieber gepennt und alte Ware unter neuem Namen veröffentlicht. Dass auch NVIDIA sich nicht mit Ruhm bekleckert, ist wohl jedem klar, aber in der Meldung ging es nu mal um AMD und nicht um NVIDIA vs. AMD.

Knapp daneben ist auch vorbei.
Die UHD @ 30Hz bekommt man auch mit dem HDMI 1.4 Anschluss hin, für UHD @ 60 Hz hat auch der DisplayPort 1.2 Anschluss genug Bandbreite und ist bei praktisch allen UHD Monitoren die bei Geizhals aufgeführt sind vertreten. http://geizhals.de/?cat=monlcd19wide&xf=5137_3840x2160#gh_filterbox
Für HDCP 2.2 sehe ich aktuell keinen praktischen Nutzen. Damit bezieht sich der ganze HDMI 2.0 Zirkus also in erster Linie auf den UHD TV Sektor, da dort die DisplayPort Anschlüsse gestrichen wurden.

Nun die Preisfrage....wieviele der entsprechenden Spiele Rechner hängen an einem UHD TV?
 
@fuyuhasugu
Wo genau hab ich unrecht?
Du bashst ziellos und grundlos auf etwas ein, das du nicht mal im Geringsten verstehst. Dabei ist mir von Vorne herein klar, dass du in Allem nur das siehst, was du sehen willst.

Also unterstreiche deine Aussage doch einfach mit Beispielen.

mfg,
Max
 
Ganz genau...Tellerrand. Wofür außer Spiele benötigst du mehr als den 30 Hz Refresh an einem TV?
 
4K TV ist mittlerweile Standard, für FHD kommen immer weniger Geräte auf den Markt und wenn, dann nur im untersten Preissegment mit entsprechender Ausstattung.
 
fuyuhasugu;1 8209146 schrieb:
4K TV ist mittlerweile Standard, für FHD kommen immer weniger Geräte auf den Markt und wenn, dann nur im untersten Preissegment mit entsprechender Ausstattung.

Das 4K mietlerweilent Standard ist bezweifele ich.
 
fuyuhasugu schrieb:
4K TV ist mittlerweile Standard, für FHD kommen immer weniger Geräte auf den Markt und wenn, dann nur im untersten Preissegment mit entsprechender Ausstattung.
4K TVs sind ohne entsprechendes Material ein Witz der bestenfalls mit Hilfe einer guten Skalierung bei einem großen TV bei einem geringen Sitzabstand einen tieferen Sinn verleiht.
HD TV Sender kommen nur allso gern im 720p Format daher, Filme auf Datenträgern in einem standardisierten Format (Blu-Ray) besitzen lediglich das 1080p Format und fürs Streaming in einer vernünftigen Qualität fehlt idR. ganz einfachdie Bandbreite. Abgesehen von fast tot komprimierten Videos und ein paar Demos bekommst du praktisch nichts und deren Sinn erschließt sich mir nicht wenn das 1080p Material durch die geringere Kompression detailierter und damit besser ausschaut.

Also nochmal, wofür benötigst du bei enem PC abseits von Spielen bei einem TV mehr als 30 Hz in der UHD Auflösung damit HDMI 2.0 ein solches KO Kriterium ist?
 
Zuletzt bearbeitet von einem Moderator:
Und selbst wenn.. bei den wenigsten Spielen packen aktuelle High-End Grafikkarten mehr als 30FPS, meistens wird man sie dann doch eher mit FHD ansteuern.

Wobei ichs ja umgekehrt mach... ich steuer meinen FHD TV mit 4k VSR an ;-) FFXIV schafft die Fury X mit etwa 40fps, was für ein MMO reicht. Ich wüsst aber nicht wozu ich wirklich einen 4k TV brauchen sollte...
 
fuyuhasugu schrieb:
4K TV ist mittlerweile Standard.

Quelle?
Mehr als mich kindisch via PN zu beleidigen hast du für deine Aussagen auch nicht vorzuweisen?

mfg,
Max
 
Zurück
Oben