News Radeon RX Vega: Referenzdesign soll mit heller Backplate kommen

Und wieder wurde da ein Gerücht bzgl. der Tach-Funktion der RX Vega(10) in die Welt gesetzt, woran man angeblich die Auslastung der GPU per (bis zu 8 erleuchteten) LEDs ablesen kann.

Dazu kommt die Behauptung (eines Reddit-Posters), dass bei einer vorherigen Demo der RX Vega(10) Leistung (im unoptimierten Zustand, etwa leistungstechnisch leicht oberhalb einer GTX 1080) nur 3 von 8 Lämpchen geglüht haben sollen, was einer Auslastung von lediglich 37% der GPU entsprechen würde und noch auf enorme Leistungsreserven schließen lassen könnte.

Damit soll wohl ein neuer Hype im Vorfeld des RX Vega Marktstarts entfacht werden, aber man sollte ("ent-hypend") bedenken, dass die RX Vega vermutlich nicht 100% der eigentlichen Leistungsressourcen (bei allen Spielen) am Anfang bringen wird können (zumal das bei einer gänzlich neuen Architektur mit GPU-Funktionen - die Entwickler in aktuellen Spielen noch gar nicht ausnutzen/implementiert haben - auch logisch wäre) bzw. diese nicht gänzlich ankommen ähnlich den Fiji-GPUs damals.

Neben dem tatsächlichen Wirkungsgrad gibt es dazu auch keine offizielle Stellungnahme seitens AMD zur Tach-Funktion (die bei der RX Vega auch anders ausfallen kann als bei der R9 Fury (X), zumal es auch eine Multifunktion sein kann, die etwas anderes als die GPU-Auslastung abgelesen hat, bspw. die Lüfterumdrehungen oder den Energieverbrauch) und so gesehen ist das sehr mit Vorsicht zu genießen, auch wenn ich mir das natürlich wünschen würde, wenn das RX Vega Topmodell die GTX 1080Ti richtig im Regen stehen lassen würde (man wird ja noch träumen dürfen ;) ).

Wenn man sich den PCGH Vorabtests des nächsten großen AAA Titels - Mass Effect : Andromeda - anschaut, wird man auch feststellen, dass eine leistungstechnisch mit der GTX 1080Ti gleich einzuordnende Titan X(P) gerade noch die 30 fps in Maximaleinstellungen unter 4K/UHD packt und ähnlich anderen mehr (Ghost Recon : Wildlands, Deus Ex : Mankind Divided) oder weniger (Rise of the Tomb Raider) aktuellen Titeln schon locker nicht mehr für 60fps in 4K/UHD Maximaldetails durch die Bank ausreicht, somit immer noch vorwiegend eine WQHD GPU bleibt.

Ob das RX Vega Topmodell das allerdings wird besser stemmen können, bleibt auch extrem fraglich, 4K/UHD Gaming wird vorerst wohl nur etwas für Early Adopter und (HardCore-)Enthusiasten bleiben.
 
Zuletzt bearbeitet:
Chismon schrieb:
Na, dann bearbeite Deinen Bruder 'mal ;), soll er sich wenigstens jetzt eine RX Vega kaufen (oder zumindest die kurze Zeit bis zur Veröffentlichung der RX Vega(10) noch mit dem Kauf der GTX 1080Ti warten), die Du dann relativ günstig "erben" kannst oder ist der erklärter nVidianer.

Ansonsten ist eine GTX 980Ti an sich immer noch eine ziemlich nette GPU, insbesondere für den Preis, auch wenn die Glanzzeit mittlerweile schon vorbei ist und für 200 Euro wirst Du leider keine neue (ähnlich starke) Vega11 GPU bekommen, die vermutlich in die gleiche Leistungsklasse fällt (an ein 550+ mm^2 Vega11 Shader Monster glaube ich nicht wirklich), aber mehr Speicher/neuere Architektur haben dürfte.

HAHAHA
Der eine will ja wegen hbm. Der andere nicht. :D
Er will halt das schnellste was es gibt und mein ältester Bruder kauft dann für sich selbst mit ein.
Ist nicht so, dass die nur nach nvidia gehe. Hier wird normalerweise nach P/L gegagen. Aber wenn man das geld hat... :D

@Kasompaya Absolut ;D
 
4K/UHD Gaming wird vorerst wohl nur etwas für Early Adopter und (HardCore-)Enthusiasten bleiben.
Ich denke bei big Volta(also der Vollausbau Titan) mit HBM² könnte es ca. 2019 dann zum ersten mal richtig interessant werden. Zumindest bis das nächste AAA Game dann den Hammer fallen lässt und die GPU vernichtet... 4k durchgehend mit 60FPS ist noch eine sehr sehr lange Zeit mit Vorsicht zu genießen. Gewöhnt euch lieber mal nicht daran und kauft euch einen 4k Monitor den man verlustfrei auf 1080p zurückstellen kann wenn nötig.
 
Ist es denn nicht so, dass man leicht und unkompliziert bei einem 1080p Bildschirm ber VSR oder DSR einfach intern mit 4K rendern lassen kann? Das sieht dann doch verdammt scharf und sexy aus, auf einem gescheiten 1080p-Monitor?
Und wenn die GPU-Leistung nicht dafür ausreicht bzw. man die Details lieber hochprügeln will, dann kann man auch bei Ultra-Settings in 1080p noch zocken.

Es gibt doch auch noch viele Programme deren UI mit 4K nicht umzugehen wissen, auch da ist ein guter 1080p-Monitor unproblematischer. Ich glaub wenn man's übrig hat, sollte man sich nen extrem geilen 1080p und einen 2. 1440p Monitor auf den Tisch stellen und mit 4K noch abwarten, denn GPU-Power ist für 4K noch arg knapp.

MfG
DiskreterHerr
 
Wenn sich Grafikkarten nicht viel schneller entwickeln als die Grafik in Spielen, wird 4k60 auch noch lange ein Traum bleiben, ausser man spielt nur alte Spiele...

Ich bin mit 1080p auf 100" Diagonale und 3m Sitzabstand völlig happy. Im echten Leben ist's auch nicht schärfer. :D
 
Die zeiten in denen man ein game öffnet alle regler auf Ultra stellt sind schon länger vorbei. Selbst eine 1080Ti bekommt man in Full HD klein. Heutzutage gibt es einfach mehrer Dutzend einstellungen mehr als vor 10 Jahren in den GAmes. Alleine die filter können die GPU ja schon zum Kotzen bringen.
4K ist heutzutage kein Problem . Selbst eine 480 oder 1060 kann das. Halt auf den richtigen Settings. 4k Ultra overall is natürlich nicht möglich.. wird es wohl in AAA Titeln noch sehr lange nicht
 
Und wieso soll jetzt 4k bei mittleren details besser sein als 1080p in ultra?

Nur weil die Kanten etwas schicker sind?

Es gibt viel, viel mehr, das zur Atmosphäre im Spiel beiträgt, von Schatten über Texturen bis hin zur Beleuchtung.
 
Sharangir schrieb:
Wenn sich Grafikkarten nicht viel schneller entwickeln als die Grafik in Spielen, wird 4k60 auch noch lange ein Traum bleiben, ausser man spielt nur alte Spiele...
Genau das ist das zentrale "Problem" was hier viel zu selten thematisiert wird. Im Bereich bis ca. 300€ konkurrieren ältere Chips wie Hawaii und GM 104 direkt mit dem neuen GP 106 und P10. Erst mit Volta, oder etwas Glück bei Vega 11, wird sich in dieser Preisklasse wieder etwas bewegen, also deutlich mehr Leistung geben.

Wenn es nur noch alle 2 Jahre ein kleinen Sprung bei der Leistung in diesem wichtigen Preisbereich gibt, oder es so gar über 4 Jahre für einen größeren Sprung braucht, wird 4K für viele noch lange ein Traum bleiben.

Dazu kommt das die Entwicklung bei den Monitoren dafür auch nicht besonders schnell ist.

Wir brauchen also keine Diskussionen zu neuen CPUs, sondern endlich wieder mehr Dynamik bei den GPUs.
 
Zuletzt bearbeitet von einem Moderator:
Sehe ich genauso. CPU leistung ist ansich genu gvorhanden. dA muss die Software nur mehr auf mehr Kerne laufen. Aber GPU Leistung könnte sich über nacht gern verdoppeln und es wäre immernoch nicht genug. Ich nutze z.B immer Crossfire oder SLI und 5 Monitore. Auf drei Monitore mit 2k zocken is chon echt ne Nummer. Dann sollte Crossfire und SLI endlcih mal Plug and Play werden und nicht von den Games abhängig sein.

Gibt soviele Baustellen im GPU berreich... hier sollte wirklich mal mehr innovation kommen.
 
Da sieht man mal, was man nach vielen Jahren Entwicklungszeit, für eine wunderschöne Backplate konstruieren kann!

Davon sollte sich Nvidia mal ne Scheibe abschneiden!
 
NVidia hat doch das selbe gemacht. Wurde nur nicht so drüber berichtet wie hier...
http://geizhals.de/nvidia-titan-x-900-1g611-2500-000-a1480758.html
Man könnte bei den aktuellen Karten sagen:

Da sieht man mal, was man nach vielen Jahren Entwicklungszeit, für einen wunderschöne Referenzkühler konstruieren kann!

Davon sollte sich AMD mal ne Scheibe abschneiden!
 
Ist es denn nicht so, dass man leicht und unkompliziert bei einem 1080p Bildschirm ber VSR oder DSR einfach intern mit 4K rendern lassen kann? Das sieht dann doch verdammt scharf und sexy aus, auf einem gescheiten 1080p-Monitor?
Genau so schauts aus, das wäre die Budget Lösung. 1080p und 4k per DSR und 2160p nativ Monitor für Enthusiasten. Alles andere ist halbgarer Mist. 1440p killt jede GPU über ein paar Jahre früher als 1080p. Und 720p zurück stellen ist für mich auch keine Option.
 
Zuletzt bearbeitet:
Zurück
Oben