News PowerColor: Erste Bilder der Radeon RX Vega 64 Red Devil

Tulol schrieb:
... was für eine alte Möhre du so hinein schaust aber ich hab einen ~6 Jahre(!) alten HP ZR24w. Der hat neben DVI und lächerlichem VGA halt auch DP und der gehörte damals eher zu den günstigen Geräten auf dem Markt.(~€240,-) Ich kann das festhalten am DVI jedenfalls auch nicht nachvollziehen.

Auch wenn ich derzeit noch DVI nutze (da ich bisher keinen Anlass hatte extra Geld für ein DP Kabel auszugeben), schließe ich mit meiner alten Dell-Möhre (2709W) nicht von mir auf andere, da dieser damals schon DP bekommen hatte (ein mit Schnittstellen geradezu verwöhnter Monitor, aber damals regulär mit 1200+ US$ auch teuer genug, eben kein Billig-Gerät von AOC, ASUS, etc., da ich lieber seltener, aber hochwertige Monitore von den klassischen Herstellern kaufe und nicht diesen neumodischen Quer-Einsteiger-Gaming-Monitor-Kram mit Qualitätsproblemen).

Und ja, mein Gerät läuft immer noch tadellos und ist immer noch besser als so mancher Billig-Full-HD Monitor auf dem Markt (zumindest was die Bildqualität angeht), aber es ist auch kein Gaming-Monitor sondern ein Allrounder, weil ich nicht nur mit meinem PC spiele sondern auch arbeite und Filme schaue (meine Ansprüche sind da eben andere als die eines Ego-Shooter-HardCore-Gamers).

Somit sehe ich aktuell bei dem was der Monitormarkt aktuell bietet und wegen Downsampling definitiv keinen Nachhol-/Aufrüstbedarf (bis es eine vernünftige Auswahl an 32"+ 4K/UHD HDR/OLED 120+Hz DP1.4 Geräten zu fairen Preisen gibt, was noch einige Zeit dauern dürfte) und da bin ich bestimmt nicht der einzige.

Einige von den Leuten werden damals vielleicht etwas weniger hingeblättert haben als ich für einen ähnlichen Monitor und mussten dementsprechend auf DP verzichten, aber wieso sollten diese sich extra einen neuen Monitor anschaffen, wenn die alten Geräte noch gut Ihren Dienst verrichten und ausreichen?

Nur weil die Industrie das gerne hätte (und eine Schar von Konsumenten diese Tour bröckchenweise neue Features/Technik zu verkaufen mitmacht und dafür gerne löhnt) und andere sich auch alle 2 Jahre konsumgeil einen neuen Monitor holen (den sie eigentlich nicht bräuchten bzw. der kaum mehr bietet als der vorherige) und Ihnen Umwelt und endliche Ressourcen sonst wo vorbei gehen?

Das ist ja ok, musst Du ja auch nicht, denn es betrifft Dich ja nicht ;). Für mich geht's darum, dass ich mich in deren Denkweise hinein versetzen kann.

Ich habe Verständnis dafür, dass einige wegen eines möglichen Schnittstellenzwangs ohne triftige/nachvollziehbare Begründung (bei Abschaffung/fehlender Unterstützung von DVI) sich von dem eigenen tadelos laufenden und ausreichendem Gerät nicht trennen wollen (deswegen nicht den Kauf eines Neugerät aufdrücken lassen wollen) und dann eben für eine andere Grafikkarte entscheiden, die noch DVI-Unterstützung bietet.

Wie hoch da die Priorität als Kaufkriterium liegt, muss jeder für sich selbst entscheiden.
 
Zuletzt bearbeitet:
Interessant. Jetzt steht aber noch die Frage im Raum, warum soll ein Hersteller einer Grafikkarte, jetzt ausgerechnet eine Technik nutzen, die schon ersetzt wurde durch eine bessere auf seiner neuesten Karte?
Und was kann der Hersteller der Grafikkarte dafür, das Endverbraucher gerade beim Monitor meistens sparen anstatt da einen richtigen zu kaufen?
Schon wirklich faszinierend.

Liest sich hier stellenweise eher wie die Argumentation um ja keinen Kauf tätigen zu müssen. Geräusche hatten wir ja schon, Stromverbrauch auch schon, Treiber war auch schon dran. Jetzt kommt halt fehlender DVI Ausgang. :D
 
Sehe ich das richtig, dass eigentlich alle Komponenten auf dem PCB dem Referenzlayout entsprechen? Da hatte man wohl keine Lust etwas neues zu entwerfen, wenn das Referenzdesign bereits gut ist und die Karte eh nicht viel Gewinn abwerfen wird (sofern AMD nicht genügend GPUs liefern kann).
 
Was will man auch machen wenn die Ref. PCB ein Powerhouse von 700W mit 12 Phasen ist.:rolleyes:
Bei 1080 FE waren es ja nur 5, da war es easy 7-10 Phasen hin zu setzten.
Man hat schon bei Polaris gesehen das die Bauteile minderwertiger sind bei Customs, dafür aber nicht zuviel vom PCIe ziehen.
Und Vega tut das in keinem Fall.
 
Zuletzt bearbeitet von einem Moderator:
Dark_Knight schrieb:
... Jetzt steht aber noch die Frage im Raum, warum soll ein Hersteller einer Grafikkarte, jetzt ausgerechnet eine Technik nutzen, die schon ersetzt wurde durch eine bessere auf seiner neuesten Karte? Und was kann der Hersteller der Grafikkarte dafür, das Endverbraucher gerade beim Monitor meistens sparen anstatt da einen richtigen zu kaufen? Liest sich hier stellenweise eher wie die Argumentation um ja keinen Kauf tätigen zu müssen. Geräusche hatten wir ja schon, Stromverbrauch auch schon, Treiber war auch schon dran. Jetzt kommt halt fehlender DVI Ausgang. :D

Eine Antwort auf Deine Fragen könnte die Marktpositionierung sein. Ähnlich wie bei Spieleentwicklern, die zum Großteil immer noch Leute mit alter PC Hardware bedienen, ob das nun niedrige oder mittlere Detailstufen und gemäßigte RAM-Anforderungen sind oder eine ausbleibende Begrenzung bei der Auflösung (man Full-HD und alles darunter nicht mehr bedingt und somit massiv zur Monitoraufrüstung Spieler zwingen würde), weil ja WQHD und UHD/4K technisch schon etwas (leicht) besseres/mehr bieten.

So gesehen ist es dann die alleinige Entscheidung des Herstellers/Boardpartners, wo dieser sich im Markt positionieren will und wen bzw. wie viele Käufergruppen dieser erreichen will.

Es hat also mit Prioritäten zu tun bei beiden, Herstellern und Kaufinteressenten, und ja, ich bin durchaus besser bisher mit meinem 8 Jahre alten Dell Monitor gefahren als mir bspw. deutlich minderwertige Billig-Monitore für ein Drittel des regulären Preise alle 3 Jahre zu kaufen (die Umwelt wird es mir in jedem Fall danken) zumal ich den Monitor damals auch günstiger als regulär bei einer Angebotsaktion auf der Dell-Webseite erworben habe, aber das ist eben auch Geschmackssache, bei GPUs gibt es ja ähnlich entgegen gesetzte Kaufmentalitäten.

Ergo, im Endeffekt kommt es darauf an, ob man daraus ein Kaufkriterium machen will und wie ausschlaggebend dieses ist, auch wenn das für einige bizarr anmuten mag ;); bei aktuellen Notebooks finde ich den "Schnittstellenschlankheitswahn" um ein paar Cents zu sparen aber noch deutlich offensichtlicher und ärgerlicher als bei GPUs derzeit (zumal da als Kompromiss oft noch Adapterkabel mitgeliefert werden).
 
Zuletzt bearbeitet:
Leli196 schrieb:
Sehe ich das richtig, dass eigentlich alle Komponenten auf dem PCB dem Referenzlayout entsprechen? Da hatte man wohl keine Lust etwas neues zu entwerfen, wenn das Referenzdesign bereits gut ist

Ja, das Referenz-Design ist aus elektronischer Sicht sehr gut. Also richtig gut. Hochwertige Bauteile, und alles weit über die theoretische Leistungsfähigkeit des Chips dimensioniert, um Langlebigkeit und Übertaktbarkeit zu gewährleisten. Das Design trägt Rajas Handschrift.
Die Board-Partner können das einfach so wie es von AMD kommt verbauen, ohne selbst die Elektronik entwickeln zu müssen.
Die Probleme mit der Verfügbarkeit sind jedoch nicht den elektronischen Bauteilen geschuldet, sondern den GPUs und HBM2 Packages.

Zumindest muss es daran liegen, denn mehr bleibt ja nicht übrig... und auch der Grund ist nicht klar. Entweder kommen zu wenige, intakte GPUs aus der Fab, oder es kommt zu wenig HBM2 aus der Fab, oder es gibt Probleme bei der Vereinigung der beiden auf dem Interposer, oder AMD rückt das Zeug einfach nicht aus. Letzteres kann wiederum daran liegen, dass sie lieber sehr teuer verkaufbare Radeon Instinct Karten für Rechenzentren/Deep-Learning damit bauen, oder dass sie einen signifikanten Anteil der Chips einfach für einen Großkunden wie z.B. Apple (ok, eigentlich nur Apple) horten.

Alles in Allem eine richtig dumme Situation. Die GPU ist sehr gut geworden, und die aktuellsten Neuerscheinungen in Sachen Grafik-Krachen auf dem Spielemarkt zeigen, dass oftmals bereits die Vega 56 in direkte Konkurrenz zur GTX 1080 tritt, wobei die Vega 64 sich zwischen 1080 und 1080 Ti platziert. Auch der offizielle Preis passt angesichts dieser Leistungsdaten. Jedoch wollen viele der potentiellen Kunden einfach kein Referenz-Design, und ebenso will keiner den Mining-Hype-Aufschlag zahlen.

Eine RX Vega 56 mit einem vernünftigen Kühler wie z.B. der Strix, Nitro oder Red Devil für ca. 450-500€ wäre genau richtig positioniert im Preisgefüge. Die RX Vega 64 dann 100€ drüber, und die GTX 1080 Ti nochmals 100€ drüber. Dann hätte jeder eine gute Möglichkeit zur Auswahl, was für ihn jeweils besser passt. Aber leider leben wir nicht in dieser Welt... ^^
 
Odysseus277 schrieb:
Die Probleme mit der Verfügbarkeit sind jedoch nicht den elektronischen Bauteilen geschuldet, sondern den GPUs und HBM2 Packages.

Zumindest muss es daran liegen, denn mehr bleibt ja nicht übrig...

Mir fielen da spontan: Mining-Hype + Apple ein.
Dazu wurden AMD Ressourcen in einigen anderen Zweigen stark belastet (Ryzen Desktop + Notebook und dann noch die ganzen Konsolen GPUs).

Denke da spielt einiges zusammen.
 
Finde es schön, das du nochmals erwähnst was für einen tollen Monitor du hast Chismon. ;)

Ändert aber nichts an der Tatsache, das man neueste Hardware eben nicht unnötig mit älterer Technik bündeln muss. Und wie gesagt, der Hersteller einer GPU Customkarte ist nicht schuld daran, wenn Endverbraucher sich Monitore holen, die mit alter Technik noch immer arbeiten aber die neuere Technik nicht mit anbieten.
Hier dann auch noch mit dem Umweltgedanken zu kommen ist schon echt lustig. Weil ich stark davon ausgehe, das du viele Parts deiner Rechner öfter wechselst als 10 Jahre oder bis die Parts kaputt gehen. Somit ist es zwar schön, das du an die Umwelt denkst bei Monitoren, aber eben nicht bei allen anderen Sachen. ;)
 
Wegen OC Versionen, wenn die Angaben von geizhals stimmen, wird es von Asus neben der normal getakteten Version auch eine OC Version geben, Taktraten sind keine angegeben
 
Dark_Knight schrieb:
... Tatsache, das man neueste Hardware eben nicht unnötig mit älterer Technik bündeln muss. Und wie gesagt, der Hersteller einer GPU Customkarte ist nicht schuld daran, wenn Endverbraucher sich Monitore holen, die mit alter Technik noch immer arbeiten aber die neuere Technik nicht mit anbieten.
Hier dann auch noch mit dem Umweltgedanken zu kommen ist schon echt lustig. Weil ich stark davon ausgehe, das du viele Parts deiner Rechner öfter wechselst als 10 Jahre oder bis die Parts kaputt gehen. Somit ist es zwar schön, das du an die Umwelt denkst bei Monitoren, aber eben nicht bei allen anderen Sachen. ;)

Für mich ehemals tollen Monitor (ein NEC oder Eizo Spitzenmodell ist und war das Gerät natürlich noch nie), meinen Ansprüchen genügt er noch, da ich kein Bedürfnis habe ständig etwas neues zu kaufen, wenn ich es nicht brauche und daraus keine wirklichen Mehrnutzen ziehe.

Müssen muss man gar nichts und was "nötig" oder "unnötig" ist, kommt wohl auf die eigene/persönliche Sichtweise an, aber wenn ältere GPU-Serien des gleichen Herstellers/Boardpartners oder aktuelle oder ältere GPU-Konkurrenz das bieten, wird es evt. zum Kaufkriterium, basierend auf der Marktpositionierung. Nicht alles was (technisch) älter ist, ist damit unbedingt gleich auch (signifikant) schlechter ;).

"Schuld" wäre hier m.E. auch der falsche Ausdruck, es kommt eben darauf an, ob man auf diese Kundschaft als Hersteller/Boardpartner noch wert legt und diese bedienen will, oder nicht und lieber ein paar Cent bei der Herstellung spart.

Wie man die Grafikkarten ausstattet ist dem Hersteller/Boardpartner alleine überlassen, aber wenn sie nicht das gesamte Kundenpotential abdecken, brauchen sie sich nicht zu wundern, wenn einige Kunden dann zu Produkten (der Konkurrenz) abwandern, die das eben noch bieten.

Das kommt auf die Hardware an, Monitor derzeit 8 Jahre, GPU, CPU, Mainboard, Netzteil und Gehäuse derzeit 5 Jahre, Tastatur vielleicht 10 Jahre, Soundboxen noch viel älter ... das neueste ist bei mir der 3-in-1 Drucker, glaube ich, der ca. 1,5 Jahre alt ist. Das ist eben eine Mentalitätsfrage, aber wenn es sich mit dem Umweltgedanken vereinen lässt, dann gerne, das ist bei Autos bei mir genauso (nur um ein anderes Feld zu benennen), deshalb bin ich aber noch lange kein (Vorzeige-)Grüner :D.

Was bei mir zugegebenermaßen ansteht ist im kommenden Jahr eine neue GPU (da ist noch nichts entschieden) da ich einen Neukauf seit über einem Jahr vor mir herschiebe was auch den verfügbaren Produkten und Preisen geschuldet ist, und evt. ein neues/einigermaßen vernünftiges Smartphone (da ich nur relativ alte und billige Möhren habe) und womöglich ein passender Ersatz für mein 2009er 13" MacBook (15" Surface Book 2 vielleicht). Wie viel dann Ende 2018 bei mir wirklich umgesetzt worden ist, bleibt abzuwarten .... ich habe kein Problem damit eine oder mehrere Technikproduktgenerationen zu überspringen, da ich nicht glaube da großartig etwas zu verpassen.

Wenn mich eine Technik absolut faszinieren und vom Hocker hauen würde, ja, vielleicht könnte ich dann auch 'mal ausnahmsweise zum Early Adopter mutieren, aber bisher ist da leider gar nichts in Sicht ... auch AR/MR wird das vermutlich nicht bei mir bewirken, zumal mich die Early Adopter Preise meist viel zu sehr abschrecken und mir der (kleine) Zeitvorsprung das wohl nicht wert wäre, anderen aber schon.

Wer kann schon von sich behaupten überall ständig an die Umwelt zu denken(?), zumal ich sicherlich nicht die Keule eines Moralapostels hier schwingen will, aber wenn es sich anbietet, dann gerne/wieso nicht (?) ... ein Bisschen Umweltbewusstsein und Naturverbundenheit in einigen Bereichen kann m.E. nicht schaden sondern ist sicherlich löblich und evt. nachahmenswert ;).

Wo bzw. auf welchen Gebieten man da ansetzt, ist jedem selbst überlassen ...
 
Zuletzt bearbeitet:
Und wieso sollte man den Monitor wechseln? Nur wegen eines anderen Anschlusses? Ich hab sogar jetzt einen neuen Monitor. Was kann er Neues? Oh er löst etwas besser auf, verbraucht etwas weniger Strom, 144 statt 120 hz und hat Freesync. Davon ab hat sich nichts verbessert. Auch der Monitor ist stark blickwinkelabhängig, hat einen Inputlag und die Interpolation ist immer noch mies.

Warum ich trotzdem einen Neuen gekauft habe? Hatte etwas Geld über und das Angebot war sehr günstig. Hab für einen 1 Jahr alten Monitor 200 € gezahlt.
 
Artikel-Update: Die Webseite Overclock3D.net hat Fotos eines Testmusters der Radeon RX Vega 64 Red Devil veröffentlicht, die die Grafikkarte mit ihrem 3-Slot-Kühler und dessen drei Lüftern aus allen nur erdenklichen Perspektiven zeigen – demontiert wurde das Kühlsystem allerdings nicht. Auch ComputerBase hat heute ein Muster der Grafikkarte erreicht, ein Verschwiegenheitsabkommen verhindert aktuell aber noch die Veröffentlichung von Tests mit Benchmarks.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
Ich finde meine Gainward GTX 1070 Phoenix schon groß, aber die Devil setzt noch mal eine Schippe oben drauf. Wenn man die Bilder so sieht, wird das ein richtiges Monster. Bin gespannt, wie die sich schlägt mit Vega.
 
DiskreterHerr schrieb:
Tag,



Durch das Wegfallen des DVI-Anschlusses, kann man die Reihe/Stelle wofür dieser alte Anschluss normalerweise wäre mit zusätzlichen Lüftungsschlitze versehen für eine bessere Wärmeabfuhr.
Sowie man dort DVI anbringt, kann der Hersteller die Slotblende der Karte nicht mehr sinnvoll nutzen.

Es kamen in den letzten Jahren immer mehr gute - sehr gute Monitore raus die DP & HDMI oder zumindest eines davon unterstützen, wieso würde sich jmd. solch eine teure Mid-/High-End Karte kaufen aber auf einem sehr alten Monitor rumgurken welches kein DP oder HDMI hat? :freak:


Beste Grüße
DiskreterHerr

Edit:
[F]L4SH & Denuvo waren schneller



Z.B.: Wenn man einen älteren 27" Acer mit 120Hz und einen 27" LG UHD 60Hz Freesynch Monitor betreibt wobei der 120Hz Acer noch einen DVI Anschluss nutzt bzw. am Acer die 120Hz nur auf DVI anliegen und leider nicht am HDMI .
 
Zuletzt bearbeitet von einem Moderator:
Warum zum "Teufel" hat dieses Ding 9 P-State LED's???
Bin auf das Review gespannt ^^
 
Zurück
Oben