News AMD Fiji: Weitere Details zur Radeon R9 Fury X, Fury und Nano

Buttermilch schrieb:
kannst du bitte nochmal für alle erklären was jetzt decoder oder encoder bedeutet.

ich möchte auf meinem PC ein 4k Video was auf meiner HDD in h.265 liebt abspielen und dabei wenig strom verbrauchen bzw CPU last erzeugen. welche karte brauch ich jetzt. bzw welche kann genau was @m0LN4r
You asked about the state of GTX 980's HEVC HW encoder and HW decoder, correct? I answered that it does have HEVC HW encoding support, and it has already been exposed to programmers through the newly released stable version of NVENC SDK 5.0. If you want the new SDK which allows programmers to access the HEVC HW encoder, you can get it here: https://developer.nvidia.com/nvidia-video-codec-sdk

However, it DOES NOT have HEVC HW decoding support (aka fully fixed function). HEVC decoding on the GTX 980 will have to be Hybrid at best. At the moment only the GTX 960 has HEVC HW (fully fixed-function) decoder. Of course, it goes without saying that the GTX 960 has HEVC HW encoder (like the GTX 970/980) as well which can be accessed through NVENC SDK 5.0 above.

Is that clear enough for you?
 
Schaby schrieb:
Der Grund ist recht einfach UHD-TVs haben die passende Größe, also 40 Zoll+ ;) und kosten nur einen Bruchteil eines UHD-Monitors.

Wobei es - mal HiSN fragen - zumindest einen 'Fernseher' gibt, der einen DP Anschluss hat und somit als Monitor zu gebrauchen ist.
Wenn ich mir einen 4K Monitor zulegen sollte (irgendwann, mein aktueller ist gerade mal 1 Jahr als), muss der auch bei etwa 40 Zoll liegen, damit mir persönlich die PPI nicht zu groß wird.
 
Natürlich.... jetzt hat die Fiji scheinbar kein HDMI 2.0, schon kommen allemöglichen Leute an und wollen natürlich auf ihren 4K Fernsehern mit 60Hz zocken....
Wo doch die selben Leute von G-Sync oder min 120/144Hz "Gaming" vorher geschwärmt haben und sie niemals wieder mit weniger auskommen wollen...

Alternativ wollen sie natürlich entsprechendes Blu Ray Material gucken, was es nicht mal gibt oder wofür es nicht mal Standalone Player gibt. Welche das am Anfang sowieso besser meistern werden.
 
Ich schätze fast einmal das die Fury X vor der Titan liegen wird wenn auch nur sehr knapp.
Und die Fury ein bisschen unterhalb der 980Ti aber auch nur sehr knapp.

Dann würden die Preise der 980ti vielleicht ein wenig fallen:)
 
:D super Antwort,
was macht die SDK jetzt in meinem VLC Player genau? kann ich damit dann auf dem HEVC HW Encoder zugreifen?
kann ein OBS / Xplit etwas damit anfangen?
wie sieht es mit Abobe Media Encoder aus

vondaher bitte um neue Antwort.
 
Also die Tests zur R9 390(X) waren wie erwartet. Nix neues. Bisschen schneller, kaum der Rede wert, gleichen Stärken und Schwächen wie eine 290(X). Also auch die kein Grund meine Graka zu tauschen, wie schon die Vorgänger.

Ich finde es aber auch fragwürdig davon zu sprechen man habe eine Graka für 4K Gaming und dann bietet man von HDMI nur den Standard 1.4a. Man hat ja den DP Anschluss für PC-Displays, der schafft die Bandbreite afaik. Aber ich selbst hätte z.B. auch, wie viele andere, ein Interesse einen TV an meinen Rechner zu hängen, auf dem man dann zocken und bequem Filme gucken kann und mit 4K TVs hat man dann schon mal Probleme, weil das 30Hz Gezuckel durch den veralteten Anschluss würde ich mir nicht geben wollen. Schade.
 
Eines steht jetzt schon mal fest. Die aufgerufenen Preise für die "neuen" 300er Karten sind schlicht und ergreifend zu hoch. Klar, die werden demnächst noch n gutes Stück sinken, aber dennoch isses einfach zuviel. 4GB mehr Speicher bei einer 390X können einfach keinen Aufpreis von über 100€ zur 290X rechtfertigen.
 
Wie hoch kann man den 390X Rebrandeon takten?

Butter, IMHO es wird im shadowplay implementiert, damit du mit HW h.265 direkt streamen kannst (encodieren), aber nur mit HibridHW h.265 abspielen.

CB hat schon h.265 benchmarks gemacht.
 
Nicht nur am fehlendem HDMI 2.0 aufgeilen sondern auch am fehlendem Displayport 3.0! Die Spezifikationen dafür sind ja auch schon ewig und drei Tage bekannt und seit 15. Sep. 2014 auch fest "in Stein gemeißelt". Welch ein Wunder hätte DP3.0 auch HDMI2.0 inkl. HDCP 2.2 unterstützt ;)
Ne, ne die Karte spiegelt noch nicht mal den aktuellen Stand der Technik wieder. Zukunftsgerichtet ist was anderes :(
besonders weil dieses Ding ja auch bei der nächsten Generation wieder 1:1 verwurstelt wird. Über den Speicher und an der DX Unterstützung hat man ja schon genug gemosert, spare ich mir. Wer sein Geld verbrennen will wird mit dieser Übergangskarte bestimmt die nächsten 6 Monate glücklich. Als langzeitbeschaffung würde ich persönlich davon aber einen riesigen Abstand nehmen bei dem Preis.
 
Wolfsrabe schrieb:
@Pappschuber: Dann kauf doch ne nvidia, mein Gott, is doch nich so schwer. :rolleyes:

So eine Aussage kannst du dir auch sparen. :rolleyes: :rolleyes: :rolleyes:

Ich habe extra auf die neuen Radeons gewartet, weil ich nVidia, auf Grund der 970-Verarsche, nicht unterstützen will. Wenn man jetzt als Verbraucher so unverschämt ist und HDMI 2.0 erwartet, wird man hier gleich wieder wie Depp behandelt.
 
Wenn die Fury Nano nach Effizienz aussortiert werden, müssen das ja auch eher gute Chips sein. Dann bleibt ja immer noch ein großer Rest der weder als Fury, Fury X oder Fury nano durchgeht.
Bin mal gespannt was mit dem richtigen Ausschuss passiert. Also die Chips die nicht genügend funktionierende Stream-Prozessoren haben um als Fury durchzugehen und zu hohe Spannungen brauchen um als Fury Nano zu bestehen. Könnte ja dann eventuell noch ne 395(X) Reihe nachgeschoben werden
 
PiPaPa schrieb:
Natürlich.... jetzt hat die Fiji scheinbar kein HDMI 2.0, schon kommen allemöglichen Leute an und wollen natürlich auf ihren 4K Fernsehern mit 60Hz zocken....

da gehts doch nicht nur ums zocken. Wenn der TV mit HDMI 2 schon gut nen Jahr lang 60hz auf 4K kann, wieso dann sich mit 30hz zufrieden geben? Wenn ich meinen Rechner als Multimedia System nutze, zb Kodi laufen lasse aufm TV, dann will ich schon 60hz in der GUI, alles andere ruckelt... oder Live TV dann im Kodi, welches mit 50hz ankommt (zwar nur 720-1080p aber Kodi läuft ja dann auf 4k und rechnet hoch)... geht dann halt nur mit 30p und taugt nix usw...

zur Fiji Leistung anhand der Leak Benchmarks. Gut, aber kaum gut genug. Eine Custom 980 TI wird sich fast immer vor der Referenz Fury X platzieren und OC muss man nochmal 30% auf die geleakten Werte aufschlagen. Interessant wirds was Fiji da macht. Sind es auch 30% geht sie als Winner vor. Angesichts des deutlich größer als gedachten Monster Chips der wegen HBM ja schon kleiner & sparsamer soll eher enttäuschend, da bringt mir auch jede unnötige DP Leistung nix.

Hoffentlich stimmt auch die Effizienz bei der Leistung, persönlich is mir die @ Last recht egal aber dem Absatz von AMD wärs förderlich, wenn schon HDMI 1.4 und 4GB eher abschrecken.
 
Krautmaster schrieb:
Für mich hört sich die Karte eher nach GCN 1.2 an, wie Tonga... der Chip an sich dürfte auch Minimum so alt sein.

Zweiter Absatz im Text:

Der Grafikchip basiert auf der dritten Generation der Graphics Core Next, die auch bei dem im letzten Jahr vorgestellten Tonga-Chip und der neuen Carrizo-APU zum Einsatz kommt.

---

Krautmaster schrieb:
Interessant wie mittlerweile auch THG auf >100W Unterschied zwischen GTX 970 Gaming Last und R9 290X / R9 390X kommt.... auf einmal ist CB wohl nicht mehr so ganz parteiisch bei der Leistungsaufnahme was ^^

In der Liste kommt die Geforce GTX 970 auf 168W, die Radeon R9 290X auf 242W. Das sind bei mir 74W Unterschied. Wenn man die Custom-Modelle Vergleicht kommt man auf 79W (Gigabyte GTX 970: 179W vs. His R290X: 258W)

THG kommt bei einer R9 390X Karte auf >100W, nicht aber bei den 290X Karten!
 
tobi14 schrieb:
Über den Speicher und an der DX Unterstützung hat man ja schon genug gemosert, spare ich mir. Wer sein Geld verbrennen will wird mit dieser Übergangskarte bestimmt die nächsten 6 Monate glücklich. Als langzeitbeschaffung würde ich persönlich davon aber einen riesigen Abstand nehmen bei dem Preis.
ugly2.gif

Und das von dir, der sich weder am Kepler noch Maxwell 1 DX Level echauffierte, noch die 3,5GB Geschichte der 970 irgendwie kritisierte.... :lol:

PS: Wo bleibt eigentlich deine Kritik das Maxwell und insbesondere Titan X / 980Ti auch kein DP 1.3 haben...? :rolleyes:
Ergänzung ()

Krautmaster schrieb:
da gehts doch nicht nur ums zocken. Wenn der TV mit HDMI 2 schon gut nen Jahr lang 60hz auf 4K kann, wieso dann sich mit 30hz zufrieden geben?
Sorry, aber wieviel % der Nutzer betrifft das? Das ist so lächerlich gering...
Aber klar. Plötzlich haben sie alle 4K Fernseher, und jeder muss seinen PC daran anschließen.
 
Zuletzt bearbeitet:
es wäre schön wenn cb bei kommenden tests mal die Vorteile der r390 r380 modelle zu den vor und vorvorgängern aufzeigt, speziell energieefizienz. weil ,so richtig weiss ich ausser mit der fury serie nix damit anzufangen ausser alter aufguß in neuer verpackung.
 
Matzegr schrieb:
Zweiter Absatz im Text:



---



In der Liste kommt die Geforce GTX 970 auf 168W, die Radeon R9 290X auf 242W. Das sind bei mir 74W Unterschied. Wenn man die Custom-Modelle Vergleicht kommt man auf 79W (Gigabyte GTX 970: 179W vs. His R290X: 258W)

THG kommt bei einer R9 390X Karte auf >100W, nicht aber bei den 290X Karten!

naja. Wieso sollte die R9 390X so viel mehr verbrauchen. Ich denke das ist einfach ne Streuung... die R9 290X die die haben is n golden Sample wenn ich mir den Verbrauch der R9 390X anschaue.

Zudem noch min 10% fürs Netzteil drauf rechnen wenn man mit CB Werten vergleicht.
 
High-End Spieler die am TV zocken möchten. Bester Witz. :D

Von denen gibt es am wenigsten. Ihr regt euch für nichts auf, weil ihr das bestimmt nicht ernst meint...
Seid bestimmt die Typen die es mal probieren und dann nie wieder, weil PC Monitore einfach überlegen sind.
 
^^ DP 1.3 wäre natürlich mega aber hey, HDMI 2.0 gibst über nen Jahr am Markt, DP 1.3 meines Wissens noch gar nicht.

@tic-tac-toe-x-o

ja sicher, schöne Argumentation:

  • DVI braucht heute doch keiner mehr...
  • HDMI 2.0, wozu, keiner hat nen 4K TV mit HDMI 2.0, wer zockt schon am TV mit >30hz
  • 4GB VRam, braucht kein Mensch, siehe aktuelle Titel
  • HEVC und x265, total undergroundig
  • Last Verbrauch, interessiert bei so ner GPU doch eh nicht

zugleich aber

  • DP Leistung, woha, das non plus ultra, der GM200 krankt da total
  • whoa Fiji schafft bei 4k mehr als 30FPS
  • Board, die R9 Nano is so super effizient bei Last, muss ich haben
  • Fiji kann man sicher mega OC
:lol:

mal abgesehen davon dass 700€ Garfikkarten eh die Minderheit kaufen sind es nun zahlreiche Faktoren die die Fury X einfach einschränken.

AIO -> CF geht kaum, könnte mir vorstellen dass es Problemcases gibt. Gleicht die Kürze aber teils aus.
HDMI 1.4 -> nix 30-60hz @ TV
4GB Vram -> 4Gb sind 4 Gb und damit weniger als künftige Mainstream GPU.

Die "Mängelliste" die oben aufgehört ist ist in quasi jeder Hinsicht "gravierender" als zB. die genannte gestutzte DP Leistung beim GM200 (zeigt imho schon eher wie man bei der GTX 9XX schon direkt nach Problemzonen suchen muss... oder auch dass das eigentliche Produkt recht rund ist)
 
Zuletzt bearbeitet:
Zurück
Oben