News Vega 20: AMD Radeon VII ohne volle FP64-Unterstützung der MI50

@nordic_pegasus
Würde mich auch mal interessieren. Falls die R7 angenommen HDMI 2.1 haben sollte, könnte man diese Karte mit einem zukünftigen 65 Zoll OLED Fernseher mit 4K@120 Hz betreiben :D
 
  • Gefällt mir
Reaktionen: HageBen und MeisterOek
Ist gekauft die Karte, RTX 2080 Leistung, in DX12 und Vulkan vielleicht ein bisschen mehr und doppelter Speicher.
Total geil, Preis ist auch ok! 7nm und 16 gb hbm sind nunmal nicht billig!
 
  • Gefällt mir
Reaktionen: Zentragon, Yesman9277, adretter_Erpel und 3 andere
Nur 64 rops und kein pcie 4 haben meine Bereitschaft 700€ zu Release auszugeben massiv geschmälert. Ich bin mit der fury noch gut unterwegs und die radeon 7 wäre nur ein neues Spielzeug gewesen, die jetzt n paar coole Punkte auf der Nerd checkliste eingebüßt hat.

Schade um die compute Leistung, ist aber nachvollziehbar.
 
  • Gefällt mir
Reaktionen: stevefrogs, NMA und Baal Netbeck
Fragger911 schrieb:
...

Jetzt, im heute und hier, sieht eine Radeon VII dagegen sehr vielversprechend aus.
Hausintern ohne Bezug zur Konkurrenz, ja. Die schafft allerdings (final dann zum 7. Februar) das bisher gezeigte mit dem alten Fertigungsverfahren und hat seinen Sprung auf 7nm mit 30% noch vor sich
 
Vitali.Metzger schrieb:
Spätestens mit der Einführung der PS 5 werden diese mit Sicherheit zum Flaschenhals.

Du kannst bereits heute 8 GB ans Limit bringen wenn du willst. Da wird es mit 16 GB auch nicht anders sein. Die Frage ist aber ob man 8 GB geschweige den 16 GB ans Limit puschen muss wenn man eh kein echten Unterschied in den Texturen mehr sieht? Es ist zwar nett dass aktuelle Software die HW voll ausnutzen kann aber was bringt es wenn das nicht wirklich sichtbare Vorteile bringt?
 
  • Gefällt mir
Reaktionen: FCK-THIS, Oneplusfan, SFVogt und 2 andere
CastorTransport schrieb:
PS: kann man bitte diese dämlichen "Energieverbrauchs"-Argumente mal weglassen? JEDER Intel und auch jede nVidia verbraucht sobald OC aktiv ebenfalls weit über dem Standard

Es kommt halt immer darauf an was man für diesen Stromverbrauch an Leistung zurückbekommt. Wenn man nur Strom verbaucht weil man's kann, dann ist das eben ein valider Kritikpunkt.
Wenn man Strom verbraucht weil man dadurch noch mehr Leistung zur Verfügung stellt, dann ist das OK.

Wenn du von einer 80W Glühbirne die gleiche Lichtausbeute hättest wie von einer 40W Glübirne, dann wäre die 80W Glühbirne einfach schlechter.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und SFVogt
r4yn3 schrieb:
Einzig interessieren würde mich, wie man so einen Chip speziell um PCIe 4.0 beschneidet.
Kann man den Chip theoretische mit beidem ausstatten?
Das ist doch nicht notwendig. Man muß eigentlich nur den Takt auf der Schnittstelle auf PCIe-3.0 Niveau beschränken. PCIe-4.0 ist ja rückwärtskompatibel zu 3.0 in der Form das 4.0 Karten auch in 3.0 Slots ( mit 3.0 Geschwindigkeit) laufen sollen.
 
  • Gefällt mir
Reaktionen: r4yn3
Laut Igor von THG wird es keine AIB Modelle geben, die Vega VII exclusiv von AMD vertrieben. Also sind Preissenkungen über die Zeit tendenziell nicht zu erwarten. Die soll ca. 700 USD kosten und nehmen wir mal an, dass der Euro Preis ähnlich ausfällt. Die RTX 2080 gibt es schon ab 680€ und soll noch einen Tick schneller sein (wurde hier im Artikel ja auch noch mal erwähnt, vermutlich nicht ohne Grund). Die 2080 bietet Features, die man noch nicht nutzen kann, aber wer weiß was kommt. Preis/Leistungstechnisch sehe ich die Nvidia Karte hier besser aufgestellt. Trotz 16GB VRAM und atemberaubender Speicherbandbreite. Bringt halt auch nichts, wenn die CPU an sich limitiert.
 
  • Gefällt mir
Reaktionen: NMA
Ich werde mir die auf jeden Fall holen. Könnte eventuell sogar meine letzte Grafikkarte sein die ich je kaufen werde. 16GB VRAM reichen bis in alle Ewigkeit (für mich). Ich zocke eigentlich nur noch die Games die früher rausgekommen sind und meide den ganzen Kommerzgrampf der heute rauskommt.
 
RYZ3N schrieb:
Das wird wirklich eine Ablösung für meine RX VEGA 56 bedeuten. Bin sehr gespannt! :D


Also ich warte da mal noch ab. 700€ sind schon eine Menge Geld, dafür muss die Karte in den Tests abliefern oder die Straßenpreise günstiger ausfallen. 700€ finde ich für das bisher bekannte etwas zu teuer.

Das die FP64 Leistung beschränkt wird war klar. Aber kein PCI-E 4? Hat mich schon gewundert, dass das bei der Präsentation nicht erwähnt wurde. Macht beim zocken eh keinen unterschied, komisch ist es aber schon, die Karte kann es ja eigentlich.

Ich bin auf Tests gespannt, aber noch nicht überzeugt, ob ich mir so eine kaufen würde. Ich hätte für den Sprung auf 4K gerne mehr Leistung, aber die 2080 ist mit 8GB für mich keine Alternative und die Radeon VII hat mich noch nicht ganz überzeugt. Mal abwarten.
 
  • Gefällt mir
Reaktionen: SVΞN
Whatdoiknow schrieb:
16GB VRAM reichen bis in alle Ewigkeit (für mich). .

640kb ram reichen bis in alle ewigkeit. für bill :daumen:

sei mir nicht bös aber wenn du nicht grade 70 jahre alt bist kauf ich dir die aussage "letzte grafikkarte" nicht ab^^
 
  • Gefällt mir
Reaktionen: pietcux und Don Sanchez
Vitali.Metzger schrieb:
@nordic_pegasus
Würde mich auch mal interessieren. Falls die R7 angenommen HDMI 2.1 haben sollte, könnte man diese Karte mit einem zukünftigen 65 Zoll OLED Fernseher mit 4K@120 Hz betreiben :D

Mit welchem Spiel? WoW oder CS Go? ;)

Wäre interessant zu wissen. Die Power wird kaum für hohe Leistung und Framerate reichen aber VRR Support ist nicht schlecht.
 
  • Gefällt mir
Reaktionen: FCK-THIS
Shoryuken94 schrieb:
Also ich warte da mal noch ab. 700€ sind schon eine Menge Geld, dafür muss die Karte in den Tests abliefern oder die Straßenpreise günstiger ausfallen. 700€ finde ich für das bisher bekannte etwas zu teue

Kann ich absolut nachvollziehen.

Für mich reicht der [von @Faust2011 angesprochene] Dieshot, der ist für mich einfach nur zu por**. :D

Zumal 20-30% Mehrleistung in etwa das ist, was ich zur völligen Zufriedenheit benötige.

Irgendwie redet man sich die Investition schon schön. ;)

Ich mag vor allem die Hardware die man nicht braucht, aber haben will.
 
  • Gefällt mir
Reaktionen: BacShea, W0lfenstein, DannyA4 und 7 andere
Chillaholic schrieb:
Bleibt der Verbrauch so hoch , wird auch Radeon VII nur ne Randerscheinung.
Die wenigstens haben hochwertige 600W-Netzteile verbaut die das auf Dauer mitmachen.

Ob man da mit 600W hin kommt? Mein Dark Power Pro 11 mit 550W hat mit der VEGA 64 regelmäßig abgeschaltet,auch wenn manche an BQ rummaulen aber schlecht ist das NT sicher nicht, da würd ich noch mal 50W drauf legen ... ich hab mir sogar extra ein 750er gekauft auch wenn ich meine 64er mit der weile Verkauft habe
 
Fragger911 schrieb:
Wobei hier ja wohl niemand weiß, WAS Navi nun wirklich exakt ist.

Doch, ich weiss es - hab nen "Prototyp" davon im Auto der Kartenmaterial anzeigen kann :evillol:
 
  • Gefällt mir
Reaktionen: fox40phil, Herr Melone, downunder4two und 6 andere
KuroSamurai117 schrieb:
Mit welchem Spiel? WoW oder CS Go? ;)

Vor allem wenn seine Zukunft dann Gegenwart ist fordern die Spiele dann soviel dass er mit der Karte bei avg. 30fps landet...
Ergänzung ()

RYZ3N schrieb:
Irgendwie redet man sich die Investition schon schön. ;)

Ich mag vor allem die Hardware die man nicht braucht, aber haben will.

Nee neee das ist den Autos vorbehalten die man in der Garage hat...:daumen:
 
  • Gefällt mir
Reaktionen: FCK-THIS
NEO83 schrieb:
Ob man da mit 600W hin kommt? Mein Dark Power Pro 11 mit 550W hat mit der VEGA 64 regelmäßig abgeschaltet,auch wenn manche an BQ rummaulen aber schlecht ist das NT sicher nicht, da würd ich noch mal 50W drauf legen ... ich hab mir sogar extra ein 750er gekauft auch wenn ich meine 64er mit der weile Verkauft habe

Bin gespannt ob man die Radeon7 genau so gut undervolten kann.
Konnte das Powerstate 6 auf meiner Vega 56 um ,15 Volt senken, hab seitdem Standardmäßig über 1500 MHz GPU Takt
 
  • Gefällt mir
Reaktionen: tgsn4k3 und DannyA4
Ned Flanders schrieb:
"Wissenschaftliches Arbeiten" mit den AMD Karten ist leider schon dadurch grundsätzlich beschnitten, das Matlab kein OpenCL unterstützt und nach wie Cuda only ist. Da Matlab zumindest in unserem Bereich DER Standard
Wissenschaft ist im Vergleich zur Industrie eh immer hinterher.
Bei uns sind heute Fortan Programme, die ihren Ursprung in den 70/80er hatten immer noch "state-of-the-art" und in meinem Bereich (Quantenchemie) herrscht eine ziemlich große Antipathie gegenüber GPUs. Teilweise begründet, z.b. brauchen wir gigantische RAM Größen, aber auch die fehlende 64 bit Genauigkeit war lange Zeit eine Ausrede sich nicht damit beschäftigen zu müssen. Aber manchmal ist es echt einfach nur verwunderlich wie stocksteif man im gerade im wissenschaftlichen Bereich an bewährten Methoden festhält.

Gängige Libraries wie BLAS sind allerdings auch unter OpenCL kein Problem, also rein formal sollte das OpenCL kein Hindernis sein.
 
  • Gefällt mir
Reaktionen: JohnVescoya
NEO83 schrieb:
Mein Dark Power Pro 11 mit 550W hat mit der VEGA 64 regelmäßig abgeschaltet,auch wenn manche an BQ rummaulen aber schlecht ist das NT sicher nicht, da würd ich noch mal 50W drauf legen

Das DPP hat auch noch ne doppelte 12V Schiene verglichen mit der Konkurrenz.
Das kommt noch hinzu, der hohe Verbrauch meiner R9 390 hat warscheinlich damals mein DPP10 gekillt.

CastorTransport schrieb:
PS: kann man bitte diese dämlichen "Energieverbrauchs"-Argumente mal weglassen?

Warum weglassen? Das ist halt nicht unwichtig und ein Kaufkriterium, wer ein hochweriges 500W Netzteil drin hat überlegt es sich 2x ob er dafür extra noch ein neues 600W+ NT kauft.
 
@RYZ3N

Sieht cool aus, aber leider reicht mir ein Die Shot und das will haben Gefühl bei mir nicht aus, wenn die Leistung nicht passt. Sollte sie gut abschneiden, könnte ich schwach werden, aber erst mal abwarten. Dauert ja nicht mehr lange.

Habe ja auch die Hoffnung, dass die Straßenpreise in absehbarer Zeit etwas fallen, auch wenn ich es nicht so recht glaube.

Ansonsten tut es auch nicht weh, noch etwas zu warten, wobei einen High End Navi werden wir wohl frühestens in einem jahr sehen. Ich lasse mich einfach überraschen was da nächsten Monat auf uns zukommt.
 
Zurück
Oben