News Grafikkarten-Preise: Die Radeon RX Vega 64 ist nicht mehr teurer als die UVP

Ich glaube nicht das Vega 64/56 oft für Minning gekauft wurde, denke das die Karte nicht in hohen Stückzahlen produziert worden ist, da AMD in ihren Quadratzahlen keine Zahlen zu den einzelnen Grafikkarten ausgibt, bleibt es natürlich reine Spekulation diesbezüglich.
 
timboboy123 schrieb:
Die Karte war jetzt ca. 1 Jahr auf dem Markt und Nvidia next Gen die ja zu Vega's release gleich um die Ecke war (3 mal) ist immer noch nicht da und hat Vega instant unbenutzbar gemacht wie das manche Leute hier scheinbar erwarten. (Wo sind eigentlich die Zeiten hin in denen man eine Grafikkarte auch mal 2-4 Jahre behalten hat?? Ich hab Far Cry 3 noch auf ner HD5850 gezockt, das ging auch super. Eine neue Gen heißt nicht, dass die alte automatisch für den Arsch ist. Die 980ti war/ist ja auch noch brauchbar. Haben alle zu viel Geld oder was? Billiger werden die Dinger ja auch nicht).

Mal abseits vom MIMIMI,

NVIDIA hat eben überhaupt keinen Druck was neues auf den Markt zu bringen, da Vega von der Leistung etwa gleich auf mit den derzeitigen 10xx Karten liegt und sogar noch unterhalb der 1080Ti rangiert..
Anders sieht es auf dem CPU Markt aus, wo AMD Intel im Moment gehörig unter Zugzwang setzt.
Vega ist mit Sicherheit nicht unbenutzbar wenn der Mitbewerber was schnelleres rausbringt, warum auch?
Wenn jemand seine Vega undervolten kann um sie auf einen ertäglichen Stomverbrauch zu bringen und wenn damit seine Spiele flüssig laufen ist die Welt doch in Ordnung - auch noch in 2-4 Jahren.

Bevor nicht irgendein Ressourcen fressendes Spiel rauskommt das ich unbedingt spielen möchte und meine aktuelle Karte das nicht schafft oder ich mir einen anderen Monitor (z.B. 4k 144Hz+HDR) zulegen muss/möchte werde ich mir definitiv keine neue Karte zulegen, wieso auch - läuft doch alles geschmeidig.
Aber es gibt ja noch die andere Spezies die, egal ob man´s braucht, immer das schnellste und neuste haben muss....
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Interessant. Du lässt also Hardwarefeature X nicht gelten. Wer hat dich denn dazu bestimmt, so etwas zu entscheiden? Bist du Gott? Oder irgendein anderes höheres Wesen, das bestimmen kann was gilt und was nicht?

Finde so etwas immer faszinierend. :D
 
Ludwig55 schrieb:
https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5

Pascal unterstützt sehr wohl FP16 Operationen.



Das sehe ich insgesamt nicht so, mehr Shader lass ich nicht gelten.

FP16 kann jede Karte die auch FP32 kann, das ist kein Feature, das ist eine Vorraussetzung. Aber was du meinst ist Rapid Packed Math (das angepriesene Vega-Feature) oder Fast Math und das kann die 1080 nicht. Die 1080 kann nur eine FP16 Operation pro Rechenwerk machen, Vega halt 2. FP16 ohne RPM/Fast-Math tut nichts für die Performance, maximal was für den Speicherverbrauch und nichtmal das zwingend. Nachdem mit nem FP32 Rechenwerk eine FP32 operation genauso lange braucht wie eine FP16 Operation (Genau einen Zyklus (Wenn nan mal von Wert aus Speicher ziehen usw. absieht) nachdem das Rechenwerk mindestens so viele Bits auf einmal schluckt wie der Float hat) ist FP16 ohne RPM/FM für Games völliger Käse. Einfach nur unpräziser und sonst nichts.

https://www.google.de/search?q=Rapi...ndroid-om-lge&sourceid=chrome-mobile&ie=UTF-8

https://www.google.de/search?client...9j0i131j0i131i67j0i22i10i30j33i21.jsDjWgpIwP8

Bei Nvidia kann das nur GP100 und dass ist ein Professional uns kein Gaming Chip.

Was du gelten lässt ist halt nur leider völlig egal. Vega hat halt nunmal gezeigt, dass die Karte für Pro-Arbeiten echt gut ist. Da zeigt sich halt, dass die Karte für beides entwickelt wurde. Ob du das jetzt gelten lässt oder nicht.

cookie_dent schrieb:
Mal abseits vom MIMIMI,

NVIDIA hat eben überhaupt keinen Druck was neues auf den Markt zu bringen, da Vega von der Leistung etwa gleich auf mit den derzeitigen 10xx Karten liegt und sogar noch unterhalb der 1080Ti rangiert..
Anders sieht es auf dem CPU Markt aus, wo AMD Intel im Moment gehörig unter Zugzwang setzt.
Vega ist mit Sicherheit nicht unbenutzbar wenn der Mitbewerber was schnelleres rausbringt, warum auch?
Wenn jemand seine Vega undervolten kann um sie auf einen ertäglichen Stomverbrauch zu bringen und wenn damit seine Spiele flüssig laufen ist die Welt doch in Ordnung - auch noch in 2-4 Jahren.

Bevor nicht irgendein Ressourcen fressendes Spiel rauskommt das ich unbedingt spielen möchte und meine aktuelle Karte das nicht schafft oder ich mir einen anderen Monitor (z.B. 4k 144Hz+HDR) zulegen muss/möchte werde ich mir definitiv keine neue Karte zulegen, wieso auch - läuft doch alles geschmeidig.
Aber es gibt ja noch die andere Spezies die, egal ob man´s braucht, immer das schnellste und neuste haben muss....

Nvidia hat mit der 1080ti keinen Druck, ich denke das bestreitet auch niemand...^^ Aber 1080 Niveau passt für so ziemlich alles. 1080ti's sind mehr so (nicht abwertend gemeint) Gimmic Karten. Brauchen (Wollen ist was anderes ;) das ist wie mit Threadripper als Gamer) tut die niemand, im vergleich zu Mainstream-Karten wird das auch nicht viel gekauft. Und zumindest zur 1080 war Vega eine gute Konkurrenz. Ich hab selbst nen 4K Monitor und komm mit Vega + Freesync eigentlich ganz gut zurande. Meistens reichts sogar für normales 4k, im schlimmsten aller schlimmsten Fälle muss ich (oh nein) auf 3200x1800 runterstellen oder wenn es geht die Render-Scale auf 0.9 setzen, aber dann läuft eigentlich alles super.

Auf dem CPU-Markt ist es übrigens das selbe. Ja Ryzen ist cool, haben auch viele gemerkt mittlerweile, aber es gibt immernoch so viele die rumtun als hätte Intel keine Konkurrenz. Und das ist genauso Blödsinn. (Ja ich weiß und ich sehe das du nicht zu der Kategorie gehörst).

Aber auch im GPU Bereich ist es nicht so als hätte Nvidia keine Konkurrenz. Vega ist wie gesagt solide gegen eine 1080 aufgestellt (Beide Karten haben ihre vor und Nachteile) (je nach Game mal besser mal schlechter) Vega 56 ist gut zwischen 1070/ti platziert und die RX-Karten sind auch gut gegen 1060 und co. aufgestellt. Der einzige Bereich in dem AMD nichts hat ist nun mal der Enthusiast-Bereich, und der ist einfach nicht so groß. Es wäre schön wenn da auch mal wieder was hinkommen würde, aber jetzt mal ehrlich, das würde maximal 2-3% der Gamer in irgendeiner Form tangieren nachdem der Rest halt <= 1080 kauft. Die 1080ti und Titan-Karten sind mehr ein Prestige-Gewinn als irgendwas anderes.

Im Endeffekt machen einfach beide Hersteller gute Karten und dieses dumme Gehabe in den Foren immer ist einfach sau nervig. Ich geh ja auch nicht in irgendwelche Nvidia-Beiträge und kotz mich aus ob ich jetzt Nvidia scheiße finde oder nicht. Muss auch nicht. Das ist einfach nur lästig.

Das ist wie mit Cato dem Älteren. Der hat sich auch in jede Versammlung gesetzt und gesagt "Im übrigen bin ich der Meinung das Karthago zerstört werden sollte." Daran erinnert mich das irgendwie.

Alles in allem ist es wohl so, dass sich Nvidia im Enthusiast-Bereich echt ausruhen kann, aber der Enthusiast-Bereich ist eben nicht der Großteil. Und in den meisten Bereichen werden die AMD-Karten deutlich schlechter gemacht als sie sind.
 
Zuletzt bearbeitet:
timboboy123 schrieb:
1080ti's sind mehr so (nicht abwertend gemeint) Gimmic Karten. Brauchen (Wollen ist was anderes ;) das ist wie mit Threadripper als Gamer) tut die niemand, im vergleich zu Mainstream-Karten wird das auch nicht viel gekauft.

Hmm, wenn man die Verkaufszahlen von Mindfactory so anschaut, wurde die 1080Ti so um die 15.000 mal verkauft, für nur einen Händler ist das nicht so schlecht (im Vergleich Vega 64/56 über 2000Stück). Natürlich werden Karten wie die 1060 oder RX 580 deutlich mehr verkauft, aber ich denke viele Leute unterschätzen die Gewinnmarge die mit den HighEnd Karten gemacht werden....
 
  • Gefällt mir
Reaktionen: Ludwig55 und Cpt.Willard
Blueline56 schrieb:
Hmm, wenn man die Verkaufszahlen von Mindfactory so anschaut, wurde die 1080Ti so um die 15.000 mal verkauft, für nur einen Händler ist das nicht so schlecht (im Vergleich Vega 64/56 über 2000Stück). Natürlich werden Karten wie die 1060 oder RX 580 deutlich mehr verkauft, aber ich denke viele Leute unterschätzen die Gewinnmarge die mit den HighEnd Karten gemacht werden....

Ich unterschätz das nicht, es ist nur im Vergleich zum Mainstream-Berreich nicht so viel. Du hast dir Einzelkäufe angesehen, nur kauft die Mehrheit eben komplette PCs. Und da eben welche mit einer 1050-1070 am meisten. Du musst nur mal in die Steam-Statistik schauen. 1080ti 1,2%. Viel ist das nicht. Das Vega jetzt keine riesen Zahlen hat wundert mich auch nicht. Ist noch nicht so lange wie die 1080ti auf dem Markt, gibt es fast nicht in Fertig-PCs und ist halt vom Hersteller mit dem kleineren Marktanteil (mal abgesehen vin der Verfügbarkeit zum Mining-Boom)^^

Ich denke viel mehr, dass die Leute in Hardwareforen immer die Bedeutung von Enthusiast-GPUs überschätzen.

Nehmen wir mal an AMD bringt Vega 20 als Gamingchip und der würde mit Nvidias neuer Gen den Boden wischen bei gleichem Preis. Das würde kaum jemanden tangieren. Das gebashe in den Foren (von beiden Seiten) wäre groß, aber an den Verkaufszahlen ändert sich nicht viel. Wenn AMD aber jetzt z.B. 1080ti Performance für 230€ bringen würde, das würde vermutlich viele Leute zum umschwenken bewegen. (Ich denke nicht, dass das auf sie Schnelle kommt, ist nur ein Beispiel)
 
timboboy123 schrieb:
Aber 1080 Niveau passt für so ziemlich alles. 1080ti's sind mehr so (nicht abwertend gemeint) Gimmic Karten. Brauchen.. tut die niemand..... Und zumindest zur 1080 war Vega eine gute Konkurrenz. Ich hab selbst nen 4K Monitor und komm mit Vega + Freesync eigentlich ganz gut zurande. Meistens reichts sogar für normales 4k, im schlimmsten aller schlimmsten Fälle muss ich (oh nein) auf 3200x1800 runterstellen oder wenn es geht die Render-Scale auf 0.9 setzen, aber dann läuft eigentlich alles super.

Ich hoffe Du entdeckst Deinen Widerspruch selbst.
Um flüssig und ohne große Kompromisse in 4K zu zocken braucht man sehr wohl die Leistung einer 1080Ti.
Wenn ich schon die Auflösung oder den Render Scale herabsetzen muss ist das für mich kein vernünftiges Ergebnis sondern eine Krücke.
Allein schon wegen meinem Freesync Monitor und weil mich die Marktpolitik von NVIDIA massiv ankotzt kannst Du mir glauben das ich lieber die Vega behalten hätte, aber sie schaffte bei mir kein zufriedenstellendes Spielerlebnis und der Stromverbrauch hierbei war mir deutlich zu hoch.
Die 1080Ti ist üblicherweise ca. 30 Prozent schneller als die 1080 oder Vega64 was beim 4k zocken schon den Unterschied zwischen unspielbar oder flüssig bedeuten kann.

Für mich gesehen also - ja ich brauche die Leistung einer 1080Ti.
Ein Prestige-Gewinn ist die Karte für mich schon mal gar nicht, ich hätte viel besser mit einer deutlich günstigeren Karte leben können oder gar meine alte RX480 behalten - aber ging nicht.
4K war bei mir allein schon wegen Foto und Video Bearbeitung gesetzt und die 1080Ti der daraus folgende logische Schritt, da ich dann auch in 4K ohne großartige Kompromisse spielen wollte.

timboboy123 schrieb:
Das Vega jetzt keine riesen Zahlen hat wundert mich auch nicht. Ist noch nicht so lange wie die 1080ti auf dem Markt

Stimmt, die 1080Ti ist fünf Monate länger auf dem Markt, aber das allein erklärt nicht den Massiven Unterschied der Verkäufe - denn auch die Vega ist mittlerweile schon ein Jahr erhältlich.
Vega war vom Start an kaum verfügbar und die Testberichte waren nicht so besonders, ich denke hier sind eher die Gründe zu suchen.
Aber mittlerweile kommen die Preise da an wo sie ungefähr hingehören und die Karten sind endlich breiter verfügbar.
 
cookie_dent schrieb:
Ich hoffe Du entdeckst Deinen Widerspruch selbst.
Um flüssig und ohne große Kompromisse in 4K zu zocken braucht man sehr wohl die Leistung einer 1080Ti.
Wenn ich schon die Auflösung oder den Render Scale herabsetzen muss ist das für mich kein vernünftiges Ergebnis sondern eine Krücke.
Allein schon wegen meinem Freesync Monitor und weil mich die Marktpolitik von NVIDIA massiv ankotzt kannst Du mir glauben das ich lieber die Vega behalten hätte, aber sie schaffte bei mir kein zufriedenstellendes Spielerlebnis und der Stromverbrauch hierbei war mir deutlich zu hoch.
Die 1080Ti ist üblicherweise ca. 30 Prozent schneller als die 1080 oder Vega64 was beim 4k zocken schon den Unterschied zwischen unspielbar oder flüssig bedeuten kann.

Für mich gesehen also - ja ich brauche die Leistung einer 1080Ti.
Ein Prestige-Gewinn ist die Karte für mich schon mal gar nicht, ich hätte viel besser mit einer deutlich günstigeren Karte leben können oder gar meine alte RX480 behalten - aber ging nicht.
4K war bei mir allein schon wegen Foto und Video Bearbeitung gesetzt und die 1080Ti der daraus folgende logische Schritt, da ich dann auch in 4K ohne großartige Kompromisse spielen wollte.



Stimmt, die 1080Ti ist fünf Monate länger auf dem Markt, aber das allein erklärt nicht den Massiven Unterschied der Verkäufe - denn auch die Vega ist mittlerweile schon ein Jahr erhältlich.
Vega war vom Start an kaum verfügbar und die Testberichte waren nicht so besonders, ich denke hier sind eher die Gründe zu suchen.
Aber mittlerweile kommen die Preise da an wo sie ungefähr hingehören und die Karten sind endlich breiter verfügbar.

Kein Mensch braucht 4K zum Zocken. 4K ist genauso ein Gimmic wie es eine 1080ti ist. (Das sag ich als 4K User) Für Bildbearbeitung in 4K reicht halt ne 1070ti-1080. Ich zeichne am PC mit Photoshop, ich weiß es. Die 1080ti ist ab und an mal um die 30% schneller als eine Vega https://www.techspot.com/review/1476-amd-radeon-vega-64/page13.html

In der Regel sind es bei einer stark Werksseitig übertakteten Karte so um die 20. Und auch das nur wenn' gut läuft.

Die Verfügbarkeit hab ich übrigens im Nebensatz erwähnt.

Jedenfalls kurzum: Zum Videobearbeiten tut eine Starke CPU mehr für dich (außer man muss 3D-Scenen Rendern und da nimmt man gleich ne Titan) und für Bildbearbeitung ist eine 1080ti absoluter Overkill nachdem da auch viel auf der CPU läuft. Zocken in 4K ist auch ein Gimmic. Selbst 1440p ist nur mäßig verbreitet. Das du alles auf 4K Ultra zocken willst ist schön für dich aber die meisten Leute kommen ohne 4K und da noch auf medium/high aus. Abgesehen davon ist 4K mit einer 1080 ti auch nur bedingt lustig nachdem die dir sehr oft auch keine 60fps bringt.

Wie gesagt. Kein normaler Anwender braucht irgendwas >= 1080. Wer Workstation GPUs braucht nimmt ne Quadro oder Radeon Pro und zocken kann man alles auf einem angenehmen Level mit einer 1060+ (halt in 1080p). Zu sagen ich "brauch" eine 1080ti für 4K ist wie zu sagen ich brauch nen Ferrari zum Autobahnfahren weil alles unter 250km/h langweilig ist.

Wie gesagt. Laut Steam sehen das 1,2% der Leute wie du.
 
Zuletzt bearbeitet:
timboboy123 schrieb:
Kein Mensch braucht 4K zum Zocken.

Stimmt, dafür reicht auch ein 640x480er Röhrenmonitor.

timboboy123 schrieb:
Für Bildbearbeitung in 4K reicht halt ne 1070ti-1080

Stimmt bedingt, wenn ich einen 4K Film bearbeitet habe (wofür eigentlich schon die RX480 ausreichend war) und den unter zuhilfename der 1080Ti fertig rendere geht´s flotter.
Ich bezog mich aber hauptsächlich auf die Gaming Leistung der Grafikkarten.

timboboy123 schrieb:
Zocken in 4K ist auch ein Gimmic

Für mich nicht, ich möchte nie wieder mit weniger Auflösung spielen und dafür brauche ich halt Grafikkartenleistung.
Alles andere wäre für mich so als ob ich mir eine Mercedes S-Klasse (4K Monitor) kaufe und statte den mit einem 100 PS Motor der A-Klasse (z.B. GTX1070) aus.
Es würde funktionieren, macht aber keinen Spass.

timboboy123 schrieb:
Wie gesagt. Laut Steam sehen das 1,2% der Leute wie du.

In dem Fall freut es mich das wenigstens 1,2% der von Steam erfassten Nutzer meiner Meinung sind.
 
cookie_dent schrieb:
Stimmt, dafür reicht auch ein 640x480er Röhrenmonitor.



Stimmt bedingt, wenn ich einen 4K Film bearbeitet habe (wofür eigentlich schon die RX480 ausreichend war) und den unter zuhilfename der 1080Ti fertig rendere geht´s flotter.
Ich bezog mich aber hauptsächlich auf die Gaming Leistung der Grafikkarten.



Für mich nicht, ich möchte nie wieder mit weniger Auflösung spielen und dafür brauche ich halt Grafikkartenleistung.
Alles andere wäre für mich so als ob ich mir eine Mercedes S-Klasse (4K Monitor) kaufe und statte den mit einem 100 PS Motor der A-Klasse (z.B. GTX1070) aus.
Es würde funktionieren, macht aber keinen Spass.



In dem Fall freut es mich das wenigstens 1,2% der von Steam erfassten Nutzer meiner Meinung sind.

Krieg das auch bitte nicht in den falschen Hals, ist ja ok das du eine 1080ti hast und ich wünsch dir viel Spaß damit. Wer das Geld und den Anspruch hat^^ Nur "brauchen" ist einfach das falsche Wort denke ich^^ Mal abgesehen davon dass 4K mit ner 1080 und Adaptive Sync durchaus Spaß macht (finde ich zumindest mit meiner Vega). Naja netten Abend noch.
 
timboboy123 schrieb:
Bei Nvidia kann das nur GP100 und dass ist ein Professional uns kein Gaming Chip.

Und ist GP100 dadurch ineffizienter? Nein.
Vega hat kaum relevante GPGPU/HPC Features die die Leistungsaufnahme erhöhen, von mir aus RapidPackedMath, kommen die Vorteile von HBM aber oben drauf und das sind etwa 25 Watt Ersparnis.

Was du gelten lässt ist halt nur leider völlig egal.

Eine HD 5870 hatte auch mehr Shader als eine GTX 480, war trotzdem effizienter.
Zu sagen, die Karte hat mehr Shader, deswegen sei sie eine professionelle GPU und darf mehr verbrauchen - das ist für mich nicht nachvollziehbar.

Vega hat halt nunmal gezeigt, dass die Karte für Pro-Arbeiten echt gut ist.

Hat sie das? Ich sehe die Karte bei Pro-Arbeiten nicht vor einer GTX 1080 Ti.
Und gegenüber selbiger hat sie den massiven HBM Vorteil (30 Watt), weniger Taktrate und zieht dennoch 80 Watt mehr. Die Probleme liegen ergo ganz woanders.
 
Das sehe ich ehrlich gesagt nicht so. Wenn der Preis der Vega auf dem Niveau einer vergleichbar leistungsstarken Nvidia Karte liegt (Stand heute müsste also die Vega 64 in etwas soviel kosten wie eine 1080), dann wäre das aus meiner Sicht in Ordnung. Klar steht dann immer noch der Mehrstromverbrauch bei AMD auf der Sollseite, aber das kann sich je nach Nutzungsverhalten egalisieren. Ich habe das mal für mich ausgerechnet:

Im Schnitt zocke ich über 365 Tage im Jahr vielleicht 1h / Tag. Das macht dann einen Mehrverbrauch der Vega 64 gegenüber der 1080 von ganzen 8,65 Euro / Jahr.

Die Leistungsaufnahme hab ich aus dem CB-Artikel genommen und die MSI 1080 Gaming X (201 Watt) mit der Powercolor RX Vega 64 Red Devil (285 Watt im Silent Modus) verglichen. Stromkosten sind bei mir ca. 28 ct/ kWh.

CB Artikel

Stromkostenrechner

Ein Freesync Monitor kostet meinen Erfahrungen nach, je nach Modell rd. 150 Euro weniger als ein Gsync Modell. Das heißt, dass ich in der Kombination RX Vega 64 und Freesync Monitor erst nach rd. 17 Jahren schlechter fahren würde. So lange hab ich noch keine Grafikkarte / Monitor behalten.

Was ich sagen will: Pauschal Vega als überflüssig zu bezeichnen halte ich nicht für sinnvoll. Es hängt vom jeweiligen Nutzungsverhalten hab. Man sollte das für sich selbst ausrechnen. Wichtig ist, dass die Vega Preise auf das Niveau der Nvidia Pendants fallen. Das ist zumindest bei der 56 noch nicht passiert. Die 64 ist auf einem guten Niveau.
Mal sehen was die neue Nvidia Generation für Impulse bringt.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und cbmik
Ludwig55 schrieb:
Und ist GP100 dadurch ineffizienter? Nein.
Vega hat kaum relevante GPGPU/HPC Features die die Leistungsaufnahme erhöhen, von mir aus RapidPackedMath, kommen die Vorteile von HBM aber oben drauf und das sind etwa 25 Watt Ersparnis.

Das war nicht der Punkt der Punkt an der Stelle war, dass die 1080 kein RPM/FM kann so einfach.

Vega ist auf andere Workloads ausgelegt (bis zum gewissen grad) und ist für Gaming eben nur halbgar und wird deshalb außerhalb des Frequenz-Sweetspots betrieben um das etwas zu kompensieren. Aber das ist einfach ein anderer Punkt als das mit RPM. Höherer Takt --- höhrtrt Verbrauch. Und die Spannung muss auch erhöht werden weil weniger Modelle bei geringerer Spannung den Takt schaffen. Deshalb lassen sich auch viele Vegas so toll undervolten. Weil es so ausgelegt ist das auch eher schlechte "Overclocker" ihren Takt schaffen.

Ludwig55 schrieb:
Eine HD 5870 hatte auch mehr Shader als eine GTX 480, war trotzdem effizienter.
Zu sagen, die Karte hat mehr Shader, deswegen sei sie eine professionelle GPU und darf mehr verbrauchen - das ist für mich nicht nachvollziehbar.

Die Shader sind auch nicht das Problem, sondern der zu hohe Takt. Prokarten takten i.d.R. niedriger. Und das senkt natürlich den Stromverbrauch. Bzw. ehöht ihn wenn man den Takt erhöht. Eine HD5870 hatte 850MHz, eine 480 1.4GHz. Das ist schon ein Unterschied. Wenn ein Hersteller merkt seine Karte performt nicht wie gewünscht, was macht er als erstes? Takt hoch. Das geht halt oft auf kosten der Effizienz. Pascal und Maxwell haben das gut in einklang bekommen. Hoher Takt und gute Effizienz. Aber das ist eben nicht die Regel. Bei Vega werden nunmal im Vergleich zu Pascal mehr Shader mit ähnlichem Takt bedient. Pascal halt eben mehr Tesselation Units und sowas die in Games durchaus was bringen, muss dafür weniger Shader haben.

Ergo weniger Shader bei ähnlichem Takt ist halt effizienter. Und damit schmeckt den Karten Tesselation besser. Was Vega auch bremst ist natürlich die Fehlerhafte Primitive Shader Pipeline. Nvidia-Karten können durch Culling und sowas ordentlich an Vertices beim Rendern sparen. Würde AMD das bei Vega auch anständig auf die Reihe bekommen oder würde jemand mal die API dafür verwenden würde das auch gut was bringen. Dann könnte Vega auch einfach Vertices an ungesehenen Stellen droppen und wäre schneller.

Sprich Vega nutzt halt dadurch, dasss die Karte viel auf's Rechnen ausgelegt ist und da scheinbar auch Prio lag einen Brute-Force-Ansatz der in Games nicht so super zieht. Wäre der Chip nur für's Gaming entwickelt worden sähe das jetzt evtl. anders aus. Immerhin sind die Compute und Workbenchsachen ja alle fertig geworden. Wäre der Fokus auf Gaming gefallen wären halt die Sachen fertig und das Compute-Zeug evtl. nicht.

Ludwig55 schrieb:
Hat sie das? Ich sehe die Karte bei Pro-Arbeiten nicht vor einer GTX 1080 Ti.
Und gegenüber selbiger hat sie den massiven HBM Vorteil (30 Watt), weniger Taktrate und zieht dennoch 80 Watt mehr. Die Probleme liegen ergo ganz woanders.

Eine Vega Frontier Edition muss sich in einigen Szenarien nicht vor einer Quadro P6000 verstecken die übrigens das dreifache kostet. Damit liegt auch die niedrigere Ausbaustufe mit der P5000 noch im Beutebereich von Vega und die kostet auch immerhin fast 1000€ mehr. Klar variiert es so das Vega mal gewinnt mal verliert. Aber das zeigt ganz gut, dass die Karte da Power hat.

https://www.tomshardware.com/reviews/amd-radeon-vega-frontier-edition-16gb,5128-5.html
https://www.tomshardware.com/reviews/amd-radeon-vega-frontier-edition-16gb,5128-6.html

Und anders als eine 1080ti bring die FE auch einen Pro-Treiber mit der besser auf sowas ausgelegt ist und auchnoch Stabiler läuft als dieses übliche Gaming-Driver-Flickwerk von AMD und Nvidia. Deshalb werden die auch seltener released.

Dazu kommt das die p6000 halt 250w frisst eine Vega FE 300w. 250 ist jetzt nicht sonderlich viel weniger.

Sprich, es ist schön das die 1080ti schnell ist. Aber die ist nur eben nicht wirklich für Workbencharbeit geeignet. Ein Vega-Chip ggf. schon. Mit Pro Treiber ist er halt echt gut aufgestellt. Und das war nur die Prosumer-Variante.

Bei Instinct kann es ähnlich aussehen.
 
Zuletzt bearbeitet:
Cube05 schrieb:
Im Schnitt zocke ich über 365 Tage im Jahr vielleicht 1h / Tag. Das macht dann einen Mehrverbrauch der Vega 64 gegenüber der 1080 von ganzen 8,65 Euro / Jahr.


Meine Erfahrungen sind etwas anders.
Ich hatte die Vega Liquid und betrieb diese, als 4K Zocker, übertaktet im "Turbo" Profil damit man überhaupt flüssig spielen konnte.
Durchschnittsverbrauch des Gesamtsystems: 550 Watt (In Spitzen bis 650 Watt)
Meine aktuelle Karte ist eine 1080Ti mit dem selben Unterbau,
Durchschnittsverbrauch des Gesamtsystems: 330 Watt (in Spitzen 400 Watt)
Da ich Schnitt 3 Std./Tag zocke bleibt dann bei mir ein Mehrverbrauch von 67 € pro Jahr zu Lasten der Vega und das bei spürbar weniger Leistung aber höherem Kaufpreis.
 
Was mich gerade mal interessiert ist, ob Vega evtl. gerade kurz vor EOL ist, denn mittlerweile finde ich z.B. die Red Devil Vega 56 nur noch bei den absolut überteuerten Händlern und MF hat sie z.B. gar nicht mehr im Sortiment.
Wenn meine Annahme vllt. gar nicht so verkehrt ist, dann wirds vllt. ja auch ein recht kurzer Auftritt gewesen sein auf dem Consumermarkt - Mining mal ausgeschlossen.
 
Okay, was ich dann aber bei dem Artikel seltsam finde, ist, dass vega durch Navi abgelöst werden soll, navi dann aber zwischen 1080 und 1080ti stehen soll - wo gehört denn dann vega 7nm leistungstechnisch rein, wenn nicht genau in die gleiche Ecke?:freak:
Man darf gespannt sein...
 
Zurück
Oben