News Grafikkarten-Preise: Radeon RX Vega wurde im Mai um bis zu 18 Prozent günstiger

Damals hat der Trabbi Summe x gekostet heute gibt es dafür den Dacia aber der fährt trotzdem keine 280...

Früher war die alte Grafikkarte nach einem Jahr Schrottreif. Und 4K zockt halt nur die Minderheit. Die wenigsten haben dafür überhaupt einen Monitor. Und ob das technisch machbar ist...

Was richtig ist, dass die Karten 2 Jahre später nicht mehr als zum Release kosten dürfen UVP muss als oberste Messlatte durchgesetzt werden.
 
Ich bin happy. 519€ für die Powercolor Vega56 Red Devil war genau mein Limit und Farcry5 gab es noch gratis dazu.
Der Kühler ist wirklich toll für einen Luftkühler und mit dem Silent Bios komme ich nicht über 60°C.
 
Hier nochmal etwas, was eher in die Richtung geht die hier eine Menge Leute gerne gesehen hätten, auch wenn es nur ein Bruchteil davon ist, was erwartet wurde:

 
AedisToru schrieb:
Grafik maximiert bei 1680*1050 und mehrere 100 fps. Die Grafikkarte hat lediglich 300 Euro gekostet. Heutzutage kann ich mit einer gtx 1080 für 600 Euro keine 100 fps bei 4K mit den meisten aktuellen Spielen bei maximaler Grafik mehr erreichen... 😰

Damals war 1080p ja noch absolut high end. Man könnte sagen das war vergleichbar mit 4K heute. Dementsprechend sollte man bei 4K heute die gleiche Leistung bei aktuellen Titeln bekommen wie damals bei 1080p. Das heißt 100 fps + bei maximaler Grafik.

Mehere 100fps in Oblivion in 1680x1050?

Wohl eher nicht.

Für 60 FPS hat man auch ein Jahr nach Release des Spiels SLI Systeme benötigt.

Der Sprung von 1680x1050 auf 1920x1080 war relativ gering. Das sind nur knapp 300k zusätzliche Pixel. Von FHD auf 4K müssen 6000k zusätzliche Pixel berechnet werden

Von daher passt das nicht so ganz was du geschrieben hast
 
thepusher90 schrieb:
Hier nochmal etwas, was eher in die Richtung geht die hier eine Menge Leute gerne gesehen hätten

Eben nicht. Das ist für mich schon alleine deshalb nicht seriös, weil hier eine Custon 1070ti gegen eine Stock Vega56 getestet wird. Und das ganze dann auch noch "overclocked".

Gerade bei den Vega Karten ist es essentiell nicht in das Temperatur-Limit zu laufen. Das zeigen u.a. auch die Tests hier auf CB, bei denen Undervolting auf Vega die meiste Leistung bringt, weil die Karte eben nicht ins Temp-Limit läuft.

Mit sehr guter Kühlung performt eine Vega nunmal deutlich anders.
 
Das ist halt das was fehlt. Ein Test in der jeweiligen Klasse mit einem guten Custom Modell von jedem. Und dann auch mal bei allen Karten eine vernünftige Einstellung. Die Arbeit will sich aber keiner machen, weil zum einen würde es nur aufzeigen, das trotz aller Unkenrufe, sowohl nVidia gute GPUs hat, als auch AMD. Denn alle Spiele würden auf allen Karten laufen. Welch Wunder. ;)
Und zum anderen könnte man damit keinen Clickbait Artikel erstellen.
 
@LOLinger78
Naja, trotzdem ist die 1070Ti etwas flotter, der größte Unterschied jedoch ist einfach die Tatsache, die GTX braucht man nur einbauen und kann loslegen, bei der Vega könnte man das zwar auch, aber um bessere Taktraten und leiseren und sparsameren Betrieb zu kommen, muss man schon richtig Hand anlegen, P-States zb.
Habe es schon mal geschrieben, für viele Technik begeisterte ist es kein Problem und macht vielleicht auch noch Spaß, für die meisten jedoch eher weniger, die wollen einfach ohne Fummelei loslegen und ihren Spaß beim Spielen haben.

Tatsache ist auch, wenn man Karten testet, muss man sie out of the Box testen, natürlich kann man auch einen Teil davon im OC Modus machen, dann aber für alle Testkanitaten und den Aufwand machen sich halt nur die wenigsten.
 
DocWindows schrieb:
Ich will Technik die aus den ihr zur Verfügung gestellten Ressourcen das Meiste für mich rausholt.
Das gilt für Grafikkarten genauso wie für alle anderen Geräte die du aufzählst.
Es gibt keinen logischen Grund von zwei Geräten die das gleiche leisten und fast das gleiche kosten, das zu kaufen wo man die doppelte elektrische Energie reinstecken muss.
Für normal spielende Mitmenschen fallen die Mehrkosten für den Strom kaum ins Gewicht. Da gibt es wirklich andere Dinge bei denen man mehr strom sparen kann. Bei 5h+ pro Tag sieht die Sache anders aus.

Der größte Vorteil von vega ist nach wie vor, dass die nicht von Nvidia ist. Gsync ist absurd teuer, es gibt deutlich weniger Auswahl und mainstream-TV werden es wohl nie unterstützen. Und z.b. chill haben die wohl auch noch nie gehört. Was aber alles nichts daran ändert, beim blanken GPU Vergleich scheint Nvidia Jahre voraus zu sein. Eventuell wird es ja besser, wenn beide bei TSMC fertigen lassen.
 
Kannst du diese Aussage auch begründen Begu? Also die Aussage, das nVidia ja Jahre voraus sein soll.
 
Begu schrieb:
beim blanken GPU Vergleich scheint Nvidia Jahre voraus zu sein.

Das halte ich für etwas übertrieben. Aber bei den Einsteigerkarten 560 vs. 1050ti hätte ich mir schon gewünscht, das die 560 schneller gewesen wäre. So musste ich die NV nehmen. Insgesamt ist die NV eben besser.
 
Ist die 560 wirklich der richtige Gegenpart zur 1050ti oder wäre es da nicht eher die 570 dann schon gewesen?
 
Dark_Knight schrieb:
Kannst du diese Aussage auch begründen Begu? Also die Aussage, das nVidia ja Jahre voraus sein soll.
So schwer ist das nicht. Wann kam die GTX 1080 und wann die Vega64 auf den Markt? GTX1080 ist günstiger zu fertigen, hat ein besseres Perf/Watt Verhältnis und schafft mit deutlich weniger GFLOPS ähnlich viele FPS. Das Thema, dass die Vega keine reinen Gaming-Grafikkarten sind, hilft dem Gamer nur bedingt sondern eher AMD, die sich im Hintergrund Entwicklungsaufwände gespart haben.
Aber wie gesagt, ich beziehe das auf einen reinen GPU Vergleich. Wer kann schon eine reine GPU kaufen, ohne das Gesamtpaket dazu... GTX1080 mit Freesync und ich wäre glücklich.
 
Das ist deine Begründung um zu sagen sie sind Jahre voraus? Ich bin irgendwie enttäuscht. Ich hatte da wirklich mit richtigen Argumenten gerechnet, also nicht den üblichen Rechtfertigungen. Naja, ich erwarte einfach zu viel von den meisten Usern hier. :rolleyes:
 
sorry, ich bin vieles, aber kein Chipentwickler.
Offenbar bist Du anderer Ansicht, also drehen wir den Spieß doch einmal um. Warum genau bist Du dieser Ansicht? Mal schauen wie technisch fundiert das wird.
Laut Gerüchteküche bringt Nvidia dieses Jahr noch neue Gaming-GPU raus, von AMD dürften wir bzgl. Gaming-GPU dieses Jahr nichts mehr sehen und Anfang 2019 wohl auch nich gleich. Ich frage mich wie man die aktuelle Situation so interpretieren soll, dass beide bzgl. Entwicklung "gleich weit" bzw. AMD sogar "weiter" wäre.
 
anexX schrieb:
Das wäre zwar schön aber leider diktiert die Nachfrage den Preis und der wiederrum ist derzeit rein von Mininghochs/Flauten abhängig.
Das bringt doch nichts, einfach nur die Hälfte von mir zu zitieren und damit meine Aussage um 180° zu drehen. Ich habe doch extra geschrieben es ist eine Frage der Perspektive und der Anspruch des Konsumenten ist eine höhere Spieleleistung für das gebotene Geld.

Klaro, dass der Markt den Preis macht und die Mining-Nachfrage einen signifikanten Anteil am derzeitigen - aber eben aus Spieleleistungssicht überhöhten - Preis hat. ;)
 
Begu schrieb:
Für normal spielende Mitmenschen fallen die Mehrkosten für den Strom kaum ins Gewicht. Da gibt es wirklich andere Dinge bei denen man mehr strom sparen kann. Bei 5h+ pro Tag sieht die Sache anders aus.

Ich pfeif auf den Stromverbrauch wenns um die Kosten geht. Aber nicht wenns um die Lautstärke geht.
Ausserdem ist doch nun wirklich keine gesteigerte Geistesleistung erforderlich um den einfachen Dreisatz
Gleiche Leistung, Gleicher Preis, Halbe Effizienz, in eine Kaufentscheidung aufzulösen, oder etwa doch?

Kann eigentlich nur Probleme bereiten wenn man krampfhaft versucht von einem bestimmten Hersteller zu kaufen.

Begu schrieb:
Und z.b. chill haben die wohl auch noch nie gehört.

Das letzte worüber sich die NV-Kartenbesitzer wohl aufregen würden wäre ein hoher Stromverbrauch, den man mit sowas wie Chill oder Wattman in den Griff kriegen müsste.
 
Zuletzt bearbeitet:
Warum ich nicht deine Ansicht Teile @Begu ist doch recht einfach:
1. Pascal Karten sind absolut auf DX11 optimiert. Das ist zwar für Entwickler toll, weil es für sie mittlerweile keine Arbeit mehr bedeutet, aber da DX11 jetzt 9 Jahre alt ist, treten wir seit Maxwell damit auf der Stelle.
2. Pascal hat nicht einmal das komplette DX12 Featureset integriert, obwohl DX12 jetzt auch lange genug auf dem Markt ist.
3. Aufgrund des nicht willens DX12 zu pushen von nVidia, ist auch kein Entwickler von Spielen gefordert ebenso DX12 zu nutzen, was halt eben mehr Arbeitsaufwand bedeuten würde eben jenes zu nutzen.
4. Gerade weil DX12 aber nicht vernünftig genutzt wird, haben wir als Kunden gleich mehrere Nachteile. Zum einen gibt es im Grunde kaum eine Entwicklung zur Besseren Nutzung der Hardware die wir besitzen (neue Hardware die DX12/Vulkan unterstützt). Zum anderen kann die von Usern gekaufte Hardware die zusätzliche Leistung die sie bei DX12 hätten eben einfach nicht nutzen. Auch würde ein mehr nutzen von DX12 insgesamt das System beschleunigen. Somit hätte der Käufer dadurch erst einmal mehr Vorteile. Will aber nVidia nicht um eben mehr Karten jede Generation verkaufen zu können, ohne dabei AMD in die Hände spielen zu müssen, da diese DX12 eben besser bedienen können (Stand jetzt).

Am Ende bleibt halt nur, das nVidia gute Gamingkarten für DX11 auf den Markt hat, es aber kaum eine wirkliche Leistungssteigerung gibt, wenn man DX12 als API Grundlage nimmt, was ja eigentlich der Fall sein sollte. Von Gameworks und deren geschlossenem System, an das nur nVidia ran kommt, fangen wir gar nicht erst an. Das sollte eigentlich jedem klar sein, das solch ein System auf lange Sicht keinem einen Vorteil bringt bzgl. Weiterentwicklung.

Und ja nVidia bringt dieses Jahr ihre neue Gamingkarten Generation raus, von der bisher keiner weiss wie gut oder schlecht sie ist. Ebenso bringt AMD ihre neue Generation 2019 raus, wo auch noch keiner weiss wie gut oder schlecht diese sein wird.
Ein Produkt ist fertig, wenn es fertig ist und nicht wenn irgendwelche User es haben wollen.

Man kann nur hoffen, das sowohl nVidia als auch AMD gute neue GPUs bringen werden. Alles andere ist unwichtig. Auch wer denkt, nur weil nVidia eher die neue Generation bringt, das danach nie wieder wer eine neue AMD Karte kaufen wird.
 
LOLinger78 schrieb:
Eben nicht. Das ist für mich schon alleine deshalb nicht seriös, weil hier eine Custon 1070ti gegen eine Stock Vega56 getestet wird. Und das ganze dann auch noch "overclocked".

Klar ist das seriös, die Taktraten wurden ja an die Referenz GTX 1070 Ti angepasst und dann beide übertaktet.
Die 56er is dann halt nur lauter.
Ergänzung ()

Dark_Knight schrieb:
1. Pascal Karten sind absolut auf DX11 optimiert. Das ist zwar für Entwickler toll, weil es für sie mittlerweile keine Arbeit mehr bedeutet, aber da DX11 jetzt 9 Jahre alt ist, treten wir seit Maxwell damit auf der Stelle.

Du forderst von anderen richtige Argumente aber kommst selbst nicht ohne die 0815 VTs und unbewiesenen Schätzungen aus? Wo ist ein Pascal nicht auf Directx12 Features hin optimiert?
Nvidia unterstützte lange Zeit mit Maxwell gegenüber Fiji, Hawai und Polaris das höhere Directx12.1 Featurelevel und ist jetzt außer was Async-Compute betrifft, [Nvidia supported da nur Preemption] voll Directx12 fähig. Zudem ist Async Compute Optional und kein Muss fürs Directx12 Featureset.
Dark_Knight schrieb:
2. Pascal hat nicht einmal das komplette DX12 Featureset integriert, obwohl DX12 jetzt auch lange genug auf dem Markt ist.

Falsche Bemerkung. Zusatz:
Wo kann denn Polaris CR und ROV?:rolleyes: Hat also Polaris der nach Pascal kam, also jetzt nicht das komplette Directx12 Featureset integriert?
featurelevelskruzu.png

Dark_Knight schrieb:
3. Aufgrund des nicht willens DX12 zu pushen von nVidia, ist auch kein Entwickler von Spielen gefordert ebenso DX12 zu nutzen, was halt eben mehr Arbeitsaufwand bedeuten würde eben jenes zu nutzen.

Verschwörungstheorie die Zweite. Entwickler lehnen Directx12 ab nicht Nvidia.
Dark_Knight schrieb:
Am Ende bleibt halt nur, das nVidia gute Gamingkarten für DX11 auf den Markt hat, es aber kaum eine wirkliche Leistungssteigerung gibt, wenn man DX12 als API Grundlage nimmt, was ja eigentlich der Fall sein sollte.

Directx12 bietet CPU Entlastung, nicht wirklich eine Leistungssteigerung auf GPU Basis.
Dark_Knight schrieb:
Von Gameworks und deren geschlossenem System, an das nur nVidia ran kommt, fangen wir gar nicht erst an. Das sollte eigentlich jedem klar sein, das solch ein System auf lange Sicht keinem einen Vorteil bringt bzgl. Weiterentwicklung.

Soso, deswegen liefert also Nvidia immer State of the Art Grafikfunktionen mit Gameworks, wie VXGI, HBOA+, VXAO, HFTs und bald Raytraycing unter Directx12.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
das höhere Directx12.1 Featurelevel und ist jetzt außer was Async-Compute betrifft, [Nvidia supported da nur Preemption] voll Directx12 fähig.

Kleine Korrektur: Async Compute ist bei DirectX als optional definiert. Es kann daher nicht für die Beurteilung herangezogen werden ob eine Karte voll DirectX 12-fähig ist oder nicht.

Dark_Knight schrieb:
Das ist zwar für Entwickler toll, weil es für sie mittlerweile keine Arbeit mehr bedeutet, aber da DX11 jetzt 9 Jahre alt ist, treten wir seit Maxwell damit auf der Stelle

Hast du immer noch nicht zur Kenntnis genommen dass DirectX 11 nicht "alt" ist, sondern immer noch weiterentwickelt wird? Wir sind mittlerweile bei DirectX 11.4. Version 11.3 wurde bereits mit Windows 10 ausgeliefert.
Es war nie angedacht dass DirectX 11 durch 12 abgelöst wird, sondern dass man beide parallel fahren lässt und auch weiterentwickelt.
Hier kannste deinen Wissensstand updaten: DirectX 11 Features
Bei OpenGL und Vulkan ist es übrigens das Gleiche. Dort ersetzt Vulkan auch nicht OpenGL, sondern ergänzt es.

Folglich ist die Forderung in Spielen endlich DX12/Vulkan zu nutzen nicht an die Chiphersteller zu richten, sondern an die Spieleentwickler die die Freiheit haben sich für die API zu entscheiden die ihnen am Besten passt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gschwenni
Zurück
Oben