News Radeon RX 500X: AMD verpasst Polaris für OEMs einen neuen Namen

Andregee schrieb:
Du widerspricht dir hier aber schon massiv. Eine 1080ti ist mal eben ca 2,7 mal schneller als deine GPU, dann sollte die die wohl für deine Spiele ausreichen in 4k. Alle Regler stur nach rechts hat noch nie im Summe funktioniert und das wird es auch nie. Wobei ich mich eh frage, welche SPiele das sind. Selbst meine 1070 kommt in FullHd schnell an ihre Grenzen und die ist mal eben bis zu 70% schneller als die 970.

Bei welchen Spielen, wenn ich fragen darf? Ich spiele eigentlich alle aktuellen Spiele und habe dort, wie gesagt außer bei Final Fantasy 15, keinerlei Probleme diese in hohen Auflösungen mit meist maximalen Einstellungen zu spielen.

Spiele welche in der letzten desöfteren Spiele: 1920x1080p@120 Hertz und maximalen Einstellungen:
- Battlefield 1 - 60-75 FPS
- PUBG - Gute 50-70 FPS (Wobei hier tatsächlich nicht alles auf maximaler Einstellung ist)
- Far Cry 5 - 55 - 75 FPS
- GTA V - 50 - 70 FPS
- Fallout 4 - Vanilla konstante 60 FPS - Erst durch meine Mod- und ENB Kombi komme ich ins Strudeln und springe zwischen 25 bis 50 FPS (4K Texturen Pakete sowie die PRC ENB)

Andregee schrieb:
Klar erkennt man einen Unterschied aber eben nicht unter allen Umständen. ES kommt immer auf die BEtrachtungsgröße und den Betrachtungsabstand an. Auf 55 Zoll erkenne ich zwischen 4k und FullHD bei 2,5 Meter Distanz keinen Unterschied, meine LEbensgefährtin nicht, mein Schwager nicht, die Schwägerin nicht und deren 18 jährige Tochter nicht. Allesamt keine Brillenträger und mit 100% Sehleistung versehen.

In dem Fall kommt es auf das abgespielte Medium an. Den Unterschied zwischen 1080p und 4K Material sind man meiner Meinung nach sofort. Wenn natürlich 1080p Material auf einem UHD TV läuft, gibts auch keinen sichtbaren Unterschied.

4K ist auch für mich kein Heiliger Gral. Dennoch kommt der GPU Markt faktisch nicht hinter den eigentlichen Möglichkeiten hinterher.
 
Zuletzt bearbeitet:
Cool Master schrieb:
Ich würde eher sagen sie war nicht schnell genug für die Leute...

Für die war halt wichtig das die Karte auf 4k stabile 60FPS hat, das wurde nicht immer erreicht. Wenn das ein zu weit ausgeholtes Ziel ist, hast du natürlich recht.
 
@Cl4whammer!

Zu weit ausgeholt? Nein. Es liegt aber einfach an den Leuten die meinen alles muss rechts stehen, dass dies aber nicht geht sollte jedem der halbwegs bei Verstand ist klar sein. Vor allem bringt es einfach kein Vorteil. Man muss halt einen Kompromiss eingehen. Wie ich schon schrieb AA und Schatten etwas runter drehen und es geht ohne Probleme mit 60 FPS. Auch wenn D3 nun nicht gerade das Grafik-Wunder ist so läuft es wie gesagt auf meiner 1080 mit 5K und 60 FPS, wenn ich VSync aus mach bin ich sogar im ~75-80 FPS Bereich.

Es ist also einfach eine zu hohe Erwartung an die Karten. Wenn es umbedingt 4k@60 sein muss kann man immer noch auf SLI setzen.
 
Dann wird die doch nicht mehr gegen die neue 1060 (2060 oder sonst was) mit halten können, denn die wird ja wohl mehr Mehrleistung haben als 5-6%.

Naja werde mir trotzdem die Karte kaufen, wenn der Preis wieder stimmt. Mir reicht Full HD und ich wollte sowieso Free Sync und kein G Sync.
 
KamikazeOli schrieb:
Dann wird die doch nicht mehr gegen die neue 1060 (2060 oder sonst was) mit halten können

Gibts die schon? Nein. So wie man hört kommen frühestens Q4 2018 Karten auf Turing Basis und ob da schon der Mittelklasse Chip dabei ist weiß auch keiner, da sie ja gerne mit der xx80 Karte anfangen. Und dann wird man weitersehen, 2019 kommt ja dann wohl Navi.
 
Wir sind am Limit bei gpu leistung

die titan v ist nicht mehr auszulasten in 1440p
Die titan xp nicht in 1080p

Das bedeutet nicht das man nicht genug FPS bekommt sondern schlicht das bei CPu Takt nicht mehr geht

Die IPC der cpu gen intels new arch ab 2021 und amd zen geht maximal noch bis ~15% rauf

ich spreche von ipc nicht den singelcoreleistng diese ist taktabhängig.

Spannend wird 2019 mit zen 2 und 7nm
Wird die 5ghz marke @stock fallen
ich glaube fast nicht daran man wird so standard beim octa etwa 4,4-4,8ghz sein
Was dann ein gleichstand bedeutet zwischen amd und intel mit leichten Vorteil an amd.

Ungewohnte Situation für viele die nur intel als technologieführer gesehen haben.

Zum problem warum 4k sih nicht durchsetzt
zum ersten liegt es schlicht an monitore die völlig sinnbefreit konstruiert sind
preis
Die panels sind mehr als ungeeignet
Windows ist wegen dem festen dpi ungeeignet und eine monitor interpoliration wird immer unscharf
Programme haben wegen dem windows feste dpi keine chance ihre gui dynamisch anzupassen
Es gibt keine portierungsoftware um den Umstand der gui an höhere dpi anzupassen

Höhere Auflösung bedeutet in windows immer mehr Sichtfläche nicht schärferes Bild.
Was aber viele mit 4k verbinden.
Daher sollte man den pixelabstand sagen aktuell bei 24 und fhd ist 0,26mm was so ziemlich 96dpi bedeutet
/windows standard
4k auf 32 ist aber schon 0,16mm dann wird es arg zum mäuse kino weil am vorm 32 zoll nicht nur 0,6m sitzt sondern min 1,5m
da will ich den sehen der bei 96dpi noch lesen kann
Da hilft die in windows skallierung, was im grunde eine dynamische auflösung ist (windows läuft in fhd anstatt in 4k)
den der explorer ist auch nur ein programm das in einer auflösung läuft und die derzeitige lösung ist interpoliration
also unscharf
Erst wenn windows wirklich auf Grund auf in 4 k designt ist und konsequent keine ältere software mehr unterstützt bzw nur in nativer auflösung
erst dann wird sich 4k durchsetze und der effekt wie beim smartphone auch stattfinden (schärferes Bild)
bis dahin ist 27zoll und 24zoll in 1440p 1080p das optimum
Und genau da sind wir am limiit bei gpu/cpu Leistung angekommen
Das wäre dann die gtx1080ti (gp102 mt 3840shadern)
titan v hat 5120shader die kaum ausgelastet werden können


Und verwechselt nicht gamedesign und Grafik mit technisch besser aufgelöst da braucht man nur mehr speicherdurchsatz und bessere i/o performance
Erkennbar wenn gpu sowie cpu nicht ausgelastet sind.
Und kommt vom mythos ab das games auf max fps besser laufen man designt games auf bestimmte FPS also oft 60 oder 30fps,
alles darüber sorgt für ungewollte Effekte was viele aber als feature ansehen
siehe cs go und co
Wichtig ist gleichmäßige fps zu bekommen, da spielt es keine rolle ob 45 oder 144fps zumal den unterschied nur dann merkt wenn der Monitor anfängt zu Schlieren oder zu zerreißen. was auch mehr mit dem pixelrefresh des panels zu tun hat.
und wie gut man sehen kann.
ich bezweifle mal das viele ein auf 0,25mm pixelabstand vom 1m entfernung sieht ob ein pixel verzogen ist bei gleicher Farbe

Natürlich wirken 120hz angenehmer nur das problem des zeitlupen effekts wenn die frame unter 60 komme ist blöd daher sollte man Kompromisse machen und auf 75hz-100hz nehmen
Was bei einen Monitor mit 144hz möglich ist. (eigene Auflösung)
​Sollte aber in dem standard displayport aber möglich sein (dvi ist da strikt hdmi ist wegen dem tv standard beschränkt)
 
@Dante 2000

irgendwie lustig

https://www.computerbase.de/2018-02/kingdom-come-deliverance-benchmark-test/2/

https://www.computerbase.de/2017-10...2/#diagramm-assassins-creed-origins-1920-1080

https://www.computerbase.de/2017-10/wolfenstein-2-new-colossus-benchmark/2/

https://www.computerbase.de/2017-11/call-of-duty-ww2-benchmark/2/

Alles Spiele wo die 970 keine 60 Fps liefert, und das sind die Durchschnittwerte nicht die minum Fps.

Aber Du weisst schon das andere Menschen andere Anforderungsprofile haben. Ich hab einen Bekannten, der spielt noch weiter auf einer NV 460, ihm reichen 720p und 30fps für seine indiespiele.
leben und leben lassen...
 
KamikazeOli schrieb:
Dann wird die doch nicht mehr gegen die neue 1060 (2060 oder sonst was) mit halten können, denn die wird ja wohl mehr Mehrleistung haben als 5-6%.
Ich bin dahingehend generell nicht so mehr so optimistisch.
Der Kauf meiner GTX 1070 anno 2016 für 450€ und der Kauf einer RX 480 8GB für einen Kumpel (damals für 250€) scheinen eine deutlich längerfristige Investitionen gewesen zu sein, als ich angenommen hatte.

In der Mittelklasse steht man seit Mitte 2016 auf der Stelle.
Eigentlich noch früher:
Bereits die R9 290 war von der Leistung her recht nahe an einer aktuellen RX 570.
Diese Karte kam Ende 2013(!) auf den Markt und war je nach Modell Ende 2014 für unter 300€ zu haben. Klar, in Sachen Effizient sind die Polariskarten wesentlich besser aber rein auf die Leistung bezogen bekam man damals schon die gleiche Leistung wie heute in der Mittelklasse für weniger Geld.

Wenn AMD nun nochmal einen refresh dieser Leistungsklasse in der Mittelklasse bringt steckt man locker bis Mitte 2019 fest.
Der kauf einer R9 290/390 scheint sich solangsam ebenso stark auszuzahlen, wie Intels i5-2500K damals...

Hoffentlich bringt wenigstens Nvidia etwas mehr.
Da bin ich aber auch eher pessimistisch:
Ich glaube nicht, dass man die Käufer einer "neuen" GTX 1070Ti verstimmen will, indem man eine schnellere GTX 2060 herausbringt.
Nach oben hin ist man ja auch nicht im Zugzwang: Die 1070(Ti)/1080 sind aufgrund der Preise für Spiele interessanter als die Konkurrenz.
Wer verständlicherweise mittlerweile mehr Leistung will darf sich dann eine sündhaft teure 1080Ti kaufen und Nvidia ist fein raus weil es keine Alternativen gibt.
 
Dante2000 schrieb:
"Nichtmal annähernd gut" - Bitte höre auf mich falsch zu zitieren.

Für deine widersprüchliche Aussagen kann ich nichts da ich mir nur darauf bezogen habe.

häh ? wie jetzt ? du hast selbst geschrieben:

Dante2000 schrieb:
Fakt ist, das meine alte 2014er GPU in FullHD Spielen keinerlei Probleme hat.
....
Meine GTX 970 hat bei aktuellen Spielen, mit Ausnahme bei Final Fantasy 15, weit über 50 FPS auf maximalen Spieleeinstellungen. Far Cry 5 läuft mit maximalen Einstellungen in Full HD sogar teils im 70 FPS+ Bereich.

Wo also zitiere ich dich falsch ?

Ich schreibe die ganze Zeit über eine 4K fähige Karte die Problemlos mit 4K@60 FPS umgehen kann.

Ja wenn eine 970@FullHD 60FPS schafft mit DEINEN Ansprüchen und einen Games (siehe oben). Dann schafft eine 1080 Ti das in 4k ebenfalsl @60FPS.

Deine Rechnung ist relativ, da eine Asus Strix 1080 TI aktuell gut 1150€+ und keine 900€ kostet. Und selbst im Vergleich: Die Asus GTX 970 Strix OC schafft in der Regel die 60 FPS in Spielen in Full HD problemlos und kostet aktuell gebraucht um die 250-300€.

Ja eine 1080 Ti kostet mehr als eine 970. Aber weiter oben hattest du geschrieben du würdest bis zu 1300€ ausgeben können wenn es hier was GÄBE was die Leistung hat.

Auch bei den aktuell überteurten Preisen ist die 1080 Ti (oder gar die Strix) immer noch im Rahmen deines oben genannten Budgets.

Fakt ist jedoch, das die Preisdifferenz enorm ist und man trotz einer 1080 TI in der nativen 4K Auflösung Einschränkungen in Kauf nehmen muss.
Ja die Preisdifferenz ist erheblich...Einschränkungen ? Wie gesagt wenn du dieselben "settings" wie bei deiner 970 wählst hast du mit der 1080 Ti dieselbe Leistung in 4k wie mit deiner 970 in FullHD.
 
cunhell schrieb:
Ob es sich dabei wirklich um Vega handelt ist nach diesem Bericht zumindest nicht gesichert:
https://www.pcworld.com/article/326...eon-vega-m-may-be-more-polaris-than-vega.html

Cunhell

Oh das ist mal echt interessant. Ich bin gerade am überlegen nen Kaby Lake G Laptop zu kaufen. Ich kann mir gut vorstellen das AMD sich nicht die Mühe gemacht hat einen kompletten Vega-Chip zu "porten", Kaby Lake G wird wohl nicht den größten Absatz haben.

Aber auch insgesamt ist ein 12nm-Verfahren als Haupt-Verbesserung für die angeblichen neuen Karten mMn am wahrscheinlichsten.
 
Ich habe das Gefühl, dass sich der Display- Technology- Markt deutlich und vorallem, möglicherweise "unerwartet" schneller entwickelt hat als der Markt für "Spiele taugliche" GPUs.

Lange Zeit war bei 1080p Schluss und die GPU Entwickler haben sich darauf eingependelt und sich auf den Markt entsprechend "spezialisiert".

Mangelnde Konkurrenz, diese eine mögliche Marktbelebung zur Folge gehabt hätte, hat dem ganzen lediglich die Subventionskrone zusätzlich aufgesetzt.

Doch das ist nur ein auf Theorien basierendes, hypothetisches Gedankenspiel.
 
AMD ist vollkommen von den Fähigkeiten der Auftragsfertiger abhängig und deren Kapazitäten.
Wenn die Mengen für AMD GPUs bescheiden bleiben, macht es wenig Sinn eine komplett neue Architektur einzuführen.
Da lassen sie lieber die aktuelle weiter fertigen und bleiben damit auch bei geringen Mengen in der Gewinnzone.
 
Cool Master schrieb:
Es ist also einfach eine zu hohe Erwartung an die Karten. Wenn es umbedingt 4k@60 sein muss kann man immer noch auf SLI setzen.

60 FPS sind also zu hohe erwartungen. Ok. Da kann man aber auch diese Gen. ausetzten und warten bis eine das so hinbekommt. Sparrt man auch erstmal noch Geld für den Monitor
 
@Cl4whammer!

Oder man schraubt die Settings runter die so oder so kein Vorteil bei hoher Auflösung bieten aber dafür extrem viel Rechenpower brauchen ;)

​Ich konnte z.B. mit einer 660 Ti ohne Probleme in 1440p spielen bis diese übern Jordan ging.
 
Dante2000 schrieb:
Bei welchen Spielen, wenn ich fragen darf? Ich spiele eigentlich alle aktuellen Spiele und habe dort, wie gesagt außer bei Final Fantasy 15, keinerlei Probleme diese in hohen Auflösungen mit meist maximalen Einstellungen zu spielen.

Spiele welche in der letzten desöfteren Spiele: 1920x1080p@120 Hertz und maximalen Einstellungen:
- Battlefield 1 - 60-75 FPS
- PUBG - Gute 50-70 FPS (Wobei hier tatsächlich nicht alles auf maximaler Einstellung ist)
- Far Cry 5 - 55 - 75 FPS
- GTA V - 50 - 70 FPS
- Fallout 4 - Vanilla konstante 60 FPS - Erst durch meine Mod- und ENB Kombi komme ich ins Strudeln und springe zwischen 25 bis 50 FPS (4K Texturen Pakete sowie die PRC ENB)
GTA5 ist ja nun nicht gerade aktuell und 50 Min fps auf maximalen Einstellungen schafft eine 970 nicht einmal ansatzweise. Maximal bedeutet alle vorhandenen Regler nach rechts und nicht nur die die man selbst als wichtig erachtet. Selbst meine 1070 droppt auf 50 und weniger wenn ich alles auf maximale Settings setze, so auch das Gras, ja auch das gerhört zu Ultra und da rede ich noch nicht einmal vom Resoultion Scaling, welches auch zu den Settings gehört. Also scheinbar kannst du dann ja doch die Regler benutzen. DAnn verstehe ich nicht, wo das Problem liegt.


In dem Fall kommt es auf das abgespielte Medium an. Den Unterschied zwischen 1080p und 4K Material sind man meiner Meinung nach sofort. Wenn natürlich 1080p Material auf einem UHD TV läuft, gibts auch keinen sichtbaren Unterschied

Eine Meinung ist nicht von Relevanz es zählen einzig verwertbare Fakten und diese sind längst bekannt und erforscht. Das Auflösungsvermögen des Auges ist begrenzt. Sinnvolle Betrachtungsabstände für jeweilige Auflösungskennzahlen sind längst ermittelt. Ergebnisse habe ich verlinkt. Ich habe es selbst nachvollzogen und kann es vollumfänglich bestätigen.

[/QUOTE]
 
Da fragt man sich jetzt aber, wo jetzt eine RX 580X gegenüber einer VEGA 56 einzuorden ist.
 
Bei solchen Meldungen habe ich immer das Gefühl, mit meiner 7970 Lightning BE immer noch auf der Höhe der Zeit zu sein :D
 
Also quasi Brötchen vom Vor-Vortag! Nur nochmal "frisch" aufgebacken...
 
Martinfrost2003 schrieb:
Da fragt man sich jetzt aber, wo jetzt eine RX 580X gegenüber einer VEGA 56 einzuorden ist.
Kann man doch gut abschätzen:
Eine RX Vega 56 ist aktuell grob 45% schneller als eine RX 580 8GB.
Wenn die RX 580X nun 5-10% schneller als die RX 580 ist, schrumpft der Abstand eben auf 35-40%.
 
Zurück
Oben