News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

Man muss aber auch die Straßenpreisw der neuen Radeon abwarten.
Klar 600€ vs. 700+ hat die Radeon kaum Argumente für sich.

Ich warte mal geduldig ab. Im Prinzip ist eine 1080ti die bete Wahl, wenn man eine normalpreisoge erwischen könnte..
 
SKu schrieb:
RTX2080:

DLSS Support
RT Support
Mesh Shading Support
Effizienter
Ist mittlerweile günstiger als die angepeilte MSRP der Radeon VII
- DLSS gibt es in noch keinem einzigen am Markt befindlichen Spiel. Sieht zudem schlechter aus als natives UHD und hat merkwürdige Artefakte. Bis das reibungslos funktioniert (sofern das passieren sollte), ist Turing wieder überholt.
- RT gibt es erst in einem am Markt befindlichen Spiel. Unter Berücksichtigung des steigenden Speicherbedarfs (zwei aktuelle Beispiele RE2 Remake (Demo) und das kommende The Division 2) könnte es mit RT unterhalb der 2080Ti sogar grenzwertig werden durch den zusätzlichen Speicherbedarf.
- Mesh Shading bleibt ebenfalls abzuwarten, wann es an breiter Front Unterstützung findet. Wahrscheinlich erst post-Turing.
- Effizienz trifft natürlich ootb zu. Das Gute ist, dass man bereits eine Vega64 massiv auf 200-220W Realverbrauch (also keine ASIC) untervolten kann bei höherer Leistung.
- Wie so oft, Straßenpreise vs. Listenpreise. Ist bei jedem neuen Produkt dasselbe.

DLSS und RT sind, Stand Januar 2019, quasi reine Papiertiger. Kein Verlust, den Support nicht zu haben. Mesh Shading bleibt ebenfalls abzuwarten, wie es mit der Marktdurchdringung aussieht. Effizienz siehe ootb vs. Tuning. Für Leute, die im 600-700€ Preisbereich wildern, ist sicherlich die Möglichkeit der deutlichen Reduzierung des Verbrauches bei Radeons relevant und genauso als Argument für/gegen eine Karte zu berücksichtigen.

Fazit: Ich nehme fette 16GB mit noch fetteren 1TB/s und habe meinen Spaß in UHD mit vollknallen des Speichers und sich anbietendem Extremmodding von Spielen, weil ich dafür viel Platz habe. :cool_alt:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pascaljackson, LeWhopper, Shadow86 und eine weitere Person
Linmoum schrieb:
- DLSS gibt es in noch keinem einzigen am Markt befindlichen Spiel. Sieht zudem schlechter aus als natives UHD und hat merkwürdige Artefakte. Bis das reibungslos funktioniert (sofern das passieren sollte), ist Turing wieder überholt.

Das ist nicht korrekt. Final Fantasy unterstützt bereits DLSS und für BF5 ist DLSS für 1080p im Gespräch. Das würde vor allem der RTX2060 auf die Sprünge helfen.

Linmoum schrieb:
- RT gibt es erst in einem am Markt befindlichen Spiel. Unter Berücksichtigung des steigenden Speicherbedarfs (zwei aktuelle Beispiele RE2 Remake (Demo) und das kommende The Division 2) könnte es mit RT unterhalb der 2080Ti sogar grenzwertig werden durch den zusätzlichen Speicherbedarf.

Für The Division 2 gibt es bislang nur Gerüchte, nichts von offizieller Seite aus. Die RE2 Demo ist wohl ein schlechter Witz. Schlechtere Texturen als bei The Division 1 und dafür mehr VRAM Usage. Ist nun nichts Neues, dass Capcom nicht gerade immer alles richtig macht.

Linmoum schrieb:
- Mesh Shading bleibt ebenfalls abzuwarten, wann es an breiter Front Unterstützung findet. Wahrscheinlich erst post-Turing.

Es ist zumindest wahrscheinlicher, dass Entwicklerstudios auf Mesh Shading zurückgreifen bei NVIDIAs Marktpräsenz.

Linmoum schrieb:
- Effizienz trifft natürlich ootb zu. Das Gute ist, dass man bereits eine Vega64 massiv auf 200-220W Realverbrauch (also keine ASIC) untervolten kann bei höherer Leistung.
Du kannst auch eine GeForce undervolten und noch effizienter betreiben. Ist nun kein AMD exklusives Feature.


Linmoum schrieb:
- Wie so oft, Straßenpreise vs. Listenpreise. Ist bei jedem neuen Produkt dasselbe.

Ändert nichts daran, dass Radeon VII im Prinzip zu spät den Markt betritt mit der MSRP von 699$.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
kisser schrieb:
Und DX8 war ebenso schnell durch DX9 abgelöst da zu unflexibel.
Merkst du was? Das nennt man technische Entwicklung.

Und was hat das damit zu tun, das T&L nie richtig in Fahrt kam?
Das hat nichts mit technischer Entwicklung zu tun! Es war schlicht nicht gebraucht.
 
SKu schrieb:
Das ist nicht korrekt. Final Fantasy unterstützt bereits DLSS und für BF5 ist DLSS für 1080p im Gespräch. Das würde vor allem der RTX2060 auf die Sprünge helfen.
Stimmt, da war ja was mit FFXV. An der (bisherigen) Qualität von DLSS ändert das aber wenig. Schlechter als native Auflösung und merkwürdige Artefakte. Noch nicht mehr als ein unfertiger Kompromiss.

SKu schrieb:
Für The Division 2 gibt es bislang nur Gerüchte, nichts von offizieller Seite aus. Die RE2 Demo ist wohl ein schlechter Witz. Schlechtere Texturen als bei The Division 1 und dafür mehr VRAM Usage. Ist nun nichts Neues, dass Capcom nicht gerade immer alles richtig macht.
Wo gibt es bei The Division 2 nur Gerüchte und nichts offizielles? Die Systemanforderungen kommen direkt von Ubi und dort sind es 11GB VRAM, die für UHD und entsprechende Settings empfohlen werden.

f5dbde6190ac2d3378b33a6fc6d570fc.jpg

https://news.ubisoft.com/en-us/article/342463/the-division-2-pc-features-specs-detailed

Ob Capcom alles richtig macht oder nicht ist ja für den Umstand egal, dass RE2 ordentlich am Speicher nuckelt und viel davon benötigt. Man kann Details runterschrauben. Man kann es aber auch sein lassen, wenn man genug VRAM hat. ;)

SKu schrieb:
Es ist zumindest wahrscheinlicher, dass Entwicklerstudios auf Mesh Shading zurückgreifen bei NVIDIAs Marktpräsenz.
Das mag sein, aber eine Garantie gibt es dafür auch nicht. Insofern bleibt es auch hier abzuwarten, wie es mit der Marktdurchdringung aussieht. Insofern wüsste ich auch nicht, warum das schon heute als Kaufgrund für eine GPU herhalten sollte. Genauso wenig wie, zum jetzigen Zeitpunkt, eben RT und DLSS. Wenn ersteres an breiterer Front erhältlich ist, hat man schon wieder mehr Leistung mit dem Nachfolger von Turing.

SKu schrieb:
Du kannst auch eine GeForce undervolten und noch effizienter betreiben. Ist nun kein AMD exklusives Feature.
Logisch kannst du eine GeForce auch untervolten. AMD-exklusiv ist aber das riesige Ausmaß durch UV, insbesondere Vega ist da das Paradebeispiel für.

SKu schrieb:
Ändert nichts daran, dass Radeon VII im Prinzip zu spät den Markt betritt mit der MSRP von 699$.
Zu spät wäre es, wenn sie erst im Sommer damit angekommen wären. Dann hätte man sich das Teil in der Tat sparen können. Aber jetzt? Nein, das Teil kommt als Prosumer-GPU genau noch richtig für beide Märkte. Als Pro-Karte umso mehr, da hat die Titan RTX aus Preis-/Leistungssicht jetzt (mit fast dem vierfachen an Anschaffungskosten) einen richtig schweren Stand, wenn man 16GB HBM2 samt 1TB/s (die Titan hat im Vergleich dazu mickrige 672GB/s) in weniger als vier Wochen für $699 kaufen kann. Dazu scheint AMD die Karte auch hinsichtlich FP64 nicht beschnitten zu haben.
Und wenn ich mal so in den Foren querlese sehe ich auch genug Leute, die das Ding zum zocken wegen der 16GB und 1TB/s haben wollen. Eine 2080 mit ihren läppischen 8GB und 448GB/s ist dagegen halt mickrig. ;) Ob das jetzt als Kaufgrund fürs Gaming dienen sollte, darf jeder selbst entscheiden. Aber das ist eben "Haben will" und der "Wow"-Effekt, den man mit sowas erreicht. Das ist halt auch einfach eine Ansage für diesen Preis. Man kann es auch mit gelungenem "Mindshare" umschreiben.
 
  • Gefällt mir
Reaktionen: balkanmueller
andi_sco schrieb:
Und was hat das damit zu tun, das T&L nie richtig in Fahrt kam?
Das hat nichts mit technischer Entwicklung zu tun!

Durch Weiterentwicklung werden ältere Techniken abgelöst. T&L wurde genutzt, wie das bei jeder neuen Technik der Fall ist. Dass kurz darauf was Neues kam ist ja kein Mangel von T&L. Mit deiner Argumentation hätte es auch nie DX8, oder DX 10 gebraucht.
 
Mhh, gerade als Alternative für ältere Grafikkarten (ob nun technisch oder zu lahm) hätte es ja mehr eingesetzt werden können! Und?
 
Linmoum schrieb:
Stimmt, da war ja was mit FFXV. An der (bisherigen) Qualität von DLSS ändert das aber wenig. Schlechter als native Auflösung und merkwürdige Artefakte. Noch nicht mehr als ein unfertiger Kompromiss.

Hängt stark vom Spiel selbst ab und nicht alles sieht schlechter aus. Es gibt auch Szenen, die sehen mit DLSS besser aus.

Linmoum schrieb:
Wo gibt es bei The Division 2 nur Gerüchte und nichts offizielles? Die Systemanforderungen kommen direkt von Ubi und dort sind es 11GB VRAM, die für UHD und entsprechende Settings empfohlen werden.

Anhang anzeigen 742330
https://news.ubisoft.com/en-us/article/342463/the-division-2-pc-features-specs-detailed

Die Rede war von RT. Davon steht in den Anforderungen nichts. Davon abgesehen benötigt The Division 1 nur einen Bruchteil an VRAM bei gleicher Engine. Warum sollte z.B. der VRAM Verbrauch in 1440p um 100% ansteigen gegenüber 1080p, obwohl die Pixelzahl nur um 70% steigt? Weiterhin sind auch die Angaben der CPUs nicht wirklich nachvollziehbar. Für 1440p High soll also ein R7 1700 mit geringem Boosttakt (3,2Ghz auf allen Kernen) ausreichend sein und für 4K soll dann auf AMD Seite ein 2700X für "Elite" herhalten während bei Intel schon ein 10-Kerner von Nöten sein soll? Gerade der Sprung von 6700K, also von Quad mit HT auf Deca-Core mit HT, während AMD in beiden Fällen mit Octa-Cores und SMT angegeben wird ergibt doch überhaupt keinen Sinn.

Linmoum schrieb:
Ob Capcom alles richtig macht oder nicht ist ja für den Umstand egal, dass RE2 ordentlich am Speicher nuckelt und viel davon benötigt. Man kann Details runterschrauben. Man kann es aber auch sein lassen, wenn man genug VRAM hat. ;)

Kann man machen aber im Endeffekt wird man kaum einen Unterschied dazu sehen, zumal die Texturen in der Demo alle ziemlich verwaschen und unscharf aussahen.

Linmoum schrieb:
Das mag sein, aber eine Garantie gibt es dafür auch nicht. Insofern bleibt es auch hier abzuwarten, wie es mit der Marktdurchdringung aussieht. Insofern wüsste ich auch nicht, warum das schon heute als Kaufgrund für eine GPU herhalten sollte. Genauso wenig wie, zum jetzigen Zeitpunkt, eben RT und DLSS. Wenn ersteres an breiterer Front erhältlich ist, hat man schon wieder mehr Leistung mit dem Nachfolger von Turing.

Klar gibt es keine Garantie dafür. Ich kann mich aber bei AMDs Produktvorstellung zu Vega noch an die Primitive Shader erinnern und was danach passiert ist wissen wir alle. Eine Garantie gibt es auch bei Nvidia nicht aber zumindest existiert mit Turing die Option dafür. Bei Vega haben wir ja auch Features wie HBCC oder RPM bekommen und am Ende wurde das kaum genutzt.

Linmoum schrieb:
Logisch kannst du eine GeForce auch untervolten. AMD-exklusiv ist aber das riesige Ausmaß durch UV, insbesondere Vega ist da das Paradebeispiel für.
Die NVIDIA GPUs laufen ootb schon recht nahe am Sweetspot. Ist es jetzt lobenswert, dass man bei Vega erst Hand anlegen muss, damit sie auch an ihren Sweetspot kommt oder nicht? Für mich ist das eher ein Negativpunkt, wenn ich als Kunde noch Hand anlegen muss, wofür eigentlich der Hersteller zuständig sein sollte.


Linmoum schrieb:
Zu spät wäre es, wenn sie erst im Sommer damit angekommen wären. Dann hätte man sich das Teil in der Tat sparen können. Aber jetzt? Nein, das Teil kommt als Prosumer-GPU genau noch richtig für beide Märkte. Als Pro-Karte umso mehr, da hat die Titan RTX aus Preis-/Leistungssicht jetzt (mit fast dem vierfachen an Anschaffungskosten) einen richtig schweren Stand, wenn man 16GB HBM2 samt 1TB/s (die Titan hat im Vergleich dazu mickrige 672GB/s) in weniger als vier Wochen für $699 kaufen kann. Dazu scheint AMD die Karte auch hinsichtlich FP64 nicht beschnitten zu haben.

Als Prosumer-Karte ist die Radeon VII mit Sicherheit interessant. Als Gamerkarte jedoch bleibe ich dabei, dass sie nicht wirklich umhaut und für ihre Leistungsfähigkeit zu spät auf den Markt kommt. Das ist, wenn wir es mal nüchtern betrachten, Leistung, die NVIDIA bereits in 16nm mit Pascal auf die Beine gestellt hat - quasi vor 2 Jahren. Ob die Radeon VII oder die TITAN RTX jetzt die bessere Wahl wäre, hängt doch vor allem von der Software der sogenannten Prosumer ab. Wer die Karten dafür einsetzt um damit Geld zu verdienen, die kaufen doch nicht wirklich diese GPUs für diese Preise. Das wird dann abgeschrieben und gut ist. Für Gamer sind beide Karten einfach nicht wirklich interessant.
 
Linmoum schrieb:
dass RE2 ordentlich am Speicher nuckelt und viel davon benötigt
Kann ich nicht bestätigen. Entweder ist der Zähler im Grafikmenü verbuggt, oder es wird noch ein MAX Setting hinzugefügt bzw. die höchste Stufe ist schlicht nich freigeschaltet. Die Demo hat ja auch nur 8GB.
 
SKu schrieb:
Hängt stark vom Spiel selbst ab und nicht alles sieht schlechter aus. Es gibt auch Szenen, die sehen mit DLSS besser aus.
Es gibt sicherlich (noch) keine Szenen, in denen DLSS besser aussieht als natives UHD. In FFXV profitiert DLSS nur davon, dass das TAA völliger Käse ist. Vor allem verglichen mit dem von z.B. idTech.

SKu schrieb:
Die Rede war von RT. Davon steht in den Anforderungen nichts. Davon abgesehen benötigt The Division 1 nur einen Bruchteil an VRAM bei gleicher Engine. Warum sollte z.B. der VRAM Verbrauch in 1440p um 100% ansteigen gegenüber 1080p, obwohl die Pixelzahl nur um 70% steigt? Weiterhin sind auch die Angaben der CPUs nicht wirklich nachvollziehbar. Für 1440p High soll also ein R7 1700 mit geringem Boosttakt (3,2Ghz auf allen Kernen) ausreichend sein und für 4K soll dann auf AMD Seite ein 2700X für "Elite" herhalten während bei Intel schon ein 10-Kerner von Nöten sein soll? Gerade der Sprung von 6700K, also von Quad mit HT auf Deca-Core mit HT, während AMD in beiden Fällen mit Octa-Cores und SMT angegeben wird ergibt doch überhaupt keinen Sinn.
Nein, die Rede war von steigendem Speicherbedarf. Und inwieweit jetzt die CPU-Angaben nachvollziehbar sind, ist eine andere Geschichte. Es geht einzig um den Speicherbedarf. Wenn Ubisoft für UHD mit entsprechenden Settings 11GB empfiehlt, dann wird man sicher nicht mit 8GB auf den höchsten und besten Einstellungen spielen können.

Denn der steigende Speicherbedarf ist auch eine direkte Folge für RT - denn wenn das in Benutzung ist, steigt der Bedarf zusätzlich zu dem immer weiter benötigen Speicherplatz noch weiter an. Siehe z.B. das DF-Video zur 2060 und RT in BFV.

SKu schrieb:
Kann man machen aber im Endeffekt wird man kaum einen Unterschied dazu sehen, zumal die Texturen in der Demo alle ziemlich verwaschen und unscharf aussahen.
Kaum ein Unterschied wäre aber trotzdem ein Unterschied dafür, dass es keine Leistung kostet. ;)

SKu schrieb:
Klar gibt es keine Garantie dafür. Ich kann mich aber bei AMDs Produktvorstellung zu Vega noch an die Primitive Shader erinnern und was danach passiert ist wissen wir alle. Eine Garantie gibt es auch bei Nvidia nicht aber zumindest existiert mit Turing die Option dafür. Bei Vega haben wir ja auch Features wie HBCC oder RPM bekommen und am Ende wurde das kaum genutzt.
Woher weißt du, inwiefern der HBCC von den Endusern genutzt wird oder nicht? Den kann jeder via Treiber aktivieren, insofern halte ich diesen Teil der Aussage für gewagt.

SKu schrieb:
Die NVIDIA GPUs laufen ootb schon recht nahe am Sweetspot. Ist es jetzt lobenswert, dass man bei Vega erst Hand anlegen muss, damit sie auch an ihren Sweetspot kommt oder nicht? Für mich ist das eher ein Negativpunkt, wenn ich als Kunde noch Hand anlegen muss, wofür eigentlich der Hersteller zuständig sein sollte.
Es sagt niemand, dass es lobenswert ist. Sondern dass es eine Möglichkeit gibt, einen gerne angeführten Kritikpunkt auf einfache Art und Weise zu eliminieren.

Und seit wann es ein Negativpunkt ist, wenn man die Möglichkeit hat, ein gekauftes Produkt nach seinen eigenen Wünschen anzupassen ist mir schleierhaft. Wenn der Fernseher ootb ein mieses Bild hast, ist das dann auch ein Negativpunkt, wenn man das übers OTD nach seinen eigenen Wünschen anpassen kann?

Nach deiner Logik dürftes du dir im Prinzip keinen Fernseher (oder Monitor) kaufen, weil man da fast immer Hand anlegen muss, um das Bild noch zu optimieren. ;)

SKu schrieb:
Als Prosumer-Karte ist die Radeon VII mit Sicherheit interessant. Als Gamerkarte jedoch bleibe ich dabei, dass sie nicht wirklich umhaut und für ihre Leistungsfähigkeit zu spät auf den Markt kommt. Das ist, wenn wir es mal nüchtern betrachten, Leistung, die NVIDIA bereits in 16nm mit Pascal auf die Beine gestellt hat - quasi vor 2 Jahren. Ob die Radeon VII oder die TITAN RTX jetzt die bessere Wahl wäre, hängt doch vor allem von der Software der sogenannten Prosumer ab. Wer die Karten dafür einsetzt um damit Geld zu verdienen, die kaufen doch nicht wirklich diese GPUs für diese Preise. Das wird dann abgeschrieben und gut ist. Für Gamer sind beide Karten einfach nicht wirklich interessant.
Natürlich spielt auch die Software eine Rolle. Genauso wie das Preis-/Leistungsverhältnis eines Produktes, was bei der Radeon VII aufgrund von 1TB/s mit 16GB HBM2 und FP64 seinesgleichen sucht. Was bringt es mir, wenn die Titan 30% besser performt, aber 300% mehr kostet?

Ich finde die Radeon VII weiterhin sehr interessant für UHD-Gaming. In Kombination mit einem VRR-fähigen Monitor ist das mit den 16GB perfekt für UHD mit bester Bildqualität. Dass Leute, die auf dreistellige fps-Zahlen stehen nicht in UHD spielen werden, ist logisch. Aber wer reine Bildqualität bevorzugt kommt an UHD nicht vorbei. Und eigentlich auch nicht an den minimum 11GB einer 1080Ti/2080Ti.
 
Auf 43 Seiten schreiben manche auf fast jeder Seite wie schlecht die neue Grafikkarte von AMD ist. Reicht da nicht 1 Post um allen mit zu teilen, dass man diese neue Karte nicht gut findet? Ich meine, die meisten hier würden sich so oder so nie eine AMD Karte kaufen. Egal welche Leistung und egal zu welchem Preis.

Warum regen sich solche User eigentlich hier auf über 40 Seiten so auf? Kann eigentlich doch diesen recht egal sein. Aber es geht hier vielen wohl nur darum, das nVidia die Preise drückt wenn von AMD genug Konkurenzdruck vorhanden ist. Und es scheint sogar zu klappen, da ja bei MF die Turing Karten jetzt rausgehauen werden.
Und wenn sich gleichzeitig noch der CEO von nVidia zu "fragwürdigen" Aussagen hinreißen lässt, dann muss AMD ja doch etwas richtig gemacht haben.
Auch wenn dies hier viele "Experten" nicht so sehen. Am Ende interessiert es die Welt so oder so nicht. Wer die Karte kaufen will, der macht das und wer nicht, der lässt es. Wer sich aber hier über weite Strecken immer wieder darüber aufregt, dass es eben nicht so läuft wie man sich das vorgestellt hat. Der scheint ganz andere Probleme zu haben, als eine Vega II Karte mit 16GB HBM2 Speicher und der Leistungsfähigkeit einer RTX 2080, ohne den unnötigen Ballast von RT und DLSS. :lol:
 
  • Gefällt mir
Reaktionen: KarlsruheArgus und Smithan
DonDonat schrieb:
Schön dass du keine Verwendung hast, viele (inklusive mir) werden aber sicher mehr als die geizigen 8GB der RTX2080 nutzen können.

Meine 1080Ti schafft es dank 3440x1440 durchaus des öfteren auf mehr als 8GB (gerade wenn man Spiele mit High-Res-Textur-Mods oder allgemein mit High-Res Texturen spielt) und da ist es bei dem Preis der RTX2080 einfach eine Frechheit, dass man den Speicher im Vergleich zur 1080Ti einfach reduziert hat.

Immer wieder diese Spezies mit ihren Textur-Mods. Ich habe selbst einen UWD Monitor mit dieser Auflösung und kenne die recht bescheidene Reaktionszeit dieser, wüsste also nicht, weshalb einem in Bewegdbildern höhere Texturen viel bringen, außer für Screenshots. Aber jedem das Seine.

Die Hersteller können nicht einfach so mit RAM hantieren, wie sie es gerne hätten. Nur mit einer höheren Speicheranbindung wären 11 GB möglich, aber dann wäre man leistungsmäßig zu nahe an der Ti dran. Reine firrmenpolitische Entscheidung. Eine Frechheit wäre, wenn man Dir Dein Pausenbrot stiehlt.

Aber unnötige Aufregung, AMD hat ja jetzt eine Antwort für Deine Texturwünsche.
 
gerzerk schrieb:
Immer wieder diese Spezies mit ihren Textur-Mods. Ich habe selbst einen UWD Monitor mit dieser Auflösung und kenne die recht bescheidene Reaktionszeit dieser, wüsste also nicht, weshalb einem in Bewegdbildern höhere Texturen viel bringen, außer für Screenshots. Aber jedem das Seine.

Sorry aber wer so was schreibt muss blind sein: du siehst den Unterschied zwischen ner 4k Textur und ner "Konsolen-in-der-Nähe-von-FHD-Textur so deutlich, dass ich einfach nicht verstehe, wie man mit so einer Aussage um die Ecke kommen kann: genau so gut kannst du behaupten, man sieht den Unterschied zwischen 4k auf 27 Zoll und FHD auf 27 Zoll nicht :rolleyes:


gerzerk schrieb:
Die Hersteller können nicht einfach so mit RAM hantieren, wie sie es gerne hätten. Nur mit einer höheren Speicheranbindung wären 11 GB möglich, aber dann wäre man leistungsmäßig zu nahe an der Ti dran. Reine firrmenpolitische Entscheidung. Eine Frechheit wäre, wenn man Dir Dein Pausenbrot stiehlt.

Ach können sie nicht? Dann begründe doch mal wieso man einer "Next Generation" nicht einfach mehr von allem gibt?

Der Einzige Grund ist, dass man bei Nvidia es sich leisten kann: deswegen sind die aktuellen Karten so exorbitant teuer, deswegen bieten die nur "Dummy-Features" die kaum bis keiner Nutzen kann und deswegen hat man sie auch im Speicher nicht aufgerüstet.

So etwas ist eine Frechheit, wenn man sich gleichzeitig die enorme Preis-Steigerung anschaut.
Wenn du es aber nicht so sehen willst gut, ist deine Meinung, die Fakten sprechen aber halt ne andere Sprache als deine Meinung.


gerzerk schrieb:
Aber unnötige Aufregung, AMD hat ja jetzt eine Antwort für Deine Texturwünsche.

Unnötige Aufregung wäre, wenn ich sagen würde "NVIDIA IST TOT!11!! AMD 16GB DASS IST DER NEXT LEVEL SCHEI?! DEN YEDER (!!!1!) BTAUCH!!!1! FU** YOU NVIDIA"
Und sage ich auch nur annähernd so was...?
 
Nvidia geizt mit VRAM, weil sie bei der nächsten Gen. den VRAM ausbauen werden und damit einigen Käufern dieser Gen. den Kauf der nächsten Gen. schmackhafter machen.
 
  • Gefällt mir
Reaktionen: Verak
Ich will die Leistung einer RTX 2080 mit mehr VRAM HEUTE haben.
Und die soll nicht von nVidia kommen, weil die mir einfach unsympatisch sind.
RTX brauche ich HEUTE nicht.

Da ist mir das schnuppe, ob nVidia die Leistung schon vor 2 Jahren mit der 1080Ti gebracht hat und AMD erst heute die Karte produziert. Hätte hätte Fahrradkette...

So shut up and take my money AMD :evillol:
 
  • Gefällt mir
Reaktionen: surtic, Strikerking und r4yn3
Weiß man schon ob das PCB vom Layout her mit der ersten Generation von Vega übereinstimmt?
Der Chip selbst (also Die + HBM) scheint ja auf den ersten Blick genauso groß zu sein.
Wäre nett wenn man den alten Block einfach behalten kann und die die 130€ spart.
 
SKu schrieb:
Die NVIDIA GPUs laufen ootb schon recht nahe am Sweetspot. Ist es jetzt lobenswert, dass man bei Vega erst Hand anlegen muss, damit sie auch an ihren Sweetspot kommt oder nicht? Für mich ist das eher ein Negativpunkt, wenn ich als Kunde noch Hand anlegen muss, wofür eigentlich der Hersteller zuständig sein sollte.
Ich stimme Dir da allgemein schon zu, dass das eher ein Negativpunkt ist. Der normale 0815 Nutzer hat davon nichts, naja wobei eigentlich hat er eine deutlich schlechtere fps-Leistung bei höherem Verbrauch als nötig...
Man darf aber tatsächlich UV bei Nvidia nicht mit dem von AMD und insb. Vega vergleichen. Ich verstehe nicht was sich AMD dabei gedacht hat, die UV Möglichkeiten bei Vega sind rießig. Meine Vega56 hat aktuell mehr fps bei geringerem Verbrauch als eine Vega64...Schade, warum kommt das nicht ootb sondern erst nach 2-3h "Arbeit" für Technik"freaks".
Heißt aber eigentlich kann man den derzeitigen Leaks zur Vega7 nur mittelmäßig viel vertrauen, da die tatsächliche Leistung nach Anpassung völlig unklar ist.
 
frkazid schrieb:
Erste Leaks zur Leistungsfähigkeit (leider nur Ergebnisse von 3DMark).

Und wie kann man die deuten? Hab das letze mal vor 5 Jahren oder so 3DMark laufen lassen kann mit den Zahlen also überhaupt nichts anfangen.
 
Zurück
Oben