• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Avatar Frontiers of Pandora: Im Bundle mit ausgewählten Ryzen 7000 und Radeon RX 7000

therealcola schrieb:
AMD gibt das Spiel Gratis dazu? Also wird das Spiel nen FLOPP. Just my 2 cents. Natürlich hoffe ich anders aber mal abwarten ;)
clown.gif

Ah jo, Troll identifiziert oder erklärst du damit Dead Island 2 und Starfield zu Flops?

Martinipi schrieb:
@Holzkerbe Ich habe schlechte Neuigkeiten für dich:

die vom 7. November bis 30. Dezember schon mehr Geld in ausgewählte Produkte von AMD investiert haben.

Wenn deine Karte am 7.11. ankam, wird sie vorm 7.11. gekauft worden sein.
Da sind die Händler normalerweise äußerst kulant, denn sonst könnt ich das Teil ja retournieren und erneut bestellen. Ich hab einfach mal ne Anfrage bei MF eingereicht.
 
gustlegga schrieb:
Wobei das sicher nicht von langer Hand geplant war, wie zB die Modellbezeichnungen bei Tesla in der Reihenfolge ihrer Markteinführung.
Model S
Model 3
Model X
Model Y
Lautet die Reihenfolge der Markteinführung nicht SX3Y oder RSX3Y, wenn man den Roadster mitzählt?
 
  • Gefällt mir
Reaktionen: gustlegga
CaptainLuftikus schrieb:
Ava Cry. Wird bestimmt gut. Nicht.
Far Atar. Warum nicht?

@Jan
Toll, was tue ich jetzt? Meiner Mum ne Grafikkarte aufquatschen, die sie nicht braucht? Meinem Büro-PC eine verpassen, die er nicht braucht? Meiner Tochter eine verpassen, die sie VIELLEICHT brauchen könnte?

AMD macht da marketingseitig alles richtig. Interessant finde ich viel mehr: wie viel Marge muss a) an so nem Spiel und b) an der benannten Hardware sein, wenn da überall in gefühlt unlimitierter Menge jeweils das Spiel beigegeben werden kann?

Von vorn herein Grafikkarten und Prozessoren, die einfach nur ~50 Euro günstiger wären, wäre doch auch ne tolle Sache, auch und besonders in Form von Konkurrenzfähigkeit gegenüber Intel und nVidia.
 
Shoryuken94 schrieb:
Halte ich für ein Gerücht. Das Preise sinken und mit einem Refresh / neuen Produktgenerartion die Preis / Leistung deutlich besser wird, ist völlig normal.
Ja das Preise Sinken schon, aber das man einfach Karten mit mehr Ram veröffentlicht für bessere Preisleistung und das wenn die Konkurenz schon davor diese RAM Konfigurationen hatte, ist ein Eingeständnis des ewigen Mantras das 6gb warens doch damals VRAM ewig reichen und in der neuen Variante eben 12. Und wenn alle gehobenen Mittelklasse Karten von Nvidia und alle last gen AMD highendklasse und alle AMD Midrange-karten 16gb haben und alle Konsolen, dann weiß man das die Spielentwickler nicht für diese kleine Gruppe von 12gb Nvidia Kartenkäufer 2023 zig Stunden an Optimierung investieren wird, sondern es die Regel wird das man unterhalb der 16gb Grenze massive einschraenkungen gibt.

Und damit steigt auch die Chance das die Benchmarks der 7900xt im Vergleich zur 4700ti mehr und mehr davon zieht.
Shoryuken94 schrieb:
Sollte auch jedem erwachsenen menschen bewusst sein, denn das ist in ganz vielen Bereichen so.
Erstens sind nicht alle Kunden erwachsen und zweitens nein in den meisten anderen Industrien hat man nicht solche massiven 1 Jahres Wertverluste. Ich mein bei Autos hat man Verlust dadurch das es 1 Jahr benutzt wurde aber nicht weil 1 Jahr Zeit vergangen ist, heißt wenn nen neuesten Golf neu heute kaufst oder in 1 Jahr wird der Verkaufspreis nicht 30% niedriger sein.
Shoryuken94 schrieb:
Wenn man sich bei sowas verarscht vorkommt, wie fühlen sich die Leute, wenn sie ein Auto für mehrere Zehntausendeuro kaufen und dort ein Facelift kommt? Oder die ganzen Tesla Kunden, wenn Elon über Nacht mal wieder die Preise senkt.
Elen Musk hat quasi ne neue Industrie erfunden, Smartphones auf 4 Raedern... das hat schon fast Startup Charakter und die Preise sinken weil davor kleine Menngen hergestellt wurden, und eventuell die Gewinnmargen gigantisch sind, das ist ein absolutes Luxusprodukt, dort gelten andere Regeln, das kaufen letztlich nur Reiche, Grafikkarten kaufen auch Kinder vom Taschengeld wenns sein muss... finde ich schwer vergleichbar.
Shoryuken94 schrieb:
Wenn Man zum Zeitpunkt X ein Produkt zu Preis Y kauft. Dann sollte man damit klarkommen, ansonsten ist es das falsche Produkt.
Ja nur werden das viele erst im Nachhinein verstehen, das es das falsche Produkt war, und die vollmundigen Versprechen das 12gb super fuer alles reichen und das sie mit ihrem Cache magisch 4gb ersetzen... ja viel lief ueber implizieren und Fanboys die das verbreitet haben und teils auch Testseiten. Und wenn sich wirklich keiner Verarscht fuehlt dann ists halt so werde mich nicht drueber streiten was ist oder nicht, das ist nur meine Einschaetzung, das sich viele Verarscht vorkommen muessen, haette ich den Bloedsinn geglaubt wuerde ich mich verarscht vorkommen, denke vorallem Leute die Technisch nicht eh schon super versiert sind, so wie sich Leute verarscht vorkommen wenn sie sich mit Autos nicht gut aus kennen und dann 1 Jahr spaeter ihnen jemand sagt oder es offensichtlich ist das sie zu viel bezahlt haben und uebern Tisch gezogen wurden.


Shoryuken94 schrieb:
Davon ab ist das doch seit Jahren bei Nvidia so. RTX 20 Super, die 780Ti hat die Titan quasi über Nacht für viele Sinnlos gemacht, das gleiche bei der Titan X und der 980Ti und der 1080Ti.
Hat die Titan X kam 2015 raus die 1080Ti 2017 da ist schon bissechn Unterschied zeitlich, auch komplett neuer Chip, Anfang 2014 kamen schon die ersten Konsumerkarten also das war nicht ein Nagelneuen Chip und erst ne neue Architektur machte "die ueberfluessig" 2 Jahre Spaeter oder so.
The first true “luxury” video card
Wer ne Titan kauft war sich bewusst das er das nicht fuer Preis/Leistung macht.

Die 70er Generation bei Nvidia war aber deren Budget reihe, noch nicht mal richtig Highend das ging erst ab 80 los, das die Leute dort mehr Preissensibel und Verlustsensibel isnd wie bei ner 4070.

Shoryuken94 schrieb:
Nach der 970 war das Geschrei auch riesig und gefühlt niemand in den Foren würde je wieder eine Nvidia kaufen.
Das war aber nicht meine Behauptung, natuerlich werden weiter haufenweise Leute Nvidia kaufen, wie schon angesprochen manchen ist das Geld eh komplett egal, die habens ueber wie heu, (warum sie dann aber nicht die deutlich bessere 4090 holen versteh ich nicht), manche werdens vergessen und die meisten haben eh keine 4070ti gekauft, wenn ne 4070 halbwegs guenstig hast oder ne 4090 dann kaufst weiter Nvidia.
Shoryuken94 schrieb:
Wenn man sich anguckt, welche Spiele so gespielt werden und welche Hardware in der breiten Masse verteilt ist, ist das wohl vielen relativ egal. Die einen Kaufen einfach das beste was Ihr Budget hergibt, sobald sie es brauchen, andere nutzen die Hardware, bis sie völlig obsolet ist, manche kaufen sich gebraucht immer ne günstige Vorgängergeneration und manche kaufen sich auch das beste, sobald es rauskommt, Ist am Ende halt ein Hobby, dass jeder unterschiedlich auslebt.
Ja aber man kann doch sagen das verschiedene Karten unterschiedlich gut altern, und ob den Fazit drunter ziehen ob die Versprechen von Nvidia / AMD aufgingen.

Wenn ich mir anhoeren durfte das 12gb noch ewig reichen, dann ist das eben ein gutes Argument das ich recht hatte und das nicht der Fall ist, (reichen im Sinne von hohe Settings). Wenn Nvidia selbst nimmer glaubt das 12gb genug sind ploetzlich. Die haetten natuerlich auch der alten 4070ti / non-ti 16gb spendieren koennen, ist jetzt nicht ne neue chip generation die das moeglich machte, auch war der Ram in der ganzen Zeit spottbillig, sie haben also bewusst zu wenig verkauft um paar cent mehr Gewinn pro Karte zu machen.

Btw die Aussage von dir gibt mir doch recht:
Nach der 970 war das Geschrei auch riesig und gefühlt niemand in den Foren würde je wieder eine Nvidia kaufen.
Ich hab nie gesagt das das Nachhaltig zu massiven Boykotten oder sowas fuehrt...
 
Zuletzt bearbeitet:
johnieboy schrieb:
im Gegensatz zu nem Spiel das auf Steam erscheint, da gibt es einfach direkt den Steam Key von AMD.
Nope, Amd-Rewards löst das bei Steam ein, da gibt's keinen Key.
War zumindest vor ein paar Wochen bei Starfield noch so.
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
therealcola schrieb:
AMD gibt das Spiel Gratis dazu? Also wird das Spiel nen FLOPP. Just my 2 cents. Natürlich hoffe ich anders aber mal abwarten ;)
Die Preview kam zumindest bei einigen Leuten sehr gut an, scheint mit viel Liebe zum Detail und vor allem viel Liebe and Freude an Pandora entwickelt worden zu sein. Das es dann doch trotzdem ein Ubisoft Spiel ist und man zumindest ein paar Parallelen zur Farcry Serie finden wird lässt sich dann aber dennoch nicht bestreiten.

Aber die Atmosphäre und vor allem das Sound-Design dürften erste Sahne sein, praktisch jedes Tier und jede Pflanze in der Umgebung macht ihre eigenen Geräusche und reagiert auf die Umwelt und alles zusammen ergibt dann die Soundkulisse. Ist schon ziemlich Next-Gen im Vergleich zu den sonst üblichen Background Dschungel Tracks, die dann einfach auf Endlosschleife laufen.

Austin von Skill Up hatte auf jeden Fall die Hoffnung dass das fertige Spiel tatsächlich taugen wird, auch wenn nicht alles perfekt ist.
 
Blutschlumpf schrieb:
Nope, Amd-Rewards löst das bei Steam ein, da gibt's keinen Key.
War zumindest vor ein paar Wochen bei Starfield noch so.
Gibt schon länger keine Keys mehr bei AMD.
Nvidia das gleiche, hier werden die Keys wenn dann erst nach den 14 Tagen Wiederrufsfrist versendet.
Gab offenbar genug Leute die Karten oder CPUs gekauft haben, die Keys sofort bei Ebay verschleudert haben und die Karten /CPUs wieder retouniert haben.
 
blackiwid schrieb:
Die RTX 4080 Super würde nicht mit 20gb kommen wären diese Nutzlos...
Meinst du nicht es ist etwas abwegig Grafikkarten mit unter 20GB als V-ram Krüppel zu bezeichnen, wenn eigentlich alle Spiele noch locker mit 12GB auskommen?
Nvidia und AMD bieten etwa die gleiche Preis-Leistung. Schaut man genauer hin, dann gibt es bei AMD (noch) keine ernsthafte Konkurrenz zu Frame Generation und ein gutes Stück weniger BQ bei FSR.
blackiwid schrieb:
Nvidia ist eigentlich schon verdammt die Preise nicht zu Aggressiv an zu setzen sonst wird der Backlash und das Gefühl verarscht worden zu sein zu hoch, aber gleichzeitig können sie die Preise nicht zu hoch setzen, da man offenbar wieder attraktiver werden will.
Nach über einem Jahr können sie die Preise schon lange senken. Früher gab es noch regelmäßiger neue Generationen oder Updates. Zudem hat Nvidia kein Problem mit dem Absatz ihrer GPUs, Probleme hat aktuell AMD.
blackiwid schrieb:
Dann sinkt die Wahrscheinlichkeit das eh teils unmögliche grad mit Raytracing und so Optimierung auf weniger als 16gb ram die Studios noch machen werden.
Warum soll es unmöglich sein mit Raytracing deutlich unter 16GB zu bleiben?
Gerade die UE5 zeigt, dass der V-ram Bedarf kaum steigt.
blackiwid schrieb:
Und wenn alle gehobenen Mittelklasse Karten von Nvidia und alle last gen AMD highendklasse und alle AMD Midrange-karten 16gb haben und alle Konsolen, dann weiß man das die Spielentwickler nicht für diese kleine Gruppe von 12gb Nvidia Kartenkäufer 2023 zig Stunden an Optimierung investieren wird, sondern es die Regel wird das man unterhalb der 16gb Grenze massive einschraenkungen gibt.
Diese massiven Einschränkungen die du dir erträumst wird es nicht geben. Die gibt es heute nicht mal wirklich mit 8GB Karten, da geht viel über etwas angepasste Settings. Die Konsolen nutzen 16GB für OS, GPU und CPU.
blackiwid schrieb:
Und damit steigt auch die Chance das die Benchmarks der 7900xt im Vergleich zur 4700ti mehr und mehr davon zieht.
Die 16GB RX 6800XT ist der 3080 10GB in 4K auch noch nicht davongezogen, obwohl die 3080 schon über 3 Jahre alt ist. So schnell erhöht sich der V-ram Bedarf nicht.
blackiwid schrieb:
Erstens sind nicht alle Kunden erwachsen und zweitens nein in den meisten anderen Industrien hat man nicht solche massiven 1 Jahres Wertverluste.
Diese Wertverluste hast du im IT Bereich doch mit allem. Mit AMD Karten genauso wie mit Nvidia Karten oder Intel und AMD CPUs. Was ist ein 5950X der knapp 1000 Euro kostete heute noch wert?
blackiwid schrieb:
Ja nur werden das viele erst im Nachhinein verstehen, das es das falsche Produkt war, und die vollmundigen Versprechen das 12gb super fuer alles reichen und das sie mit ihrem Cache magisch 4gb ersetzen...
Diese Vollmundigen Versprechen mit einem Cache 4GB Speicher zu ersetzen, hätte ich gerne gesehen.
Und das ist auch wieder das Problem, was ich mit deinem Beitrag habe. Er ist nicht logisch und schlüssig.
Die 4070Ti ist mit 12GB für die Zukunft etwas knapp ausgestattet, hat aber dafür andere Vorteile gegenüber der Konkurrenz. Und das ist das was du in deinen Beiträgen immer unterschlägst. Du betrachtest nur eine Seite der Medaille.
blackiwid schrieb:
ja viel lief ueber implizieren und Fanboys die das verbreitet haben und teils auch Testseiten.
Bitte Belege welche Testseiten das sind.
blackiwid schrieb:
Wenn ich mir anhoeren durfte das 12gb noch ewig reichen,
Vice versa.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Die Konsolen nutzen 16GB für OS, GPU und CPU.
Finds immer wieder spannend wie wenige das wissen und einfach nur ins Feld führen "AbEr DiE kOnSoLeN hAbEn AuCh 16Gb"

Das das unified memory ist und davon maximal 12,5gb für die GPU genutzt werden können weil der Rest durch das System belegt ist, ist anscheinend egal.
Was dann diese ganze "alle haben 16gb und darauf wird optimiert und für Nvidia muss eine Extrawurst gefahren werden" Diskussion total ad Absurdum führt..
 
Davor Starfield und jetzt Avatar - Schön zu sehen, dass die Spiele-Bundles bei AMD wieder häufiger werden - Auch wenn die Auswahl der Spiele eher meh ist.
 
Quidproquo77 schrieb:
Meinst du nicht es ist etwas abwegig Grafikkarten mit unter 20GB als V-ram Krüppel zu bezeichnen, wenn eigentlich alle Spiele noch locker mit 12GB auskommen?
Locker nicht, siehe z.B. den Test von Hogwards Legacy. Kann noch andere Nennen. Und ich nenne Dingen abhängig vom Preis VRAM Krüppel, bei ner 150 Euro Karte würde ich auch 8gb nicht VRAM Krüppel nennen.
Quidproquo77 schrieb:
Nach über einem Jahr können sie die Preise schon lange senken. Früher gab es noch regelmäßiger neue Generationen oder Updates. Zudem hat Nvidia kein Problem mit dem Absatz ihrer GPUs, Probleme hat aktuell AMD.
Wo hat AMD Probleme mit dem Absatz? laut meiner Informationen sind die 7900xtx und xt sehr vergriffen. Sie haben ein Presse Problem teils, aber kein Verkaufszahlenproblem.
Quidproquo77 schrieb:
Warum soll es unmöglich sein mit Raytracing deutlich unter 16GB zu bleiben?
Gerade die UE5 zeigt, dass der V-ram Bedarf kaum steigt.
Ich finde leider grad keine Liste mit UE5 schon veröffentliche Titel, sie muss aber sehr kurz sein.
Talos Principle ist das einzige Game das ich finde auf die Schnelle und das ist kein normaler AAA Titel sondern ein langsames Raetzel Game mit sehr sehr wenig Raytracing.

Aber es gibt schon ne Handvoll titel wo 12gb Grenzwertig wird, ich sehe keinen Grund warum der Trend stoppen soll, und nochmal warum veröffentlichen Nvidia überhaupt 16gb Karten wenn sie so überzeugt sind das 12gb immer reichen?

Ich finde das Argument immer sehr komisch natürlich reichen die RAM für die meisten Spiele >90% der Spiele auf Steam laufen auch auf ner Tomate. Wenn du bei 2-3 Spielen die dir relativ wichtig sind massive Probleme kriegst dann ist egal ob 1000 andere perfekt laufen.
Quidproquo77 schrieb:
Diese massiven Einschränkungen die du dir erträumst wird es nicht geben. Die gibt es heute nicht mal wirklich mit 8GB Karten, da geht viel über etwas angepasste Settings. Die Konsolen nutzen 16GB für OS, GPU und CPU.
Das ist vielleicht ne Definitionsfrage was massive Probleme sind, teils stürzen Spiele ja einfach mit 8gb ab, dann gibt es noch Matchtexturen, oder es kommt ne Meldung oder eben vram Abstürze / und unregelmäßige Frameverlaeufe.

The Last of Us 1 braucht auch mehr als 12gb VRAM in 1080p ulta settings, wenn du irgendwelche Mid Settings in 1080p also akzeptabel für ne 800-900 Euro Grafikkarte an siehst.
The Last of Us Part One can consume nearly 7GB at its lowest graphics preset and upwards of 14GB at its highest. And Hogwarts Legacy sucked up nearly 13GB of VRAM with ray tracing on

Quidproquo77 schrieb:
Die 16GB RX 6800XT ist der 3080 10GB in 4K auch noch nicht davongezogen, obwohl die 3080 schon über 3 Jahre alt ist. So schnell erhöht sich der V-ram Bedarf nicht.
Davon ziehen ist immer relativ, woran machst das Fest irgendwelche Benchmarks die teils Spiele die schon 2 Jahre alt sind inkludieren. Dir ist das Problem des Flaschenhalses bewusst? Ja oft wird das kaschiert weil AMD aus anderen (Software) Gründen teils limitiert und ja wie gesagt die meisten Spiele laufen eh auf Tomaten, aber kauft man sich so teure Karten für ein paar Indie und Strategie games?

Quidproquo77 schrieb:
Diese Wertverluste hast du im IT Bereich doch mit allem. Mit AMD Karten genauso wie mit Nvidia Karten oder Intel und AMD CPUs. Was ist ein 5950X der knapp 1000 Euro kostete heute noch wert?
Wie kommst du jetzt von Grafikkarten zu CPU, und ja die 5950X ist ein Premium Luxus Modell, ist die 70er Reihe von Nvidia deren Premium Lineup? Ist eher gehobene Mittelklasse, ein fairer Vergleich wäre ne 5800X und da hat sich der Preis in einem Jahr von 260 -> 195 reduziert, das ist jetzt nicht dramatisch 65 Euro Wertverlust, aber du vergleichst ein Sektor wo ein neuer Chip raus kam und der 5950X kam soweit ich das seh schon 2020 raus also fast 4 Jahre nach Release und 1 Jahr glaub nach dem Release des Nachfolgerchips, der 4070 war aber ein Nagelneuer Chip und kein Nachfolgechip ist in Aussicht.

Der Vergleich wäre eher wenn AMD die CPU nur in Form von Mainboards mit fest verlötetem Ram verkauft hätte und dort nur 16gb verlötet hätte oder wegen mir 24gb und jetzt nach und nach einige Titel 24gb nicht mehr reichen würden und deshalb in Spielen wo die CPU noch super reichen würde Das System extrem abfallen würde in den Spielen / Programmen.

Ich rege mich nicht über den normalen Preiswertverlust auf, ich rege mich über die geplante Obsoleszenz auf. Es ist einfach eine Frechheit 800 Euro ab zu greifen teils und nur 12gb zu verbauen, Nvidia hätte anders können, also was ist das Motiv das sie das getan haben, grenzenlose Gier die Marge muss statt 30% 40% sein oder so, die Ausnutzung der Marktmacht und man setzt darauf das neue Spiele das reißen werden und dann die Leute die Nachfolgekarten kaufen schneller wie wenn man 16gb verbaut hätte. Alles andere ist Illusion.

Quidproquo77 schrieb:
Die 4070Ti ist mit 12GB für die Zukunft etwas knapp ausgestattet, hat aber dafür andere Vorteile gegenüber der Konkurrenz. Und das ist das was du in deinen Beiträgen immer unterschlägst. Du betrachtest nur eine Seite der Medaille.
1. muss man das ja immer relativ zum Preis sehen, die 7900 XT ist ja teils auch schneller als die 4070 ti auch in Spielen wo der VRAM noch reicht, hat glaub 5% höhere Rasterleistung, die Probleme die AMD hat sind oft Softwareprobleme die Gefixt werden, der Talos Pr. 2 Test zeigt anhand von TSA oder wie das heißt das der DLSS Vorteil kein Hardwaredesign ding ist, also die Probleme von FSR sind zumindest weitgehend Fixbar.
2. hat AMD die Probleme nicht absichtlich eingebaut damit die Leute neuere Karten kaufen werden, es ist halt nur das was sie (noch bezahlbar) hin bekommen.
3. aktuell ist die 7900xt gleich teuer wie die 4070ti aber sie war lange bis vor Kurzem auch deutlich billiger als die 4070ti.
4. wie gesagt die Probleme von AMD werden kleiner FSR wird nur besser nicht schlechter, dagegen wird der VRAM Verbrauch wie immer also ein Naturgesetz aber besonders jetzt weil die Spiele zunehmend explizit für die neueste Konsolengeneration exclusiv produziert werden immer mehr zum Problem.

Und oft lohnt sich ja schon bei älteren Games unterhalb der 4080 nicht der Tradeoff stärkeres Raytracing zu nutzen und dafür die anderen Settings massiv zurück zu drehen und da reden wir noch nicht mal von der VRAM Problematik.
Ergänzung ()

Atnam schrieb:
Finds immer wieder spannend wie wenige das wissen und einfach nur ins Feld führen "AbEr DiE kOnSoLeN hAbEn AuCh 16Gb"
Das ist ne Unterstellung, das ich das nicht weiß, aber selbst deine angebrachten 12,5GB sind für ne 12gb Karte nunmal zu viel, ein Crash weil dem spiel 500mb vram fehlten oder 4gb fühlt sich genau gleich an.

Und da werden noch 2 Dinge vergessen:
1. erwartet man vom PC port meist bessere Grafik, die GPUs sind ja oft viel stärker, aber zu erwarten das die Grafik schöner wird ohne jeglichen extra VRAM verbrauch ist naiv.

2. haben die Konsolen extrem schnell angebundene SSDs, wenn also mal der VRAM oder auch RAM nicht mehr aus reicht, dann ist der Dropdown des Speedes kleiner wie beim PC, mit Directstorage versucht man das am PC ist aber noch in frühen Phasen und glaub auch Hardwareseitig nicht so gut möglich.

3. selbst wenn wir mal nicht glauben das die Spielehersteller mehr Zeit für die Optimierung für Konsolen verwenden weil dort oft mehr Geld gemacht wird, schon wegen höheren Preisen und zumindest ähnlichen wenn nicht höheren Verkaufszahlen, selbst wenn es genau 33% PC 33% PS5 und 33% Xbox sind, kann man auf 2 fixe identische Setups besser optimieren als auf den PC mit 500 verschiedenen Denkbaren Kombinationen.

Wenn du auch nur 30 fps auf oft nicht 4k und geringem Raytracting willst, ja dann wird dir wahrscheinlich auch die 12gb vram reichen, aber die Leute erwartet doch vom PC BESSERE Grafik als von der Konsole und dann wird man das eine oder andere GB extra VRAM brauchen.

Ich mein da die 4070 Ti alleine (ohne PC) mehr als die 2 Konsolen kosten, werden die Leute dann nur Konsolengrafikqualitaet damit erwarten? Ich denke nicht.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Locker nicht, siehe z.B. den Test von Hogwards Legacy. Kann noch andere Nennen.
Ich meinte damit keine verbuggten Einzelbeispiele zu Release, sondern im Generellen und ich bin nicht in der Lage viele Spiele zu nennen, obwohl ich regelmäßig die News zu neuen Spielen überfliege, somit stelle ich den Inhalt deines Beitrages wieder generell in Frage, weil deine Argumente einfach nicht schlüssig sind.
blackiwid schrieb:
The Last of Us 1 braucht auch mehr als 12gb VRAM in 1080p ulta settings, wenn du irgendwelche Mid Settings in 1080p also akzeptabel für ne 800-900 Euro Grafikkarte an siehst.
The Last of Us braucht auf meiner Radeon VII auf Medium etwa 5GB und auch Ultra etwa knapp 7GB in Full HD.
Und das sind nur reine allokierte Werte, nicht das was wirklich benutzt wird.
Ich diskutiere mit dir nicht nochmal ein AMD vs Nvidia ich sage nur, dass es für die 4070Ti zum gleichen Preis auch Argumente wie DLSS, FG, Strombedarf Features, RT Leistung usw. gibt und bei der Radeon mehr Raster Performance bzw. mehr V-ram. Das ist jedem selbst überlassen eine Entscheidung zu treffen.

Sinkende Preise sind normal wenn neue GPUs den Markt erreichen, da gibt es nichts zu diskutieren.
blackiwid schrieb:
dagegen wird der VRAM Verbrauch wie immer also ein Naturgesetz aber besonders jetzt weil die Spiele zunehmend explizit für die neueste Konsolengeneration exclusiv produziert werden immer mehr zum Problem.
Welche Konsolengeneration meinst du? Die aktuellen Konsolen haben nur 16GB verbaut. Da könnten durchaus 10GB für die Texturen benutzt werden, aber das ist ja jetzt nicht so viel. Playstation 6 Release ist irgendwann 2026 oder 2027.
blackiwid schrieb:
Und oft lohnt sich ja schon bei älteren Games unterhalb der 4080 nicht der Tradeoff stärkeres Raytracing zu nutzen und dafür die anderen Settings massiv zurück zu drehen und da reden wir noch nicht mal von der VRAM Problematik.
Da habe ich eine dediziert andere Meinung, basierend auf Spieleanalysen von Digital Foundry und Co.
Ich finde es wesentlich interessanter die Auswirkungen von Raytracing zu sehen als auf eine kommende V-ram Knappheit zu hoffen. Bisher haben Spieler vor allem in QHD überhaupt keinen Grund eine Einstellung auf der 4070Ti auch mit RT oder PT runterzudrehen, wohl auch nicht bis zur nächsten Gen und danach gibt es auch Regler.

Auf der Radeon 7900XT läuft das deutlich wenig flüssig, nicht morgen, sondern heute.
Leider kommt das in deiner Argumentation so nicht vor. Etwas nur von einer Seite zu sehen bringt nichts.
Ich verstehe deinen Standpunkt nicht.
blackiwid schrieb:
Ich rege mich nicht über den normalen Preiswertverlust auf, ich rege mich über die geplante Obsoleszenz auf.
Es ist bei weitem nicht so schlimm wie du es darstellst, und ich bin eigentlich Verfechter von ausreichend V-ram Polster und habe genauso eingekauft. Kann es sein, dass du generell einen Groll gegen Nvidia hegst, ich kann mir deine Einseitigkeit Informationen aufzubereiten und zu Argumenten zu verwursten nicht anders erklären.
Außerdem geht hier um Avatar Frontiers of Pandora. Wieviel Speicher das Spiel brauchen wird, wissen wir nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Atnam
blackiwid schrieb:
Wo hat AMD Probleme mit dem Absatz? laut meiner Informationen sind die 7900xtx und xt sehr vergriffen. Sie haben ein Presse Problem teils, aber kein Verkaufszahlenproblem.
Mindfactory hat 10 xtx Modelle lagernd und 5 xt Modelle.
Bei anderen Websiten das gleiche.
Vergriffen (oder sehr vergriffen) sieht für mich anders aus.

Wenn Sie kein Absatzproblem hätten dann hätten sie auch mehr Marktanteil.

Edit: Muss dir hier aber sogar Recht geben. Marktanteil von AMD hat im letzten Quartal zugelegt gegenüber Nvidia und die Absatzzahlen von AMD steigen im Gegensatz zu Nvidia.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Ich meinte damit keine verbuggten Einzelbeispiele zu Release, sondern im Generellen und ich bin nicht in der Lage viele Spiele zu nennen, obwohl ich regelmäßig die News zu neuen Spielen überfliege, somit stelle ich den Inhalt deines Beitrages wieder generell in Frage, weil deine Argumente einfach nicht schlüssig sind.
Ja einfach alle Games wo AMD besser abschneidet als Ungueltig erklaeren und als nicht existent oder nicht relevant, auch wenn das oft extrem begehrte games sind, dann kann ich auch gewinnen wenn ich mir die Games einfach willkuehrlich nach irgendwelchen komischen Kriterien zu recht lege.

Hogwards Legacy braucht immer noch 16gb um problemlos auf max settings zu laufen, das ist also nicht nur beim Release so, auch Resident Evil braucht immer noch haufenweise VRAM auch nach dem Release.

Quidproquo77 schrieb:
The Last of Us braucht auf meiner Radeon VII auf Medium etwa 5GB und auch Ultra etwa knapp 7GB in Full HD.
Fullhd? Wahrscheinlich 2 Minuten nach Spielstart in irgend einem Mapabschnitt wo nicht viel verbrauch da ist, oder deine Tools zeigen mist an:
vram.png

techpowerup.com

Selbst auf ninFPS wird dort ne RTX 4080 von ner rx 6800 xt geschlagen, gut hat in dem fall nichts mit VRAM zu tun weil das game ja ein last und last-last gen game ist, aber zeigt sehr gut, wie absurd diese Denke ist da die selbst die Playstation 4 (und kam ja primaer fuer die PS 3 raus) nur 8gb Unified ram hatte, nach der Logik sollten ja auch 6gb reichen fuer FullHD nicht mal leut deinen Angaben die Fantasie sind und wenn dann erst Monate Spaeter erreicht werden, Leute wollen vielleicht auch zu Release spiele spielen koennen, 6gb nicht reichen.

Quidproquo77 schrieb:
Und das sind nur reine allokierte Werte, nicht das was wirklich benutzt wird.
Ich diskutiere mit dir nicht nochmal ein AMD vs Nvidia
Nicht was machst du dann hier?
Quidproquo77 schrieb:
ich sage nur, dass es für die 4070Ti zum gleichen Preis auch Argumente wie DLSS, FG, Strombedarf Features, RT Leistung usw. gibt und bei der Radeon mehr Raster Performance bzw. mehr V-ram. Das ist jedem selbst überlassen eine Entscheidung zu treffen.
Dieses Argument lass ich fuer die 4070 ohne ti gelten, aber auch da gilt, das eine ist man versuchte was man konnte ging aber nicht mehr, bei AMD, und das andere ist eine boesartige entscheidung, eine Abzockmasche wie fest verloetete unaustauschbare Akkus in Iphones. Aber selbst wenn ich das komplett ignoriere, ist es ein unterschied ob ich pest/kolera wahl habe zwischen 4070 und z.B. ner RX 7800xt, in dem Preissegment war das Angebot eben recht schlecht, und die Karte ist im Vergleich zu anderem halbwegs billig, aber ist doch logisch gaebs ne Karte die 10x so schnell waere aber 10.000 Euro kosten wuerde aber auch nur 12gb vram haette, waere der VRAM ein groesseres Problem. Wenn ich 580 Euro bleche fuer 12gb VRAM ist das eines wenn ich 800 bleche was anderes. Wenn dir das Game abstuertzt oder du auf Medium 1080p stellen musst wegen VRAM dann ist das bei 580 Euro weniger schmerzlich als bei 800 euro.

Muss ich das irgendwie beweisen oder ist das einfache Logik?

Und das ist eine Prognose das games mehr verbrauchen werden, das ist eine Glaskugel bis zu einem Gewissen grad ist das Spekulation, aber in beide Richtungen, deine Idee das 12gb noch 5 Jahre Problemlos sein wird (ja bisschen polemik brauchst mir nicht erklaeren, weiss das ich uebertreibe), ist genauso Spekulation, selbst wenn 100% der Games heute 12gb perfekt laufen wuerde koennte das sich die naechsten 3 Monate komplett drehen. Wer recht hat werden wir in 3-5 Monaten sehen, da drum streiten lohnt nicht, hast deine Meinung ich meine.
Quidproquo77 schrieb:
Sinkende Preise sind normal wenn neue GPUs den Markt erreichen, da gibt es nichts zu diskutieren.
Ich weiss nicht wie du immer auf Preise kommst, das Problem ist nicht der Preis, sondern der Aufruestzwang, wer 800 Euro zahlt will nicht in einem jahr auf 1080p in Medium mit 65fps durchschnitt spielen, der will mehr, das heisst er muss aufruesten. Es geht um Luegen, selbst wenn sie nur impliziert sind, die Luege war das teilweise 8 4060 aber eben auch 12gb auf absehbare Zeit (nicht nur 6 Monate) noch super laufen werden und es wert ist 800 euro in sowas zu investieren, und das war ne Luege. Und Leute regen sich nunmal auf wenn man sie verarscht, selbst wenn du das anders siehst relevant wird ja sein was 4070 (ti) kaeufen dann empfinden in 3-6 Monaten.

Ich wette mit dir das einige Nvidia Kunden sich dann drueber aufregen werden, was willst wetten, ja mag unfair sein, irgendwer regt sich immer auf, aber ist schwer das irgendwie anders zu qualifizieren ne representative Umfrage von 4070 (ti) Kaeufern werden wir wohl nicht bekommen.

Quidproquo77 schrieb:
Welche Konsolengeneration meinst du? Die aktuellen Konsolen haben nur 16GB verbaut. Da könnten durchaus 10GB für die Texturen benutzt werden, aber das ist ja jetzt nicht so viel. Playstation 6 Release ist irgendwann 2026 oder 2027.
Laut deiner Aussage braucht ein PS4 und eigentlich sogar PS3 game das bei der PS4 und XBOX nur 8gb Ram hatte 7gb VRAM Verbrauch auf dem PC, selbst in % ist das mehr als deine 10/16 und das ist schon nach entweder massivsten Monatelangem Optimieren oder deine Angaben stimmen nicht, nicht richtig gemessen worst case scenarien nach 30/60 Minuten spielen etc.

Quidproquo77 schrieb:
Ich finde es wesentlich interessanter die Auswirkungen von Raytracing zu sehen als auf eine kommende V-ram Knappheit zu hoffen.
Soso die wenigen Games wo >12gb gebraucht werden kann man ignorieren sind ja nur wenige die Games die aber Raytracing fuer mehr als Schatten oder irgend so was (light Raytracing) benutzen, die 5 Spiele oder was es sind die sind ganz wichtig. Ja sehr viel Cherry Picking.


Quidproquo77 schrieb:
Bisher haben Spieler vor allem in QHD überhaupt keinen Grund eine Einstellung auf der 4070Ti auch mit RT oder PT runterzudrehen, wohl auch nicht bis zur nächsten Gen und danach gibt es auch Regler.
Natuerlich haben sie das teils sogar in Fullhd. Nicht bei meisten Games weil die meisten games eben auf ner Tomate laufen, Koennen wir uns mal auf TOP AAA Titel beschraenken und nicht auf irgendwelche komischen Tests mit Doom 4?
Quidproquo77 schrieb:
Ich verstehe deinen Standpunkt nicht.
Mein Standpunkt ist man wird von AMD nicht ueberrascht man sah in benches was man bekommt und hat es gekauft, im Gegenteil FSR3 und co sind nette verbesserungen die man damals noch nicht sehen konnte, Entweder dinge bleiben gleich oder sie werden besser.
Nicht so bei Nvidia, es werden und wir koennen uns ueber die Anzahl und die Zeitraeume streiten aber es wird passieren, neue Spiele raus und AMD released auch nichts das den Wert der 7900XT in Frage stellt und diese entwertet, sicher man koennte mit der 7800XT argumentieren aber die wurde ja billiger released und ist auch gutes Stueck lahmer und hat weniger VRAM.
Quidproquo77 schrieb:
Es ist bei weitem nicht so schlimm wie du es darstellst
Das ist rein subjektiv, das ist wie wenn wir den selben Schmerz haben und du dem ne 8 gibst und ich ne 5 oder umgekehrt, das ist kein Objektiv Messbarer Fakt.

Das Problem das ich sehe ist primaer folgendes, wenn Nvidia naechstes jahr ne leicht gedrosselte 4070 5% langsamer fuer 350 oder 400 Euro veroeffentlichen wuerde, ja wuerde auch zu problemen fuehren und klar wuerde es bei 4060 Kunden zu nem Shitstorm fuehren, aber es wuerde die Entwickler sogar noch MEHR incentivisen Games auf 12gb VRAM gut laufbar zu kriegen.

Wenn man aber ne 4070 Super released mit 16GB und eventuell die 4070 ti vom Markt nimmt, ja dann haben die Entwickler noch weniger incentive das zu tun, war auch so schon fraglich, ob sie sich den Extra Aufwand machen, aber damit bombadiert man das noch mehr. Es geht also nicht darum das die 4070 einfach durchs alter an Wert verliert sondern das Nvidia AKTIV durch ein Konkurenzprodukt den Wert mindert.
 
Zuletzt bearbeitet:
nkler schrieb:
Lautet die Reihenfolge der Markteinführung nicht SX3Y oder RSX3Y, wenn man den Roadster mitzählt?
Der Roadster hat in dem Sinne ja keinen Buchstaben.
Aber du hast Recht, Model X kam tatsächlich vor dem Model 3 auf den Markt.
Ich bin da einfach nach der Auflistung in der Wikipedia gegangen.
tesla.jpg
 
@blackiwid
Hast du denn diese ganzen Karten und Games getestet?

Ich habe eigentlich immer eine 4090 und XTX im Einsatz.

Habe aber auch einige PCs mit ner 3090, XT, 4080, 4070ti, usw..

Ich habe nirgends VRAM Probleme.
Hogwarts wurde ein paar Mal gepatcht, 0 Probleme, Last of Us eben so.
Cyberpunk, Starfield und Co ..alles läuft wunderbar.
Die Settings muss man auch bedienen können.

Und du redest nur von VRAM. Ansonsten nichts.
DLSS Balanced ist für mich zB >>> FSR Quality in fast allen Games.
Rechnest du sowas auch ein?
Frame Generation?
Ray Tracing?

Oder VRAM-Only?
Was bringen denn die 16GB Vram einer RX 6800 XT?
Hardware Unboxed hat das doch dieses Jahr gegengetestet mit ner 3080 10gb. -->
Nur Hogwarts bereitet bei der 3080 und das war vor den besagten Patches. ---> Und sogar dieser Test ist komplett egal, da die 6800 XT mit RT hier in 4k 20min FPS und max. 24 FPS erreicht --> Prozentuell natürlich deutlich besser als die 3080 10gb, dennoch unspielbar. Ohne RT ist die Performance schon da in 4k sehr ähnlich (-+ 1-2 FPS bei min/max)

Also alles easy, Konsolen nutzen max. 12,5 GB Vram und werden da bevorzugt entwickelt.

Einfach das Produkt besorgen, welches einem passt und gut ist.

Würde auch tendenziell eine XTX einer 4080 vorziehen, da mir Effizienz egal ist und die Rohleistung in zB CoD zugute kommt und sie meist gute 200eur günstiger ist.

Wer aber zB Raytracing bevorzugt, muss quasi zur 4080 greifen, wenn die 4090 nicht im Budget ist.

Baue auch grad nen "effizienten" Rechner mit nem 7800x3d + 4080 und mal sehen wie der mich bedient.. :-)
 
  • Gefällt mir
Reaktionen: Quidproquo77
frames p. joule schrieb:
Äh, in was für einem Einsatz wenn ich fragen darf?

Anhang anzeigen 1418493
Mehrere Standorte, mehrere Projekte, mehrere PCs - Somit benutzt man nunmal mehrere Geräte! :-)

@blackiwid
Spielst du also mit ner XTX oder XT in 4k und Full Raytracing Cyberpunk?
Oder regelst du die Settings runter? Das ist kein Problem? Oder rosarote Brille und nur deine Settings und Einsatzszenarien gelten?

Ansonsten gibt es aktuell kein Spiel, wo 16GB Vram zu wenig sind ;)
 
Zurück
Oben