Auf 5070 etc. warten?

Baal Netbeck schrieb:
Ich zahle doch nicht 550€ für eine 9070XT, wenn ich für 600€ eine Nvidia Karte bekomme, die mir deutlich besseres Upscaling und mehr Integration des upscalings in Spielen bietet....höchstwahrscheinlich eine bessere Energieeffizienz und eben die Marktmacht von Nvidia, die Spieleentwickler auch mal dazu bringt AMD Karten aktiv zu benachteiligen(z.B. FFXV und Gameworks).

16GB VRAM sind gut, aber noch nicht zwingend nötig.
Tia so gibt es unterschiedliche Meinungen. Warum jemanden unterstützen der aktiv "meinen" Markt (also den Gamer allgemein) negativ beeinflusst? Ich sehe übrigens regelmäßig über 12GB VRAM Verbrauch, zwingend nötig ist es natürlich nicht wenn man mit Texturen auf niedrig spielen will ;)
 
Baal Netbeck schrieb:
Utopie ja....notwendig für AMD um Marktanteile zu gewinnen...absolut.
Da geb ich Dir absolut recht. Ich bezweifle allerdings, dass wir Performance auf Niveau einer 5070 bei AMD sehen werden. Zumal DLSS4 mit MFG und Reflex schon ein Brett ist, an dem wohl niemand vorbei kommt. Alle "Previews" sprechen eine andere Sprache. Sollte jetzt noch Intel von der anderen Seite mit einer B770 auf dem Niveau einer RTX4070 um die Ecke kommen und den Preisgestaltung von ihrer doch recht achtbaren B580 durchziehen wird es ziemlich spannend werden.

TheGhost31.08 schrieb:
Warum jemanden unterstützen der aktiv "meinen" Markt (also den Gamer allgemein) negativ beeinflusst?
Aus der Kategorie: sag dass Du keine Ahnung hast, ohne zu sagen, dass Du keine Ahnung hast.
Ein Anfang das aufzufrischen wäre eventuell das Video von DF, in dem in 2h gezeigt wird, wo und von wem die Entwicklung in Sachen "Zukunft der Gaming-Grafik" gemacht wird.

TheGhost31.08 schrieb:
Ich sehe übrigens regelmäßig über 12GB VRAM Verbrauch,
Wo "siehst" Du das denn? Wenn man natürlich eine Mittelklasse GPU nutzen will um auf 4k zu spielen, muss man wahrscheinlich noch ganz andere Sachen als nur die Texturen "auf niedrig" stellen. PCGH hat dazu kürzlich einen Test veröffentlicht und die RX7600 in 8GB und 16GB nebeneinander gestellt. Vielleicht auch nochmal was zum "auffrischen". Spoiler: 8GB sind in 7/20 Fällen zu wenig. Ich denke auch, dass für die Mittelklasse (max. QHD) 12GB der Sweetspot sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr und Baal Netbeck
AwesomSTUFF schrieb:
Sollte jetzt noch Intel von der anderen Seite mit einer B770 auf dem Niveau einer RTX4070 um die Ecke kommen und den Preisgestaltung von ihrer doch recht achtbaren B580 durchziehen wird es ziemlich spannend werden.
Zumindest hier gibts aktuell wohl doch noch gewisse Probleme gerade mit langsameren CPUs, und die allermeisten werden halt kaum eine B580 mit einem 9800X3D kombinieren, hier bleibt abzuwarten, ob Intel das Problem treiberseitig in den Griff bekommt.
Preis muss man natürlich auch schauen, wo sich dieser einpendelt, vor allem in den USA waren, die ja nochmal ein Stück attraktiver da hier gerade der Preis zur 4060 weiter auseinander war als bei uns.
 
  • Gefällt mir
Reaktionen: AwesomSTUFF und Baal Netbeck
AwesomSTUFF schrieb:
Aus der Kategorie: sag dass Du keine Ahnung hast, ohne zu sagen, dass Du keine Ahnung hast.
Ich habe nicht behauptet das irgendjemand dies tut, ich habe ein Verhalten in Frage gestellt ohne Wertung. Aber deine Kommentare zeigen ja das du deine Wortwahl nicht besonders freundlich ist.
 
Mork-von-Ork schrieb:
hier bleibt abzuwarten, ob Intel das Problem treiberseitig in den Griff bekommt.
Hier würde ich INTEL mehr Kompetenzen zusprechen, als z.B. AMD. Ich hab selber eine ARC A310 als Streaming-Encoder in meinem "Zweitrechner" und sehe da ja auch wie sie alls paar Tage neue Treiberrevisionen raushauen und bei Alchemist haben sie ja auch innerhalb weniger Wochen viele der Probleme gelöst.
Ich sag nicht, dass bei den Battlemages alles tutti wäre, aber für eine 300€ GPU und als zweite Generation des Wiedereinstiegs in dediGPUs finde ich das was sie machen respektabel und die Kundschaft scheint dies ja auch zu wertschätzen.

TheGhost31.08 schrieb:
Aber deine Kommentare zeigen ja das du deine Wortwahl nicht besonders freundlich ist.
Korrekt. Bin ja nicht hier um Freunde zu finden und da Du ja sehr polemisch kommentierst finde ich das okay von mir ;)
 
AwesomSTUFF schrieb:
Hier würde ich INTEL mehr Kompetenzen zusprechen, als z.B. AMD
Weil Intel delivers? Das ist wie alt, 200 Jahre..?

Im earnest, beide Hersteller haben ne ganze Reihe hervorragende Leute und sehr viel Erfahrung. Im Moment hat AMD aber den besseren Lauf. War mal anders.

Mögliche Probleme sind ein Teil der Strafe für "early adopter", neben hohen Kosten. Die Intel-Grakas sind vielversprechend, aber ob das auch noch in nem halben oder Jahr so beurteilt wird.. werden wir dann sehen. Würde ich eine Empfehlung für sowas geben? Nein. Übrigens auch nicht für die Nvidia 5xxx-Dinger, auch nicht für brandneue, sehr teure Boards usw.

Empfehlen sollte man eigentlich eher abgehangene, erprobte Sachen. Und da landet man bei Grakas im Moment bei Nvidia oder AMD als Hersteller (der Chips).

Zum eigentlichen Thema. Wann kaufen, ist jetzt der richtige Zeitpunkt..?

Der richtige Zeitpunkt, nen PC zu kaufen, ist genau dann, wenn man ihn braucht. Wenn man ihn nicht braucht, kann man den Zeitpunkt selbst bestimmen. Das kann man auf den Sanktnimmerleinstag schieben, weil ständig was neues kommt, und man spart so auch sehr viel Geld und Zeit. Wenn man aber doch Geld für etwas ausgeben möchte, was GARANTIERT in absehbarer Zeit wieder "überholt" ist, weil man mit den Kisten halt doch ein paar nette Spiele spielen oder andere nette Sachen machen kann, dann sollte man sich zuerst von der Idee lösen, dass man irgendwie vermeiden kann, Geld zu "verlieren" oder dass es den "optimalen" Zeitpunkt gibt.

Im Moment finde ich die Argumentation, noch ein bischen zu warten, ganz vernünftig, weil die Infos zu den 5er Nvidias tatsächlich einen gewissen Effekt auf Preise haben kann. Wenn, muss man dafür dann aber vermutlich doch länger als 2 Wochen warten. Bis dahin ist dann die Daily-POTUS-Muppetshow gestartet, und Zölle werden alle drölf Minuten verdoppelt, Grakas dürfen nur noch an Friends-of-Donald exportiert werden und Elon hat einen neuen Char in POE2 gekauft. Oder den Hersteller und POE2 eingestampft.

Nix genaues weiss man nicht, PC Kauf kostet immer Geld, triff deine Entscheidung, wann, und dann hol dir ne tolle Kiste und hab viel Spaß damit.
 
TheGhost31.08 schrieb:
Warum jemanden unterstützen der aktiv "meinen" Markt (also den Gamer allgemein) negativ beeinflusst?
Musst du ja nicht, aber du wirst den Großteil der Kunden nicht davon überzeugen das schlechtere Produkt zu kaufen, wenn sie dafür keinen großen finanziellen Ausgleich sehen.

Die letzten beiden Desktop GPUs die ich gekauft habe, waren eine Vega64 LC und eine Radeon VII ....also ich habe mir selbst AMD Produkte mit schlechtem Preis/Leistungsverhältnis gekauft...Freunden empfohlen hätte ich keine der beiden Karten.
Ich hatte auch viel Spaß mit beiden Karten....vor allem weil ich gerne optimiere und es bei beiden Karten viel Potential für Optimierungen gab.

Aber die Zeiten haben sich gewandelt und die Spiele sind voll von rauschenden Effekten, die man mit früheren AA Techniken nicht beruhigt bekommt...und früher war auch "kein AA" eine Option für mich...das gilt nicht mehr.
Gegen TAA in 1440p habe ich eine Abneigung wegen der Unschärfe der Oberflächen.
Und da bleibt nur XeSS/FSR/DLSS also mögliche Alternativen.
XeSS ist nicht so oft vertreten gewesen und auch nicht perfekt....DLSS kann ich nur am Laptop nutzen und sehe da wie toll es aussehen kann....und FSR ist einfach in den meisten Spielen nicht zufriedenstellend....Stand Anfang 2025.

Ohne ein FSR Upgrade, das mir das Rauschen eliminiert, ohne Unschärfe/Artefakte hinzuzufügen, ist eine AMD Karte, für mich, einfach keine Option mehr. Sonst hätte ich auch schon auf eine neuere AMD Karte gewechselt.

Das Warten auf ein GPU Upgrade dauert bei mir nun schon sehr lange an und ich wäre auch bereit dieses Mal sehr viel Geld auszugeben. Wird sich zeigen, wie es sich im nächsten Jahr entwickelt...was die neuen Upscaler in der Praxis bieten und wie die Leistung grundsätzlich aussieht.

Wenn AMD liefert, dann gerne wieder AMD....wenn sie nur solala liefern, dann eher eine RTX5090....ganz andere Preisklasse.... aber es kommt mir mehr darauf an, ob mich ein Produkt begeistern kann.

Ich bin aber auch komisch und so gar nicht der typische rationale Käufer.
 
StefanDo schrieb:
Weil Intel delivers? Das ist wie alt, 200 Jahre..?

Im earnest, beide Hersteller haben ne ganze Reihe hervorragende Leute und sehr viel Erfahrung. Im Moment hat AMD aber den besseren Lauf. War mal anders.
Das hat wohl eher was mit der Software zu tun. Intel hat das größere Devteam und arbeitet auch sehr eng mit verschiedenen Softwareanbietern zusammen. Man denke an die Windowsthemen, gefühlt musste AMD öfter nachpatchen als Intel damit neuere CPU Generationen und Windows bzw. umggekehrt sauber liefen.

Intel hat(te) einfach eine viel Größere Macht auch Geldtechnisch als AMD, das merkt man jetzt auch z.B. wenns um GPU Lösungen geht.

Das soll AMD nicht abwerten sondern ist nur eine Feststellung.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Baal Netbeck schrieb:
AMD muss Nvidia massiv im Preis unterbieten um das zu schaffen. Sie dürfen nicht 20-50€ günstiger sein als der Konkurrent in Grün.

Wenn die 9070XT auf einer Stufe mit der RTX 4070 liegt, dann sind 450€ eher schon zu viel.
Auf einer Stufe mit einer RTX 4070 Super...450€ werden zum guten Deal.
Auf einer Stufe mit einer RTX 5070 und 450€ werden zum Verkaufsschlager.

Ja das meine ich auch, nur glauben tu ich es nicht :D

AwesomSTUFF schrieb:
PCGH hat dazu kürzlich einen Test veröffentlicht und die RX7600 in 8GB und 16GB nebeneinander gestellt. Vielleicht auch nochmal was zum "auffrischen". Spoiler: 8GB sind in 7/20 Fällen zu wenig. Ich denke auch, dass für die Mittelklasse (max. QHD) 12GB der Sweetspot sind.

Das mag sein, und trifft auch zu, aber man kauft ja eine GPU nicht nur für Heute und Morgen, sondern vielleicht auch für Übermorgen und etwas mehr.

Das ist natürlich auch ganz individuell je nach Anwender.

Der eine kauft sich jede neue Generation eine neue GPU und schaut, dass er seine alte wieder gut los wird.
Der andere kauft sich seine GPU und behält sie so lange, bis sie nicht mehr die gewünschte Leistung erbringt, und schmeisst die alte weg oder verscherbelt sie um eine Bagatelle.
Wieder der nächste (so wie ich) kauft sich eine GPU und nutzt sie fast 10 Jahre. Einerseits vielleicht, weil die Anforderungen Softwareseitig nicht so hoch sind, oder die Ansprüche an Qualität nicht so hoch sind.


Meine letzte GPU war die RX580 (8GB). Die hatte zu ihrer Zeit verhältnismäßig viel Speicher. Die habe ich bis vor ein paar Wochen genutzt. Zum Schluss hin hat dann (in meinem Fall) Forza Horizon einige male gequietscht, dass der Arbeitsspeicher der GPU nicht ausreicht. Aber ich finde ich bin lange damit ausgekommen. Und zur 8GB Zeit war der Arbeitsspeicher in den GPUs noch nicht so das Thema wie aktuell.

Es gibt ja auch bereits genug Fälle wo die 12GB aktuell nicht ausreichen, aber ja sein wir uns ehrlich, das sind die Ausnahmen, bzw. können diese Fälle nicht unbedingt als repräsentativ angesehen werden.

Aber mittelfristig in 4-6 Jahren sehe ich das Potential, dass 12GB oft zu wenig sein könnten. Und wenn ich mir jetzt (eine teure) GPU kaufe, mit dem Vorsatz diese länger zu halten, dann würde ich mir in den Arsch beißen, wenn ich in ein paar Jahren dann einen Flaschenhals beim Speicher auf der GPU hätte.


Klar, bei einer 7700XT (mit nur 12GB) ist das bei dem Preis noch verkraftbar. Aber bei einer 4070 Ti um 1000 Euro geht das mMn gar nicht.

Das wäre als würde ich mir ein aktuelles System mit DDR5 kaufen, und da nur 2x8 GB rein stecken. Mit dem grossen Unterschied, die DDR5 am MB kann man leicht auswechseln. Bei der GPU muss man die komplette GPU auswechseln.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Man muss sich aber auch davon verabschieden bzw. einschränken das man im PC Bereich Leistung auf Vorrat kaufen kann.

Früher haben die Unternehmen sich im Übertrupfen der Leistung überboten, für den Kunden war das ein Segen auf der einen Seite gab es den Preiskampf und auf der anderen noch den Leistungskampf.

Der Markt ist kleiner und träger geworden, große Leistungssprünge wie in den 2000er und 2010er gibt es kaum noch. Die Unternehmen und deren Produkte gleichen sich immer mehr an was die Leistung und den Preis angeht.

Parallel dazu dauert es mittlerweile länger ein gutes Spiel zu Entwickeln als vor 10 oder 20 Jahren. Es ist alles komplexer geworden, auch weil die Leute und Publisher immer mehr wollen.

Es ist schlicht nicht gewollt das man seine Hardware 5-10 Jahre nutzt, wobei ich das noch nie gemacht habe aber auch nicht immer sofort immer aufgerüstet wenns was neues gab.
Die Hersteller würden wollen das wir am liebsten aller 1-2 Jahre Neukaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
sikarr schrieb:
Der Markt ist kleiner und träger geworden, große Leistungssprünge wie in den 2000er und 2010er gibt es kaum noch.
sikarr schrieb:
Die Hersteller würden das wir am liebsten aller 1-2 Jahre Neukaufen.
Nur das genau dadurch halt komplett der Anreiz entfällt genau das zu tun weil die Sprünge halt doch ein Stück Weit kleiner geworden sind.
Zu Zeiten, in denen es dann bei der neuen Gen schon mal 70-80% mehr gab, bei etwa gleichem Preis da konnte man ja ein entsprechendes Aufrüsten noch verstehen.
Wobei wir bei CPUs ja von 2011-2017 auch ziemlichen Stillstand hatten, bei GPUs sind die Sprünge leider aktuelle halt auch relativ klein gerade im unteren Bereich tut sich gefühlt kaum etwas und das mehr darf man dann entsprechend bezahlen.
Wenn ich überlege meine Karte wird bald 4 Jahre alt, Preis seinerzeit 650€, für das gleiche Geld bekomme ich aktuell großzügig gerechnet eine 7900 XT oder 4070S, beides wäre jetzt kein Sprung der einen Neukauf für mich rechtfertigen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und sikarr
Mork-von-Ork schrieb:
Nur das genau dadurch halt komplett der Anreiz entfällt genau das zu tun weil die Sprünge halt doch ein Stück Weit kleiner geworden sind.
Deswegen gehen auch die Preise hoch, die Hersteller wissen das und denen brechen die Einahmen weg. Konsole, Tablet und Handy tun ihr übriges dazu.
Mork-von-Ork schrieb:
Wobei wir bei CPUs ja von 2011-2017 auch ziemlichen Stillstand hatten, bei GPUs sind die Sprünge leider aktuelle halt auch relativ klein gerade im unteren Bereich tut sich gefühlt kaum etwas und das mehr darf man dann entsprechend bezahlen.
Ich fand jetzt nicht das die Sprünge zwischen 2011-2017 kleiner waren, eher danach.

Bei den CPUs war das Intels verschulden auf der einen Seite, weil sie es aus mangelndem Konkurrenzdruck schlicht verpennt oder geplant haben. Auf der Anderen Seite gab AMD das die Möglichkeit für ein Comeback, Intel braucht AMD also haben sie es wohl einfach vermieden so richtig Gas zu geben, das hat nur AMD.
Ohne diese "dunklen" Jahre :D wäre Intel wohl schon viel eher in Schieflage geraten oder hätten jetzt vielleicht einen Technologievorsprung man weiß es nicht ich tippe aber auf Ersteres.
Mork-von-Ork schrieb:
Wenn ich überlege meine Karte wird bald 4 Jahre alt, Preis seinerzeit 650€, für das gleiche Geld bekomme ich aktuell großzügig gerechnet eine 7900 XT oder 4070S, beides wäre jetzt kein Sprung der einen Neukauf für mich rechtfertigen würde.
Jain, dafür kannst du gewisse Techniken wie DLSS3 u.a. nicht einsetzten. Klar ist die Frage ob man das braucht aber ich denke in den nächsten Jahren wird die Softwareseite bei den GPUs immer wichtiger und die Hardware immer Einheitlicher, Unterschiede macht dann nur noch die Software, daher auch mein Kommentar in #28.
AMD ist im Vergleich zu Intel und nVidia eher ein Winzling, und das macht sich in den verfügbaren Ressourcen bemerkbar.
 
sikarr schrieb:
Ich fand jetzt nicht das die Sprünge zwischen 2011-2017 kleiner waren, eher danach.
Das bezog sich hier auch explizit auf CPU, ich hatte mir 2011 einen neuen PC mit einem 2500K gebaut, wenn ich dann so schaue, was man dann 2017 mit einem vergleichbaren 7500/7600K bekommen hat, war das halt echt nicht viel mehr da gabs erst als Zen kam wieder etwas mehr Bewegung.

sikarr schrieb:
Ohne diese "dunklen" Jahre :D wäre Intel wohl schon viel eher in Schieflage geraten oder hätten jetzt vielleicht einen Technologievorsprung man weiß es nicht ich tippe aber auf Ersteres.
Schwierig, aber vermutlich hätten wir zumindest früher mehr als 4 Kerne im Mainstream gesehen, das wäre technisch ja ziemlich sicher auch vor der 8. Gen für Intel möglich gewesen.

sikarr schrieb:
Jain, dafür kannst du gewisse Techniken wie DLSS3 u.a. nicht einsetzten. Klar ist die Frage ob man das braucht aber ich denke in den nächsten Jahren wird die Softwareseite bei den GPUs immer wichtiger und die Hardware immer Einheitlicher, Unterschiede macht dann nur noch die Software, daher auch mein Kommentar in #28.
AMD ist im Vergleich zu Intel und nVidia eher ein Winzling, und das macht sich in den verfügbaren Ressourcen bemerkbar.
Klar das muss man in den nächsten Jahren sehen wobei ich ja sowohl eine AMD als auch eine Nvidia Karte als Vergleich herangezogen habe, wenn ich jetzt die Nvidia Karte nehme würde ich für das Geld das ich seinerzeit für meine 6800 XT bezahlt habe natürlich die zusätzlichen Softwarefeatures bekommen, mehr RT Leistung und weniger Verbrauch, in reinem Raster etwas 10% Mehrleistung und hätte noch 4GB Vram weniger das ist halt jetzt kein Sprung, um einen solchen zu haben müsste ich halt gehörig mehr ausgeben und der Preis für die 6800 XT war schon meine wohl mit Abstand teuerste GPU hier spielte halt rein, dass ich diese seinerzeit zur UVP bekommen habe und praktisch mit dem Verkauf meiner Vega bezahlt habe.
Gut Fairerweise muss man noch sagen, dass aktuell natürlich eine neue Gen vor der Tür steht wie viel sich im unteren und mittleren Bereich tut muss man sehen.
 
  • Gefällt mir
Reaktionen: sikarr und Baal Netbeck
[
KGR84 schrieb:
Wieder der nächste (so wie ich) kauft sich eine GPU und nutzt sie fast 10 Jahre.
Sicherlich. 10 Jahre ist nicht unüblich ausserhalb der Hardware-Fan Bubble.
Allerdings ist Forza auch wieder einer dieser "bedauerlichen Einzelfälle". Der RX7600 geht deutlich früher als in 10 Jahren die Luft aus als einer (damals TopEnd) RX580 und dabei ist beinahe unerheblich ob sie 8 oder 16GB hat. Ich könnte nicht mal aus dem Stegreif sagen ob die RX7600 in der Rohleistung deutlich besser als eine RX580 ist 🫣

EDIT: die RX7600 ist besser, habs gegoogelt
 
Zuletzt bearbeitet:
Zurück
Oben