News Wochenrück- und Ausblick: Teure 200-Watt-Grafikkarte und noch teurere 700-Watt-CPU

@Özil:

Und du glaubst das Spielehersteller ordentlich optimieren wollen, die werden nur das nötigste tun. Und wenn HighRes Texturen ins Spiel kommen, gibt es nicht mehr viel zum Optimieren.

Schaue dir doch mal das folgende Video an, du wirst dich wundern wie schlecht ein 3070 jetzt schon abschneidet, und es wird nicht besser werden, wenn jetzt in einigen Spielen die 12GB knapp werden.



@rtx4070: Die 8GB einer 3070 reichen doch nicht mal in 1440p. Die 3070 ist nach zwei einhalb Jahren ein Vram Krüppel.
 
Zuletzt bearbeitet:
Laphonso schrieb:
AMD liefert nicht, ausgerechnet in Nvidias Höchstpreisphase nicht.
Von FSR3 ist auch nix zu sehen.
Riecht streng nach eine Art RDNA3+ als Grundlage für die kleineren Karten. Das führt dann zwangsläufig zu Verzögerungen und dem "großen Schweigen". Unternehmenspolitisch muss man sich da - leider - kommunikativ auf die Lippen beißen.

Von FSR3 hätte ich eigentlich schon einen Teaser erwartet. Aber daraus ziehe ich jetzt noch keine weiteren Schlüsse. In drei Monaten wäre das bei unveränderter Lage allerdings anders. Die Softwarefunktionalitäten umfassen heutzutage viel mehr als "stabile" Treiber.
 
  • Gefällt mir
Reaktionen: Laphonso
engineer123 schrieb:
Ich habe mit der 3800, der 1070 und davor der 970 keinerlei gamebreaking
bugs erlebt soweit ich mich erinnere.
das kann ich, für mich, für die AMD Karten die ich hatte (7950, 580, 6900) ebenfalls in den Raum stellen, nur dass private Erfahrungsberichte ohne nähere Details und Verifikationen aus der Welt der Einzelschicksale stammen und keinerlei echte verallgemeinernde Gültigkeit haben, ganz gleich ob sie positiv oder negativ sind. Probleme (von kleinen Nickeligkeiten hin bis zu "Gamebreaking") bei Spielen wie Anwendungen haben alle hin und wieder (sei es AMD, Intel oder Nvidia) und ich will hier Nvidia durchaus sehr positiv zu gute halten, dass sie ihre Probleme oft genug schneller gefixt bekommen (wobei das nicht bedeutet, dass jeder Fix nach bereits einer sehr kurzen Zeit existent / verfügbar ist), das ist leider ein Punkt, der bei AMD ab und an nicht so gut funktioniert und negativ gewertet werden darf und muss.

Allerdings gehört zu dem Treiber auch die Software, über die Einstellungen an der Karte (Settings zur Bildqualität, Takt- / Lüftereinstellungen, OC / UV, individuelle Parameter zu einzelnen Anwendungen / Spielen, diverse Features ...) und hier muss man einfach festhalten, dass Nvidia hinterher hinkt. Es wäre ja schon positiv, wenn man sagen könnte, dass Nvidia an der Front "lediglich ein paar Jahre hinten dran ist", allerdings trifft die Formulierung "2 Jahrzehnte hinten dran" den Nagel viel eher auf den Kopf.
Während bei AMD seit ein paar Jahren alles in einer Anwendung schön verpackt und logisch unterteilt drin ist, muss man bei Nvidia über mehrere extra zu installierende Softwareebenen ran, zum Teil sogar mit Fremdsoftware... Sorry, aber das ist mittlerweile "Frickelei" wie sie im Buche steht.


rtx4070 schrieb:
Das sieht 90% des Marktes aber anders. Intel hat Amd in 2 jahren überholt wenn es so weitergeht. Marktanteile
es scheint den Balken in diversen Benches nach tatsächlich so zu sein, dass Intel weit mehr als die eine oder andere Schaufel Kohle in den Kessel der Arc Karten nachgelegt hat und die Treiberproblematik mit dem tatsächliche erforderlichen Engagement angeht (ich habe keine Arc Karte, kann mir kein echtes Urteil bilden, aber die Resonanz zu der Treiberproblematik bei den Arc Karten scheint mit der Zeit einfach positiver zu werden). Wenn das so ist, ist das gut! In der Hinsicht wäre es z.B. cool, wenn Computerbase in regelmäßigen abständen die Treiber und Performance Entwicklung der Intel Karten mit einem ausführlichen Test beobachtet und mit den vorangegangenen, seit dem Release der Karten, vergleicht. Aber...
... inwiefern spielt das eine Rolle bei der Thematik "Vergleich der Treiber Qualität von AMD und Nvidia"?
 
verschwommen kann ich nicht lesen. Weil es fakt ist das nvidia dort besser ist, bezahlt man ja auch fürstlich
 
Ja ich denke das Nvidia wirklich oberflaechlich bezogen auf viele heutige Games ne gute 4060 releasen wird, mit 8gb ram, die dann in 1 Jahr bei den meisten (AAA) Spielen extrem schlecht abschneiden wird, aber die Karte wird man billig anbieten. Die 4070 halte ich nicht fuer nen guten Deal, aber man laeuft nicht komplett in nen Messer die 12gb werden wohl irgendwie mit biegen und DLSS halbwegs brauchbar sein/bleiben für ein paar Jahre, wenn auch mit zumindest kleinen Kompromissen und RT wird man wahrscheinlich meist ausschalten muessen wenn man nicht 4x4 Pixel spielen will.

aber die 4060 wird die schlechteste Karte mit der schlechtesten Langzeitwerterthalt in den letzten 10 Jahren Grafikkartengeschichte haben. Da man da die 4070 recht teuer haelt um dann vermutlich mit vermeintlich gutem Preis die Leute zum 4060 kauf nutchen will, macht die Sache perfide.

Ausser Nvidia wuerde die 4060 mit 10gb raus bringen dann wuerden sie dieses totale Marketing-Disaster abwehren, das halte ich aber für unwahrscheinlich.

Aber wird viele tolle Forendiskussionen nach dem Motto "told you so" dann geben.
 
Also für diese Preise 😅 ne danke ich habe eine 3070 Ti ich werde auf die 5xxx warten, und wenn die teuer sind dann kaufe ich mir eine 4xxx wird bestimmt in 1 Jahr billiger 😅
 
ich wette die 4060 hat 12gb u d ist auf 3070 niveau. Beschneide den chip ein bisschen mehr von der 4070. alles 60 chips wenn wir ehrlich sind.
 
Bin am Überlegen wie ich verfahren soll. Wollte damals mir einen neuen ITX Rechner zusammenbauen und seitdem liegt hier eine 3060 12GB rum (danke AMD für eure sündhaft teuren ITX Bretter die mich davon abhalten...). Hab mich damals dazu entschieden weil 200 Watt meine Absolute Schmerzgrenze war und ich eigentlich nicht erwartet hätte das NV mit einer 4070 12GB und 200W um die Ecke kommt die deutlich mehr Leistung bietet.

Eventuell hol ich mir die 4070 und lass die 3060 als Ersatz bei einem Defekt im Regal stehen. Aber erst nachdem ich ein ITX Board mit passender CPU habe. ^^
Ergänzung ()

blackiwid schrieb:
Nur 9,8% sagen "tolle Grafikkarte" <19% sagen "solide aber haut mich nicht vom Hocker" die restlichen 71,3% sagen "nicht sonderlich attraktiv" oder "ein Flop".
Ich geh davon aus das diese 71% völlig pissed sind sich eine GPU gekauft zu haben die von der P/L her um einiges schlechter ist als die 70. ^^

Wobei bei den Votern die sagen nicht sonderlich attraktiv es durchaus auch sein kann das die aus der Enthusiasten Ecke kommen und für sie persönlich alles unter einer 4080 nicht interessant ist.
 
Bullet Tooth schrieb:
@Özil:

Und du glaubst das Spielehersteller ordentlich optimieren wollen, die werden nur das nötigste tun. Und wenn HighRes Texturen ins Spiel kommen, gibt es nicht mehr viel zum Optimieren.

Schaue dir doch mal das folgende Video an, du wirst dich wundern wie schlecht ein 3070 jetzt schon abschneidet, und es wird nicht besser werden, wenn jetzt in einigen Spielen die 12GB knapp werden.



@rtx4070: Die 8GB einer 3070 reichen doch nicht mal in 1440p. Die 3070 ist nach zwei einhalb Jahren ein Vram Krüppel.
ja ich bin mir dessen sehr bewusst, beschäftige mich auch damit weil ich genau deswegen meine 3060ti verkauft habe (vor 3 Wochen)

die Videos von Hardware Unboxed kenn ich auch die von DLSS, deswegen kommt für mich AMD in 1440 nicht in Frage, FSR ist einfach minderwertig und DLSS besser als nativ (meistens)

also bleibt für mich nur die 4070 über für 1440p, fast 1000 € für 12 GB Vram geb ich sicher nicht aus (4070ti)
 
Lutscher schrieb:
Ich bin da auch mehr von Enthusiasten ausgegangen. Wer noch weniger spielt, braucht keine Karte für soviel Geld.
EDIT: Meine Empfehlung an Freunde und Bekannte geht eh in Richtung Konsolen, wenn nur gezockt werden soll, da die derzeitgen Preise für Grafikkarten in Relation zum Gebotenen viel zu hoch sind.
Na ja, nur, weil man weniger spielt, heißt es doch nicht, dass man sich max. Mittelklasse oder so in den PC baut.

Ich bspw. zocke eher nur am WE. Und das auch nicht immer. Und da sind es dann auch so, keine Ahnung, die 3-6h (nagel mich nicht drauf fest)
Abgesehen davon, dass ich lieber mit Maus+Tastatur zocke, hab ich auch Spaß an sowas wie UV oder RAM-OC.

Eine Konsole ist jetzt nicht so direkt eine Alternative für mich.
Dennoch möchte ich auch nicht in meinen wenigen Stunden Zockerzeit die Regler ganz nach links schieben müssen, um annehmbare FPS in UHD zu haben.
Unter der 3080, die ich aktuell habe, würde ich jetzt auch nicht gehen wollen.

Natürlich weiß ich, dass ich ich auch Nische bin. Allein schon deswegen, weil ich in UHD zocke und gerne auch an anderen Dingen meines Gaming_PCs rumfrickel.
Aber auch Wenig-Spieler haben durchaus auch einen gewissen Anspruch an Grafikqualität.
Das tut dann halt leider ziemlich weh im Portemonnaie. Daher muss die 3080 auch noch längere Zeit aushalten.
 
rtx4070 schrieb:
verschwommen kann ich nicht lesen. Weil es fakt ist das nvidia dort besser ist, bezahlt man ja auch fürstlich
dein erster iSpoiler? Falls du wissen möchtest wie man einen iSpoiler "bedient", frag doch einfach, gib dich nicht auf!

Unabhängig davon, nichts was hinter dem iSpoiler steckt, ändert was an der eigentlich Antwort zu deiner Nebelkerze, die ich zitiert habe.

wissen moderne AI Chatbots eigentlich wie mit iSpoilern umzugehen? frag nur für einen Freund
 
@rtx4070 letzte Preis von was? ^^

Aber mal ehrlich... wenn ich mir die Preise für die ITX Bretter von AMD anschaue dann wird mir speiübel. Dazu kommt ja dann noch der Preis für DDR5 sowie für den X3D. Das will ich eigentlich nicht ausgeben.

Oder ich geh auf den 5000er X3D noch auf DDR4 Basis. Dann wäre der Preis noch halbwegs realistisch.
 
Lutscher schrieb:
Ich sehe den Vorteil eher darin, dass die Karten an heissen Sommertagen leichter zu kühlen sind.
Naja die billigen Costums sind alle samt Müll deswegen ist die FE ja schon wieder nicht verfügbar, langsam verstehe ich warum EVGA nicht mehr NVs Lover ist, denke NV will die Boardpartner sowieso loswerden wie 3DFx damals.

Dann nochmal zum Stromverbrauch ja der ist gut nur interessiert eigentlich bei einer 600-800€ GPU nicht wirklich sonst gäbe es die RTX4090 und den i9 13900KS nicht.
Ergänzung ()

ZeT schrieb:
Aber mal ehrlich... wenn ich mir die Preise für die ITX Bretter von AMD
Naja Intel nicht wirklich besser, selbst bei mATX was ich brauche entweder teuer oder Müll.
 
Mcr-King schrieb:
Naja Intel nicht wirklich besser, selbst bei mATX was ich brauche entweder teuer oder Müll.
Das stimmt natürlich. Bei würde halt bei einer AM5 Lösung der DDR5 Ram noch hinzu kommen. Was blöd wäre da ich noch 64GB schnellen DDR4 rumliegen habe.

Für mich stellt sich die Frage ob ich unbedingt auf die neuste Generation umsteigen muss. Da würde sich eigentlich AM4 mit dem X3D anbieten.
 
ZeT schrieb:
Das stimmt natürlich. Bei würde halt bei einer AM5 Lösung der DDR5 Ram noch hinzu kommen. Was blöd wäre da ich noch 64GB schnellen DDR4 rumliegen habe.
Naja aber sage mal so wenn neu würde ich immer auf DDR5 setzen auch bei Intel S1700, habe ich beim meinen i5 damals auch gemacht und direkt DDR4 genommen gab auch i5 mit DDR3 im Abverkauf. nun ja hat dass leben des CPUs massive verlängert.
 
@Mcr-King Im Normalfall würde ich dem zustimmen. Aber wenn ich mir die Aufpreise für einen AM5 X3D, mITX Board und Ram anschaue, dann wäre das am Ende mehr als das doppelte an Unkosten.

Die Kohle würde ich dann in ein komplett neues System investieren was dann wohl eher auf die nachfolgende Generation hinaus laufen würde.
 
  • Gefällt mir
Reaktionen: Mcr-King
ZeT schrieb:
Ich geh davon aus das diese 71% völlig pissed sind sich eine GPU gekauft zu haben die von der P/L her um einiges schlechter ist als die 70. ^^
Welche soll das sein? nehmen wir mal die RTX 4080 die overall 65% schneller ist, also 65% Aufpreis zur 4070 rechen wir mit den niedrigsten Preisen 640 Euro, sind das umgerechnet 1056 Euro. Auf den ersten Blick bisschen billiger wie ne neue RTX 4080, ca. 200 euro, aber sie hat 16gb ram und spiele wo die fps bei der einbrechen werden oder abstürzen wenn der Vram aus geht werden mit der 4080 laufen.
Die Karten für 640 Euro haben aber 0 Übertaktung und selbst übertakten ist wegen dem geringen Stromanschluss auch sehr begrenzt nur möglich, ne nennenswert übertaktete Karte gibts erst ab 720 Euro und selbst das sind nur ca. 5% Boostclock. Aber die erste 4080 hat schon >100mhz mehr Boostclock, das sind immerhin 3-4% wenn ich die auf 1056 Euro drauf rechne komme ich fast schon auf 1100 Euro.
Und die 4080 gilt als flopp:
https://www.extremetech.com/gaming/...es-flop-as-cards-gather-dust-on-store-shelves

Trotzdem wäre ich ein Hardcore Gamer würde die rtx 4080 vorziehen. Natürlich schwer vor zu stellen da mir schon bei den 640 Euro schwindlig wird, das einzige was man eventuell noch einrechnen muss bei der 4080 ist ein neues Netzteil.

Ich seh einfach nicht das Leute die sich ne 1000-2000 Euro Karte gekauft haben, die meist Nvidia Fanboys sind, nun über die rtx 4070 her ziehen weil sie mit ihrem Kauf nicht zufrieden sind einer anderen Karte. Sie mögen ja offenbar Nvidia wenn sie ihnen 4 Stellige Beträge hinterher werfen, wieso sollte man dann wütend werden wenn Nvidia gute Angebote macht? Hätte man jetzt nur ne 10% langsamere Karte zur 4080 released die aber 40-50% weniger kostet, dann könnte ich das verstehen weil man sich betrogen fühlt, aber es ist eigentlich klar das wenn man im Entusiastenbereich kauft normalerweise deutlich mehr Euro pro FPS bezahlt, hier zahlt man aber nur minimal mehr und hat ne Zukunftssichere Karte die man wahrscheinlich in 1 Jahr fuer mehr % des ursprünglichen Kaufpreises los kriegt, da heute schon spiele am VRAM krepieren und dann Massenhaft.
ZeT schrieb:
Wobei bei den Votern die sagen nicht sonderlich attraktiv es durchaus auch sein kann das die aus der Enthusiasten Ecke kommen und für sie persönlich alles unter einer 4080 nicht interessant ist.
Ich mein ich nehme einfach das was sie Angeklickt haben "es reißt sie nicht vom Hocker" das Release ist ähnlich spannend wie wenn ein Sack in China umgefallen ist, pro Euro bekommt man nicht mehr FPS alles bisherige hatte ähnliche oder bessere Preis/Fps werte, außer für ne Minderheit die unbedingt AV1 codec braucht ist da wenig spannendes bei.

In den meisten Spielen wird man Raytracing maximal mit Performance DLSS 3.0 benutzen können >1080p, und die meisten bevorzugen höhere Auflösungen / Settings über Raytracing, die Karte ist einfach zu lahm das Raytracing sehr viel bringt. So wie bei der RTX 3080 wo laut Nvidia die Mehrheit Raytracing aus geschaltet hat. Und dann muss sie sich in Raster Leistung messen lassen und da gibts einfach besseres.

Normal kenn ich das bei Produkten das beim Release viel Hype ist und dann sich das in Ernüchterung auf loest, hier war gar nie irgendwie Hype weil schon immer klar war das es auch wenn Treibermaesig oder sonst wie alles Optimal läuft nichts besonderes ist. bei der 4090 gabs nen gewissen hype, natürlich auch mit negativem (Preis) untergemischt, so gab es auch bei der 7900 XTX hype extremen, ich mein ich versteh ja das es unfair sein kann Gebrauchtpreise zu vergleichen wo die 6800-6950 XT nen besseren Deal bringen, aber selbst neue 6800 XT fast gleich gut ist aber 50 Euro billiger und man dann als einziges echtes Argument nur noch den Stromverbrauch anbringen kann, zumal VRAM Vorteil eben grad massiv an Wichtigkeit gewinnt.

Wenn ne 4060 Variante mit 16 gb raus kommt wird das vielleicht ne gute Karte für Nvidia Kunden, ja für Raytracing ist die auch nicht geeignet, aber man wird nicht massive Probleme mit vielen Spielen bekommen was mit der passieren wird, zumal der Preis dann billiger ist. Die Normale wird 8gb haben, aber vielleicht kommt ne andere Variante, aber wahrscheinlich laesst sich Nvdiia den Mehr Speicher mit 500% Gewinn bezahlen oder es kommt ne 4070 Super, aber die waer dann auch nur schneller und entsprechend teurer.

Oder die Karte faellt einfach massiv im Preis recht schnell, dann wuerde ich meine Meinung zu der aendern, die Karte suckt nur weil sie zu teuer ist für das gebotene sonst ist sie schon ganz gut.
Ergänzung ()

rtx4070 schrieb:
Vram panik....ich höre das seit Jahren. Fakt ist 8gb reichen jetzt gerade in 4k für 95% der spiele da drawahrscheinlich sogar mehr😎

Nun sind 12 kacke? Das kommt von leuten die sowieso jeden gen aufrüsten?👌🤣
12 GB sind ok, 8 GB werden aber jetzt sucken, Wenn Konsolen >10GB VRAM haben (16gb wovon das meiste als VRAM benutzt wird) und PC Portierungen schöner sind mit auch VRAM Fressendem Raytracing aber selbst DLSS kostet wohl vram, wie kann man dann erwarten das solche Spiele die schöner sind als auf der Konsole mit 8gb VRAM aus kommen? Btw auf der Konsole oft mit 30fps.

Ja 8gb hat meistens noch gereicht in der Vergangenheit, aber daraus zu schließen das 8gb genug sind für immer ist ne idiotische Logik.

Nun 12 GB sollten reichen, ich glaub niemand sagt die Karte ist total schlecht im Luftlehren Raum, nur in Bezug auf den hohen Preis es wäre ne gute Mittelklassekarte für 500 wegen mir auch 550 Euro, aber mit 630-720 drückt man die Preise einfach zu hoch für so ne Mittelklasse Karte.
rtx4070 schrieb:
Katastrophale portierungen zählen nicht. Oder entwickler fails wie forspoken.
Wieso sollten Portierungen nicht gelten, und du glaubst doch nicht das für ne Kleine Nische die Spiele massiv optimiert werden? Die Spielefirmen verdienen mehr an den Konsolenverkaeufen.

Ram ist grad saubillig, wieso fragst dich nicht einfach warum Nvidia ohne Not die 5 Cent spart? Vielleicht damit ihr alle 1-2 Jahre früher frustriert wieder aufrüstet wegen geplanter Obsoleszenz, ja man kann die Schuld auf Entwickler schieben, das ist aber genauso wie wenn ich irgendwelche Performanceprobleme mit ATI Karten auf die Spieleentwickler schiebe weil sie nicht gut genug auf AMD hin portieren, es ist eben ein Fakt und Nvidia entscheidet sich bewusst am RAM zu knausern ohne irgend eine Not. Wenn AMD fuer 510 Euro ne Karte mit 16gb GDDR6 anbieten kann RX 6800 koennte Nvidia entweder auch 16gb verbauen fuer 640-720 Euro oder eben die 12 GB Karte billiger anbieten.

Btw fuer 4k reichen die nur mit agressivem DLSS3.0 wenn ueberhaupt oder ohne Raytracing, in 4k ohne Raytracing ist aber AMD deutlich besser. (zumal freesync 2 auch existiert und 3.0 auch bald kommt).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banker007, Bullet Tooth und Mcr-King
Bullet Tooth schrieb:
Für mich ist die 4070, dank derer nur 12 GB Vram, unbrauchbar. Die 3070 mit 8 GB ist auch unbrauchbar geworden, und genauso wird es der 4070 ergehen wenn die 5070 erscheint, bis dahin ist die 4070 zum Vram Krüppel geworden. Und alles was weniger Vram hat, was ja vorraussichtlich bei den 4060ern der Fall sein wird, auch schon bei erscheinen auf dem Markt ein Vram Krüppel sein wird.
Persönlich finde ich die Aussage etwas lächerlich. Ja ich kenne die Tests bei denen der VRAM überläuft, aber das ist wirklich nicht optimal entwickelt. Die Hersteller bieten oft viele hungrige Einstellungsmöglichkeiten, aber wenn man die Voreinstellungen von GeForce Experience nimmt, läuft immer alles top. Eine RTX 4090 kommt ja auch ohne DLSS in 4K nicht mit CP 2077 im Overdrive klar.

Dazu kann man noch sagen, dass es eine Menge Spieler gibt die auf 8GB Karten wie der GTX 1070/80 oder RX580 noch alle Spiele daddeln. Die GTX 1080Ti war damals mit 11GB natürlich super in 4K, aber heute packt die das auch nur noch mit niedrigeren Details. Nichts ist für die Ewigkeit.

Wenn du jetzt also den Anspruch hast ein Spiel mit max Settings in 4K zu spielen, dann brauchst du eben eine RTX 4090 und ein Atomkraftwerk. Alternativ kannst ja auch einer PS5 oder XBSX in 30fps spielen 😂.
 
@Hydradread: Nichts ist für die Ewigkeit? Naja innerhalb von 2,5 Jahren zum Vram Krüppel zu werden, wie die 3070, ist schon ein schnelles Lebensende, da kann man auch nichts mehr schönreden. Die Texturen in Spielen fressen immer mehr Vram, und dann kann man halt nix mehr Optimieren. nVidia bringt immer öfter Grafikkarten die einen Makel haben, nur um in naheliegender Zukunft, die Nutzer zu einem Neukauf zu bewegen. Und die Grafikkarten mit wenig VRam auszustatten, ist ein Weg der unverständlich ist, angesichts von den günstigen Dram Preisen.

GeForce Experience hat dafür aber sogut wie niemand installiert.

1681678270555.png
 
  • Gefällt mir
Reaktionen: Mcr-King
Viel schlimmer ist 8GB und PCIE4 8x wie bei der RX6600er und dass wo die ganzen Kids von NV damals gesagt haben die RTX3050 ist viel besser naja die RTX4060 wird nur 8GB und 8x haben und die RTX4050 6GB und PCIE4 4x

Also für mich ist dass schon Kunden verarsche aber die Leute werden es trotzdem kaufen wie die Billigen RTX4070er die nicht länger als die Garantie halten werden.
 
Zurück
Oben