Unentschlossen zwischen RTX 4060 TI 16 GB oder RTX 4070

alan_Shore schrieb:
Die 4060TI ist nr Frechheit was den Preis angeht.

Wenn du die Karte wirklich lange nutzen willst, wäre ein 4070TI das minimum, meiner Meinung nach.

Die 4060TI ist nicht wirklich viel schneller als eine 3060TI, gut DLSS 3.0 ist schon ein Argument. aber ich bleibe dabei, wenn jetzt eine Nvidia, dann minimum 4070TI. Ich behaupte sogar, dass die 4070TI im Herbst noch als 16 GB Variante kommt, so Geldgeil wie Nvidia ist. Wennd as Budget wirklich fix ist, dann nimm die 4070.

Die 12GB reichen schon, dieses VRAM gejammere halte ich für übertrieben. Leider liegt es ja oft an den schlecht programmierten hingerotzten Spielen. WQHD und Ultra Max schaffen alle Karten unterhalb von 4080 nicht. Den Zahn muss ich dir ziehen.
bin gerade auch am hadern ob 70ti gebraucht oder 80 neu. Bei dem Preis habe ich keine Ahnung, bei Kleinanzeigen gibt es ein paar in der nähe, die für 800vb drinnen sind. Das wären mit Verkauf meiner Karte ca 500€ Aufpreis von 70ti zu 4080. Sind ja laut Tests ca 20-30 fps unterschied, in vielen Titeln sind es aber bei beiden Karten über 100fps in 4k
 
4070ti gibt's doch neu für knappe 800 wieso gebraucht bei 800 schauen?
 
Unter 16 GB nichts mehr kaufen. Mehrleistung bringt dir nichts, wenn 12 GB VRAM schon im Jahr 2023 ausgehen. Die Leistung bricht sofort ein, wenn der VRAM ausgeht.

Goldregel: Alle Karten unter 16 GB sind als obsolet zu betrachten.

Betrachte dich nicht als NVidia oder AMD Fanboy. Bleib Markenunabhängig. Kaufe dir eine RX 7800XT. Das ist derzeit die beste Wahl für dich.

 
Zuletzt bearbeitet:
Ironie on
genau, alles unter 16 GB VRAM ist absolut unspielbar, also das geht ja gar nicht! Auch nicht in FullHD/WQHD.
Ironie off

In welcher Welt lebst du? Ich würde jetzt keine 8GB-Karten mehr kaufen, dass muss nicht mehr sein.
Aber selbst damit kann man zocken. Die Frage ist: welche Auflösung, welche Details und welche Erwartungshaltung man hat.
Unzweifelhaft ist eine 4060/4060ti nicht empfehlenswert, P/L stimmt dabei nicht.
 
Du hast glaube ich nicht richtig verstanden, worum es wirklich geht. Schaue dir die 8 GB Karten an. Die Frames brechen ein, weil in den RAM gestreamt werden muss. Einziger Ausweg ist das Herabsetzen der Texture Qualität/RT OFF etc. Das selbe Schicksal werden 12 GB erleiden. Heute schon.

Manche Spiele regeln das VRAM Problem automatisch, indem die Texture Quality im Spiel herabgesetzt wird z.b Hogwarts (12 GB inclusive). Bei manchen Spielen musst du manuell die Texture Quality herabsetzen, damit keine starken Frame Einbrüche oder Microstuttering zu erwarten sind z.b. Diablo 4 (12GB inclusive). RE4 Remake crashed ganz in den Desktop wenn man die Texture Quality voll aufdreht.(12GB inclusive)

Erst ab 16 GB ist man auf der sicheren Seite. Jetzt schon im Jahr 2023.
Spielen kannst du mit allen Karten. Wenn du aber schon eine neue Karte kaufst, dann mit besten Zukunftserwartungen. Wenn der Thread Ersteller bereit ist, 700 Euro auszugeben, fährt er nunmal „derzeit“ mit einer RX 7800XT am besten. Die hat genug Performance, ähnlich zur 4070 und er geht im Moment der VRAM Problematik aus dem Weg.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
und das sehe ich eben anders. Selbst mit 12 GB kann er gut aufgestellt auch die nächsten Jahre spielen.
Mein Anspruch ist eben nicht so hoch, mag mehr RT oder wasauchimmer, mag evtl. nicht den hohen Stromverbrauch einer 7800XT.
Aber pauschal: 12 GB reichen nicht! halt ich für falsch.

Und von diesen ganzen yt-videos mit den Vergleichen halte ich generell nicht so viel, bilden sie doch niemals mein System ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BiggestB
Ja dann siehst du es nicht richtig. Es macht nunmal keinen Sinn in eine neue Grafikkarte zu investieren, die jetzt schon aktuelle Games nicht voll bedienen kann. Erst recht nicht, wenn durch einen ähnlichen Orderbetrag der Anspruch nicht gesenkt werden muss. (Ist jetzt Kapital bezogen auf 700 Euro vom Thread Ersteller)

Welchen Sinn macht es, eine neue Grafikkarte zu ordern, bei der die Details direkt gesenkt werden müssen hinsichtlich des VRAM Problems? Vom explodierendem VRAM Bedarf unter Unreal Engine 5 kann von den kommenden Jahren gar nicht mehr gesprochen werden.

Hätte NVIDIA sich mit dem VRam nicht so verkalkuliert/gegeizt und ab RTX 4070 16 GB verbaut, wären das lange Bombenkarten gewesen. Jetzt liegen die 4070 und TI Modelle in der VRam Falle.

Grafikkarten haben ihren Strombedarf in den letzten Jahrzehnten immer weiter gesteigert. Wenn du deinen Anspruch wegen eines unwesentlich höheren Strombedarfs senkst, wirst du in 4 Jahren und einer aktuellen Grafikkarten Generation feststellen, das der Strombedarf noch höher ist.

Her ab Minute 15.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
Über 40W Unterschied beim Stromverbrauch (4070 vs.7800XT) im Gaming halte ich nicht für unwesentlich.

Und wie kann es sein, dass bei einem aktuellen Spiel noch nicht mal 8 GB verbraucht werden?
https://www.computerbase.de/forum/t...d-489-euro-im-benchmark.2159156/post-28609482
Es liegt also am Spiel, an den Spieleherstellern und dem fehlenden Testing neuer Spiele, die unausgereift auf den Markt geschmissen werden.
 
Naja, Starfield ist jetzt nicht gerade die grafische Referenz um es harmlos auszudrücken.

MfG
Pitman
 
40 Watt Mehrverbrauch verursachen bei 28 Cent pro kWh bei 8h Volllast pro Tag im Jahr Kosten von etwa 32 Euro. Unter Volllast wohl gemerkt und das jeden Tag im Jahr.

Bei 6h c.a. 24€ und bei 10h etwas über 40€. Unter Volllast, jeden Tag. Wie realistisch ist das? Schätzungsweise mal bedeutet das für die meisten Mehrkosten von keinen 20 Euro pro Jahr. Durch Undervolting amortisiert sich der Unterschied wahrscheinlich auch noch.

Überhaupt müssen die Angaben des Stromverbrauchs mit der Realität nicht übereinstimmen. Der Endverbraucher denkt und glaubt es und das reicht schon völlig aus. Was tatsächlich aus der Dose gezogen wird, bekommt der Endverbraucher ohne aufwendigere Technik meistens nicht mit.
https://www.igorslab.de/nvidia-gefo...htem-115-watt-limit-getestet-ende-der-pracht/

Wie hat damals NVIDIA gegen die Vega 56/64 wegen des Stromverbrauchs geschossen. Heute verbrauchen die 4080/4090 und auch schon die High End Vorgängermodelle mehr. Umgekehrt wird auch jeder Umstand, der negativ ausgelegt werden kann ausgenutzt, um die Konkurrenz auszustechen.

Es ging nie um die Stromkosten beim Endkunden. Das interessiert weder NVIDIA noch AMD. Es geht nur darum, negative Umstände auszunutzen, den Endkunden zu beeinflussen, die Konkurrenz auszustechen und Marktanteile zu sichern.

https://www.stromverbrauchinfo.de/stromkosten-im-alltag.php
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fundeath
Es geht auch darum nachhaltig mit unserer Umwelt umzugehen. Es stehen nicht immer die Kosten im Vordergrund. Außerdem kann man beide Modelle undervolten. Der Abstand bleibt somit gleich.

MfG
Pitman
 
  • Gefällt mir
Reaktionen: SonyFriend
Was häufig auch oft unter den Tisch fällt:

Undervolting geht mit Ada deutlich besser als mit RDNA3.
Da lassen sich bei Nvidia locker nochmal 40-50 Watt rausholen, wohlgemerkt ohne Leistungsverlust.

Zudem sind es ja nicht nur die Stromkosten.
Viele Leute haben einfach primär keinen Bock auf die zusätzliche Hitze / Geräuschentwicklung im Case bzw. in der Wohnung.
 
Da hier im Thread ja noch etwas Bewegung ist:
Ich stehe gerade vor genau der Wahl zwischen der RTX 4060 und RTX 4070 ABER ich hab etwas andere Anforderungen.

Contentcreation/Bildbearbeitung/Videoschnitt, weshalb ich die Asus ProArt Karten ins Auge gefasst habe.
Jetzt bin ich aber massiv unsicher ob Asus RTX 4060 ProArt 16GB (~400€) oder Asus RTX 4070 ProArt 12GB (~700€).

Nach meinen Tests dürften 12GB VRAM ausreichen und die Mehrleitung der 4070 in PremierePro, Davinci Resolv, etc. wäre schon super, allein schon wegen der mehr als doppelten VRAM Bandbreite.

Allerdings ist dass dann doch schon ein ganzer Batzen mehr Geld als ne 4060 :/

Ich rede jeweils von der non-Ti Verison.

Da meine alte GraKa jetzt 11 Jahre gehalten hat, gehe ich vermutlich schweren Herzens auf die 4070, denn die 4070ti sowie 4080 sind mir dann doch zu teuer fürs Hobby, zocken tu ich nix.
 
Zuletzt bearbeitet:
Wieso ProArt ?

Können die besser bunte Bilder?

Nein daher jede andere Karte kann gut sein ... Lies dir auch durch welche Karten oft wegen Spulenfiepen auffallen... da ist Asus oben mit dabei.
 
0ssi schrieb:
In welchem Spiel hat eine RTX4070(Ti) mit WQHD 1440p und DLSS Quality (1080p Rendering) Probleme ?
Diablo 4 mit den deutlich schärferen Ultra-Texturen.
Ratchet & Clank Rift Apart mit deutlich schärferen Very High-Texturen (wobei das Spiel auf nVidia generell kaputt ist, ohne Direct Storage laden Texturen verspätet und die CPU-Last steigt, mit Direct Storage nimmt die GPU-Performance ab und Very High-Texturen laufen gar nicht mehr vernünftig).
 
xxMuahdibxx schrieb:
Kompakter, leiser, kühler, weniger Stromverbrauch, kein RGB, vernünftiges Kühlkonzept, miniITX geeignet, 0-rpm modus, mehr Phasen.

Wenn ich bei idealo o.ä nach Karten bis 300mm filtere mit 3 lüftern und meinen genannten anforderungen, bleibt nicht viel übrig, vielleicht noch die Gigabyte GeForce RTX 4070 WINDFORCE OC 12G aber die hat zwei phasen weniger und liegt beim nächsten anbieter mti dem ich gute erfahrungen haben (hinsichtlich RMAs/graantie/etc) auch bei etwa 640€.
 
Alex214AS schrieb:
Es macht nunmal keinen Sinn in eine neue Grafikkarte zu investieren, die jetzt schon aktuelle Games nicht voll bedienen kann.
Nun, wenn wir in den Test der RX 7800XT schauen sehen wir, dass die 7800XT in der Rasterizer Leistung 3% vor der 4070 liegt und mit zugeschaltetem Raytracing 8% hinterher hinkt. (Perzentil-FPS)
Als Paradebeispiel schafft die 7800XT in Cyberpunk WQHD maxed out mit Raytracing nicht mal mehr 30fps.
Diese Karte kann aktuelle Games also auch nicht "voll bedienen" 😉

Worauf ich hinaus will:
Die perfekte Karte zum super Preis gibt es aktuell einfach nicht. Jede Karte hat Vor- und Nachteile die man abwägen muss. Pauschal nur wegen dem größeren VRAM zur 7800XT zu raten finde ich schwierig, insbesondere wenn ein gsync Monitor genutzt wird.
 
0 RPM haben alle ..

Bling Bling geht bei den meisten auszuschalten..

Ob 8 oder 10 Phasen ist eher egal 6 sind kritischer..
 
Zurück
Oben