News RTX 4070, 4060 Ti & 4090 Ti: Gerüchte sprechen von zwei weiteren AD104-Grafikkarten

Performator schrieb:
Anno 1800 rennt bei mir in 4K UHD auf einer alten RX 5700 mit locker über 50fps.
Wenn ich bedenke, wie meine RTX 2080 Super schon auf WQHD teilweise am Kämpfen ist (und die RTX 2080 Super ist ja nun doch noch merklich schneller als eine RX 5700), dann muss Anno sehr genügsam sein. Ich denke bei anspruchsvolleren Spielen geht der RX 5700 in UHD sehr schnell die Luft aus.
 
  • Gefällt mir
Reaktionen: el_zoido
Zwirbelkatz schrieb:
Linientreue hat man zuletzt bewiesen im Hause Nvidia. ;) Mal schauen, welche Abenteuer uns diesmal ins Haus stehen und ob die Marke "8GB Grafikspeicher" erneut fällt. Noch lieber würde ich positiv überrascht werden.
8 GB 4060 auf 3060Ti Niveau..
Warum? weil die Leute ja mit DLSS3 um die Ecke kommen und es fördern..
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Spätestens wenn genügend Chips für einen Vollausbau einer potentiellen 4090ti vorhanden sind... wird es eine geben. Egal was AMD macht. Die sind diese GEN sowieso nicht konkurrenzfähig am oberen Ende (kein Hate).

Oder, wenn die Preise einer 4090 plötzlich fallen und man genügend Chips hat, um die Lücke zu füllen, weiterhin eine +2k€ GPU zu verkaufen. Ausschließen würde ich das jetzt nicht. Ich finde es ist sogar sehr wahrscheinlich


Mein Tipp: Wenn möglich die aktuelle Generation erst mal auslassen und ggf. günstig einkaufen, wenn die nächste da ist/ansteht. Wie zu letzt vor ca. 2 Monaten wo man "günstig" last-gen-highend bekam.
(Und ja leider sind die Zeiten von einer guten 200-350€ komplett vorbei - da gibts nur noch Mist und Stagnation)
 
  • Gefällt mir
Reaktionen: jaCk_owned und LinuxTux
qu1gon schrieb:
Das ist ja ne andere Geschichte bzw. wäre ja ehe keine der Karten ab 4060 was für dich.
Ne günstigere 3000er Karte wäre doch schon ein gutes Upgrate oder nicht?
Definiere günstig. Zwischen ner 1070 und ner 3060 liegen 5 Jahre aber nur ~20% Leistungsunterschied. Kosten wären aber fast genau das, was mich damals die 1070 gekostet hat.
RTX brauch ich nicht, >8GB ebenfalls nicht. AMD keine Option weil CUDA.
Mir fehlt im gesamten GPU Segment einfach ne bezahlbare Alternative zur 1070, deren Rohleistung auch wirklich ein Upgrade darstellt.
 
CauCau23 schrieb:
Weil Angebot und Nachfrage, Außerdem verdienen sie doch dran mit.
Hand aufs Herz, das geht jetzt wirklich nicht gegen Dich persönlich!
Wie kann man nach den letzten Jahren, mit all den Unwettern, den heissen sommern so argumentieren und nachts ruhig schlafen? Ich hoffe inbrünstig, dass wir als Gesellschaft diese Ansicht schnellstmöglich verwerfen. Mag jetzt Ökoversifft klingen und man muss auch nicht aus schwarz weiß zaubern, aber dieses Argument „man verdient ja Geld dabei.“ finde ich einfach eklig. Nochmal, nicht gegen Dich persönlich!
 
  • Gefällt mir
Reaktionen: chaser767, Tigra456 und Rockstar85
Stefan1200 schrieb:
Wenn ich bedenke, wie meine RTX 2080 Super schon auf WQHD teilweise am Kämpfen ist (und die RTX 2080 Super ist ja nun doch noch merklich schneller als eine RX 5700), dann muss Anno sehr genügsam sein.
Kommt drauf an, wie hoch man die Grafiksettings stellt. Habe gerade mal mit 2160p per Virtual Super Resolution den integrierten Benchmark laufen lassen mit höchsten Einstellungen (außer AA) und komme da mit meiner 6750 XT auf 51,10 FPS Average (laut Anzeige durchgehen "GPU bound"). Mit einer 5700 XT muss man da also schon ein bisschen was runterstellen, damit man auf "locker über 50 fps" kommt.
 
  • Gefällt mir
Reaktionen: Stefan1200
Silencium schrieb:
Hand aufs Herz, das geht jetzt wirklich nicht gegen Dich persönlich!
Wie kann man nach den letzten Jahren, mit all den Unwettern, den heissen sommern so argumentieren und nachts ruhig schlafen?
Das Experiment Menschheit ist krachend gescheitert...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und Framue_
eXtra schrieb:
Ist absolut nicht vergleichbar
1. Die 3090 war schon fast der vollausbau
Die 3090ti hatte da nur 2% mehr Stader
Das is hier anders bei der 4090 die hat gut 10% weniger Stader
2. Man wird kaum mehr Verbrauchen
Die tdp wird bei der 4090 nich erreicht

Das is hier ein Apfel und birnen vergleich

Höchstens wenn man den Speicher verdoppelt könnte man mehr Verbrauchen
Ergänzung ()

ruthi91 schrieb:
Ach muss man das...

In den wenigsten Spielen bekommt man über 120fps
So is der Displayport und hdmi hier noch ausreichend
Oder kommen amd in uhd auf genügend Leistung für aktuelle Spiele für über 120fps....

2. Man muss es nicht aufblasen auf 600w
Lovelace ist nicht powerlimitiert
Die jetzige tdp reicht vollkommen aus wenn der Speicher gleich bleibt
Ergänzung ()

fox40phil schrieb:
Nein wenn man klug sein will
Verkaufte man die 90er Karte vor der neuen gen und refinanziert sich so seine neue Karte

Man kauft doch nicht bevor eine neue gen ansteht
Die bekommt dann nur noch für kleines Geld los wenn man dann wieder eine neue kaufen will
 
Zuletzt bearbeitet von einem Moderator:
Silencium schrieb:
Wie Apple bei seinem Speicher und Preisen zerpflückt wurde - teilweise zurecht. Nvidia denkt sich „was das Fallobst kann …“ Probieren kann man es ja - schade um die Ressourcen! man darf natürlich streiten: eine gpu die vom Takt schon keine 4K gut bedienen kann, wozu dann Speicher für solch eine Auflösung an Board haben. Aber bei der 4070Ti sieht man es sehr schön: könnte 4K bei etlichen spielen leisten, der Speicher limitiert dort jedoch.

Ja, da frage ich dann wirklich erneut: wieso wird das auf EU-Ebene nicht verboten, so dämliche Produkte zu erzeugen? Es ist in meinen Augen eine bittere Ressourcenverschwendung.

Das kling eindeutig nach Team grün :)
Ergänzung ()

Performator schrieb:
Ich lese hier immer wieder 12GB sind für 4K UHD zu wenig.
Anno 1800 rennt bei mir in 4K UHD auf einer alten RX 5700 mit locker über 50fps.
Qualität auf sehr hoch, max. Sicht und max. Wuselfaktor.
Okay, habe nur einen 60Hz Monitor und war beim Wechsel auf 4K UHD fest davon überzeugt eine neue fette GPU zu brauchen. Brauche ich nicht, kann mit der Anschaffung bis zum nächsten Anno warten.
Hatte auch mal die 5700, zu Mining-Zeiten dann gegen ne 6700 XT getauscht ohne Aufpreis: 40% mehr Leistung

Mir war die 5700 schon vor nem Jahr zu langsam.. klar liefen AMD-optimierte Spiele wie Doom auch in WQHD, aber alle neueren Games da hat man keinen Spaß mehr dran.. da müsste man zu sehr runterdrehen bei der Grafik

Mit der 6700 XT bin ich zufrieden, die wäre auch jetzt ein sehr gutes Upgrade gewesen, da RT, 12GB VRAM, Verbrauch ist im Rahmen und durch die nachträglichen Treiber-Optimierungen bis heute ganz gut mit dabei in WQHD, und P/L sowieso der Tip.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil und DAU123
Thepunisher2403 schrieb:
Nein wenn man klug sein will
Verkaufte man die 90er Karte vor der neuen gen und refinanziert sich so seine neue Karte

Man kauft doch nicht bevor eine neue gen ansteht
Die bekommt dann nur noch für kleines Geld los wenn man dann wieder eine neue kaufen will
Dieser Schuss ist für den ein oder anderen auch schon mal sehr nach hinten losgegangen, haben doch viele ihre 20er verkauft und wollten auf Ampere umsteigen, das Ende war kaum Verfügbarkeit und viel Frust.
 
  • Gefällt mir
Reaktionen: fox40phil
Ich glaube irgendwie dass mehr Menschen ein Wunschdenken zu einer guten, sinnvollen 4050 teilen als sich wirklich eine weitere Karte weit weit weit über 1000,- wünschen. Ist ja schön Karten für 4K Gaming zu haben, aber wenn dann das 4K auch gleichj für den PC Preis steht...
 
Eine 4090 Ti wird sich, für die 10 % Mehrleistung, vermutlich nicht lohnen, erst recht nicht wenn nVidia sie so spät rausbringt wie die 3090 Ti letztes Jahr. Das war wirklich der größte Witz. Sechs Monate vor Release der neuen, deutlich schnelleren Karten, sollte mit dem alten Plunder noch mal ordentlich Kasse gemacht werden. Das Ding war eigentlich schon bei Release EOL. Wenn eine 4090 Ti irgendwie Sinn machen soll, dann muss sie dieses Jahr auf den Markt kommen.
 
Stefan1200 schrieb:
Wenn ich bedenke, wie meine RTX 2080 Super schon auf WQHD teilweise am Kämpfen ist (und die RTX 2080 Super ist ja nun doch noch merklich schneller als eine RX 5700), dann muss Anno sehr genügsam sein. Ich denke bei anspruchsvolleren Spielen geht der RX 5700 in UHD sehr schnell die Luft aus.
Anno ist ein ganz übler Hardwarefresser.
Lief bei Release erst mit einer 2080 und einem i8700 akzeptabel auf FHD.
War auch bis ca. 6/22 Kandidat im CB Testparcour, flog dann raus weil es nicht verstrahlt ist.
Im late game bringt Anno die ni Vida 3070/3080 Spieler gerne an den Rand der Verzweiflung,
weil das Spiel dann immer lahmer wird.
Die meisten spielen auf WQHD, UHD ist kaum vertreten. Traut sich wohl keiner bei dem Hardwarehunger.

Ich bin auch der Propaganda auf den Leim gegangen dass UHD und sehr hohe Details unter 3080/3800XT gar nicht geht. Als dann der Monitor da war, allen Mut zusammengenommen und auf 4K umgestellt, mit der alten RX 5700. Es lief aber hervorragend. Ich war baff erstaunt, mit einem 5600X und 32GB RAM.
Es nicht einmal SAM aktiviert und die RX 5700 läuft nur auf 970mV und begnügt sich mit +-130W.

Hier sind AMD die Treiber mittlerweile wohl richtig gut gelungen.
 
  • Gefällt mir
Reaktionen: Neronomicon und el_zoido
Irgendwie ist egal was Nv macht, es wird nichts rundes dabei rumkommen können. 4060 mit 128bit und 16gb vram wird wohl an der Bandbreite verhungern da würde der speicher nichts helfen.
Eine 4070 mit nur leicht geringeren Einheiten passt dann wenigstens besser zu den 192bit und 12GB Vram und wenn der Preis passt könnte das ganz brauchbar werden als Paket.
 
Performator schrieb:
Ich bin auch der Propaganda auf den Leim gegangen dass UHD und sehr hohe Details unter 3080/3800XT gar nicht geht.
Naja kommt halt auf die Spiele an, ne?
Man kann natürlich auch ein paar Spiele mit ner 3070 in hohen Details auf UHD spielen, bei den meisten aktuellen Titeln geht es aber nicht über WQHD, wenn man keine Settings runterdrehen will.

Alleine im aktuellen Parcours haben wir nur 4 Spiele, in denen die 3080 in 4K merklich über die 60FPS kommt, ansonsten sind es um die 55-65FPS, auch in Titeln ohne RT. Eine 3070 liegt dann so bei 35-45FPS.
 
Zuletzt bearbeitet:
DAU123 schrieb:
Dieser Schuss ist für den ein oder anderen auch schon mal sehr nach hinten losgegangen, haben doch viele ihre 20er verkauft und wollten auf Ampere umsteigen, das Ende war kaum Verfügbarkeit und viel Frust.
naja das war aber auch ein sehr spezieller fall bei dem viele andere Aspekte eine Rolle gespielt haben
bei der 90er zumindest war bei release bis märz 21 es kein problem eine 3090 zu uvp preisen zu bekommen.

ich bin dann von einer 3090 die ich für 1600 ende oktober 20 auf eine 4090 asus tuf für 2100 umgestiegen allerdings habe ich für meine 3090 noch 1100 bekommen 😉
 
  • Gefällt mir
Reaktionen: DAU123
89zugspitze schrieb:
Ich verstehe es nicht, warum die neuen Einsteiger GPUs weiterhin mit nur noch 8 GB Vram bestückt werden.
12 GB sollte ja heutzutage das Minimum sein.
Weil sie dann theoretisch teurer wäre.

Meine Freundin braucht nie mehr 8 GB. Full Hd geht damit auch in Max Details auf 60 FPS.
Viel mehr verstehe ich dich nicht: wenn du mehr Speicher brauchst Kauf dir einfach eine mit mehr Speicher. Vielen reicht 8 GB.
 
  • Gefällt mir
Reaktionen: Cohen und Gortha
Rockstar85 schrieb:
8 GB 4060 auf 3060Ti Niveau..
Warum? weil die Leute ja mit DLSS3 um die Ecke kommen und es fördern..

Im Endeffekt ist es egal ob die reine Rasterleistung oder die Leistung der KI zum gewünschten Ziel führt.
Wenn die KI effizienter arbeitet, hey dann befürworte ich es...

Wichtig ist nur, dass die Rasterleistung der Hardware auch dann entsprechend ausreicht, wenn das Game kein DLSS unterstützt.
 
Zurück
Oben