4070 oder 7800 xt

Welche die RX 6800 oder die RTX 4070TI?
Im Endeffekt ist es mit PT aber auch egal...AMD bringt durch die fehlenden RT Einheiten ihre Rohpower nicht auf die Strasse.
Alan.jpg

Mit angepassten blingbling geht aber auch schon eine, auf stock Verbrauch, optimierte RX 6800 um zB ein Cyberpunk in guter Optik zu spielen.
TS.jpgPR.jpg
Cyberpunk 1.jpgCyberpunk 2.jpg

.....wie gesagt....für reine Rastergames sehe ich momentan keinen Grund die RX 6800 zu ersetzen.
 
Zuletzt bearbeitet:
gidra schrieb:
Was verbrauchen die AMDs 6er und 7er Reihen beim Schauen eines gewöhnlichen FHD Videos?
https://www.techpowerup.com/review/amd-radeon-rx-7800-xt/38.html
Aus dem Test heraus, verbraucht die 4070 15W, während die 7800XT 41W.
Wenn ich mir meine eigenen Werte für den PC mit der (gerade eingebauten) Zotac RTX4070 Twin Edge ansehe, dann sind diese ganzen Tests nichts mehr wie ein extrem grobes Schätzeisen, da man natürlich nie erfährt, was genau lief (das weiss man bei seinem Windows-PC auch nie) und was exakt getestet wurde.

Die Tendenzen mögen stimmen (AMD braucht dort anscheinend etwas mehr wie NVidia), der konkreten Werte sind aber ungeeignet, um diese auf den eigenen PC zu übertragen.

Nur mal so als Vergleich
Win10, i9-9900K und die Zotac Gaming GeForce RTX4070 Twin Edge 12GB (2-fan non OC)
Der PC verbraucht mit der 4070 im Idle irgendwas zwischen 46W und 52W, je nachdem, ob er kalt war oder schon einige Zeit lief. Mit der alten GTX 1060 (und der aktuellen PC-Ausstattung) habe ich das nie so lange beobachtet, da lag der Idle-Verbrauch mit kaltem PC 5-6W darunter.

Nun aber zu dem Video-Zeugs:
Laut HWMonitor verbraucht die Zotac 4070 im Idle:
GPU: 11W
Core Power: 5W
PCIe+12V 5,6W
8-Pin #0: 5,3W
= 24,9W
Verbrauch des PCs an den Steckdose: 52-55W

1080p60 Video von YT (AV1) im Firefox-Fenster:
GPU: 14W
Core Power: 6,5W
PCIe+12V 7,3W
8-Pin #0: 7,3W
= 35,1W
Verbrauch des PCs an den Steckdose: 65-72W

720p50 in VLC:
GPU: 12,5W
Core Power: 5,4W
PCIe+12V 6,5W
8-Pin #0: 6,1W
= 30,5W
Verbrauch des PCs an den Steckdose: 57-60W

Die 4070 läuft dabei immer mit
GPU: 0,890V, 210 MHz
VRam: 405 MHz
Video: 1185 MHz
Also alles brav herunter getaktet.

Tests mit 1080p60 und VC9 oder h.265 schenke ich mir. Falls man die Werte alle addieren darf, dann schluckt alleine Firefox (oder der YT-Player in FF) mind. 3W.

Das Undervolting mit MSI Afterburner auf 2745 MHz GPU Takt (bzw. 2760 MHz, so lange die 4070 noch kalt ist) und 0,990V wirkt sich dabei nicht aus. Weniger kann die Zotac 4070 wohl nicht oder ich bin zu blöd, die richtigen Pixel in MSI Afterburner zu treffen.

Mit dem Undervolting geht mein Gesamtverbrauch an der Steckdose mit Stable Diffusion (sorry, ich spiele mit dem PC nicht) von 265,0 W auf 226,0 W herunter mit 0-1% Performanceeinbruch im Vergleich zum Auslieferzustand der 4070. Die GPU Auslastung liegt dabei bei 97-99%.

3-4W weniger wären zusätzlich zu erreichen, wenn ich den Speicher nicht übertakte und dabei auf 3-4% Performance verzichte.
 
  • Gefällt mir
Reaktionen: gruuli
Das ist der Speicher, der bei mehrere Monitoren nicht runter taktet. Läuft quasi immer max. und deswegen so ein hoher Verbrauch.
Das erste Mal habe ich es noch 2018 mit einer RX 470 gemerkt. Seit dem gibt es das Problem mal mehr mal weniger. So richtig gefixt wurde es nie.
Mit unterschiedlichen Nvidia Karten (10, 16, 20 er Reihe) hatte ich das Problem noch nie.
 
gruuli schrieb:
ich persönliche kaufe eine Grafikkarte und behalte diese locker 5 oder 7 Jahre
Als jemand der die letzten 20 Jahre, mit zwei Ausnahmen, nur nVidia Karten besessen hat, würde ich in diesem Fall die 7800 XT empfehlen. Meine letzte AMD Karte war eine 6700 XT für meinen HTPC. Die ist aufgrund von nicht funktionierendem HDMI VRR nach wenigen Monaten wieder rausgeflogen. AMD hat von Anfang an damit geworben, geliefert haben sie final aber erst Jahre später, als die 7000er schon am Markt waren. Das war für mich persönlich ein ziemlicher Dämpfer, warum also trotzdem die Empfehlung? Nun, abseits davon waren sowohl die Karte als auch der Treiber wirklich in Ordnung und mein EInsatzszenario eher speziell. Wenn du sie so lange nutzen willst, würde ich keine 4070 nehmen.

Just my 2 cents.
 
  • Gefällt mir
Reaktionen: gruuli
DaHell63 schrieb:
AMD bringt durch die fehlenden RT Einheiten ihre Rohpower nicht auf die Strasse.
Anhang anzeigen 1428667
Die Frage, die ich mir dabei stelle ist: dort steht bei den Einstellungen "1440p upscaling performance + frame generation. Also DLSS+FG?

Wenn dem so wäre müsste also für einen fairen Vergleich mit einer 7900 XTX dann FSR 3+FG aktiviert werden, ist das der Fall? Unterstützt Alan Wake 2 überhaupt FSR 3? Soweit ich lese nämlich nur FSR 2.2 und dann ist es natürlich kein Wunder, dass AMD hier enorm zurückliegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ghostfacekalle
gruuli schrieb:
Die Frage, die ich mir dabei stelle ist: dort steht bei den Einstellungen "1440p upscaling performance + frame generation. Also DLSS+FG?
Du hast recht, da ist das weniger ersichtlich.
Hier hat CB FG on/off dabei.
Cyberpunk.jpg
 
  • Gefällt mir
Reaktionen: gruuli
@DaHell63
Das ist ein schönes Beispiel wie die AMD's "leiden".
Dennoch sind es nicht viele Spiele die so extremes Raytracing haben. Man kann dann bei den AMD's ja auch die Regler bedienen. Mit normalen RT hat man ja auch wieder ausreichend FPS.

Und wie es dann in der nächsten RT-GEN aussieht weiß ja auch keiner.
Jetzt hat man mit der 4080 vielleicht 70FPS mit PT ,in der nächsten GEN dann wieder nur 20 FPS.

Bei RDNA2 wurde ja von einigen kritisiert das die RT-Leistung im Vergleich zu Nvidia's 3000er abstinkt.
Wo landet man jetzt mit einer 3080 bei Alan Wake? Vielleicht bei 20 FPS? Die gehen jetzt genauso in die Knie.
Mein Nachbar hat ja gerade die Situation mit seiner 3080...und das in FHD.
Der kotzt ganz schön ab.
Also RT dann komplett runter,aber dann sieht die Grafik richtig scheiße aus.
RT/PT ist interessant und auch die Zukunft,aber das ist alles noch nicht "Massentauglich".
Deswegen würde ich jetzt auch noch nicht zu viel auf die RT Leistung geben, es sei denn man ist ein Nerd/Enthusiast und will immer die neusten Techniken sofort austesten.
Dann greift man aber auch sehr tief in die Tasche.
Ich gehe davon aus das mit Nvidia's 5000er dann wieder ein Spiel kommt mit PT-Overdrive Modus,wo die 4090 dann auch nur mit Ach und Krach auf 30 FPS kommt.
Wir werden sehen....
 
Ghostfacekalle schrieb:
Und wie es dann in der nächsten RT-GEN aussieht weiß ja auch keiner.
Jetzt hat man mit der 4080 vielleicht 70FPS mit PT ,in der nächsten GEN dann wieder nur 20 FPS.
Vollkommen richtig...deswegen halte ich auch nichts davon eine Grafikkarte auf Vorrat zu kaufen.
Es braucht ja auch kein Raytracing um sich auszurechnen, dass weder die schnellsten Karten von AMD/Nvidia und schon garnicht deren Mittelklassekarten irgendwie 5-7 Jahre reichen würden.
Alan.jpgTalos.jpg

Ob ich jetzt eine RX 7800 XT oder RTX 4070 kaufen soll? Im Grunde tun sich die beiden nichts...jede hat in ihrem Bereich so seine Vorteile. Mit keiner Karte ist irgendein Spiel unspielbar. Und beide ziehen in 2-3 Jahren keine Wurst mehr vom Teller
 
  • Gefällt mir
Reaktionen: gruuli und Ghostfacekalle
DaHell63 schrieb:
Vollkommen richtig...deswegen halte ich auch nichts davon eine Grafikkarte auf Vorrat zu kaufen.
Und dann wären wir wieder beim Nutzungsprofil. ;)

Es kommen immer wieder Spiele mit wenig bis gar kein RT...da geht die 6800XT noch sehr gut. ;)
FSR3 scheint auch aus dem Pott zu kommen.

Eine GPU länger zu nutzen ist gar nicht so verkehrt. Ich spiele zu 60% ältere Spiele.
Starfield ist jetzt das neuste und das läuft TipTop mit 1440p.

Dazu kommt das ich Familie habe und vielleicht maximal 10 Stunden die Woche spiele. Da habe ich mit Starfield schon ewig zu tun. XD

Also für mein Nutzungsprofil ist eine GPU auf längere Sicht nicht verkehrt. ;)
 
  • Gefällt mir
Reaktionen: gruuli
DaHell63 schrieb:
Und beide ziehen in 2-3 Jahren keine Wurst mehr vom Teller
Wenn man die Regler auch mal nach links bewegt und DLSS nutzt, kann man mit den Karten (insbesondere NVidia) sicherlich noch 7-10 Jahre über die Runden kommen. Gerade wo neue Funktionen, wie in der Vergangenheit schon geschehen, auch für ältere Modelle zur Verfügung gestellt werden.

Solangsam sind dem Fortschritt in der Hardwareentwickling auch Grenzen gesetzt, es wird nicht mehr so große Sprünge wie in den letzten Jahren bzw Jahrzehnten geben. NVidia geht da bei Grakas schon den richtigen Weg über viel Software und KI.
 
Tr8or schrieb:
Wenn man die Regler auch mal nach links bewegt und DLSS nutzt, kann man mit den Karten (insbesondere NVidia) sicherlich noch 7-10 Jahre über die Runden kommen.
Ach hör doch auf....das darf man doch hier nicht ;)
 
  • Gefällt mir
Reaktionen: gruuli und Ghostfacekalle
DaHell63 schrieb:
..deswegen halte ich auch nichts davon eine Grafikkarte auf Vorrat zu kaufen.
Ich würde auf "Vorrat kaufen" nicht mit möglichst vorausschauendem Kaufen gleichsetzen. Insbesondere dann nicht, wenn es bereits Engpässe gibt oder diese Stand jetzt absehbar sind. Engpässe können auch individuell sein. Nicht alle nutzen Karte X mit denselben Auflösungen und/oder Einstellungen.

DaHell63 schrieb:
Ob ich jetzt eine RX 7800 XT oder RTX 4070 kaufen soll? Im Grunde tun sich die beiden nichts...jede hat in ihrem Bereich so seine Vorteile. Mit keiner Karte ist irgendein Spiel unspielbar. Und beide ziehen in 2-3 Jahren keine Wurst mehr vom Teller
In kleinen Zeiträumen von 2-3 Jahren mag das stimmen, auch was das "Vorratskauf" angeht bzw. hier "Engpässe" wie oben beschrieben vernachlässigt werden können. Jacke wie Hose. Da ist es auch mMn nach sinniger, das zum Kaufzeitpunkt rundere Produkt zu nehmen.

Wenn man das aber auf längere Zeiträume dehnt, passt das nicht mehr und damit begrenze ich den Faktor nicht rein auf den vram. Techniken wie DLSS oder FG kommen hier ebenfalls zum Tragen. Es dürften die wenigsten Zocker sein, die alle 2-3 Jahre ihre GPU tauschen. Dieses Forum und äquivalente bilden eine kleine Blase innerhalb des großen und ganzen ab. Geläufiger sind eher Zeiträume um die 5 Jahre und mehr und da kann das im Nachgang schon einen Impact haben, ob man 8GiB statt 16GiB hat, ob man Framegen nutzen kann etc.

Die GPU mag dann zu diesem Zeitpunkt zwar zum Alteisen gehören, allerdings können diese vormals vernachlässigten Faktoren darüber entscheiden, ob du Spiel X noch annehmbar spielen kannst, oder nicht.
 
coroy schrieb:
Ist das noch aktuell, dass die 7800 XT beim Video gucken 41W verbraucht
Also bei meiner Karte ist dies noch der Fall, ich würde also sagen ja, ist noch aktuell, allerdings gab es im neuesten Treiber (23.12.1) auch wieder eine Anpassung diesbezüglich bei speziell RX 7000 Karten.

"Improvements to high idle power when using select dual monitor display setups with mixed resolutions and high refresh rate displays (such as 1440p @ 120/144Hz + 1080p @ 120/144Hz or 2160p @ 120/144Hz + 1080p @ 120/144Hz) on Radeon™ RX 7000 series GPUs."
 
  • Gefällt mir
Reaktionen: coroy
coroy schrieb:
Ist das noch aktuell, dass die 7800 XT beim Video gucken 41W verbraucht, eine 4070 hingegen nur 15W?
https://www.techpowerup.com/review/amd-radeon-rx-7800-xt/38.html
Nutze derzeit eine RTX 4090FE und eine RX 7800XT MBA. Jeweils aktueller Treiber installiert.
Die 4090 benötigt bei (UWQHD/120Hz/HDR aus) im Desktop 8 Watt, bei Youtube-Videos 14 Watt. Die 7800XT zieht bei (WQHD/144Hz/HDR an) 15 Watt im Desktop und 22 Watt bei Youtube-Videos.
Die Werte habe ich im jeweiligen Overlay abgelesen.
 
  • Gefällt mir
Reaktionen: gruuli, coroy und gymfan
Ich stand vor 2 Wochen auch vor der Qual der Wahl. Habe neuen PC zusammengebaut und mir tagelang den Kopf zerbrochen welche GPU für 1440p ich mir nun holen soll. Komme eher aus dem Nvidia Lager und immer von überzeugt gewesen bis mein Kumpel stets auf mich einredete, ich solle AMD eine Chance geben, allein zwecks P/L.

Er hat mich letzendlich überzeugt nach dem ich auch viel recherchiert habe. Habe dann bei der RX 6750 XT für 329€ zugeschlagen. Was soll ich sagen, ich bin absolut begeistert was man an Leistung für den Preis bekommt. 👌

Habe in der Zeit Battlefield 2042, AC Odyssey, Farcry 6, Spiderman Remastered usw ausgiebig in WQHD mit Freesync getestet. Auf hoch/ultra je nach Spiel zwischen 100-144 fps und das ohne FSR und was es sonst so gibt, alles nativ. Sogar Alan Wake 2 auf Mittel ist mehr als spielbar mit 60-80 fps, sogar mit Raytracing knapp 20-30 fps wers braucht. 😬 Flight Simulator läuft auf Ultra meist je nach Umgebung mit 60 fps. Karte wird nicht laut, kein Spulenfiepen, wird max 67° warm, meist drunter.

Ja, AMD Grakas fressen mehr Strom und es ist kein unwichtiger Punkt aber in meinem Fall schon, da ich kein Vielspieler aus Zeitgründen bin. Das passt schon so.

Habe mit der RTX 4070 und 7800 XT am meisten geliebäugelt aber den fetten Aufpreis von 200+ € (eher für die 4070) für 20fps mehr nicht eingesehen.

Mein Plan sieht aktuell vor mit der 6750 XT soviel Spaß zu haben wie nur geht, sie komplett auszureizen und pünktlich zu GTA 6 PC Release (2026/2027? 🙈) neu aufzurüsten.

Dann geht das Spielchen von vorne los... 🤯

Ist letzendlich bei mir immer eine Frage des Preises und wofür man die Graka wirklich braucht und was die eigenen Anforderungen sind. Habe da eine gewisse Schmerzgrenze. Wäre Nvidia im Preisbereich der AMD's oder nur leicht drüber, würde ich allein wegen DLSS und RT nicht lange überlegen. Bin auf die weitere Entwicklung gespannt und wohin die Reise mit FSR gehen wird. Kann jetzt entspannt abwarten und die Entwicklung beobachten. 😀
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coroy, gruuli und Ghostfacekalle
Verak Drezzt schrieb:
Ergänzung ()

sollte nicht wirklich stark ins Gewicht fallen, wenn man bedenkt das man eine 60W Glühbirne vor kurzem noch laufen hatte
60W Glühbirnen (nix Energiespar, oder Halogen) als tägliches Leuchtmittel, da sind wir fast schon in DM Zeiten.
Im Jahr 2000 zahlten Haushalte bei einem jährlichen Verbrauch von 3.500 kWh noch rund 14 Cent pro Kilowattstunde (Ct/kWh).
Der durchschnittliche Strompreis für Haushalte liegt im bisherigen Jahresmittel 2023 um 15 Prozent höher als im 2. Halbjahr 2022 und beträgt nun durchschnittlich 46,27 ct/kWh (2. Hj. 2022: 40,07 ct/kWh; Grundpreis anteilig für einen Verbrauch von 3.500 kWh/a enthalten).

Sagen wir mal humane 2 Stunden zocken am Tag(?), dann sind das bei vielleicht 200 Zockertagen(?) ein Mehrverbrauch von 400*60 = 24 kWh was dann ungefähr 10 EUR im Jahr ausmacht.

Theoretisch musst du die 4070 also 6 Jahre nutzen um die Mehrkosten über den Stromverbrauch -beim zocken- reinzuholen.

Da die Karte auch im idle, im Videobetrieb usw sparsamer ist und die PC Nutzung sehr individuell ist, musst du es selbst ausrechnen :)

PS: Solltest Du einen Eigenanteil an Strom produzieren, und das mit einkalkulieren, lohnt sich paradoxerweise die Karte mit Mehrverbrauch eher - sofern deine Anlage die Strom produziert sich noch nicht armortisiert hat.
 
  • Gefällt mir
Reaktionen: coroy, Edgeraze und Ghostfacekalle
Zurück
Oben