News OC auf 3,4 GHz: Radeon RX 7900 XTX jagt mit 700 Watt die RTX 4090

rg88 schrieb:
Ähm... die ist einfach direkt gekoppelt an den Verbrauch. Insofern kann ich nicht nachvollziehen, wie du zu so einer Aussage kommst
Ganz einfach Strom Produziere ich selbst von daher juckt mich das wenig. Abwärme muss ich aber aus dem Raum schaffen und das nervt mich.

Nur weil das direkt gekoppelt ist muss ich nicht beides super finden ;) Ich würde z.B ein kühles system vorziehen wenn es weniger Abwärme Produziert. (ich weiß unmöglich aber nur für den vergleich)

Ergo bin ich auch für Effizienz und zwar sehr. Nicht aber weil ich dadurch 10 Euro strom im jahr spare sondern weil ich weniger den Raum Aufheize.
 
rico007 schrieb:
Aber was kostet eine 4090 im Vergleich zur XTX? Wenn ich die Sapphire Nitro + gegen eine MSI Suprim X stelle, liegen fast 1000€ zwischen bei den Top Modellen
Es geht auch anders...weit weit weg von 1000€ Unterschied
Preis.png
 
Sunjy Kamikaze schrieb:
Ich fand den Stromverbrauch vom Rechner schon immer recht nebensächlich. Wem die paar Euro im Jahr stören der hat wohl noch ganz andere Sorgen.
Hast Du hinsichtlich des Stromverbrauchs schon mal überlegt das es auch andere Beweggründe geben könnte als ein paar Euro im Jahr zu sparen?
Das Problem mit der Hitzeentwicklung hast Du ja bereits aufgeführt, mir geht es aber auch um das reine Energiesparen, denn mein PC ist der mit weitem Abstand größte Stromfresser in meinem Haushalt und den möchte ich daher so Effizient und Ressourcen sparend wie möglich betreiben ohne meine Komfortzone großartig zu verlassen. Das ich dabei auch ein paar Euro spare ist "nur" ein nützlicher Nebeneffekt.

Eine 450 Watt Plus Karte würde mir, aus dieser Motivation heraus, nicht in den Rechner kommen, egal von welchem Hersteller.
 
  • Gefällt mir
Reaktionen: Tornavida
Defininiere: "Luxusmarke"
 
Letztendlich können doch alle froh sein, dass AMD die Leistungsziele nicht erreicht hat. Sonst hätte nVidia ihre Karten oberhalb des Sweetspots betrieben. Und das scheint ja ursprünglich so geplant gewesen zu sein (s. Kühlerdesign). ;)
 
cookie_dent schrieb:
Defininiere: "Luxusmarke"
Asus MSI Gigabyte

Palit Zotac Gainward Pny? INNO3D sind ja eher günstig wie die quali da ist wollte wissen
 
ZeusTheGod schrieb:
Wieso bitte hat das nichts mit Inflation zu tun? Laut Inflationsrechner entsprechen 699$ im August 2016 im Januar 2023 868$. Und die zusätzlichen Features die eine 40x0 im Vergelich zur 10x0 lässt man sich natürlich auch bezahlen.
Inflation wäre es, wenn das Produkt gleichwertig ist.
Ist es aber nicht. Die zusätzlichen features der 4000er Reihe sind ein zweischneidiges Schwert, da zum Einen die Rohleistung in hohen Auflösungen ohne DLSS gar nicht gegeben wäre - der AD104 performt lediglich bis hinauf zu WQHD - und zum anderen RTX ohne DLSS auch nicht zufriedenstellende FPS liefert.
nVidia ist eben mehr eine Softwarefirma geworden und für viele scheint es ja auch zu funktionieren.
Wenn Du im Rahmen dieser Software glücklich bist, ist das toll.
Nur ist der AD104 im Vergleich zum GP102 eben kein gleichwertiges Produkt, nimmt man die Entwicklung - auch in der Fertigung - als Maßstab.
Der GP102 ist damals mit "deutlich mehr als genug" Speicher gekommen, beim AD104 ist die Limitierung absehbar. Ähnlich bei der Rasterizer-Leistung - in den Spielen in denen weder DLSS 2.0 noch 3.0 artefaktfrei funktioniert, ist der AD104 nicht so schnell in Relation zum Preisgefüge wie der GP102 seinerzeit war.
Dafür ist der AD104 für nVidia viel billiger in der Herstellung.
 
DaHell63 schrieb:
Es geht auch anders...weit weit weg von 1000€ Unterschied
Anhang anzeigen 1358232
Die Karten sind doch aber innerhalb ihrer Serie in ganz unterschiedlichen Preisregionen unterwegs:
7900XTX Tachi = top end (und dann noch als white)
Palit 4090 = low end

Der Gegenspieler zur Tachi White wäre viel eher die Strix White, welche aktuell 2.150€ kostet, was dann wieder >900€ unterschied sind.
 
  • Gefällt mir
Reaktionen: Moonr3der und Sunjy Kamikaze
cookie_dent schrieb:
Das Problem mit der Hitzeentwicklung hast Du ja bereits aufgeführt, mir geht es aber auch um das reine Energiesparen, denn mein PC ist der mit weitem Abstand größte Stromfresser in meinem Haushalt und den möchte ich daher so Effizient und Ressourcen sparend wie möglich betreiben ohne meine Komfortzone großartig zu verlassen. Das ich dabei auch ein paar Euro spare ist "nur" ein nützlicher Nebeneffekt.
Bin cih voll bei dir. Ich Erzeuge aber jedes Jahr mehr strom als ich je verbrauchen könnte. Daher Gönn ich mir auch das ein oder andere Goodie das dann gern mal mehr verbraten darf. Grundlegend aber ja.

Ich sehe ja du hast eine 4080. Die ist ja momentan so die Effizienteste Karte bei Leistung für fps wenn ich das richtig in erinnerung habe ja?
 
So ein Verbrauch von 700 Watt ist doch jenseits von gut und böse. Und zeigt wie viel besser die Architektur bei Nvidia ist, wo die 4090 dieselbe Leistung mit Hälfte des Verbrauchs erzielt.

Da muss AMD aber einiges noch nachlegen, was die Effizienz bei Grafikkarten angeht.
 
Dann ist die Architektur der 4080 ja auch totaler Mist, weil die dann extrem viel verbrauchen würde, wenn sie die Leistung der 4090 erreichen müsste. Wenn sie das überhaupt kann, selbst mit 1000 W.

Da muss nV aber noch nachlegen… 💁‍♂️
 
  • Gefällt mir
Reaktionen: Moonr3der, Sunjy Kamikaze, ZeusTheGod und eine weitere Person
Supie schrieb:
Ach ja, und bezüglich AMDs verbrauch bei den 7xxx GPUs, vergesst mal nicht das NViDia auch mit 600 Watt geplant hatte, der Prozess gabs halt her, das es weniger wurde.......= Daher die Kühler - kann also keiner guten Gewissens leugnen.

Fakt ist, Nvidia schafft mit der 4090 eine Leistung, wofür AMD doppelten Verbrauch an den Tag legt. Auch verbraucht keine Nvidia Karte 600 Watt.

Supie schrieb:
NVIDIA hatte nur Glück, passiert halt, von daher sehe ich auch nicht zwigend einen mega Designfehler auf AMDs Seite, hätte auch anders rum sein können.

Das ist ja interessant, Designarbeit und Ingenieurskunst ist also alles Glück... Na das lässt sich ja auf alles übertragen. Mit der Logik hatte AMD mit unter Last effiziententeren CPUs als bei Intel auch nur Glück, der Prozess gabs halt her, hätte da mal Intel Glück gehabt im CPU-Poker, wären jetzt die Intel CPUs effizienter unter Last... Tja, man weiß nie wie die Fortuna so spielt, ne?
 
  • Gefällt mir
Reaktionen: Samuelz
Klever schrieb:
Fakt ist, Nvidia schafft mit der 4090 eine Leistung, wofür AMD doppelten Verbrauch an den Tag legt. Auch verbraucht keine Nvidia Karte 600 Watt.

Fakt ist lediglich, dass Du eine extrem übertaktete Karte mit einer Karte im Sweetspot vergleichst. 😉
 
  • Gefällt mir
Reaktionen: Moonr3der und rg88
@Kommando
Fakt ist auch, dass du meinen Satz wohl nicht verstanden hast. Es ging um die Leistung der 4090 und dass AMD dafür den doppelten Verbrauch braucht. Natürlich kommt es von OC, wenn man nicht schafft eine Karte mit der Leistung der 4090 zu bauen mit einem normalen Verbrauch.

Ich finde es bezeichnend wie Fanboys Intel in Grund und Boden verdammen wenn die Effizienz unter Last schlechter ist als bei AMD (und da hat ganz klar AMD bessere Arbeit geleistet) aber wenn es auf AMD zutrifft, wo Nvidia bessere Arbeit leistet und die Effizienz von AMD GPUs schlechter ist, "ist es doch was komplett anderes".
 
  • Gefällt mir
Reaktionen: Oudenstekelig und Tornavida
Besuz schrieb:
Der Gegenspieler zur Tachi White wäre viel eher die Strix White, welche aktuell 2.150€ kostet, was dann wieder >900€ unterschied sind.
Diese Diskussion ist doch völlig überflüssig. Wir hatten bei CB erst kürzlich ein Update des P/L Ratings: https://www.computerbase.de/2022-12/amd-nvidia-grafikkarten-preis-leistungs-ranking/

Fazit: bei 4K im Raster ist das P/L der XTX besser, in RT hingegen nicht. Stromverbrauch und Features mal außen vorgelassen. Ber der ASUS TUF OC liegt der Preisunterschied XTX vs. 4090 aktuell bei ca. 660 €.

Generell ist der Vergleich aber ziemlich sinnlos. Die 4090 ist konkurrenzlos und in 4K 30 % (Raster) bis 47 % (RT) schneller als die XTX, es ist also nur logisch das sie deutlich mehr kostet. Glaubt hier etwa irgendjemand dass AMD es großartig anders machen würde? Nein, würden sie nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando und Klever
Klever schrieb:
@Kommando
Fakt ist auch, dass du meinen Satz wohl nicht verstanden hast. Es ging um die Leistung der 4090 und dass AMD dafür den doppelten Verbrauch braucht. Natürlich kommt es von OC, wenn man nicht schafft eine Karte mit der Leistung der 4090 zu bauen mit einem normalen Verbrauch.

Ich finde es bezeichnend wie Fanboys Intel in Grund und Boden verdammen wenn die Effizienz unter Last schlechter ist als bei AMD (und da hat ganz klar AMD bessere Arbeit geleistet) aber wenn es auf AMD zutrifft, wo Nvidia bessere Arbeit leistet und die Effizienz von AMD GPUs schlechter ist, "ist es doch was komplett anderes".
Lass mal die Fanboipeitsche stecken.
Du willst ja auch nicht darauf eingehen, dass Du eine extrem übertaktete Grafikkarte mit einer im Sweetspot vergleichst.
Nimm Dir die 4070 und versuche sie so hoch zu prügeln, dass sie 4090-Leistung erreicht und Du stellst fest: Das wird nicht nix mit ähnlicher Leistung. Und das ist genau was Du gerade mit der XTX machst. 😉
 
  • Gefällt mir
Reaktionen: Moonr3der und rg88
Capthowdy schrieb:
Fazit: bei 4K im Raster ist das P/L der XTX besser, in RT hingegen nicht.
Das streite ich auch nicht ab, hingegen die teuerste XTX mit der günstigsten 4090 zu vergleichen halte ich für Unsinn.
 
  • Gefällt mir
Reaktionen: Moonr3der
Klever schrieb:
Fakt ist auch, dass du meinen Satz wohl nicht verstanden hast. Es ging um die Leistung der 4090 und dass AMD dafür den doppelten Verbrauch braucht. Natürlich kommt es von OC, wenn man nicht schafft eine Karte mit der Leistung der 4090 zu bauen mit einem normalen Verbrauch.
Fakt ist nur, dass eine 7900XTX übertaktet (!) Den doppelten Verbrauch hat für die selbe Leistung.
Du sitzt hier aber einfach einer falschen Denkweise auf. Du tust so, als wäre die Größe des Chips nicht relevant und einzig der Takt hätte hier Einfluss.
AMD könnte genauso einen größeren Chip mit sagen wir 50% mehr Shader-Einheiten auflegen und diese dafür niedriger takten und würde potentiell einen geringeren Verbrauch als eine 4090 haben und damit effizienter sein.
Warum man das nicht macht: weil ein größerer Chip viel mehr in der Produktion kostet, den Takt zu erhöhen kostet überhaupt nichts, führt aber zu einem höheren Verbrauch. Hier gilt es eben, dass man einen Kompromiss aus beidem findet.
Und den Faktor Chipgröße hat AMD in dieser Generation zu niedrig angesetzt und zu sehr auf die Taktmöglichkeiten gesetzt.
Das sind hier die einzigen Fakten.
Deine Vergleiche sind es nicht
 
  • Gefällt mir
Reaktionen: Moonr3der und Kommando
Zurück
Oben