Lohnt doch langsam eine AMD-ATI - > statt NVIDIA-Karte?

Kothie schrieb:
"Wegen eines unerwarteten Systemfehler wurden die Radeon WattMan Standardeinstellungen wiederhergestellt"
Hatte ich mit meiner GTX1080 damals auch.
 
Da AMD GPUs in den Konsolen Xbox, PS sitzt ist die Frage nach der Kompatibilität sehr eindeutig Pro AMD.

Was das P/L angeht ebenso AMD.

Nur die Markenstärke ist Pro Nvidia.

Ich kaufe eher nicht nach Marketingkriterien, jedenfalls nicht HW
 
LencoX2 schrieb:
Nur die Markenstärke ist Pro Nvidia.
DLSS, Frame Generation, RayTracing und Broadcast verlassen den Raum.

Auf GeForce-Grafikkarten zeigen sich eigentlich keine Probleme. Wenn Skull and Bones immer so laufen würde, wäre die Welt in Ordnung. Radeon-Grafikkarten brechen in Bewegung jedoch deutlich bei der Leistung ein, ganz gleich um welches Modell es sich handelt. Entsprechend spielt es sich auf einer Radeon aktuell viel schlechter als auf einer GeForce – obwohl die verwendete Engine AMD-Grafikkarten eigentlich gut liegt.
 
  • Gefällt mir
Reaktionen: DerSnacker und Tr8or
ATI gibts seit vielen Jahren nicht mehr. Heisst jetzt AMD.

Generell gilt:

Ist Dir Ray Tracing, gutes Upscaling und der Idle Strombedarf egal? Dann kannst Du AMD nehmen. Hier ist AMD weit hinter Nvidia - die Rohleistung stimmt. AMD Karten sind unterm Strich zwar günstiger aber ineffizienter beim Strombedarf

Willst Du Ray Tracing nutzen, legst Du wert auf gutes Upscaling und gut funktionierende Frame Generation und nutzt Du den Rechner nebenbei auch beruflich (Home Office - Idle Effizienz)), würde ich zu Nvidia greifen.
 
  • Gefällt mir
Reaktionen: DerSnacker
mfJade schrieb:
DLSS, Frame Generation, RayTracing und Broadcast verlassen den Raum.
AMD FSR3, Fluid Motion Generation, Noise Suppression und RT gibts auch.

Wer es höher gewichtet wenn es von NVidia ist, soll das liebend gerne tun.
Ergänzung ()

Bono35 schrieb:
nutzt Du den Rechner nebenbei auch beruflich (Home Office - Idle Effizienz)), würde ich zu Nvidia greifen.
Für Office geht nichts über eine iGPU. Gibt es nicht von NVidia.
Da bleiben nur Intel, AMD und Apple.

Ich hab hier eine Lenovo IdeaPad 5 Pro 5600H mit iGPU-
 
  • Gefällt mir
Reaktionen: Maviba
LencoX2 schrieb:
AMD FSR3, Fluid Motion Generation, Noise Suppression und RT gibts auch.
Allesamt schlechter, teils deutlich schlechter als bei NVidia.
 
@LencoX2 ich spreche nicht von rein Office - ich spreche von hybrider Nutzung. Tagsüber Arbeit - Abends Gaming.
 
  • Gefällt mir
Reaktionen: DerSnacker
@Bono35
Mein Laptop verbraucht einstellige Watt im Idle ohne Bildschirm.

Ein Gaming PC kommt auf 40-80 Watt je nach HW, ebenfalls ohne Bildschirm.

Ich will hier niemanden überreden, sein Verhalten zu ändern. Jedem das seine.
 
LencoX2 schrieb:
Mein Laptop verbraucht einstellige Watt im Idle ohne Bildschirm.

Ein Gaming PC kommt auf 40-80 Watt je nach HW, ebenfalls ohne Bildschirm.
Es wurde aber auch schon oft genug erklärt das es am Ende des Jahres auf der Rechnung, fast keine Rolle spielt. Es sei den man lässt das System den ganzen Tag an und sitzt nicht drann.

Ansonsten ist es wie gesagt ein vergleich zwischen einem Notebook und einem GamingPC, auch ziemlich unfair.
 
Also 14 Watt einer NV Karte im Idle gegen bis zu 100 Watt einer AMD Karte (plus geringere Haltbarkeit wegen der höheren Abwärme) macht auf der Rechnung bei 8 Stunden Mindestlaufzeit am Tag durchaus was aus. Vor Allem solange wir es nicht gebacken bekommen die Strompreise zu senken.
 
Welche Karte zieht den heute noch 100W im Idle bzw. 14W unter Last?
1708607545015.png

https://www.computerbase.de/2023-01...leistungsaufnahme_desktop_und_videowiedergabe

Ja AMD verbrauch hier und da mehr aber das fällt in der Jahresrechnung nicht auf, es sei den du lässt Benchmarks rund um die Uhr laufen ohne das du was anderes machst.
 
  • Gefällt mir
Reaktionen: LencoX2, Demon_666 und NJay
LencoX2 schrieb:
Mein Laptop verbraucht einstellige Watt im Idle ohne Bildschirm.
Ein Gaming PC kommt auf 40-80 Watt je nach HW, ebenfalls ohne Bildschirm.
Beim Surfen inklusive Monitor. (und den 6 Silent Wings :freaky: )
Unbenannt.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LencoX2 und sikarr
Bono35 schrieb:
Also 14 Watt einer NV Karte im Idle gegen bis zu 100 Watt einer AMD Karte (plus geringere Haltbarkeit wegen der höheren Abwärme) macht auf der Rechnung bei 8 Stunden Mindestlaufzeit am Tag durchaus was aus. Vor Allem solange wir es nicht gebacken bekommen die Strompreise zu senken.

Da hast Zahlen aus dem Kontext gezogen und in Relation gesetzt.
 
  • Gefällt mir
Reaktionen: sikarr
Keineswegs - denn diese sind für eine Hybrid Nutzung relevant.
 
Bono35 schrieb:
Doch, keine Karte braucht 100W im Idle, selbst im Teillastbereich nicht. Ich habe ja schon oben eine entsprechende Quelle angegeben.

Es spielt auf deiner Jahresendabrechnung keine Rolle ob du am Ende eine AMD, Intel oder nVidia Karte verbaut hattest, natürlich wenn die Karten auch in der gleichen Leistungsklasse (nicht Stromverbrauch) eingeordnet sind.

der Vorteil von Undervolting ist nicht die Einsparung von Strom sondern die Abgabe von Wärme, der Spareffekt auf der Rechnung von ein paar Watt rechnet sich über die Lebzeit nicht.
 
  • Gefällt mir
Reaktionen: Ruptarr
Bono35 schrieb:
Keineswegs - denn diese sind für eine Hybrid Nutzung relevant.
@sikarr hat mit Fakten seine Aussage bewiesen.
Welche AMD Karte der letzten 2-3 Generationen zieht im Idle 100 Watt?

RX6800 liegt bei max 15 Watt 1×UHD@120Hz, siehe Foto.
Bei 2xUHD liegt sie bei ca 40 Watt
 

Anhänge

  • 20240223_103012.jpg
    20240223_103012.jpg
    6 MB · Aufrufe: 32
  • Gefällt mir
Reaktionen: Ruptarr und sikarr
Dein Foto zeigt allerdings nur den GPU Chip itself an, nicht den Gesamtverbrauch der Karte.
"Board Power Draw" ist gesamt.
Nur so anmerk.
 
  • Gefällt mir
Reaktionen: sikarr, LencoX2 und PeacemakerAT
Zurück
Oben