News GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine

Nun gönnt den Hardcore-Gamern doch die paar Watt. Die Umwelt wird es verstehen...

Gruß,
CTN
 
The_Jensie schrieb:
Die Leistungsaufnahmen sind langsam nicht mehr feierlich. Bekommt man da noch ein AKW oder PV Anlage dazu?
Finde das auch recht teuer für nur 450W Abwärme, gibt es wesentlich günstiger und als Plug and Play:

1602789252420.png

Hat sogar 50W mehr :lol:
 
v_ossi schrieb:
Wie auch bei @Herdware ist das Whataboutism; Kritik lässt sich so nicht entkräften. Bei Lampen, Kühlschrank, Auto und Co geht die Reise in eine Richtung, hier aber in die entgegensetzte.

Ist das wirklich so?

Bei Kühlschränken sehe ich einen trend(auch wenn er recht klein ist) hin zu Side by Side Kühlschränken, die brauchen viel Strom, sind aber fancy und chic im offenen Wohnraum.

Offener Wohnraum, auch ein energiefresser aber heutzutage sehr angesagt, Zimmer punktuell heizen wird dort aber schwer. Weiter gehts mit größeren Wohnraum, je mehr die Leute haben desto mehr muss man heizen und... trommelwirbel die mit abstand meisten energiekosten in DE entfallen auf das Heizen. Daher ist auch das höchste Energieeinsparpontenzial beim vermindern von Wohraum zu holen.

Bei Lampen ist man auf LED umgestiegen, zwar sparen die Energie aber ihren erhöhten Preis rechtfertigen sie erst nach 5-10Jahren... mir sind aber schon etliche LED Birnen nach 1-2 Jahren kaputt gegangen... der heilige Gral ist das auch nicht, besonders Energiesparlampen haben da so ihre problemchen und mit der Led beleuchtung gehen oft ambilightsysteme einher die wiederum Dauerstrom benötigen zwecks der Steuerung.

Bei Autos wechselt man jetzt auf Elektroenergie und auch wenn ich Fan dieser entwicklung bin, bleiben dort nicht weniger Probleme zurück, es verlagert sich ggfs. aus dem Blickfeld aber weg ist es nicht.

Nun liegen wir beide aber nicht soweit auseinander weil du das alles sicher auch weißt. Natürlich kann man das Pferd von hinten aufzäumen, aber das ist in meinen Augen blinder Aktionismus. Natürlich ist es immernoch besser als garnichts tun, aber es gibt weit weit WEIT effektivere Energieeinsparmöglichkeiten als beim PC auf den Volllastverbrauch zu schielen und diesen zu optimieren... Gemessen am Gesamtenergieverbrauch eines Menschen ist der Grakaverbrauch infinitiesimal klein...

Und natürlich muss man irgendwo beginnen... aber dann doch bitte nicht am allerletzten Zipfel der 0 Auswirkungen hat. CO2 Einsparen, bin ich absolut dabei und ich tue das wirklich im Rahmen meiner möglichkeiten(angefangen von zu Fuß einkaufen gehen bishin mit dem Fahrrad im Frühling/Sommer zur Arbeit fahren)... aber, zum einen verstehe ich wenn es anderen Menschen nicht so möglich ist das zu tun wie ich es tue und zum anderen ist das rein für mein Gewissen... solang Kreuzfahrtschiffe und Crainterschiffe rumgondeln ist all das einsparen sinnlos.
Nur mal um die Zahlen zu verdeutlichen, das größte Containerschiff verbraucht beladen auf 100km ~55.000L Schweröl. Die Strecke zwischen Hamburg-->Singapur beträgt sicher 15.000km oder anders gesagt das Schiff verbraucht auf einer strecke grob 8mio. Liter Schweröl. Ich will damit nichts rechtfertigen, aber mal aufzeigen wo Einsparpotenzial möglich ist.

Hier bei der Grafikkarte ist das so als ob ein 150kg übergewichtiger Mensch sagt ich trinke jetzt einen Schluck CocaCola weniger am Tag als sonst... klar besser als nichts aber es wird ihn keinen meter voran bringen, noch die Lage verändern.

Natürlich hast du recht das man den Grakaverbrauch nicht damit rechtfertigen sollte indem man auf andere Hobbies zeigt, aber man kann durchaus darauf aufmerksam machen, das z.b. die Heizung 1-2° im Winter kälter einstellen weit mehr Energie spart als der Umstieg von PC auf Brettspiele.
 
  • Gefällt mir
Reaktionen: .Sentinel., Emsch, McFritte und eine weitere Person
Nach 15 Seiten ist die Diskussion beim Sinn und Unsinn angekommen =) Geil

Ich glaub' ohnehin das ne Diskussion dazu total müßig ist, besonders in dem kleinen Markt. Keine Sau hat solche Systeme - mit TR40 Sockel und dann ne 450W 3080/3090 - global gesehen. Auch in Zuunft nicht. Als die ATi/AMD Dinger so viel gesoffen haben hats dann auch wieder keinen gejuckt - wozu auch. Da sind wir hier in der totalen Blase gefangen was die Auswirkungen auf das gesamte Energieprofil anbbelangt.

Viel interessanter ist doch die gesamte Office-Basis - also das was am unteren Ende der Fahnenstange so an Energie verschwendet wird. Also die Kassensyteme, Thin-clients, Office-PCs - die sind doch in der Masse viel wichtiger. Und da helfen eigtl nur Standards die eben auch enforced werden.

Das sind zumindest meine 2 Cents dazu - habt nen angenehmen Abend und bleibt gesund!
 
iamyvo schrieb:
Dann bitte Auto ganz weg lassen. Merkste selber oder?
Du hast den Sarkasmus-Tag übersehen? Wegen 450W bei der Graka mit Umweltargumenten zu kommen ist sinnbefreit, im Verhältnis zu dem was ein Gaming PC inkl. Zubehör an Strom im Betrieb und vor allem die Herstellung und Gewinnung der Ressourcen benötigt.

Das Mit dem raus gehen ist nur ein ganz allgemein guter Rat
 
  • Gefällt mir
Reaktionen: McFritte
scooter010 schrieb:
Du hast den Sarkasmus-Tag übersehen? Wegen 450W bei der Graka mit Umweltargumenten zu kommen ist sinnbefreit, im Verhältnis zu dem was ein Gaming PC inkl. Zubehör an Strom im Betrieb und vor allem die Herstellung und Gewinnung der Ressourcen benötigt.

Das Mit dem raus gehen ist nur ein ganz allgemein guter Rat
Ok merkst es nicht selber, schade. Um es mal umgangssprachlich zu erklären, Kleinvieh macht auch Mist (Hallo Fleischkonsum), also geh weg mit deinen Relativierungen.

Und wieso ist es sinnbefreit, wenn man es mit dem Verbrauch des gesamten PCs vergleicht? Wenn die Grafikkarte in dem Fall mit massiven Abstand der größte Stromfresser ist?

Warum raffen hier so viele nicht, dass es gerade in der aktuellen Zeit um Effizienz geht? Auch in der Herstellung und Gewinnung der Ressourcen, das lässt sich schließlich nicht abstellen, PCs werden nun mal so oder so gebraucht/benutzt. Es geht nicht nur darum, dass für DICH allein der Verbrauchsunterschied keine Rolle spielt, sondern dass alle 3080/3090, bzw. künftige Generationen effizienter laufen und die Masse dann eben doch einen Unterschied macht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Czerni und v_ossi
Ich finds Nice.und wenn die Endlich mal Verfügbar dann sicher ne Überlegung Wert.
Und mich Interessieren Stromfresser eh nicht! Die Welt geht eh vor die Hunde da Spielt ne 450 Watt Rtx keine Rolle
 
Meine nächste wird trotzdem eine EVGA sein, aber nur wegen eine verlängerte Garantie,
Kühler tausch ohne Garantieverlust, RMA über Hersteller

Für meine defekte Zotac GTX 1080ti habe ich damals nach 2 Jahren 800 Euro zurück erstattet bekommen,
nur weil ich eine verlängerte Garantie gehabt habe und die Karte wegen Mining schon 1000 Euro gekostet hat
 
Neuesten Gerüchten nach zu urteilen - nach denen XFX die meisten neu produzierten GPUs im September direkt ab Werk an chinesische Krypto-Miner verkauft hat (man stelle sich einmal die Mengen vor) - steht der nächste Mining-Boom bevor, d.h. Preise für GPUs dürften durch die Bank massiv anziehen im kommenden Jahr und sich nicht einpendeln aufgrund verbesserter Verfuegbarkeit.

Ob man die im Artikel angekuendigte FTW3 Ulra RTX 3080 von EVGA in den kommenden Monaten ueberhaupt im Handel sehen wird (?), ich habe da doch berechtigte Zweifel, wenn die Geruechte zu den Minern stimmen sollten ;).

Der Ethereumpreis entwickelt sich in letzter Zeit wohl wieder positiv:

1602795461180.png


Dass sich hoehere Produktion nicht unbedingt in viel besserer Verfuegbarkeit zeigen wird, wurde ja auch von Moore's Law is Dead angenommen, wobei dort auch von einer problemlosen Verfuegbarkeit von RTX 3070 Karten zum Martkstart die Rede ist, aber wer weiss, ob das auch so kommen wird mit einem moeglichen neuen Mining-Boom vor der Tuer?


Das gilt nicht nur für kommende RDNA2 Grafikkarten von AMD/RTG (die dafuer besser geegnet sein duerften als die energiehungrigen RTX Ampere nVidia Karten), aber wird dann auch irgendwann bei dem massiven Bedarf auf - aktuell spaerlich angebotene - nVidia Ampere Karten zukommen.

Vielleicht reibt sich nVidia CEO Huang deshalb schon die Haende bzgl. neuer Rekordeinnahmen, laesst die Fertigung auf Hochtouren laufen, damit man direkt alles bei Hoechstpreisen an Miner ab Werk verkaufen kann und hat deshalb womoeglich wohl wissend in Aussicht gestellt, dass bis zum ersten Quartal 2021 sich an der schlechten Verfuegbarkeit der RTX High End Karten nicht viel aendern wird (naja, vielleicht doch, sie kann ja noch schlechter werden und Preise koennen dann noch mehr explodieren als ohnehin schon bei den Scalpern) ;).

Wenn das wirklich so sein sollte, dürften sowohl nVidia als auch AMD/RTG schon länger darüber Bescheid wissen (bei dem XFX GPU-Ausverkauf ab Werk durch Miner ist vom September 2020 die Rede) und der Kundschaft das bisher bewusst vorenthalten haben.

Im Falle von nVidia sind ja (die relativ wenigen) Scalper und Bots als Sündenböcke angegeben worden für die Verknappung/Nichtverfügbarkeit der RTX Ampere GPUs zum Marktstart, aber was ist, wenn es womoeglich doch Miner waren, die die neuen GPUs - bei angeblich auf Hochtouren laufender Produktion - zu Mondpreisen direkt von den Boardpartner-Werken abgegriffen haben?

Das waere eine ziemliche Schweinerei von beiden Chip-Entwicklern und die Konsequenz fuer mich, nun, dann wuerde ich wohl eine Zen3 Desktop APU kaufen und - wegen eines erneuten Mining-Boom ueberzogenen Grafikkarten-Preise - einem GPU Kauf eine Absage erteilen und evt. auf eine der Next-Gen Konsolen umsteigen und ggfs. PC Gaming an den Nagel haengen.

Sowohl nVidia als auch AMD/RTG hatten beide genug Zeit Gaming-Grafikkarten so an zu passen/entwickeln, dass diese fuer Miner nur noch wenig interessant sind, aber das wurde (wohl wissend) nicht getan.

According to the information received, throughout September, XFX did not give agents several graphics cards in China. Almost all mainstream models on the market such as RX 580 8GB, RX 590 8GB, RX 5600 XT, RX 5700 XT, etc are out of stock.
As for the reason, it is said that after XFX received these chips from AMD, they directly sold them to the miners , completely becoming “mining cards”, causing the agents to not get the goods at all.

Wenn das Geruecht so eintreffen sollte, goenne ich sowohl AMD/RTG (deren GPUs noch mehr auf Mining ausgelegt sind bzw. dieses beguenstigen) und nVidia und deren gierigen Boardpartnern damit finanziell krachend auf die Schnauze zu fallen.

Es bleibt zu hoffen, dass sich das Geruecht um einen bevorstehenden neuen Krypto-Miming (Ethereum-)Boom nicht bewahrheiten wird und die RDNA2 und Ampere Grafikkarten dann nicht komplett ausverkauft werden ab Werk ... wenn doch, hoffe ich, dass alle Beteiligten Ihr Fett dabei weg bekommen und sehe schon eher schwarz fuer die GPU-Preisentwicklung in Zukunft.
 
Zuletzt bearbeitet:
Wie krass sind 450 Watt für eine GPU? Vor nicht langer Zeit waren 500 war für nen kompletten gaming Rechner anzusetzen. Wirklich heftig.

Aber passt mal auf AMD haut Ende Oktober Big Navi raus. Mit der Leistung einer 3080 aber nur 250 Watt Leistungsaufnahme. Das wäre ein Knüller. Zu schön um wahr zu sein.
 
Die wichtigste Frage ist für mich hierbei: Wie viel % Performance bringt das?
Ich denke höchstens 10%. Und das ist schon sehr optimistisch.
Die Grafikkarten laufen doch so ziemlich am Limit...

Die Ampere-Grafikkarten mag ich an sich. Gute Leistung, gute Preise. Aber wenig VRAM.
Ich denke, jeder der warten kann - oder warten muss, weil es sowieso keine Grafikkarten am Markt gibt :evillol: - sollte auf die doppelte-VRAM-Version warten. Da ist aber wieder die Frage, wie viel kann und wird Nvidia dafür verlangen?

Bin auch sehr gespannt auf AMD. Vor allem auf den Verbrauch. Und ein bisschen auf den VRAM :D
 
  • Gefällt mir
Reaktionen: seek222
Hihi, vermutlich lohnt es sich sogar mehr sich ne GTX 3090 zu holen und die dann einfach etwas zu undervolten und den Takt zu reduzieren bis die richtig effizient läuft.
Durch die Stromersparnis amortisiert die sich dann in 1-2 Jahren und ist immer noch schneller als die 3080 die sich bei dem Verbrauch und der resultierenden Hitze vermutlich irgendwann selbst auslötet oder einfach schmilzt ...
 
Super wenn die Grafikkarte mehr verbraucht als ein ganzes System mit Monitor. Eine Grafikkarte mit Maximal 250 Watt ist die Schmerz Grenze bei mir alles dadrüber ist raus.
 
  • Gefällt mir
Reaktionen: Chismon, schkai und Czerni
die frage ist doch eigentlich nur, was man in 2-3jahren noch für die 3080 / 3090 gebraucht bekommt wenn die 4000er rauskommen
 
.Sentinel. schrieb:
Wir haben nunmal einen kontinuierlichen Anstieg an Stromverbrauch in den Systemen.
Das ist der Taktung und der Transistorenzahl bzw. Chipfläche geschuldet und ist physikalisch nur in Grenzen einzudämmen.

Man muss sich zwischen Leistung und Stromersparnis entscheiden, kann es aber vergessen sich hier überhaupt als PC- Gamer oder auch Konsolennutzer hinzustellen und zu schwadronieren, wie sich das alles in Sachen Stromverbrauch falsch entwickelt und es dann trotzdem nutzen.

Und wo steht geschrieben, dass Steigerungen bei Takt- und Transistorzahl die ebenfalls gesteigerte Effizienz 'auffressen' müssen?

Der Ampere Test -und das sprichst du ja selber an- zeigt doch, dass die neue Generation an und für sich effizienter arbeitet, als Turing. Gerade mit leicht gesenktem, bzw. bei gleichem Power Target (270 Watt) wird das recht eindeutig.
NVidia hat sich bei der 3080 bloß nicht mit (nicht exakt durchgerechnet) +20% (zur 2080 Ti) und 50% (zur normalen 2080) zufrieden gegeben, sondern wollte unbedingt +30/60% haben.
Klar, einen Tod muss man sterben; hätte man bei gleichem Stromverbrauch 'nur' die 20/50% Steigerung gehabt, hätte es auch wieder Kritik gegeben. Wäre mMn trotzdem sinnvoller. Mit TSMCs 7nm wäre bestimmt noch mal mehr drin gewesen.

Bei CPUs sieht man auch, dass die absolute Leistungsaufnahme nicht 'explodieren' muss.
Vergleich mal den 2011er Sandy Bridge Test mit dem 2017er Kaby Lake und dem 2019er Ryzen 3000 Test.

CPU Volllast Komplettsystem:
Sandy Bridge 2600k: 170 Watt
Kaby Lake 7700k: ~150 Watt
Ryzen 3700X: ~160 Watt
(Ryzen 3900X: ~220 Watt)

Den 3900X habe ich hier mal in Klammern eingefügt, weil der für Gamer eigentlich keinen Vorteil gegenüber dem 3700X bringt.

Gerade in Anbetracht der kommenden Konsolen mit 350 Watt PSUs wirkt eine 450 Watt Gaming Grafikkarte mMn einfach aus der Zeit gefallen. Natürlich können 3080 und 3090 absolut betrachtet mehr, aber 95% der Leistung bei 270 Watt TDP liest sich wesentlich humaner, als 110% Leistung mit 450 Watt TDP bei eine extreme OC 3080.

@Toni_himbeere Kann dir bei den meisten Punkten nur zustimmen, aber ich sehe das insgesamt wie @iamyvo. Es ist nicht die Einsparung, die ein User mit seiner Grafikkarte erzielen kann, sondern die kombinierte Einsparung der Generation. 50 Watt mehr oder weniger in kurzen Zeiträumen bei Vollast (lass es 5 Stunden Vollast Gaming die Woche sein) kann ich am Ende des Jahres wahrscheinlich nicht einmal auf der Stromrechnung exakt zuordnen. Wenn aber tausende Nutzer weniger verbraten sind es in Kombination eben schnell mal ein paar Megawatt. Dann ist es eben nicht mehr ganz so unbedeutend.
 
  • Gefällt mir
Reaktionen: Chismon
Was in den Kommentaren hier schlecht rüberkommt ist die Tatsache, dass die 3080 FE eine TDP von 320W und die 3090 FE eine TDP von 350W hat. Angesichts der Performancesteigerung ist der Mehrverbrauch gegenüber einer 2080 Ti mit einer TDP von 250W nicht so grottig, wie hier dargestellt.

Was die Partner mit ihren Supi-Dupi-OC-Karten machen, ist doch nicht die Schuld von Nvidia. Hier hat EVGA einfach ein Produkt kreiert, das man sich kaufen kann (wenn es denn mal lieferbar ist) oder eben nicht.
 
  • Gefällt mir
Reaktionen: McFritte, xexex, cru5h3r und eine weitere Person
Ich habe auch das gefühl das hier einige nicht verstehen das diese Karte nicht einfach 450 watt zieht.
Das ist das maximale Powerlimit.
Das kann man manuell einstellen wenn man da Bock drauf hat und ein bisschen OC spielereien machen möchte.
Ich weiss nicht was die EVGA als Stock PT hat, vermutlich aber dasselbe wie die Strix und die liegt bei stock auf 370w.
Is auch viel, aber keine 450!
 
  • Gefällt mir
Reaktionen: cru5h3r
Mal zur Abwechslung ein Reviewer mit nem 3700X +3080FE:
Bei Ihm schlägt PT=370W gut an.
(inwiefern dann mit 3x 8pin 450W über die magischen 4k60fps helfen in Game XYZ muss halt Jeder selber testen)
NVIDIA GeForce RTX 3080 FE Overclocking - Page 2 of 8 - The FPS Review

btw.
Ein Fps-Limit ist trotz OCen weiterhin sinnvoll, um z.Bsp. beim Inputlag vom smootheren Verlauf zu profitieren.
(ne GPU@100% Auslastung ist träger als bei 90%, sprich Balkenlänge ist net Alles)
 
D0m1n4t0r schrieb:
Durch die Stromersparnis amortisiert die sich dann in 1-2 Jahren und ist immer noch schneller als die 3080 die sich bei dem Verbrauch und der resultierenden Hitze vermutlich irgendwann selbst auslötet oder einfach schmilzt ...
800 Euro in 2 Jahren ? Selbst wenn du den Rechner nicht anmachst, wirst du nie diese 800 Euro über die Stromersparnis rausholen. Rechne mal selber nach und dann wirst auch du merken das es unmöglich ist. Nicht zu vergessen das man die 3080 auch undervolten kann.
 
Zurück
Oben