News ROG Thor Titanium/Platinum II: Netzteile von Asus mit bis zu 1.600 Watt und PCIe 5.0

1600W heisst ja net, das man die auch verbraucht, dafür haben die Netzteile ja ne anzeige. Hab den Vorgänger von dem und bin mehr als zufrieden. zum Vergleich in der Praxis. Meine Absolute Höchstlast war bei mir 660W (gibt extrem wenig games die überhaupt in diese Region kommen, eher so 480-560) und das bei ner übertakteten CPU und ner 3090 WC am Power Limit. im IDle liegt man da eher bei 245W. Nur das die Leute mal ne Vorstellung kriegen, wenn sie da 1600W lesen.
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Kommando schrieb:
Quad-SLI-Setup mit 4x 3090 Ti
Gibt es SLI eigentlich noch, mit brauchbaren aktuellen Treibern für Quad-SLI für die meisten Spiele?
Irgendwie hatte ich im Kopf, dass das aus der Mode gekommen wäre. Von so Blödsinn wie 8x 3090 für die Mining-Kacke abgesehen, natürlich.

Nicht, dass ich auch nur annähernd die Kohle für Gaming mit 4x 3090 (oder auch nur einer) hätte als dass das für mich relevant wäre... Schön wärs haha
 
Looniversity schrieb:
Sind die Stecker Teil des PCIe-Standards?
Soweit ich sehe nicht. Selbst ASUS hat es nur so als quasi angedeutet und bei der Reihe ist es ein Adapterkabel. Problem sind halt wieder die Medien und das ASUS da ein bisschen selbst zu Vorlaut war. Und jetzt hält sich das Gerücht und ASUS nennt es halt jetzt PCIe 5 konform, aber nicht das es zertifiziert oder Standard ist.
Vielleicht gibt es eine Ausnahme damit ältere PSU PCIe5 Komponenten mit entsprechenden Adapterkabel mit Strom versorgen dürfen!
Erst mir ROG Loki bewirbt ASUS als "PCIe 5 ready" und dieser hat den 16Pin(12 Strom und 4 Daten) Anschluss!
The Loki is even PCIe Gen 5.0 ready, bundled with a 16-pin PCIe cable that can pipe up to 600W of power to modern compatible graphics cards.
 
Zuletzt bearbeitet:
Gibts irgendwann auch mal was neues von Corsair? also die xxxx(i) Versionen mit USB Anschluss. Ich find es ganz nice die Daten auslesen zu können. ;).
 
Also, bald muss man pc Aufrüstung als Herausforderung mit ernergiesparen verbinden. 🙈
 
Und trotz allem wundert mich immer noch die Positionierung des Lüfters in der Thor Serie....
Hab selber das kleine Thor und raffe es bis heute nicht, wieso der Lüfter oben ist...
In Zeiten von Shrouds und Abdeckungen über den Netzteilen, das inzwischen bei den allermeisten Cases verbaut wird wundert mich dies ein wenig. Man kann das NT auch nicht oben im Case platzieren...
Asus scheint entweder nur Benchtables oder 15$ Cases zum testen eines Usecase in petto zu haben
 
banane1603 schrieb:
wieso der Lüfter oben ist...

Macht schon Sinn. Die meisten Netzteil Shrouds sind nicht geschlossen, sondern haben Öffnungen (abgesehen von vielleicht 15€ Gehäusen), so dass in der normalen Einbauposition die natürliche Konvektion genutzt werden kann. Besonders beim Semi Passiven Betrieb kann so die Wärme aufsteigen und sammelt sich nicht in dem Gehäuse des Netzteils.

Und bei der Leistungsspanne werden die Netzteile mit den meisten Systemen zu einem sehr großen Teil der Zeit passiv laufen.

Ansonsten muss man es halt umdrehen. Dann sieht man das Display zwar nicht, sieht man ohne Modifikation aber bei den meisten Gehäuse eh nicht. Von daher eigentlich gar nicht so dumm, kommt halt drauf an, was man damit machen möchte.
 
Katusch schrieb:
mal ne dumme Frage: Ein 1600 Watt Netzteil verbraucht nicht mehr Strom als ein 800 Watt Netzteil wenn die restlichen PC-Komponenten die selben sind oder?
Klar. Durch die mit der geringeren Auslastung abnehmende Effizienz steigt der Anteil des unnütz verbratenen Stromes.
Sehr gute Netzteile (Titanium) bekommen mittlerweile auch bei nur 15% Auslastung einen Wirkungsgrad von >80% hin. Allgemein werden aus Preisgründen aber nur eher NT mit Bronze bis Gold Zertifizierung gekauft. Dann holst das Gesparte Geld zumindest teilweise wieder über den Verbrauch rein. ;)
Deshalb sollte das Netzteil zumindest einigermaßen zur Hardware passen.
Als grobe Faustformel könnte man den Angegebenen Verbrauch der HW nehmen und 20 - 30% Aufschlagen wg. Spannungsspitzen. Wobei diese Spitzen bei Spitzenhardware (RTX3090 / Core 12900k) deutlich höher (30%) ausfallen können als bei beispielsweise 12400 + RTX3070. So als grobes Beispiel.
Igor gibt in seinen Tests auch immer realitätsnahe Empfehlungen ab.
---------------------------------------------
Edit:
Wie bitte?
Jetzt wurden hier gerade mal Ruck Zuck alle (5? 6?) Beiträge gelöscht die einen Bezug zu hohen Strompreisen haben? Und andere Threads (Tesla) können Seitenweise Themafremd Amok laufen?
Ihr seid so lächerlich.
Es kann wohl nicht sein, was nicht sein darf.
Eure Scheiß Zensur tu ich mir jetzt nicht mehr an.
Jetzt ist hier für mich wirklich Schluss
Feierabend!
Tschö!
 
Zuletzt bearbeitet: (Ergänzt)
  • Gefällt mir
Reaktionen: Katusch
Contor schrieb:
Dafür brauchts dann aber auch kein 1600W Netzteil...

Noch braucht es dazu noch keine 1600W.
Wenn die next Gen Karten wirklich solche Watt Monster werden wie die Gerüchte sagen (bis zu 600 Watt), CPUs auch generell rauf gehen, und dann die Games in Folge anspruchsvoller werden. Dann kommt das hin, 40% von 1600 Watt, dann bist bei ca. 600 Watt für den Semi-Passiv Mode.
Also 1600w wird da ein guter Wert werden.
 
Summerbreeze schrieb:
Sehr gute Netzteile (Titanium) bekommen mittlerweile auch bei nur 15% Auslastung einen Wirkungsgrad von >80% hin.
Bei 80plus Titanium müssen (!) die Geräte ab 10% Auslastung eine Effizienz von mindestens 90% aufweisen. Für moderne Goldgeräte ist das auch keine ernsthafte Hürde (mehr), mit teilweise 88% bei 10% Last: https://www.computerbase.de/2021-05...-xpg-core-reactor-650w/3/#abschnitt_effizienz Vgl. zB auch https://www.tweakpc.de/hardware/tests/netzteile/fractal_design_ion_gold/s02.php
 
Gibt es einen speziellen Grund, warum die Streben der Lüftervergitterung so breit ausfallen und somit die Lufteintrittsöffnung für den Fan künstlich verkleinern!?

Das Teil paßt zu dem kürzlich hier getesteten Cooler Master Gehäuse, das mit den tollen 200 mm Fans an der Front!
 
Mal ein Beispiel und Gründe, warum ich ein 1600 Watt Netzteil betreibe:

Der größte Teil geht aufs Rendern / Encoden / Videobearbeitung drauf.
Zum Thema SLI:
Man kann gerade im Nicht-SLI-Betrieb mit 2 Grafikkarten eine Menge Rechenzeit sparen. Bei mir nutzt Davinci Resolve allein mit dem Deflicker-Filter meine zwei 3080 Ti gleichzeitig voll aus. Es gibt genug Prorgamme, die mit zwei Grafikkarten im Nicht-Gaming-Bereich sehr gut umgehen können u. man sehr viel Zeit sparen kann. Selbst Handbrake kann man zweimal gestartet jeweils eine Karte fürs Nvenc-Encoden zuteilen.
In meinem Fall komme ich bei üblichem Workflow (Projekt gestartet ...) auf ca. 800 Watt Dauerlast. Die beiden 3080er habe ich leicht undervoltet, damit es zu keinen größeren Spannungsspitzen kommt und man kann da durchaus doch deutlich Strom sparen.
Anders gesagt: Ein 1200 Watt Netzteil hätte bei mir wohl gereicht, zumal meine USV nur bis 1200 Watt läuft :)
Aber da ja ein Netzteil angeblich bei der Hälfte an Last am "Liebsten" läuft und den Lüfter da nicht voll aufdrehen muss .... war das glaub doch die richtige Entscheidung mit dem Big-Teil.
Und falls jemand generell Übertaktet und mit Spannungsspitzen leben muss, dann macht so ein Teil doch öfters Sinn als zunächst gedacht.

Grüße
 
  • Gefällt mir
Reaktionen: Maike23
Oha, OLED, als Fernseher oder eben bei Tablet, Smartphone, Uhr top, aber so bei Statusanzeigen sind die mMn oft fehl am Platz, wenn ich sowas sehe:

Meine Aquastream Ultimate hat zwar auch ein OLED, aber das kann man gut konfigurieren, da wechselt die Anzeige ständig durch, mal wird die Temperatur in Grad angezeigt, dann die Drehzahl, dann ein Graph und auch abschalten kann man es, aber wenn es wie hier immer an ist und eher statisch ist, wird es wohl als erstes verschlissen sein.
 
Shoryuken94 schrieb:
Macht schon Sinn. Die meisten Netzteil Shrouds sind nicht geschlossen, sondern haben Öffnungen (abgesehen von vielleicht 15€ Gehäusen), so dass in der normalen Einbauposition die natürliche Konvektion genutzt werden kann. Besonders beim Semi Passiven Betrieb kann so die Wärme aufsteigen und sammelt sich nicht in dem Gehäuse des Netzteils.
Du machst aber einen Denkfehler... Die Lüfter sind so in die Netzteile eingebaut das die saugen und nicht blasen. Wenn also der Lüfter läuft dann saugt dieser warme Luft aus dem Gehäuse inneren (meist warme GPU Luft) und bläst diese raus.
Und bei vielen der neuen Gehäusen ist eine Shroud über das Netzteil...bei vielen würde man das Display also sowieso nicht sehen.
DrSeltsam95 schrieb:
Oha, OLED, als Fernseher oder eben bei Tablet, Smartphone, Uhr top, aber so bei Statusanzeigen sind die mMn oft fehl am Platz, wenn ich sowas sehe:
Man vergisst eines dabei. Die OLEDs sind in der nähe von sehr warmen Komponenten verbaut. Durch die Wärme gehen sie noch schneller kaputt.
 
Contor schrieb:
Den Kindern sag ich "mach das Licht aus wenn du nicht im raum bist (LED Lampen) und ich selber.... na lassen wir das....


Ich persöhnlich ziehe da nicht mehr mit. nicht weil ich´s mir nich leisten kann, sondern weil ich´s einfach nur noch absurd finde wohin der weg derzeit geht.
Klingt doch, als hättest du eine gesunde Einstellung. Finde ich gut.
Aber das mit dem Licht brauchst du den Kids nicht mehr beibringen, nur die Grundhaltung.

Die Frage ist doch, welcher Stromverbrauch absurd ist? Gemessen an der Effizienz der Vorgänger oder der technischen Möglichkeiten.
Ich finde es nicht so schlimm, dass der Verbrauch zunimmt, nur teuer wirds!
Für irgendwas lebt man ja auch und das Leben an sich hat Kosten.
Die tatsächlichen Großverbraucher liegen woanders, ob im Haushalt (Kochen) oder der Schwerindustrie (Metallherstellung).
 
Dankeschön, für den Hinweis, SV3N! 👍

Ich melde dann schon mal meinen Gasanschluss ab, weil ich zukünftig mit Abwärme heize. 😈
 
theGucky schrieb:
Du machst aber einen Denkfehler... Die Lüfter sind so in die Netzteile eingebaut das die saugen und nicht blasen. Wenn also der Lüfter läuft dann saugt dieser warme Luft aus dem Gehäuse inneren (meist warme GPU Luft) und bläst diese raus.
Das ist mir durchaus bekannt. Ist für die Kühlleistung aber relativ unerheblich. Aber wie gesagt, bei den Leistungsklassen dürfte man eh das Augenmerk auf einen möglichst hohen Passivanteil legen. 1000 Watt und mehr landen in der Preisklasse nicht selten eh in Wassergekühlten Systemen, da wird es auch im Innenraum nicht so sonderlich warm.

theGucky schrieb:
Und bei vielen der neuen Gehäusen ist eine Shroud über das Netzteil...bei vielen würde man das Display also sowieso nicht sehen.
Da kannst du dir das dann eh drehen wie du möchtest. Gibt auch Gehäuse mit Cutout an der netzteilstelle oder der Option es wegzulassen. Asus spricht halt mit der Serie nicht unbedingt den typischen Massenmarkt an.

Und sie bieten eben eine entsprechende Option dafür an. Kann man nutzen, kann man drehen oder man kann was anderes kaufen, wenn es stört.

Tagesmenu schrieb:
Die tatsächlichen Großverbraucher liegen woanders

Ja wenn man sich so die typischen Gamingzeiten der meisten anschaut, dann ist der verbrauch beim Gaming PC ziemlich egal bei den Kosten. Da haben die meisten an anderen Stellen mehr einsparpotential. Weniger als der maximalverbrauch bei GPUs nervt mich persönlich aber eher unnötige oder schlechte Design / Engineering Lösungen wie bei den aktuellen AMD RDNA 2 Karten. Die haben das Problem, dass wenn man verschiedene Displays mit unterschiedlichen Auflösungen und Hz Raten anschließt, der GPU Speicher auf dem vollen 3D Takt steigt und nicht runtertaktet und damit der IDLE Verbrauch eine Katastrophe bei den Karten ist. Eine 6800xt / 6900XT braucht dann im Idle gerne mal Ihre 40-50 Watt. Völlig unnötig. Gerade in Rechnern die nicht nur zum spielen genutzt werden echt unnötig, da man hier nichts für den Einsatz gewinnt.
 
MoonTower schrieb:
Man kann gerade im Nicht-SLI-Betrieb mit 2 Grafikkarten eine Menge Rechenzeit sparen.
Schön da nicht ich mal wieder darauf hinweisen muss, das hier nicht GamerBase.de ist und es tatsächlich noch andere Anwendungen als Spiele gibt. :)
 
1.600 Watt? Das hatte mein alter Staubsauger von AEG, kurz bevor die EU verbot, solche stromschluckenden Staubsauger weiterhin zu verkaufen. Bei Netzteilen aber kein Problem...
 
  • Gefällt mir
Reaktionen: Kommando
Zurück
Oben