Danke für die Erwiderung. Da muß ich nicht mehr den ganzen Unsinn, den "BustaFiles" von sich gegeben hat, korrigieren. Busta, DU scheinst hier eher der "Schuljunge" zu sein! Weißt du, wann ATX entwickelt wurde?? NA????
Es war 1996! Da wurde vom Pentium4 oder einer Geforce5800 noch nicht einmal geträumt! Die modernsten x86-Prozessoren von Intel und AMD hießen damals Pentium75 und K5 und takteten anfangs noch nicht mal mit 100MHz!! Die Technik topt heute jedes bessere Handy mit links!
Um die Zeit, da die erwähnte Geforce5800 die Rechnergehäuse zum Glühen brachte, entwickelte man bei Intel das BTX-Gehäuseformat, weil man der Hitze der Pentium4-Prozessoren (die man gern auf 10GHz hochgejubelt hätte) samt Grafikkarten in ATX-Gehäusen schlicht nicht mehr Herr wurde! Damals takteten die nämlich noch nicht herunter und wurdne mit viel höheren Spannungen betrieben! Manche Gehäusehersteller drehten das Innenleben ihrer Rechner auch einfach auf den Kopf. Da kam das Netzteil, vor allem aber der heiße Prozessor nach unten, während der Grafikkartenkühler nach oben "abdampfen" konnte! Trotzdem waren das noch ATX-Rechner.
Daß ATX bis heute überlebt hat, verdankt es der Kehrtwende beim Energiehunger von Hardwarekomponenten (Brüller-Grafik mal außen vor gelassen, aber auch die takten in 2D herunter), angestoßen vor allem von AMD, die nie auf BTX gesetzt hatten, sondern eher auf Stromsparmechanismen aus Notebook-Technik.
Die Lage hat sich also entschärft (wobei die Leistungsentwicklung auch schon wieder viel kompensiert hat), was nicht heißt, daß man nicht doch noch etwas verbessern könnte. Und da ist das Entkoppeln des Netzteiles, das heute keine 150 oder 200 Watt mehr bringen muß, sondern normal 400 und mit starker Grafik bis zu 1000 Watt und mehr, vom Luftstrom um CPU und Grafikkarte nur logisch. Das Netzteil kann schon lange nicht mehr das Gehäuse kühlen, wie das im ATX-Standard mal vorgesehen war. Warum also die dafür geplante Anordnung beibehalten?
Im Übrigen: Selbst die vielgescholtene Geforce5800/5900 ist gegen heutige Grafikboliden ein Waisenknabe. Ich hab einen Test von Februar 2004 gelesen, in dem ein PC-System (!!) mit einer FX5800ultra unter Spiel-Vollast 209 Watt zog! Wohlgemerkt das GANZE System!! Also inklusive sämtlicher Hardware-Komponenten und CPU! Da kann man grob geschätzt etwa die Hälfte davon auf das System schieben, eher noch mehr. (Hatte mal ein AthlonXP-System das unter Last 140 Watt zog) Ohne Brüllergrafik!
Seien wir großzügig und gestehen der FX5800ultra 100 Watt zu: Mit den zwei Zusatzsteckern und PCIe kann man heute maximal 300 Watt an einer Grafikkarte realisieren! Und schon das reicht nicht mehr für die derzeitigen Spitzenkarten, was den Stromverbrauch angeht: Die Geforce GTX 295 zieht satte 317 Watt Maximum! Die Radeon HD5970 sogar 337! Und das kann man im HighEnd-Sektor sogar noch fast als sparsam ansehen, da das Doppel-GPU-Karten sind, die zB. aus zwei GT200b zusammengesetzt sind. Nimmt man stattdessen zwei GTX 285 (mit höher getaktetem GT200b) im SLI-Gespann, ist man schon bei etwas mehr als 400 Watt angekommen. Dazu kommen noch 100-120 Watt für die CPU (ist in Spielesystemen ja keine "s" oder "EE", sowie für Motherboard und Platten noch mal um die 50 Watt. Macht fast 600 Watt, die das Netzteil wuppen muß. Und das ganze mit 40° heißer "Kühlluft"? So warm ist es im Sommer nämlich locker im Gehäuse!