Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News RTX 5000 von Gigabyte: Hintergründe zur Kritik um das neue „Thermal Gel“
- Ersteller Jan
- Erstellt am
- Zur News: RTX 5000 von Gigabyte: Hintergründe zur Kritik um das neue „Thermal Gel“
TausendWatt
Cadet 4th Year
- Registriert
- Feb. 2025
- Beiträge
- 127
Machtvkein Unterschied. Senkrecht,/Vertikal können und führen oftmals zu Temperatur nachteilen. Das ändert sich nicht nur durch die Verfügbarkeit von Gehäusen, die solch eine Ausrichtung bedingen...
Aorus-Phantom
Cadet 3rd Year
- Registriert
- Apr. 2025
- Beiträge
- 34
Araska schrieb:Ah; GN ist als einzige Autorität anzuerkennen; Leute wie Igor sind ja eh nur bezahlte Influencer... so etwa?
Fakt ist; die Chose mit dem Thermal Gel von Gigabyte war ziemlicher Mist.
Ich zitiere mich an der Stelle einfach selbst:
Aorus-Phantom schrieb:Amateure halt, Gigabyte ist DER Hersteller welcher die Prototypen und Engineering Samples für Promontery, dessen angebundenden Lanes samt neuem Sockel und Schnittstellen als EINZIGER für Consumer Hardware ins Labor für erste Tests vom Featue Set liefert, und das Für Intel und AMD gleichermaßen.
Quelle: Der Bauer, Linus Tech TIps
Wenn ich 800€ für ein Board zahle erwarte ich das die SMDs mindestens im rechten Winkel zu einander verlötet wurden. Bei Gigabyte kein Problem.
Software ist und war, und wird bei Gigabyte immer Müll bleiben, das weiß Gigabyte selbst, Nötig hat man es nicht, denn der Laden baut Hardware und keine Software oder Divers. Die Können sie dafür richtig gut, sogar so gut das Fujitsu, Terra, und Dell bei dem Großteil der ATX basierten Geräte seit 15+ Jahren nichts anderes als relabelte Gigabyte Platinen nutzt.
Dennoch, das Problem mit dem inkontinenten Material ist einfach peinlich, aber das Gigabyte ohne weiteres das neue Zeug dort einsetzt ist falsch, das ist von NV mindestens abgesegnet worden, bei einer Asus gäbe es nichts Experimentelles*. Warum? Na weil die doch schon @Stock lauter heult als Chantal, und dann noch die Komfort Zone verlassen? Neeeeee Weis ich nich.....
*Beim Kunden lässt man keine HW Reifen, setzen 6 bitte...
Wäre ich betroffen würde die Karte von mir zur RMA gehen, ne Karte die mir aufs Board sifft mindert den Wert der Hardware, wenn auch nur kosmetisch.
Gez: Jemand der mindestens 5000 BTO Boards für Office und Labor verbaut hat und noch teilweise betreut, Die RMA Quoten sind eindeutig.
Gigabyte ist die Nr.1 was zuverlässigkeit angeht.
Himbeerdone
Lieutenant
- Registriert
- Aug. 2010
- Beiträge
- 645
Wie hier wieder die Fronten aufeinander losgehen, eieieiei.
Es ist weder alles hervorragend noch ein totales Schrottprodukt.
Keine Karte wird davon abbrennen oder (frühzeitig)sterben. Nach einiger Zeit wird sich bei Nutzern die die Grafikkarte (thermisch) auslasten auch Leistungseinbrüche messen lassen. Genauso wie bei schlechter/ ausgetrockneter/ nicht flächig aufgetragener Wärmeleitpaste auch.
Es ist einfach ein schlechtes Produktdesign bzw. Komponentenauswahl und Gigabyte will bei dieser Produktreihe anscheinend auch nichts mehr ändern. Das spricht jetzt nicht wirklich für Gigabyte aber sollte auch kein vollkommendes Ausschlusskriterium sein, wenn man den "Mangel" in die Preis-Leistung einkalkuliert.
Es ist weder alles hervorragend noch ein totales Schrottprodukt.
Keine Karte wird davon abbrennen oder (frühzeitig)sterben. Nach einiger Zeit wird sich bei Nutzern die die Grafikkarte (thermisch) auslasten auch Leistungseinbrüche messen lassen. Genauso wie bei schlechter/ ausgetrockneter/ nicht flächig aufgetragener Wärmeleitpaste auch.
Es ist einfach ein schlechtes Produktdesign bzw. Komponentenauswahl und Gigabyte will bei dieser Produktreihe anscheinend auch nichts mehr ändern. Das spricht jetzt nicht wirklich für Gigabyte aber sollte auch kein vollkommendes Ausschlusskriterium sein, wenn man den "Mangel" in die Preis-Leistung einkalkuliert.
Siebenschläfer
Lieutenant
- Registriert
- Nov. 2025
- Beiträge
- 609
Seit 1981. Da wurden Grafikkarten im allerersten PC 5150 von IBM vertikal eingebaut:CountSero schrieb:Seit wann müssen Grafikkarten das überhaupt können?
Und falls du dich fragst, was diese Slotblende
da unten rechts zu bedeuten hat: Die kommt original von dort oben her. Ist immer noch dieselbe wie 1981!
Wegen ATX ist die Befestigungsschraube deshalb übrigens immer noch auf der falschen (!) Seite für die korrekte Vertikalmontage, weshalb bei Lockerung jede Addin-Karte ungesichert unten fällt. Korrekt müssten GPUs in Tower-PCs eigentlich von der anderen Seite aus montiert werden, mit den Lüftern nach oben wie im Bild gezeigt. Dann würde das Slotblech auf der Schraube aufliegen.
Imposanter Lautsprecher statt Piezopiepser und ein Netzteil mit 63,5WSiebenschläfer schrieb:PC 5150 von IBM
CountSero
Lieutenant
- Registriert
- Jan. 2020
- Beiträge
- 554
@Siebenschläfer
Mich hat hier das Wort „müssen“ gestört, und Vergleiche mit den 80er- und 90er-Jahren hinken etwas.
In den 80ern bis Ende der 90er war Kühlung noch kaum relevant, da die meisten Zusatzkarten deutlich unter 100 Watt verbrauchten. Rund 80 % der Komponenten wurden damals passiv gekühlt.
Erst ab den 2000ern wurde Kühlung zunehmend wichtig, da die Leistungsaufnahme stetig stieg. Ab den 2010er-Jahren gab es fast keine Karten mehr (außer Sound-, Capture- oder andere Zusatzkarten), die ohne aktive Kühlung auskamen. Gleichzeitig war aber ein ausreichender Airflow im Gehäuse entscheidend.
Ende der 90er und Anfang der 2000er wurden sogar Chipsätze aktiv gekühlt, da viele Gehäuse noch keine adäquaten Möglichkeiten boten, zusätzliche Lüfter unterzubringen. Erst nach und nach kamen Gehäuse auf den Markt, die speziell auf verbesserten Airflow ausgelegt waren.
Bei den RTX-2000- und RTX-3000-Modellen mit Vapor Chamber war ein vertikaler Einbau klar kontraproduktiv, da dies Hotspots begünstigte.
Somit gilt → Nicht alle Karten sind für den vertikalen Einbau geeignet, auch wenn das Konzept derhorizontalen vertrikalen Steckplatz-Architektur bereits seit den 80er/90er-Jahren im IBM-PC Standard ist.
Mich hat hier das Wort „müssen“ gestört, und Vergleiche mit den 80er- und 90er-Jahren hinken etwas.
In den 80ern bis Ende der 90er war Kühlung noch kaum relevant, da die meisten Zusatzkarten deutlich unter 100 Watt verbrauchten. Rund 80 % der Komponenten wurden damals passiv gekühlt.
Erst ab den 2000ern wurde Kühlung zunehmend wichtig, da die Leistungsaufnahme stetig stieg. Ab den 2010er-Jahren gab es fast keine Karten mehr (außer Sound-, Capture- oder andere Zusatzkarten), die ohne aktive Kühlung auskamen. Gleichzeitig war aber ein ausreichender Airflow im Gehäuse entscheidend.
Ende der 90er und Anfang der 2000er wurden sogar Chipsätze aktiv gekühlt, da viele Gehäuse noch keine adäquaten Möglichkeiten boten, zusätzliche Lüfter unterzubringen. Erst nach und nach kamen Gehäuse auf den Markt, die speziell auf verbesserten Airflow ausgelegt waren.
Bei den RTX-2000- und RTX-3000-Modellen mit Vapor Chamber war ein vertikaler Einbau klar kontraproduktiv, da dies Hotspots begünstigte.
Somit gilt → Nicht alle Karten sind für den vertikalen Einbau geeignet, auch wenn das Konzept der
Zuletzt bearbeitet:
Siebenschläfer
Lieutenant
- Registriert
- Nov. 2025
- Beiträge
- 609
Für den Realtek-Onboard-Sound würde der auch reichen. Ein paar Jahre später gab es den Gamer-PC IBM PCjr, der hatte immer hin einen Mehrkanal-Piepser dafür.Tr8or schrieb:Imposanter Lautsprecher statt Piezopiepser und ein Netzteil mit 63,5W![]()
Schaltnetzteile mussten 1981 noch sehr genau dimensioniert werden. Wenn man zuviele Verbraucher (z. B. Festplatte mit 30 W Anlaufstrom) abzog, startete das 65W-Netzteil nicht mehr. Zu groß durfte es also auch nicht dimensioniert werden. Die heutige Netzteilbauform (inkl. versetzter Schraube) stammt aus dem IBM/AT von 1984. Das hatte dann schon 200 W.
Anfang der 1980er musste alles von ein bis zwei 80mm-Lüftern bei konstanten 2000 bis 3000 rpm gekühlt werden. Die Löcher im Gehäuse vorne waren nicht ohne Grund da. Die ganzen TTL-ICs haben bei 5 V kräftig geheizt. Die Integrationsdichte war gering, deshalb gab es in der Regel keine Kühlkörper. Passivkühlung ging da aber nicht, so 50-100 m³/h musstest du schon durch so einen PC durchjagen, sonst wurden die auch zu heiß. Erst mit dem Wechsel zu CMOS ging die Leistungsaufnahme runter. Ab 1990 gab es von Toshiba dann komplett passiv gekühlte Notebooks ohne Lüfter mit Chips, die nur handwarm wurden.CountSero schrieb:In den 80ern bis Ende der 90er war Kühlung noch kaum relevant, da die meisten Zusatzkarten deutlich unter 100 Watt verbrauchten. Rund 80 % der Komponenten wurden damals passiv gekühlt.
Beim Desktop hat man CMOS natürlich schnell genutzt, um die Integrationsdichte zu erhöhen und das führte dann zu den heutigen GPUs mit 600 W.
Das hatte einen anderen Grund: Immer höhere Integrationstiefe bei zu großer Strukturbreite (150 nm und mehr) wegen billiger Fertigung. Und damit zu viel Leistungsaufnahme. Wenn du das ganze Zeug, was sich im IBM 5150 auf zig Karten verteilt ist, auf einen Chip packst ohne die Strukturen nennenswert verkleinern, musstest du den eben aktiv belüften.CountSero schrieb:Ende der 90er und Anfang der 2000er wurden sogar Chipsätze aktiv gekühlt, da viele Gehäuse noch keine adäquaten Möglichkeiten boten, zusätzliche Lüfter unterzubringen.
Heute steckt dieses ganze Zeug schlicht mit in der CPU und die hat praktischer schon einen Lüfter. Ob das I/O-Die dann 5 ode 15 W braucht, ist dann egal.
Die heutigen Aquarien sind auf Show ausgelegt und brauchen die Lüfter hauptsächlich als Halterung für die RGB-LEDs. Für 900 W reicht immer noch ein einziger 140mm-Lüfter mit 270 m³/h und ist dann ungefähr so laut wie ein Kühlschrank in Betrieb. Der würde wie anno 1981 problemlos ins Netzteil passen und müsste nur anhand der Leistungsaufnahme (die das Netzteil ja kennt) gesteuert werden. Das Gehäuse braucht dann nur Öffnungen an den vier Ecken und den Rest macht der Unterdruck. Bis Ende der 2000er haben OEMs Netzteile übrigens so gebaut.CountSero schrieb:Erst nach und nach kamen Gehäuse auf den Markt, die speziell auf verbesserten Airflow ausgelegt waren.
Professionelle GPU-Module für Rackserver haben gar keine eigenen Lüfter.
Ändert aber nichts daran, dass das IBM-Slotblech für den vertikalen Einbau nie gedacht war und dafür in der "üblichen" Einbauposition falschherum liegt. Aber solche Designfehler ziehen sich ja bei ATX komplett durch.CountSero schrieb:Bei den RTX-2000- und RTX-3000-Modellen mit Vapor Chamber war ein vertikaler Einbau klar kontraproduktiv, da dies Hotspots begünstigte.
CountSero
Lieutenant
- Registriert
- Jan. 2020
- Beiträge
- 554
Siebenschläfer schrieb:Die heutigen Aquarien sind auf Show ausgelegt und brauchen die Lüfter hauptsächlich als Halterung für die RGB-LEDs. Für 900 W reicht immer noch ein einziger 140mm-Lüfter mit 270 m³/h und ist dann ungefähr so laut wie ein Kühlschrank in Betrieb. Der würde wie anno 1981 problemlos ins Netzteil passen und müsste nur anhand der Leistungsaufnahme (die das Netzteil ja kennt) gesteuert werden. Das Gehäuse braucht dann nur Öffnungen an den vier Ecken und den Rest macht der Unterdruck. Bis Ende der 2000er haben OEMs Netzteile übrigens so gebaut.
Du weisst, dass das Quatsch ist und die angegebenen theoretischen Laborwerte in heutigen Standard-PC-Gehäusen praktisch nicht erreichbar sind. Realistisch liegen wir bei 100–130 m³/h, und selbst das ist schon gut.
Ich hatte früher einen IBM 5160-Nachbau (Aus einem alten Büro bei Renovierung gerettet) und einen TA 8086 aus meiner Schule, die beide nur einen Lüfter im Netzteil hatten. Der Rest war komplett passiv und sogar ohne Kühlkörper. Beim IBM 5160 war das Gehäuse besonders nice, man konnte es wie eine Motorhaube aufklappen, inklusive Stab zum Offenhalten, und der Monitor war oben drauf verschraubt. Software hatte ich leider keine, außer dem Onboard-BASIC.
Dass man in „Aquarien-PCs“ noch genügend kühlen kann, liegt meist daran, dass das gesamte System wassergekühlt ist oder zumindest die CPU mit einer AIO. Trotzdem werden dort oft 6–8 Lüfter verbaut, besonders wenn die Grafikkarte zu nah an der Scheibe sitzt und kaum Frischluft bekommt.
Seit Intel den ATX-Standard eingeführt hat, ist der vertikale Einbau von Mainboards üblich und damit auch der horizontale Einbau von Erweiterungskarten.
Aber hey, du hast deine Meinung und ich meine, wir überschneiden uns hier wohl weniger.
Somit schönen Abend! ^^