Pisaro
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 16.439
Dann MUSS die bei dir extrem gedrosselt gelaufen sein. Das Teil zieht bei Vollauslastung fast 500 Watt..MaverickM schrieb:Die Karte lief bei mir mit einem Enermax 460Watt ohne Probleme.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Dann MUSS die bei dir extrem gedrosselt gelaufen sein. Das Teil zieht bei Vollauslastung fast 500 Watt..MaverickM schrieb:Die Karte lief bei mir mit einem Enermax 460Watt ohne Probleme.
Du ließt insgesamt Sachen heraus, für die es in dem Posting keine Basis gab, aber das ist die Höhe. Extreme Thesen brauchen auch entsprechend extreme Begründung. (freie Übersetzung des Sagan-Standards) Diese fehlt bei dir vollkommen.SaschaHa schrieb:Aber in einem Land, dessen Behörden noch vorwiegend mit Fax-Geräten kommunizieren und in dessen Schulen noch Overhead-Projektoren verwendet werden, wundert mich Kritik an Innovationsbereitschaft mittlerweile auch nicht mehr.
Hier hingegen versuchst du es, aber es ist auch das gelingt dir nicht:SaschaHa schrieb:Ein Jahr ist absolut gar nichts. Es hat viele Jahre gedauert, bis Software und auch Games so langsam Multi-Core tauglich wurden. Bis heute gibt es kaum ein Spiel, das von mehr als 8 Kernen profitiert, anfangs konnten selbst 2 Kerne kaum sinnvoll genutzt werden. Dieser Logik nach hätte man damals also auch sagen müssen "Multi-Core, so ein Schwachsinn, brauchen wir nicht!". Ein oder zwei Jahre reichen absolut nicht aus, um sagen zu können, ob sich gewisse Hürden überwinden lassen oder nicht.
Der AFR-Ansatz wurde überall verworfen. In dem Themenbereich wird viel in einen Topf geworfen, was nicht in einen Topf gehört: Multi-GPU-Karten und Multi-DIE-Karten sind zum Beispiel nicht das gleiche. AMDs Aldebaran (MI 200, MI 210, MI 250(X)) hat nichts mit Multi-GPU-Karten zu tun. Multicore-CPUs und Multi-DIE-Karten haben auch nichts miteinander zu tun. Alle heutigen GPUs sind Multicore-GPUs; und zwar in viel größerem Maßstab als CPUs.SaschaHa schrieb:Und es ist ja nicht so, dass man alles auf ein Pferd gesetzt und normale GPUs verworfen hätte. Diese Dual-GPUs haben einen winzigen Bruchteil am Gesamtmarkt ausgemacht. Es war ein Ansatz, den man erprobt hat und der auch nach Jahren mit zu vielen Schwierigkeiten verbunden war, sodass man ihn - zumindest beim Gaming - verworfen hat. Es ist aber gut, dass man solche Erfahrungen gemacht hat, nur so gibt es Fortschritt.
War es nicht, meine X2 läuft mit Accelero Kühler sehr leise.jotecklen schrieb:Ich verstehe nicht so ganz, warum das damals so schwierig war, halbwegs leise zu kühlen.
X-Drive GPU🧟♂️[wege]mini schrieb:Nur würde man es dann nicht "X2" nennen.
Ja da hast Du recht, aber entweder CustomWakü oder nicht wirklich ITX kompatibel. Denke eher an das Design der Inno3D 4070Ti (2 Slots) für eine 4080 oder 7900XTRedundanz schrieb:
Ist ja nicht so, das nVidia auch nie SLI genutzt hatte🙄 (GTX 295)Vulture schrieb:Die Strategie AMDs keine High-End Chips zu fertigen und stattdessen auf diese X2 Monster-Karten zu setzen war leider ein Schuss in den Ofen.
Auch einer der Gründe dafür, dass Kühlerdesigns bei Grafikkarten damals überwiegend mit einemandi_sco schrieb:Aber die Gehäuse hatten teilweise noch keine 3x 12mm Lüfter in der Front etc.
Du meinst Radialmibbio schrieb:Auch einer der Gründe dafür, dass Kühlerdesigns bei Grafikkarten damals überwiegend mit einem Axiallüfter nach hinten ausblasend waren. Damit war man recht unabhängig vom, damals kaum vorhandenen, Airflow durch Gehäuselüfter.
Kenne ich zu gut, aber man konnte ja etwas Abhilfe schaffen, indem man V-sync und Pufferung angemacht hat natürlich auf Kosten der Latenzen. ^^Arzuriel schrieb:Hatte damals auch so ein Teil, die Mikroruckler waren aber echt abartig.
Hey, es war ein in Kawasaki-Grün pulverbeschichtetes Cooler Master HAF 932.-=[CrysiS]=- schrieb:
Und wenn doch, würde eh ALLE der Musk kaufen.[wege]mini schrieb:Nur würde man es dann nicht "X2" nennen.
Hatte auch die XFX HD 4890 Black Edition 1000M (1 GHz CPU u. RAM Takt). Die X² im CF hätte mich gereizt.GOOFY71 schrieb:Toller Test, zu mehr als einer HD4890 hat es damals nicht gereicht, meine Frau hätte mich umgebracht, zumal ich dann auch noch ein neues Netzteil gebraucht hätte.😅
CDLABSRadonP... schrieb:Du ließt insgesamt Sachen heraus, für die es in dem Posting keine Basis gab, aber das ist die Höhe.
Scheinbar reden wir aneinander vorbei. Ich bezog mich allgemein auf Multi-GPUs, nicht explizit auf den AFR-Ansatz. Zuvor war ich auf einen Kommentar eingegangen, der AMD dahingehend kritisiert hat, dass sie - anstatt einen großen Chip zu bauen - eben auf eine Dual-GPU gesetzt haben. Dieses Vorhaben wurde allgemein kritisiert, ohne dabei technisch ins Detail zu gehen und explizit den AFR-Ansatz ins Visier zu nehmen. Als du mich zunächst zitiert hast, hast du ebenfalls nicht AFR erwähnt, sondern nur gesagt, dass das Mikrorucklerproblem schon seit einem Jahr bekannt sei. Für mich hat das den Eindruck erweckt, dass du ebenfalls das Experiment "Multi-GPU" im allgemeinen kritisierst und der Meinung seist, man hätte sich diesen Versuch sparen sollen. Wenn du das scheinbar anders meintest, haben wir einfach nur aneinander vorbeigeredet. Ich hoffe, wir sind uns zumindest dahingehen einig, dass AFR nur ein möglicher Ansatz für Multi-GPUs war bzw. ist, und dass zu Fortschritt eben auch Misserfolge gehören. Einen innovativen Ansatz aufgrund von Problemen schon nach einem Jahr zu verwerfen, halte ich jedenfalls für voreilig und nicht technologieoffen, das war lediglich der Kern meiner Aussage. Aber wie gesagt, wenn du das anders meintest, wäre das ja jetzt geklärt.CDLABSRadonP... schrieb:Der AFR-Ansatz wurde überall verworfen.
Ob die Kerne nun auf einem DIE oder auf vielen sind, ist zunächst einmal egal. Entscheidend ist die Latenz und die Kommunikationsgeschwindigkeit zwischen ihnen, und eben das Anwendungsgebiet. Natürlich haben CPUs und GPUs unterschiedliche Rahmenbedingungen, aber das Kernproblem - eine möglichst effiziente Parallelisierung zu erzielen - bleibt dasselbe. AFR hat sich als nutzlos erwiesen, aber ich bin nach wie vor der Auffassung, dass ein enormes Potential in Multi-DIE- oder Multi-Chip-GPUs steckt.CDLABSRadonP... schrieb:Multicore-CPUs und Multi-DIE-Karten haben auch nichts miteinander zu tun. Alle heutigen GPUs sind Multicore-GPUs; und zwar in viel größerem Maßstab als CPUs.