News Im Test vor 15 Jahren: Intels Core 2 Extreme brachte Multi-GPU-Setups ans Limit

Wüstenfuchs89 schrieb:
ABIT hatte teilweise auch Displays mit dabei, hatte damals das 3rd Eye beim AV8 :D Wirklich genutzt hab ich es nicht, wozu auch, echte Systemkontrolle war damit kaum möglich. Damals fand ich es cool, heute würde der Schrott aber definitiv im Karton verstauben.
Genau das ist es eben. Beigaben gut und schön, aber wenn sie dann einfach im Karton liegen bleiben, ist's ja auch für nix. Heutzutage bindet man das Smartphone ein und kann damit überwachen z.B..
ssotfangel schrieb:
Ich hatte früher ein Soyo kt333 Dragon in weiß, ein DFI Landparty ein asus a8n-Sli premium

alle Boards waren irgendwie etwas besonderes
Das Layout war dennoch gleich wie bei heutigen Boards. Durch den ATX-Standard kann sich da auch nicht viel tun. Weiße Boards waren auch damals schon sehr selten, das ASUS dafür ein ganz normales Standarddesign für damals. DFI hatte ich damals sehr viele, vom NF4 Expert bis zum X48. Die waren toll, auch teils interessante Kühllösungen. Aber durch den Wegfall der North- und Southbridge ist das ja nicht mehr nötig.
Tulol schrieb:
Treiber CD, Werbung,.... ? Ka
Hatte nie ein 200€ Board.
Ich hatte genug Top-Modelle von ABIT, ASUS, DFI. Aber besondere Beigaben waren da nie dabei.
C4rp3di3m schrieb:
Gehe davon aus das Grafikkarten in der Zukunft auch den Weg von Multi Core bzw Multichip gehen, allerdings nicht mit einem Kabel sondern direkt auf einer Karte und ähnlich wie AMD´s iF.
Dass das ab der nächsten Gen (AMD) bzw. übernächsten (nVidia) so kommt, ist doch schon gesetzt.
 
  • Gefällt mir
Reaktionen: C4rp3di3m
tochan01 schrieb:
Ich war mit 2x660 und 2x2080 zufrieden, schneller sowie günstiger unterwegs. Gibt halt Leute die freuen sich das Doppelte zu zahlen bei 20% Leistungssteigerung.
Im Bezug auf ersteres Setup ist das ziemlich glasklare Selbstbetuppung. Selbst wenn du die beiden zum Launch gekauft hast, sieht es immer noch nicht gut aus. Eine 680 wäre der längerfristig bessere Kauf gewesen, eine 670 der bessere Knausrigkeitskauf. Mit etwas Abstand hättest du aber gleich bis zur 780 warten können --- denn deren Schwäche, der kleine VRAM, juckt(e) dich ja anscheinend generell nicht. Und die 780 ist einem 660 SLI-Setup im Gesamtpaket in der Praxis drastisch überlegen gewesen.

2080 SLI, naja. Nur den zweitgrößten Chip für Multi-Graka zu verwenden ist, wie dargelegt, etwas halbgares. Aber immerhin war der TU104 näher am TU102 als frühere zweitgrößte Chips.

Nebenfrage: Wie hast du die jeweiligen Setups gekühlt? Natürlich ist eine Wasserkühlung für zwei Karten ausgehend von einer für eine Karte kein großer Sprung mehr. Aber eine Wasserkühlung nur für eine Karte bleibt preiswerter.
 
Komm, lass gut sein. Ich hab keine lust mehr auf die disskusion. Du hast deine Meinung ich hab meine.
Damals neu gekauft 2012 für 2x660 für 412,30€. Was die 680 zu dem Zeitpunkt gekostet hat kann ich nicht genau sagen aber sollten um 450-500€ gewesen sein... Ich hätte "damals" auch bis heute warten können. Was sind das bitte für "empfehlungen" ohne zu wissen wann gekauft wurde, was für ein Sys vorhanden war, welche games gezockt wurden usw.

besp. Link Quelle
Although we just briefly covered all of the results, it’s clear right away that the GTX 660’s when paired up can dominate. When compared to the GTX 680, you are going to see a major boost in performance over the single card. This is made very impressive when you consider that two GTX 660’s will cost you $460 and one GTX 680 is running at the same price after rebate. I’m not suggesting that the GTX 660’s is a better option for everyone. Personally I would prefer to have the option to be able to add a second card later, but it is an interesting option if you are looking for even more performance than the GTX 680 without spending any more money. I have a feeling we will see a few GTX 660’s at our next LAN with most of those people planning on picking up a second card in the future.
wm_crysis2dx11.jpg


Ich war zufrieden, es war "günstiger" wie eine große bei mehr leistung etc. Gekühlt mit "blower" designs. Wenn jetzt kommt "OMG blower": "Ich" hatte nie stress mit dem geräuschpegel beim zocken und bin freund des "die erwärmte Luft muss sofort raus aus dem Case". Ja, mit meiner 3090 FE läuft das nur suboptimal in Verbindung mit meinem aktuellen Case (Beim nächsten upgrade in ein paar monaten fliegt das dann raus) aber zumindest geht bei dem design etwas wäre direkt hinten raus.

Und nun ist gut. Wenn es so wichtig für dich ist: Du hast natürlich recht, ich war dum, wie konnte ich bloß, das weis man doch, lächerliche kaufentscheidung, alle die jemals SLI nutzen sind volldeppen usw. usw. usw. .
 
Zuletzt bearbeitet:
Hach, das erinnert mich an meinen Laptop, an die guten alten Zeiten der gesockelten Core2Duo-CPUs.

Als mein 12"-Samsung Notebook einen nassen Tod gestorben war (Fenster im Winter geöffnet, Zapppp!), kam ein Sony Vaio 13"-Notebook als Nachfolger.
Das hatte, meine ich, einen T7100 (65nm, 1,8 GHz, 34W TDP). War schon eine ziemliche Krücke damals.
Aber das ließ sich mit dem Release von Penryn ja ändern! Also kam ein 2,4 oder 2,53 GHz (45 nm, 35 W TDP) ins System. Das war dann schon ziemlich flott.

Und zum Ende hin hatte es mich immer mehr in den Fingern gejuckt. Es sollte der schnellste 13"-Laptop werden! Es sollte eine Extreme Edition einziehen! Die Fragen waren nur:
--> Dual- oder Quadcore?
--> Und kann das Kühlsystem überhaupt damit umgehen?

Die Lösung auf beide Fragen stellte dann der Core 2 Extreme X9100 im legendären E0-Stepping dar (3,06 GHz, unlocked, 45 nm, 44 W TDP).
"Legendär", weil das Stepping nie offiziell verkauft wurde. Es entsprach quasi dem T9900, welcher selbst eine TDP von 35 W eingehalten hat.

Und so wurde es meine erste Bestellung aus China und meine erste und bisher einzige Extreme Edition. Und sie funktionierte hervorragend bis ca. 3,2 GHz im 13" Notebook.

Ok, das ist jetzt kein X6800, aber doch irgendwie nah dran. ;)
 
Ich hatte damals tatsächlich einen X6800 und dazu eine einzelne 8800GTX.
War ein richtiges Traumgespann, wenn auch alles andere al billig. 😁
Die Option auf SLI hatte ich bei Netzteil und Motherboard (nForce4?) eingeplant, es ist aber nie dazu gekommen.
Also die 8800GTX anfing nicht mehr auszureichen, gab es schon längst neue Grafikkarten, die einzeln mehr Leistung brachten und dabei weit weniger verbauchten, als eine zweite 8800.
 
Zurück
Oben