Yep, die 4770 kommt schon recht nah ran. Zu den von Crazy-Chief formulierten Anforderungen fehlt aber halt noch ein Stück. Deshalb hoffe ich ja, dass man mit Verbesserungen an der Architektur mindestens die Performance einer 4850 @ max 75 W TDP realisieren kann. Die Performance einer 4870 @ max 75 W TDP halte ich momentan noch für etwas zu optimistisch. Aber wer weiss, was AMD in petto hat.Anwalt Dr.Gonzo schrieb:Die 4770 liegt minimal hinter der 4850, auch wurde die 75W TDP ebenfalls nur minimal gerissen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News ATi finalisiert derzeit den RV870
- Ersteller Wolfgang
- Erstellt am
- Zur News: ATi finalisiert derzeit den RV870
Anwalt Dr.Gonzo
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 1.924
Ja, sehe ich ebenso. Aber obwohl ich eigentlich auch ein Verbrauchssparer bin, sehe ich das hier nicht so eng.Die Performance einer 4870 @ max 75 W TDP halte ich momentan noch für etwas zu optimistisch.
Die Klasseneinteilung (75W,150W usw) ist halt sehr grob. Bei entsprechender Performance kann die auch meinetwegen 90W nehmen. 6Pin-Stecker hat eh mittlerweile fast jeder. Und auch alte NTs kommen bei 90W statt 75W eher selten ins Schwitzen.
Nein, da wäre mir der Idle-Verbrauch viel wichtiger. 26W liegen laut CB-Test zwischen 4670 und 4770 im Idle.
Das ist einfach etwas viel. Gerne sogar noch unterhalb der 4670, aber das scheint mit GDDR5 irgendwie nicht richtig zu klappen. Wenn man den Mehrverbrauch auf 5-10 W drücken könnte, wäre ich wohl zufrieden.
Gruß
Doc
R
rockys82
Gast
War allgemein nicht mal ein Zyklus von 6 Monaten im grafikgeschäft hat doch NVIDIA mal groß rausposaunt vor Jahren auch um zb 3dfx schneller zu Knacken...
jez halten sich schon bei ATi/AMD sowie NV Karten teils über ein 1 Jahr oder länger.
jez halten sich schon bei ATi/AMD sowie NV Karten teils über ein 1 Jahr oder länger.
Dr.Pawel
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 1.780
Ich bin ja schon sehr gespannt auf die neuen Karten, da mich die derzeitigen leider so garnicht richtig ansprechen. Allerdings könnte sowohl Nvidia als auch ATI ein gewaltiger Strich durch die Rechnung gemacht werden, für denn sie noch nichtmal was können, nämlich der Spielemarkt. Mir ist kein einziges Game derzeit bekannt das die neuen Karten wirklich brauchen wird. Die meisten (wenn nicht gar alle) Titel die viele Kunden haben, brauchen kaum wirklich Leistung.
Mfg
Mfg
Schaffe89
Banned
- Registriert
- Sep. 2008
- Beiträge
- 7.933
Naja ich find schon, dass man malmehr Performance brauchen könnte, vor allem in Crysis / Crysis Warhead, Stalker Clear Sky, Armed Assault 2.
Schließlich gibts ja auch anspruchsvollere Gamer die gern auf 24" oder 30" mit full AA zocken möchten ;-).
Für die kanns nie genug Leistung geben.
Schließlich gibts ja auch anspruchsvollere Gamer die gern auf 24" oder 30" mit full AA zocken möchten ;-).
Für die kanns nie genug Leistung geben.
M.(to_the)K.
Lieutenant
- Registriert
- Juni 2009
- Beiträge
- 1.023
Wie sehen die spezifikationen aus? 1200 Shadderienheiten scheinen es wohl zu werden, bei 180mm2 chipfläche, wobei nicht klar es ob der evergreen chip der präsentiert wurde ein high end chip ist. oder ob man vielleicht einen nativen dualcore-chip baut und der auch schon in der 5850/5870 verwendung findet, wenn man mickroruckler weittestgehend beseitigen kann, Nvidia machts mit der 295 gtx vore, nur noch wenige mickroruckler, dann wäre auch das durchausinteressant.
denn wie die specs von Nvidia aussehen beim GT300, da muss ati ja was mit 2000 shaderm liefern, weil es schon nicht gut für ATI aussähe wenn gerademal die 5870 X2 gegen die 380gtx anstinken kann, wenn der rv870 weder kein nativer dualcore noch 2000 shader monster wird.
Infos zum nv GT300:
- Multiply Instruction Multiple Data (MIMD)-Einheiten
- neues Power- und Speichermanagement
- "wahrer" G80 Nachfolger
- 512 Shadereinheiten
- GDDR 5 Speicher
- 512 Bit Speicherinterface
- Anzahl der Shadercluster von 10 auf 16
- 128 statt 80 TMU
das sieht echt bedrohlich aus, wobei ich glaube das die auch sehr teuer wird, vielleicht kann der rv870 ja durch einen sehr niedrigen verkaufspreis glänzen, bei 180 mm2 ja nicht all zu schwer würde ich sagen.
http://www.pcgameshardware.de/aid,6...-11-und-40nm-noch-Ende-2009/Technologie/News/
das klinbgt schonmal sehr ineteressant...
denn wie die specs von Nvidia aussehen beim GT300, da muss ati ja was mit 2000 shaderm liefern, weil es schon nicht gut für ATI aussähe wenn gerademal die 5870 X2 gegen die 380gtx anstinken kann, wenn der rv870 weder kein nativer dualcore noch 2000 shader monster wird.
Infos zum nv GT300:
- Multiply Instruction Multiple Data (MIMD)-Einheiten
- neues Power- und Speichermanagement
- "wahrer" G80 Nachfolger
- 512 Shadereinheiten
- GDDR 5 Speicher
- 512 Bit Speicherinterface
- Anzahl der Shadercluster von 10 auf 16
- 128 statt 80 TMU
das sieht echt bedrohlich aus, wobei ich glaube das die auch sehr teuer wird, vielleicht kann der rv870 ja durch einen sehr niedrigen verkaufspreis glänzen, bei 180 mm2 ja nicht all zu schwer würde ich sagen.
http://www.pcgameshardware.de/aid,6...-11-und-40nm-noch-Ende-2009/Technologie/News/
das klinbgt schonmal sehr ineteressant...
Zuletzt bearbeitet:
Ich hoffe das diesmal für AMD wirklich alles gut geht.
Der RV870 soll einschlagen wie eine Bombe, damit nVidia mal wirklich dran zu beisen hat.
Wenn es AMD wirlich nochmal gelingt einen Ordentlichen Performancesprung zu schaffen, dann wird Win7 die Krone aufsetzen.
Es spricht eigentlich alles für DX10.1 bzw DX11.. zB Anno 1404 würde wesentlich flüßiger laufen als unter XP mit DX9c und dabei noch besser aussehn
Der RV870 soll einschlagen wie eine Bombe, damit nVidia mal wirklich dran zu beisen hat.
Wenn es AMD wirlich nochmal gelingt einen Ordentlichen Performancesprung zu schaffen, dann wird Win7 die Krone aufsetzen.
Es spricht eigentlich alles für DX10.1 bzw DX11.. zB Anno 1404 würde wesentlich flüßiger laufen als unter XP mit DX9c und dabei noch besser aussehn
Ich erwarte die neue Generation bereits.
Vor allem warte ich auf eine Single-GPU Lösung, die die doppelte Leistung meiner jetzigen Karte (8800GT) bringt (und ich meine wirklich doppelt, nicht nur in einigen Bereichen).
Ausserdem interessiert mich, ob AMD und NVidia endlich verstanden haben, dass es keine gute Idee ist, die GPU's bei 80 - 100 °C laufen zu lassen.
Als Techniker sehe ich immer wieder Kunden mit defekten Grafikkarten ankommen. Entweder Speicherfehler (streifen im Bild) oder Totalschaden. Und es trifft derzeit fast immer die Karten, die am Limit arbeiten.
Damit sind die 4800er Serie von AMD (bevorzugt die 4870) und bei NVidia die 8800er Karten der ersten Serie (GTS & GTX) sowie manchmal eine aus den neueren Serien mit schlechtem Kühler am häufigsten betroffen.
Auch meiner 8800GT habe ich es nicht zugemutet, mit einem Single-Slot Kühler bei 70 - 80 °C zu laufen.
Abhilfe hat mir da der GPU Kühler Arctic Cooling Accelero S1 mit angebundenem 120x120mm Lüfter auf 900RPM gebracht.
Auch nach Dauervollast (Benchmarks, Lans, dauerzocken) kam die Karte nicht über 60°C.
Mein Tipp: Egal was die Hersteller sagen, 60-65°C sind ok, darüber hinaus hält die Hardware nicht lange.
Das Material für die Herstellung von CPU's und GPU's unterscheidet sich soweit nicht und ausser dem Herstellungsprozess hat sich auch nichts geändert.
Von daher ist die Grenzlegung bei 65°C immernoch das sicherste und man hat lange Freude an seiner Hardware (im übrigen auch nen schön ruhigen Rechner als Nebeneffekt).
Vor allem warte ich auf eine Single-GPU Lösung, die die doppelte Leistung meiner jetzigen Karte (8800GT) bringt (und ich meine wirklich doppelt, nicht nur in einigen Bereichen).
Ausserdem interessiert mich, ob AMD und NVidia endlich verstanden haben, dass es keine gute Idee ist, die GPU's bei 80 - 100 °C laufen zu lassen.
Als Techniker sehe ich immer wieder Kunden mit defekten Grafikkarten ankommen. Entweder Speicherfehler (streifen im Bild) oder Totalschaden. Und es trifft derzeit fast immer die Karten, die am Limit arbeiten.
Damit sind die 4800er Serie von AMD (bevorzugt die 4870) und bei NVidia die 8800er Karten der ersten Serie (GTS & GTX) sowie manchmal eine aus den neueren Serien mit schlechtem Kühler am häufigsten betroffen.
Auch meiner 8800GT habe ich es nicht zugemutet, mit einem Single-Slot Kühler bei 70 - 80 °C zu laufen.
Abhilfe hat mir da der GPU Kühler Arctic Cooling Accelero S1 mit angebundenem 120x120mm Lüfter auf 900RPM gebracht.
Auch nach Dauervollast (Benchmarks, Lans, dauerzocken) kam die Karte nicht über 60°C.
Mein Tipp: Egal was die Hersteller sagen, 60-65°C sind ok, darüber hinaus hält die Hardware nicht lange.
Das Material für die Herstellung von CPU's und GPU's unterscheidet sich soweit nicht und ausser dem Herstellungsprozess hat sich auch nichts geändert.
Von daher ist die Grenzlegung bei 65°C immernoch das sicherste und man hat lange Freude an seiner Hardware (im übrigen auch nen schön ruhigen Rechner als Nebeneffekt).
Wintermute
Fleet Admiral
- Registriert
- Feb. 2003
- Beiträge
- 14.729
SunnyboyXP0 schrieb:Wer weiß, woran es liegt.
Auf Mac wie PC dasselbe, der font ist einfach schwerer Tobak, das gehört aber woanders hin. Ansonsten: Dein Wort in Gottes Ohr, Leistung haben sie alle genug...am Ende entscheiden die persönlichen Vorlieben. Und zwar mehr, als sich so mancher "objektiver" Beobachter und vor allem Verfechter eingestehen mag.
SunnyboyXP0
Commodore
- Registriert
- Juni 2009
- Beiträge
- 4.669
Hi Wintermute,
die Schriftart ist eben meine persönliche Vorliebe.
Aber die scheint doch überall anders dargestellt zu werden und für manche schlecht lesbar zu sein. Ist kein Problem, dann verwende ich wie alle anderen die Standardschrift.
Grüße
Hat jemand schon Bilder vom Referanzdesgin der neuen Grafikgeneration gesehen? Hoffentlich steigt nicht nur die Leistung, sondern wird auch an einem effizienterem Kühlsystem gearbeitet. Ich bin zwar wirklich kein Silence-Freak und störe mich nicht an hörbaren Lüftern. Allerdings sollte das Teil auch nicht so laut aufdrehen, dass ich beim Spielen/Arbeiten stets Kopfhörer tragen und mich mit Musik respektive Gamesound beschallen lassen muss. Ich bin schon auf die ersten Tests von CB gespannt.
Und die kleinen Jungs haben wieder was zu Spielen, nich? 
die Schriftart ist eben meine persönliche Vorliebe.
Grüße
Hat jemand schon Bilder vom Referanzdesgin der neuen Grafikgeneration gesehen? Hoffentlich steigt nicht nur die Leistung, sondern wird auch an einem effizienterem Kühlsystem gearbeitet. Ich bin zwar wirklich kein Silence-Freak und störe mich nicht an hörbaren Lüftern. Allerdings sollte das Teil auch nicht so laut aufdrehen, dass ich beim Spielen/Arbeiten stets Kopfhörer tragen und mich mit Musik respektive Gamesound beschallen lassen muss. Ich bin schon auf die ersten Tests von CB gespannt.
Evader
Lt. Junior Grade
- Registriert
- Aug. 2007
- Beiträge
- 382
Ehre wem Ehre gebührt. Der Initiator ist AMD, siehe AMD Fusion,
War das nicht eher Cyrix mit dem Media GX damals?
KLICK
Zitat:
Der Cyrix MediaGX CPUs war die erste x86-CPU, die als SoC-Design entstand. Als Basis wurde der Cyrix 5x86 Prozessor genommen und zusätzlich Funktionen der Northbridge und anderer Systemkomponenten wie z. B. ein Speichercontroller und ein Grafikchip in den Prozessor integriert.
Matze89
Commodore
- Registriert
- Jan. 2009
- Beiträge
- 4.810
@ SunnyboyXPO: Wahrscheinlich kommen bald 3-Slot dicke Grakas, wegen der Kühlung.
Aber mal abwarten.
@ Topic: Hoffentlich holt ATI mit der kommenden und der darauf folgenden Generation den Rückstand auf Nvidia auf, damit beide ca. gleich stark am Markt sind. Gekauft wird, was ein gutes P/L-Verhältnis hat, egal ob ATI oder Nvidia.
Mfg Matze
@ Topic: Hoffentlich holt ATI mit der kommenden und der darauf folgenden Generation den Rückstand auf Nvidia auf, damit beide ca. gleich stark am Markt sind. Gekauft wird, was ein gutes P/L-Verhältnis hat, egal ob ATI oder Nvidia.
Mfg Matze
Turbostaat
Banned
- Registriert
- Apr. 2006
- Beiträge
- 6.240
Die Karten sind dafür ausgelegt und halten diese Temperaturen aussys6c schrieb:...
Ausserdem interessiert mich, ob AMD und NVidia endlich verstanden haben, dass es keine gute Idee ist, die GPU's bei 80 - 100 °C laufen zu lassen.
Das hat recht wenig mit der Chiptemperatur zu tun als einfach das RAM sehr empfindlich ist, wenn man bedenkt wieivel Arbeitsspeicherhmodule defekt in den Handel kommen.Entweder Speicherfehler (streifen im Bild)
Sprich die Karten die am beliebtesten sind beim Thema "Overclocking". Hups, hab ich da jetzt was von Garantie- / Gewährleistungsbetrug angedeutet?oder Totalschaden. Und es trifft derzeit fast immer die Karten, die am Limit arbeiten.
Damit sind die 4800er Serie von AMD (bevorzugt die 4870) und bei NVidia die 8800er Karten der ersten Serie (GTS & GTX) sowie manchmal eine aus den neueren Serien mit schlechtem Kühler am häufigsten betroffen.
Einem Siliziumchip der für 90-100°C ausgelegt ist, ist es egal ob nun 65°C oder 80°CMein Tipp: Egal was die Hersteller sagen, 60-65°C sind ok, darüber hinaus hält die Hardware nicht lange.
Du vergleichst hier hoffentlich nicht die Architektur (Thema Leckströme u.ä.) von CPUs und GPUs. Das beide Sachen auf Wafern mit den selben Verfahren der Belichtung etc hergestellt wird hat recht wenig mit der Temperatur zu tun.Das Material für die Herstellung von CPU's und GPU's unterscheidet sich soweit nicht und ausser dem Herstellungsprozess hat sich auch nichts geändert.
M.(to_the)K.
Lieutenant
- Registriert
- Juni 2009
- Beiträge
- 1.023
der Evergreen chip, so der codename, ist immernoch sehr misteriös.
Denn er wird NICHT rv870 usw. heißen. Sondern Cypress und Juniper, also Cypresse und ich glauibe wacholder oder sowas.
Dieser Codename stand von anfang an fest und daher sind alle spezifikationen die vom rv870 auftauchen wohl falsch. denn jedfer der die specs kennt weiß auch, das das ding juniper heißt. was da kommt weiß noch keiner außer ati selbst, auch beim rv770 kam erst eine woche vorher raus was das dong wirklich wird und diese strategie hat funktioniert, warum sollten sie das jetzt ändern?
das einziege was wir wissen ist das der evergreen heißt, in 40 nm kommt, DX11 support bietet und irgendein chip aus der evergreen-serie 180mm2 chipfläche hat. um welchen es sich handelt ist nicht klar.
http://vr-zone.com/forums/441732/evergreen-cypress-and-juniper-ati-code-names-explained.html
wenn das ein midrangechip war, könnte es böse werden für nvidia, denn dann ist diefrage was der große alles kann und was da alles drauf ist. war es der hoghend chip bedeutet das entweder das ati eine extrem effizienten guten chip hat, den die daten des gt300 stehen fest und ati wird sich ausmalen können wie schnell der wird und was sie da aus dem hut zaubern müssen, und das wäre auch denkbar, es kommt doch ein multichipmodule, bei dem man einen chip bei allen karten verbaut und bei mainstream usw. einfach 2 oder 3 einsetzt. auch das könnte für nvidia zu einem echten problem werden zumal der chip wohl hute yieldraten bietet und nvidia damit beim gt300 wohl große probs hat und man daher die karten mit ähnlicher performance zu einem deutlich günstigeren preis anbeiten kann.
Denn er wird NICHT rv870 usw. heißen. Sondern Cypress und Juniper, also Cypresse und ich glauibe wacholder oder sowas.
Dieser Codename stand von anfang an fest und daher sind alle spezifikationen die vom rv870 auftauchen wohl falsch. denn jedfer der die specs kennt weiß auch, das das ding juniper heißt. was da kommt weiß noch keiner außer ati selbst, auch beim rv770 kam erst eine woche vorher raus was das dong wirklich wird und diese strategie hat funktioniert, warum sollten sie das jetzt ändern?
das einziege was wir wissen ist das der evergreen heißt, in 40 nm kommt, DX11 support bietet und irgendein chip aus der evergreen-serie 180mm2 chipfläche hat. um welchen es sich handelt ist nicht klar.
http://vr-zone.com/forums/441732/evergreen-cypress-and-juniper-ati-code-names-explained.html
wenn das ein midrangechip war, könnte es böse werden für nvidia, denn dann ist diefrage was der große alles kann und was da alles drauf ist. war es der hoghend chip bedeutet das entweder das ati eine extrem effizienten guten chip hat, den die daten des gt300 stehen fest und ati wird sich ausmalen können wie schnell der wird und was sie da aus dem hut zaubern müssen, und das wäre auch denkbar, es kommt doch ein multichipmodule, bei dem man einen chip bei allen karten verbaut und bei mainstream usw. einfach 2 oder 3 einsetzt. auch das könnte für nvidia zu einem echten problem werden zumal der chip wohl hute yieldraten bietet und nvidia damit beim gt300 wohl große probs hat und man daher die karten mit ähnlicher performance zu einem deutlich günstigeren preis anbeiten kann.
Zuletzt bearbeitet:
M.(to_the)K.
Lieutenant
- Registriert
- Juni 2009
- Beiträge
- 1.023
ich denke nein, natürlci will ati das auch amd cpus gekauft werden, abner ich vermutemit nem core i7 is die ati graka trotzdem schneller.
dgschrei
Lt. Commander
- Registriert
- März 2009
- Beiträge
- 1.688
In dem Bereich ist es egal, aber wenn es um 40 oder 50 fps geht, dann kann das schon einen ordentlichen Unterschied machen.SunnyboyXP0 schrieb:Ob das Spiel nun mit 60 oder 62 fps läuft, ist doch unwichtig.
Stimme ich dir vollkommen zu. Man muss dann aber auch leider anführen, dass man für das CCC zwingend .NET 2.0 braucht. Das ist unter Vista und 7 zwar kein Problem mehr, weils darin enthalten ist, aber unter XP war das schon immer sehr nervig, wenn man nachdem man schon das , viel zu große, ATI-Treiberpaket heruntergeladen hatte, (damals noch mit DSL 1000, da hieß es Geduld haben) man dann auch noch das mindestens genauso große Update auf .NET Framework 2.0 von MS ziehen musste.SunnyboyXP0 schrieb:Ich selbst kann zum Beispiel die Treiber von nVidia nicht leiden, da ich das CCC von ATi wesentlich komfortabler und übersichtlicher finde. nVidias Control Panal ist mit dem CCC nicht zu vergleichen.
Gibt es eigentlich schon beides. Und beides wird über kurz oder lang obsolet werden. Mit DX11 wird der Compute Shader eingeführt. Damit wird der Support für CUDA/Stream quasi sofort beendet sein,(ich meine den Support von den Softwarefirmen) da man dann nur noch einmal programmieren muss und die Programme dann auf allen Karten laufen werden. Und das sogar auf den alten DX10 Karten, dort allerdings nur mit einer abgespeckten Version des Compute Shaders.SunnyboyXP0 schrieb:Allerdings spricht CUDA und PhysX wiederum für nVidia. Hier sollte ATi endlich nachlegen.
Und Physix sowie GPU-Havok werden dann auch über den Compute Shader laufen.
Den Vorteil den Nvidia in dieser Generation zu ihrer größten Marketingwaffe erklärt haben, werden sie mit der kommenden Generation fast komplett verlieren. Was noch einmal ein Grund dafür sein dürfte, dass sich Nvidia dieses mal besonders anstrengen muss, wenn sie nicht noch mehr Marktanteile an AMD/ATI verlieren wollen. Das bedeutet für Nvidia dann:
1.Die Chipfläche muss kleiner werden, damit man günstiger produzieren und somit auch anbieten kann.
2.Der Stromverbrauch muss sinken. (Da könnten wahrlich beide Hersteller mal nachlegen) Wie das am einfachsten zu schaffen ist: siehe Punkt 1.
3. Die Lautstärke sollte zurückgefahren werden. Das kann man entweder über eine bessere Kühlung oder eben über einen abgesenkten Stromverbrauch erreichen.
4. Man muss es wieder schaffen sich leistungstechnisch ordentlich vor ATI zu platzieren. Sonst greifen viele AMD-Fans bei gleicher Performance und (wahrscheinlich) ähnlichen Preisen, wohl schon aus Solidarität zu ATI und auch viele der Käufer der jetzigen Generation werden sich nachdem man sie , den Boardpartnern sei dank, mit fiependen Spulen und abrauchenden Karten verärgert hat, nach einer Alternative sprich ATI umsehen.
Kurzum: Die neue Grafikkartengeneration verspricht sehr interessant zu werden und man kann sich auf jeden Fall darauf gefasst machen, dass sich die beiden Platzhirsche wieder einmal bis aufs Blut bekriegen werden.
Fernab tüftelt Intel noch am Larrabee, den man trotz dem großen Hype um GT300 und RV870 nicht ganz aus den Augen verlieren sollte. Auch wenn viele heute sagen, dass Intel sowieso keinen Fuß in den Grafikkartenmarkt bekommt, wäre es für uns Gamer definitiv das beste, wenn sie gleich zu Beginn mit ihrer Neuentwicklung Maßstäbe bei der Geschwindigkeit setzen würden. Damit kämen nämlich die beiden Anderen unter extremen Zugzwang und die Preise würden sehr schnell in angenehme Regionen absinken.
Was meine Wünsche für eine RV870 Karte angeht:
Ich hätte gerne eine Grafikkarte mit der Leistung einer 4870 die den Stromverbrauch einer 4670 aufweist. Das wäre dann mal endlich wieder eine richtige Zockerkarte für Silentrechner und würde auch definitiv für einen Preis um die 100€ einen Platz in meinem Rechner finden.
Die 4770 kann da ja leider nicht wirklich überzeugen. ATIs dämlicher GDDR5 Controller sorgt ja leider dafür, dass die Karte auch im Idle nie leise wird und sie fast genauso viel verbrät wie unter Last. Wenn ich dann noch dran denke, was die Boardpartner für eine minderwertige Kühlung auf der Karte montiert haben, wünsche ich mir fast meine 4670 wieder zurück. Die war mit dem aufmontierten Zalmann-Kühler bei minimaler Umdrehungszahl absolut unhörbar. Top! Sowas hätte ich gerne wieder.
Zuletzt bearbeitet: