bambule1986 schrieb:
Die 65 W grenze bei CPUs ist doch ein witz, wenn dann sollte man das bei Grafikkarten machen, da diese locker das doppelte bis dreifache an Strom Fressen, als eine CPU.
Allerdings dank einer anderen Architektur auch das drei- bis vierfache an Rechenleistung bereitstellen können. Grafikkarten werden zum Glück nicht mehr nur beim "Gamen" stark beansprucht. Siehe CUDA, OpenCL und Stream. Das ganze steckt natürlich immer noch in den Kinderschuhen, da wäre
(meiner Meinung nach) durchaus mehr möglich. Trotzdem konzentrieren sich die Entickler mMn immer noch zu stark an die Bedürfnisse der "Gamer".
Früher war eine Quadro FX soweit ich weiß, nichts anderes als eine normale Geforce mit anderem BIOS. Ich bezweifle mal stark, dass sich das nun vollkommen geändert hat. Eine Favourisierung der anderen, nützlicheren Sachen, könnte sich nochmals verbessernd auf die Rechenleistung und Leistungsaufnahme auswirken.
HL2Striker schrieb:
Ich hab ja wirklich nix gegen den technologischebn Fortschritt, aber Intel übertreibs langsam. (zumindestens im Desktop Bereich)
Richtig. Meine Meinung. Im Server-Bereich usw. kann man ja das verstehen, aber im sog. Costumer-Bereich werden einfach viel zu viel Prioritäten darauf gesetzt, immer neue "Schwanzverlängerungen" zu produzieren.
DaruDaru schrieb:
Zum Thema Energie: Ich finde es hat sich sehr viel getan in der Energiebilanz der x86-CPUs. Die o.g. 35W CPU taugt hier aufgrund der Architektur zum Vergleich ziemlich genau Null
Stimmt. Aber für wissenschaftliche Anwendungen, wo Leistung
zwingend benötigt wird, sollten solche Architekturen durchaus brauchbar sein. Vergleichen will ich ja auch nicht.
Danke für die Erklärung der "Videobearbeitung".
gruffi schrieb:
Die 35 W dürften aber wohl falsch sein.
Ups, wenn das stimmt, sollte ich lieber ruhig sein.
Ich dachte nur, das ist das ideale Argument, um zu zeigen, dass der Wattwahn im x86 Bereich nicht berechtigt ist. Schade.
Eisenfaust schrieb:
Und an all jene, die 4 oder 6 kerne sowie mehr als 2 oder 4 GB Speicher für sinnlos halten: es gibt auch Personen, die ihren Rechner zum Arbeiten und nicht als Spielzeug nutzen. Es ist müßig sich stets das Gequake von Kindern anhören zu müssen, die, nur weil sie sich die neuesten Hochleistungschips von Hersteller XYZ nicht leisten können gleich meinungen verbreiten müssen, man brauche sowas eh nicht. Humbuk! In vielen Bereichen der Forschung benötigt man viel Speicher und ist froh um jeden weiteren Kern. Auch hier wie dort sind die Geldbeutel schmal und nicht immer kann ein Dual-Sockel-System zum Einsatz kommen.
Deshalb mein Argument mit dem FTS-Prozessor. Ich finde es halt einfach müßig, immer solche Kommentare wie "Geil! Damit kann ich endlich GTA IV zocken!" zu lesen.
Und nein, ich bin ganz sicher nicht neidisch auf Leute mit Quadcores. Ich habe auch nichts gegen Gamer
(ich spiele selbst). Und ich bin mir auch ziehmlich sicher, dass ich diese Leistung in Zukunft nicht brauchen werde.
Das Problem, dass ich hier sehe, ist nur, dass Software-Entwickler die vorhandene Rechenleistung der aktuellen Hardware nie richtig ausschöpfen werden und stattdessen selbst für vergleichsweise simple Progs in naher Zukunft QCs Voraussetzung sein werden.
Rein theoritisch ist es ja bereits möglich, leistungsstarke Quads mit verhältnismäßig geringer Leistungsaufnahme zu produzieren. Siehe die Core 2 Quad xxxx-s Modelle. Die Ausbeute an geeigneten Chips
(und in Folge dessen auch die Preisgestaltung) ist nur im Moment eher suboptimal.
Deswegen sollte man den Herstellern vielleicht ein bisschen auf die Finger klopfen, dann würde sich schon etwas tun. Sobald man derzeit eine "Marktverzerrung" wittert, hagelt es beispielsweise auch Proteste und Klagen.