News „Ivy Bridge“ mit (fast) exaktem „Sandy Bridge“-Preisschema?

Warum spielen eigentlich die Watt Zahlen hier so ne grosse Rolle? Ich mein, oib das Ding jetzt 20 oder 30 Watt mehr verheizt spilt doch zumindest bei Gamern jetzt überhaupt keine Rolle, und die Übertaktfaktion kann ja eh nie genug Leistung haben. Also warum wird ständig diese Wattzahl hier rum gereicht. Und wenn das Ding 200 Watt vebrennt is es mir recht solang was vorwärts geht... bei Graphikkarten regt sich ja auch neimand über 300 und mehr auf...
 
Gibt ja auch noch Leute die ihren PC nicht primär zum Spielen nutzen oder die CPU übertakten. Mein Bruder macht z.B. beruflich CAD, auch 3D-Rendering. Und da muss der Rechner sowohl leise (ein lauter Rechner würde seine Konzentration beim Arbeiten stören) als auch leistungsfähig sein. Wenn die CPU weniger Abwärme erzeugt lässt sich diese leiser kühlen.

Also wenn ich das so grob schätze habe ich in meinem Leben bestimmt schon 2000 bis 2500 € nur für CPUs von eigenen Rechnern ausgegeben.
Für einen Pentium 3 hatte ich so vor gut 10 Jahren (damals) bereits um die 500 DM bezahlt. Von daher sind die CPU-Preise von Intel relativ konstant geblieben.
Für einen Athlon 64 von AMD hatte ich auch so um die 270 € bezahlt...
 
Zuletzt bearbeitet:
... und es gibt Schleichspiele, bei denen ein lauter Rechner durchaus störend sein kann. Dessen ungeachtet halte ich es für ein Gerüchte, dass übermäßig stromhungrige Grafikkarten ohne Kritik bleiben. Siehe G100 Thermi-Launch (GTX480).

Für Brut-Force-Leistung gibts den Servermarkt. Das hier sind ja alles in allem bloß teure Spielzeuge.
 
Der eigentliche Unterschied zwischen den Sandys und den Ivys dürfte die leistungsfähigere GPU und der niedrigere Stromverbrauch sein.
Wer ohnehin eine extra Grafikkarte nutzt für den lohnt sich ein Wechsel von Sandy zu Ivy praktisch überhaupt nicht.
Ich schätze allerdings dass Intel eher Besitzer von noch älteren Rechnern als Kunden gewinnen will. Für die wenigsten Leute (Z.B. Hardcore-Gamer, Enthusiasten) wird es sich lohnen sich alle 2 Jahre einen neuen Rechner zuzulegen.

Wer nur Sachen laufen lässt die wenig Anspruch auf Grafikleistung haben der braucht dann praktisch keine extra Grafikkarte mehr, die GPU der Ivy wird dafür reichen.
 
Zuletzt bearbeitet: (Schreibfehler)
Kasmopaya schrieb:
Die aller gleiche CPU hat es zu Q9300 Zeiten auch gegeben, stand zwar 95Watt drauf, aber real waren es nur ca. 50Watt die er gezogen hat.

du willst jetzt nicht den Q9300 mit nem i7 3770K vergleichen oder? :lol:

... du hast hier eine X7XX Nummer, keine X3XX... das wäre eher vergleichbar. Der Q9300 war schon damals eher eine low CPU während der 3770 eher hohes Mainstream wird.
 
@voager10
nun ein Heim-Theater PC sollte eben schon ein bisschen mehr können. Da ist es mir ehrlich gesagt Banane ob ein IntelSystem da 5Watt weniger verbraucht oder 10% Mehr CPU Leistung besitzt! Wenn ich für so ein System dann 150€ mehr ausgeben muss dann brauch man nicht lange überlegen und holt sich gleich nen Fusion! ne HD2500 wird sicher leistungsmäßig 30 frames gegenüber ner HD6550D hinterhinken!
Fakt ist einfach das Intel IGP-leistungsmäßig hinterherhinkt was sie durch die CPU Leistung nur wieder wett machen und nur der Endverbraucher zahlt denn auch entsprechend 150€ mehr dafür!
Und die hier angsprochen Chips kommen erst nächstes Jahr April! und zu dem Zeitpunkt wird AMD sicher ganz neue ansprechende APU´s im Angebot haben!:cool_alt:
 
Zuletzt bearbeitet:
Ja und es ist auch Banane ob Deine ach so gelobte APu von AMD 20% schneller ist im Gegensatz zur Intel.
Die spielen auch alles an HD material ab. Ich habe hier sicher ca. 50 BluRay Rips 1:1 Kopien (von meinen Originalen Dics) selbst Material mit hohen Bitraten spielt mein Mediacenter mit SB Core2100T mit HD2000 ohne jeglichen Ruckler einwandfrei ab. Wozu sollte ich auf irgend nen AMD Teil wechseln?
 
Gibt ja auch noch Leute die ihren PC nicht primär zum Spielen nutzen oder die CPU übertakten. Mein Bruder macht z.B. beruflich CAD, auch 3D-Rendering. Und da muss der Rechner sowohl leise (ein lauter Rechner würde seine Konzentration beim Arbeiten stören) als auch leistungsfähig sein. Wenn die CPU weniger Abwärme erzeugt lässt sich diese leiser kühlen.

Beim Echtzeitrendern wird primär die Grafikengine gefordert und je nachdem wie komplex die Modelle sind und vor allem wie lange es dauern soll, wird dir die Graka mächtig einen blasen. Da spielt die Lautstärke des CPU-Lüfters - und die TDP schon garnicht -keine Rolle mehr - es sei denn du regelst den/die Lüfter der Graka zwangsweise auf 40% und läßt das arme Viech dann bei 90° C rendern und kaufst dir jedes Jahr ne neue.
 
oemmes schrieb:
Beim Echtzeitrendern wird primär die Grafikengine gefordert...
Die CAD-Software die mein Bruder verwendet nutzt die hauptsächlich CPU zum Rendern (da 100% CPU-Last während des Rendervorgangs), nicht die Grafikengine. Die Grafikengine wird lediglich für die Darstellung verwendet.
Ist kein Echtzeitrendering.
 
Der 3770T ist schon eine Ansage. Quad-Core + HT, volle 8 MB LLC, Turbo bis 3,7 GHz und die "große" GPU bei nur 45 Watt TDP.

Insgesamt ist die Produktpalette aber etwas überladen. Es gibt 13 Core i5-Modelle, die sich in einer Spanne von nur rund 50 Euro bewegen. Auch wenn viel Auswahl per se mal nix schlechtes ist, hat man es hier m.E. ein wenig übertrieben.
 
Wenn das jemand sagt der gerne Anno und Starcraft zockt wirkt das doch sehr belustigend.
Anno 2070 braucht nur GPU Power, CPU langweilt sich und bei SC 2 braucht man auch nur CPU Power wenn man Multiplayer spielen will. Single Player geht auf Ultra recht gut. Und bei SC 2 sollte erst mal multicore Support eingeführt werden beim 2. Teil, bevor man sich da eine neue CPU kauft.

Für Skyrim und GTA 4 brauch ich eine neue, aber das hat Zeit, Skyrim muss erst noch reifen und GTA 4 pressiert nicht.

Der Q9300 war schon damals eher eine low CPU
Das halte ich für ein Gerücht, Phenom II hatten teilweise noch Probleme mit der CPU. Zwischen Q9450 und Q9300 ist fast kein Unterschied in der Leistung. Low waren dann Q8200 und co. Mit einem Q9300 @ 3GHz laufen heute noch 95% aller Games flüssig. Und das mit ca. 30Watt TDP wenn man auf 1Volt undervoltet. Core 2 Quad speziell 45nm H-K-Metal Gate Modelle waren ihrer Zeit weit voraus. Quasi die G80 der CPU Welt.
 
Zuletzt bearbeitet:
Floletni schrieb:
Wie oft denn noch: Der Preis wird nicht sinken. Teilweise werden sie leicht steigen. Das ist seit bestimmt 5 Jahren oder länger schon so. (Rest egal)

Immer noch nicht verstanden ?
In den letzten 5 Jahren wurden mit den neuen CPUs auch gleich neue Boards mit teilweise neuen nötigen RAM (DDR2 Wandel zu DDR3) verkauft.
Nachdem Sockel S775 kam S1156 und S1366. Dann wurde aus dem S1156 ein S1155 für Sandy Bridge. Nun bleibt aber der Sockel S1155 bestehen für Ivy Bridge.
Das ist eine völlig neue Ausgangssituation !

Niemand kauft sich mehr, bei Ivy Bridge Verfügbarkeit, eine Sandy Bridge. Das macht diese CPU völlig überflüssig und daher fällt sie im Preis.
Andere wiederum, die schon ein S1155 Board haben werden sich ebenfalls keine schnellere Sandy Bridge kaufen, sondern gleich auf Ivy Bridge umsteigen. Es sei den, die Sandy Bridge wird billiger als die Ivy Bridge, erst dann hat Sandy noch ihre Daseinsberechtigung.

Mehr kann ich dir wirklich nicht erklären. ;)
 
Kuhprah schrieb:
Warum spielen eigentlich die Watt Zahlen hier so ne grosse Rolle? Ich mein, ob das Ding jetzt 20 oder 30 Watt mehr verheizt spielt doch zumindest bei Gamern jetzt überhaupt keine Rolle [...] Und wenn das Ding 200 Watt verbrennt ist es mir recht solang was vorwärts geht... bei Grafikkarten regt sich ja auch niemand über 300 und mehr auf..

Finde Dich damit ab, ein Dinosaurier zu sein, wir sind eine aussterbende Rasse :evillol:
Heute wir die Meinungsmache längst von Leuten betrieben, die sich eine halbe Stunde vor den Leistungsmesser ihres PC's setzen und sich zu freuen, ein paar Watt gespart zu haben.

Als Gamer, der Wert auf Details legt, verballert jährlich an Hardware ein Zigfaches der Stromersparnis.

Mir ist daher der Verbrauch schnurz, solange es sich in einem erträglich lautstarken Rahmen kühlen lässt.

Der eine ergötzt sich am 3 Liter Lupo. Für mich eignet sich die neue "ich verzichte gern"-Religion nicht. Daher nehme ich lieber Citroen: http://www.youtube.com/watch?v=jOfBMRKLCCA&feature=player_embedded :D
 
Ich hab mal zu dem Ivy Bridge und der eingebauten GPU eine frage. Wie geht das eigentlich ich habe (die etwas schwächere) GPU im Prozessor und eine starke GPU im Gehäuse. Wenn ich jetzt nur im Internet surfe wird nur die Prozessor-GPU gebraucht und wenn dann mehr Leistung (z.B. bei Spielen) gebraucht wird schaltet sich dann meine große Grafikkarte ein und nach dem Spielen dann auch wieder aus? Wenn ja passiert dieses Umschalten (von Prozessor-GPU auf große GPU) ohne Verzögerung oder bekommt man das mit?
 
Jetzt wo die nächste generation erschienen ist, wann erwartet uns denn die nächste cpu/apu generation von Intel oder amd? Was sind die highlights 2012?
 
@ tom221

So ohne weiteres gibt es keine automatische oder manuelle Umschaltung bei den integrierten Desktop-GPUs der SB- und höchstwahrscheinlich auch den IV-CPUs. Das ist grundsätzlich eine Entweder-Oder-Entscheidung. Das bedeutet, dass die integrierte GPU komplett deaktiviert wird, sobald man eine dedizierte Grafikkarte in den Rechner baut.
(Manche Chipsätze, z.B. die P67, unterstützen die interne GPU erst gar nicht.)

Es gibt allerdings das Feature "Virtu" einer Firma namens Lucid, das es bestimmten Mainboards mit Grafikausgang erlaubt, zwischen der internen GPU und einer zusätzlichen Grafikkarte umzuschalten.
Leider wird die Grafikkarte dabei niemals ganz abgeschaltet, sondern läuft auch bei Verwendung der internen GPU im Leerlauf weiter. Einen echten Energiespareffetk gibt es also nicht. Der einzige Sinn ist, dass man das Quicksync-Feature (hardwarbeschleunigte Videocodierung) der Intel-GPUs so weiterhin nutzen kann, auch wenn man eine dedizierte Grafikkarte hat.
Allerdings ist das Ganze auch nicht unbedingt unproblematisch, denn man muss von Lucid unterstütze Grafikkartenmodelle und vor allem (meist veraltete) Treiberversionen benutzen usw.

Nvidia hat ursprünglich mal verkündet, dass es das von Notebooks gewohnte Optimus auch für Desktoprechner mit SB-CPU geben soll, aber leider es sieht so aus, als würde daraus doch nichts mehr werden. Jedenfalls ist es verdammt still darum geworden.
Schade eigentlich, denn Nvidia hat diese GPU-Umschalt-Technik inzwischen dank der jahrelangen Erfahrung mit den Notebooks und natürlich der Tatsache, dass sie im Gegensatz zu Lucid selbst die Grafiktreiber programmieren, sehr gut im Griff. Außerdem wird bei Optimus die dedizierte GPU auch wirklich ganz abgeschaltet, so dass man damit wirklich Energie sparen kann.

Scheinbar ist der Bedarf für sowas bei Desktoprechnern aber einfach nicht da. Aktuelle Grafikkarten verbrauchen im Leerlauf nur ein paar Watt und auf die kommt es bei Desktops im Gegensatz zu Notebooks nicht wirklich an.
 
Technik-Freak schrieb:
Das ist schon klar, das können sie nicht machen. Aber ich finde es ärgerlich das z.b. der i5-2500k Mitte April mit 165€ ca. 25€ günstiger war als jetzt. Der Preis ist mit Bulldozer-Release deutlich höher gegangen.

Schau mal den Euro-Dollar-Kurs seit April/Mai 2011 an.
Vielleicht fällt dir ja was auf.

(wolframalpha.com/input/?i=euro+dollar+year+2011)
 
Zuletzt bearbeitet:
Digitalized schrieb:
Ja und es ist auch Banane ob Deine ach so gelobte APu von AMD 20% schneller ist im Gegensatz zur Intel.
Die spielen auch alles an HD material ab. Ich habe hier sicher ca. 50 BluRay Rips 1:1 Kopien (von meinen Originalen Dics) selbst Material mit hohen Bitraten spielt mein Mediacenter mit SB Core2100T mit HD2000 ohne jeglichen Ruckler einwandfrei ab. Wozu sollte ich auf irgend nen AMD Teil wechseln?

Tut mir leid das du so ne Intel Krücke hast! Banane hin oder her du machst ja anscheinend auch nichts anderes mit deinem PC als Blue Rays zu kopieren! Für deinen Anwendungsfall hättest du dir auch ein HIFI Blue Ray Brenner holen können und eine Externe 2TB Festplatte an deinen Fernsehr anschliessen können:lol:
aber ne vlt. wäre damit das Rippen aufgrund der Kopierschutzmechanismen nicht möglich!;-)
Wie ich schon sagte ein HTPC muss für mich mehr können als nur Blue Rays abspielen!
->und unter HTPC verstehe ich nicht nur ne Blue Ray/Office Kasten im ITX Format stehen zu haben<-
Ein paar 3D Spiele ältere, oder aktuellere Games in niedrigen Auflösungen ohne alle Detailerweiterungen/Mehrfachkantenglättung sollten schon auch nebenbei schon mal spielbar sein! Ein moderner Wohnzimmer Allrounder mit niederigen Verbrauch und guten Leistungsreserven sollte es schon sein!
Ich habe hier ein Link von PC Games Hardware ok hätte auch nen anderes Blatt sein sollen mal zum Vergleich dein Corei3-2100 und mein A8-3850 !

http://www.pcgameshardware.de/aid,8...3850-fuer-die-Lynx-Plattform/CPU/Test/?page=2

wie man sieht liegen beide Chips in Sachen Energieverbrauch im IDLE und Blue Ray gleich auf!
Bei Spielen allerdings zieht der A8 mit ungeheuerer Performance davon!
Call of Duty Black OPS über 30 frames und auch ne HD3000 schaut echt alt aus!
Ich würde auf jeden Fall auch keine Pferdewetten auf die hier angeprochende HD4000 abschliessen im nächsten Jahr!:D
Beide Prozessoren kosten in etwa gleich viel der A8 ist gerade mal 10€ teurer das ist ja gerade der wichtigste Punkt überhaupt!!!
Man müsste ja beim Corei3-2100 mindestens 50€ extra für ne Grafikkarte ausgeben um an die IGP Leistung des A8-3850 überhaupt ran zu kommen...
Der Higend-Mainstream fällt an dieser Stelle eindeutig zugunsten AMD´s sowohl in Sachen Preis als auch in Sachen Leistung insgesamt!
Intel hat einfach nur ne IGP wie man sie bei alten Chipsätzen nforce/ den 880gx 890gx serien auf den Boards findet an Ihre CPU´s rangeklatscht!:cool_alt:
 
Zuletzt bearbeitet:
@Herdware:

Danke für deine Antwort. Also wenn ich eine große gute GraKar habe bringt mir die GPU im Prozessor ja eigentlich nicht. Dachte da könne man (um Strom zu sparen) automatisch und je nach Leistungsbedarf umswitchen lassen....
 
Zurück
Oben