News Intel stellt acht neue Desktop-Prozessoren vor

Ja klar null Vorteile, außer dass man zum gleichen Preis den niedrigeren Verbrauch von Ivy Bridge mitnimmt :freak:

Für was braucht man bitte in der Einsatzklasse in der die Celerons landen die Leistung der HD2500?
Office-Rechner: nope
Zum bloßen Surfen: nope
normaler HTPC: nope.
Mal ganz abgesehen davon, dass auch die HD Graphics Videos beschleunigen können: Der Celeron macht auch ohne Probleme die 1080p in Software mit. (Wer mehr von seinem HTPC will, kauft eh keine 35€ CPU, der kauft was dickeres und nimmt dann z.B. auch Videos damit auf.)

Wenn ich ehrlich bin, fällt mir eher kein Anwendungsbereich ein, wo man die Mehrleistung der HD 2500 /HD 4000 wirklich gebrauchen kann ohne dass man eigentlich schon mit einer dedizierten Karte oder einer APU besser beraten wäre.
 
Zuletzt bearbeitet:
Gatso schrieb:
Bitte endlich mal auf das Einstiegssegment eingehen und testen! Danke! Auch hinsichtlich Spielen/alten Prozessoren etc.

bin ich auch sehr dafür. Ich habe aktuell noch nen Ahtlon X2 64 4400+ rumstehen und wüßte zu gern, inwieweit jetzt ein Celeron oder Pentium besser sind oder eben nicht. Windows 7 fühlt sich manchmal eben nicht "flüssig" an und verbrauchen sollen sie so wenig wie möglich. Aber da helfen die max. verbrauchswerte mir eben auch nicht weiter.

Bin auch sehr dafür, dass CB mal einen test mit ausgewählten älteren CPUs oder wenigstens ein paar wenigen Celerons, Pentiums und Core i3 (und AMD Pendant) durchführt. Wobei hier evtl. Spieletests Crysis 3 oder Videokomprimierung sicherlich die falschen Tests wären. Interessant ist bei diesen Prozessoren einfach der Verbrauch, die Temperatur, ruckeln die Fenster in Windows und kann man HD-Videos ruckelfrei abspielen, da eben der Einsatz solcher Prozessoren ein Office-PC oder eben HTPC.
 
Schon ein Celeron G530 war bzw ist deutlich schneller als ein X2 6000+ und viel schneller als ein X2 4400+, da erst etwa auf dem Niveau einen C2D E8400 agiert. Bereit ein Pentium G860 klatscht alle Dualcores der C2D, A64 und Phenom (II) Generation an die Wand.

Windows ruckelt nicht und 1080p ist überhaupt kein Problem, der Stromverbrauch ist selbst unter Last sehr niedrig (das Delta beim G860 liegt bei so 30W).
 
ok, Windows ruckelt nicht, aber Arbeiten fühlt sich träge an (nicht nur die Festplattenzugriffe).

und mit Video ruckeln frage ich weil der 4400+ eine 9600 GT drinnen hat und da ruckeln die Videos manchmal. Bei dem Celeron/Pentium möchte ich nur die integrierte Grafikeinheit nutzen und da soll eben wie gesagt Video nicht ruckeln.
Hautpsache das Ding verbraucht beim Surfen, Office Arbeiten wenig. Wie groß ist denn die Differenz zu einem i3 was den idle-Verbrauch eines Celerons und eines Pentiums angeht?

Davon mal abgesehen, in meinem Hauptrechner werkelt eine 560 GTX TI und unter Video schauen verbraucht der Rechner mal eben 50-60 Watt mehr. Da wear ich schon sehr geschockt.
 
Gatso schrieb:
Bitte endlich mal auf das Einstiegssegment eingehen und testen! Danke! Auch hinsichtlich Spielen/alten Prozessoren etc.

Da bin auch ich stark für. Mindestens ab Sockel 775 testen, besser noch Sockel A oder Slot 1. Man kann soch kaum erkennen, inwieweit sich das 5-10 Jahre alte System von aktueller Hardware unterscheidet abgesehen von USB-Funktionalitäten etc.
 
Das wäre aber eine sehr aufwändige Sache... :D Ab Sockel 775 sollte man einsteigen in den Vergleich. Hier könnte man ja ab den Pentium Dual Cores anfangen und im AMD-Lager bei den Athlon X2 64, meinetwegen ab dem 4400+ oder so. Man wird sehen, dass die Leistung im Vergleich zu früher "explodiert" ist. Die jeweils alten Highend-Prozzis sind damit wohl vergleichbar mit den Einstiegs-Prozzis in der jeweils nächsten Generation, könnte ich mir vorstellen, wenn man mal das Beispiel E8400 und Celeron G530 nimmt. ;) Außer ggf. leicht niedrigerem Energieverbrauch sehe ich aktuell anhand der Papierlage kein Argument pro Ivy Bridge. ;)
 
Modus schrieb:
Für € 50,- ein G2020 ! Für Office und HTPC mehr als ausreichend. Für die Zocker ist der Test mit dem G860 interessant:
http://www.tomshardware.de/gaming-fx-pentium-apu-benchmark,testberichte-240958.html

Die unteren Leistungsklassen führen zu unrecht ein Schattendasein, insbesonder bei den einschlägen Tests der Portale.
Weniger kann auch mehr sein, nur halt nicht beim Image.:p

Absolut, der 2020 ist für 49,xx € der absolute Knaller.
Die 5% die Ivy schneller ist wären also ein G860 oder so, wobei es die jetzt auch für 54€ gibt.
Aber der Preisverlauf zeigt eben das die vor ein paar Monaten noch 20€ teurer waren:
http://geizhals.de/?phist=677838&age=9999

Und bei fast 80€ greife ich dann doch zum Core i3.

Aber für 50€ ist das im Grunde der Knaller, und der dürfte für die meisten Sachen reichen, auch für Games.
Könnte nur sein das man bei BF3 im Multiplayer Einbrüche bekommt.

Starcraft 2 ist ja wohl auch CPU lastig:
http://www.tomshardware.de/gaming-fx-pentium-apu-benchmark,testberichte-240958-6.html
Der Pentium G hat definitiv niedrigere Minimum Frames (16fps) als die Core i5 2400 (24+ fps) etc., aber der Core i3 wiederum steht kaum besser da, das HT hilft also nicht immer.

Für einen LowCost Spiele PC ist das aber ne Super Grundlage.
50€ CPU,ein 40€ mATX Board dazu, 25€ 8GB DDR3 (oder ein Riegel 4GB), und ne Grafikkarte bis 100€ (gebrauchte HD58xx, HD68xx,etc. oder neue HD7770, GTX650(Ti))
Hat man Tower + Netzteil + den HDD noch parat kann man für 200€ aufrüsten.

Der Gegner in Form eines echten 4 Kerners wäre höchstens ein gebrauchter Phenom II X4 mit mind. 3Ghz, aber der ist von der Effizienz nicht so gut und schneidet bei Starcraft 2 auch nicht besser ab.
Höchstens BF3 Multiplayer läuft vielleicht besser, aber das konnte THG nicht messen.
 
Wer tauscht denn eine CPU aus, nur um 5 Watt weniger zu verbrauchen, wenn da überhaupt etwas dabei heraus kommt?
Wenn man einen neuen PC baut, greift man natürlich zu der moderneren CPU, wenn sie nicht wesentlich teurer ist.
Die GPUs brauchen mehr Strom, wenn sie schneller sein sollen. "Wasch mir den Pelz, aber mach mich nicht nass", funktioniert auch bei Intel nicht. ;)
 
http://www.pcgameshardware.de/Battl...ld-3-Multiplayer-Tipps-CPU-Benchmark-1039293/

Hier ist der Pentium G leider nicht dabei, aber ich schätze mal das er ungefähr beim Phenom 2 X4 965 rauskommen würde, was schon sehr gut wäre. Damit ist die CPU in Schlagdistanz zum X4 750k und das für 49 €.

Was ich noch nicht so ganz verstehe ist, warum man beim I7 immer sagt, dass der von HT nicht profitiert gegenüber dem I5, aber beim I3 ist es das super Argument um nicht den Pentium G zu holen.
 
Ihr immer mit euren komischen Spielekram sowas ist doch total egal !

---------------------------------------------------------------------------------------------------------------------------------

Was ungewöhnlich ist das der Core i3-3210 noch bei keinen Händler gelistet ist,
dachte im Handel könnte er Preislich vielleicht doch zwischen den Core i3-3230 und Pentium G2130 ?

http://geizhals.de/886500

http://geizhals.de/766343

Sonst könnte mir der Pentium G2130 für ein modernes Multimedia System auf Sockel 1155 gefallen !

http://geizhals.de/886575

:)

frankkl
 
Zuletzt bearbeitet:
http://www.cpubenchmark.net/cpu.php?cpu=Intel+Celeron+G1610+@+2.60GHz

Hier steht der G1610 schon drin...Ungefähr 15% schneller als der G550. Dabei niedrigerer Stromverbrauch und UVP ist auch gesunken...$42 ist echt ne Ansage. Wobei das auch die UVP des G530 ist. Aber der G1610 ist da fast 25% schneller.

Wenns in den nächsten Tagen noch was zu den Lieferdaten kommt, dann schick ich meinen G540 ungeöffnet zurück und hol mir den G1610.
 
nebulein schrieb:
[...]

Hier ist der Pentium G leider nicht dabei, aber ich schätze mal das er ungefähr beim Phenom 2 X4 965 rauskommen würde, was schon sehr gut wäre. Damit ist die CPU in Schlagdistanz zum X4 750k und das für 49 €.

Was ich noch nicht so ganz verstehe ist, warum man beim I7 immer sagt, dass der von HT nicht profitiert gegenüber dem I5, aber beim I3 ist es das super Argument um nicht den Pentium G zu holen.

Hier wird ein Pentium G860 / G630 mit dem "Rest" verglichen:

http://www.tomshardware.de/gaming-fx-pentium-apu-benchmark,testberichte-240958.html

Für ein Zockersystem sind die beiden Teile unschlagbar gut und schlagen in dem Test sogar die AMD Quadcore-Konkurrenz.

HT bringt imho in der Praxis nicht so viel wie man eigentlich vermuten sollte. Die meiste Software ist halt immer noch für hochgetaktete Dual Cores optimiert. Ein Anbieter wird ja wohl keine Software vermarkten, die erst ab einem Quadcore vernünftig läuft und man bei einem Dual Core dann den Eindruck hat, als ob das System mit angezogener Handbremse läuft. ;)

Ein Pentium G ist vollkommen ausreichend und nicht viel langsamer als ein i3. Der ist doppelt so teuer aber nicht doppel so schnell. ;) Entweder Pentium G oder direkt einen i5! :D Die neuen Ivys schließen imho an den Erfolg der Sandys an und im Budget-Bereich werden die wieder mal der Konkurrenz zeigen, wo der Hammer hängt.
 
Calypso26 schrieb:
ok, Windows ruckelt nicht, aber Arbeiten fühlt sich träge an (nicht nur die Festplattenzugriffe).
Windows 7 ist mit einem Celeron G oder Pentium G nicht träge, da musst du schon einen E-350 oder Atom oder X2 4400+ drin haben ;-)

Calypso26 schrieb:
und mit Video ruckeln frage ich weil der 4400+ eine 9600 GT drinnen hat und da ruckeln die Videos manchmal. Bei dem Celeron/Pentium möchte ich nur die integrierte Grafikeinheit nutzen und da soll eben wie gesagt Video nicht ruckeln.
Da ruckelt nichts.

Calypso26 schrieb:
Wie groß ist denn die Differenz zu einem i3 was den idle-Verbrauch eines Celerons und eines Pentiums angeht?
idR ein oder maximal zwei Watt.

Calypso26 schrieb:
Davon mal abgesehen, in meinem Hauptrechner werkelt eine 560 GTX TI und unter Video schauen verbraucht der Rechner mal eben 50-60 Watt mehr. Da wear ich schon sehr geschockt.
Schalt die HW-Beschleunigung ab oder forciere die Geforce per Nvidia Inpector in den P8-State.

nebulein schrieb:
http://www.pcgameshardware.de/Battl...ld-3-Multiplayer-Tipps-CPU-Benchmark-1039293/

Hier ist der Pentium G leider nicht dabei, aber ich schätze mal das er ungefähr beim Phenom 2 X4 965 rauskommen würde, was schon sehr gut wäre.
Nein, der X4 ist im BF3 MP deutlich flotter als der G860. SMT hat hier voll rein ... und das fehlt dem Pentium.

nebulein schrieb:
Was ich noch nicht so ganz verstehe ist, warum man beim I7 immer sagt, dass der von HT nicht profitiert gegenüber dem I5, aber beim I3 ist es das super Argument um nicht den Pentium G zu holen.
Weil in Spielen idR zu wenig Threads für einen i7 mit 4C/8T vorhanden sind - für einen i3 mit 2C/4T schon.

Lord Extra schrieb:
Für ein Zockersystem sind die beiden Teile unschlagbar gut und schlagen in dem Test sogar die AMD Quadcore-Konkurrenz.
Ich gucke mir mal die Tage den X4 750K an, der ist für unter 70 Euro spannend.

Lord Extra schrieb:
HT bringt imho in der Praxis nicht so viel wie man eigentlich vermuten sollte [...] Ein Pentium G ist vollkommen ausreichend und nicht viel langsamer als ein i3. Der ist doppelt so teuer aber nicht doppel so schnell.
Für Spiele würde ich den i3 nehmen, SMT hilft hier oft deutlich nach.
 
Zuletzt bearbeitet:
dgschrei schrieb:
Ja klar null Vorteile, außer dass man zum gleichen Preis den niedrigeren Verbrauch von Ivy Bridge mitnimmt :freak:

Wenn man keine Ahnung hat, dann bitte nicht so etwas schreiben.
Der Verbrauch eines Sandy Bridge Celerons wird maximal 3W mehr betragen.

Außerdem was ich sagen wollte, was natürlich von der Art her wie ich schreibe, von Leuten ohne HIntergrundwissen natürlich nicht verstanden wird.

Was bringt es dem Endkunden einen teureren Celeron Ivy zu kaufen, wenn da die gleiche GPU sitzt?
Gerade das tolle bei der Ivy war die schnellere GPU.
Trotz Konkurrenz durch AMDs APU geht man hier wiedermal den Weg der Trottel.
Da kann jeder Bauer beim Schachspiel weiter blicken.

Macht euch nichts drauß, ich werde bei jedem Beitrag über CPUs als Intel Fanboy und ich hätte nur Bullen scheisse im Kopf abgestempelt.
 
Zuletzt bearbeitet:
y33H@ schrieb:
idR ein oder maximal zwei Watt.

oha, na hier hätte ich gedacht, dass der Unterschied größer ist. Laut FAQ "der ideale Office PC" verbraucht ja so ein Celeron im Gesamtsystem unter 35 W, während beim Test des i3 der Verbrauch des Gesamtsystems im Idle > 55 W ist.
Und ich dachte, dass der Ivy Bridge Celeron noch mal weniger verbraucht, weil der ja nicht wie der alte Celeron in 32 nm sondern in 22 nm gefertigt wurde.

y33H@ schrieb:
Schalt die HW-Beschleunigung ab oder forciere die Geforce per Nvidia Inpector in den P8-State.

habe ich auch schon, aber es gibt Filme, die dann ruckeln - ganz selten sogar im P0 State, so dass ich die Grafikkarte im Nvidia Inspector deaktivieren muss, damit nichts mehr ruckelt.
 
Zuletzt bearbeitet:
Julz2k schrieb:
Wenn man keine Ahnung hat, dann bitte nicht so etwas schreiben.
Der Verbrauch eines Sandy Bridge Celerons wird maximal 3W mehr betragen.

Außerdem was ich sagen wollte, was natürlich von der Art her wie ich schreibe, von Leuten ohne HIntergrundwissen natürlich nicht verstanden wird.

Was bringt es dem Endkunden einen teureren Celeron Ivy zu kaufen, wenn da die gleiche GPU sitzt?
Gerade das tolle bei der Ivy war die schnellere GPU.
Trotz Konkurrenz durch AMDs APU geht man hier wiedermal den Weg der Trottel.
Da kann jeder Bauer beim Schachspiel weiter blicken.

Macht euch nichts drauß, ich werde bei jedem Beitrag über CPUs als Intel Fanboy und ich hätte nur Bullen scheisse im Kopf abgestempelt.

Drei Watt im 24/7 Betrieb sind 26kWh/Jahr. Das sind ca. 5€. Der Ivy ist preislich mit dem Celeron gleichauf, bei angenommenen 3 Jahren Nutzungszeit, wo ich z.b. mit meinem NAS definitv drüber kommen möchte, sind das mind. 15€ im Stromverbrauch (Strompreissteigerungen außen vor gelassen). Ganz abgesehen von der besseren Leistung des Ivy. Wenn der G1610 also für 38€ zu haben ist, dann müsste der G530 jetzt für 20€ zu haben sein, damit er noch interessant ist.

Klar, was sind schon 15€...

Aber ist doch nett, wenn man die modernere Architektur, weniger Stromverbrauch und weniger Abwärme hat und sich dafür dann auch noch auf lange Sicht ne Kiste Bier gönnen kann ;-)
 
Zuletzt bearbeitet:
@ Calypso26

Der Celeron samt iGPU, bei CB ist ja noch die GTX 680 mit drin. Im Leerlauf power gaten die CPUs eh, daher ist der "Verbrauch" hier nahezu identisch zwischen SNB und IVB (das zeigt dir aber auch jeder gescheite Test).

Wenn Filme ruckeln, dann schalte wie gesagt die HW-Beschleunigung ab, eine halbwegs aktuelle CPU schultert 1080p bei geringem Stromverbrauch. Allerdings braucht eine GTX 560 Ti nur etwa 10W für eine Blu-ray (idle + 10W). kA warum das bei dir 50 oder 60W sind.
 
Beim AMD 8 Kerner könnte man das sagen, aber nicht bei 3W auf Vollast bezogen.

cust0m schrieb:
Drei Watt im 24/7 Betrieb sind 26kWh/Jahr. Das sind ca. 5€. Der Ivy ist preislich mit dem Celeron gleichauf, bei angenommenen 3 Jahren Nutzungszeit, wo ich z.b. mit meinem NAS definitv drüber kommen möchte, sind das mind. 15€ im Stromverbrauch (Strompreissteigerungen außen vor gelassen). Ganz abgesehen von der besseren Leistung des Ivy. Wenn der G1610 also für 38€ zu haben ist, dann müsste der G530 jetzt für 20€ zu haben sein, damit er noch interessant ist.

Klar, was sind schon 15€...

Aber ist doch nett, wenn man die modernere Architektur, weniger Stromverbrauch und weniger Abwärme hat und sich dafür dann auch noch auf lange Sicht ne Kiste Bier gönnen kann ;-)
 
Der Artikel stellt aber nicht da, das es sich hier einfach um höhere getaktete Sandy CPU´s in 32nm handelt bei denen die TDP endlich an den Realen Verbrauch angepasst wurde.


Aber das hat hier wohl niemand bemerkt -.-
 
Zurück
Oben