News Stärkster Pentium aller Zeiten: Ab 2017 immer mit zwei Kernen und vier Threads

Dabei seit
Apr. 2011
Beiträge
3.038
#61
Ich finde es vor allem für günstige Spielerechner interessant. Ja. Für Spiele. Der kleinste Pentium kostet aktuell 75 Euro und man bekommt jetzt auch HT und ist damit nicht viel schlechter unterwegs als mit einem i3, den man dann vermutlich eher genommen hat. Das sind nochmal 40-50 Euro Ersparnis bei der CPU. Die nimmt man gerne mit...

Denke allerdings auch, dass das ein Anzeichen dafür ist, dass man da mit der nächsten Serie die Typen nach unten runterbricht.

Celeron = 2C
Pentium = 2C/4T
i3 = 4C
i5 = 4C/8T
i7 = 6C/12T

Denke hab das richtige gemacht für den Zweitrechner (meine Freundin will ab und zu auch simsen) noch zu warten und nicht den 6100 zu holen. Nun wird es der kleine Pentium mit einer 1050.
 
Dabei seit
Jan. 2011
Beiträge
9.597
#62
Die AMD Bristol Ridge kommen viel zu spät auf den Markt. AMD richtet ihr APU Konzept noch zu Grunde, wegen Untätigkeit.
Bristol Ridge kann man doch teils sogar mit AM4 Board schon kaufen. Der große Marktstart wird nur wegen Zen zurückgehalten. Raven Ridge wurde laut Gerüchten etwas nach hinten verschoben, aber war immer schon für das 2 Halbjahr 2017 geplant.
 

R O G E R

Lt. Commander
Dabei seit
März 2008
Beiträge
1.707
#63

Chris_S04

Lt. Commander
Dabei seit
Mai 2011
Beiträge
1.927
#64
Finde die 2C/4T Pentium auch sehr interessant für Selbstbau-NAS, sollte auch schnell genug sein einen kleinen Server mit mehreren VMs laufen zu lassen. Dass ECC Unterstzung gestrichen wurde ist zwar ärgerlich, alledings war es auch bei Skylake schon so, dass man für ECC die teuren C23X Chipsätze kaufen musste, wovon der C232 nicht mal Vt-x konnte. Außerdem haben auch die meisten Consumer-NAS von Synology oder QNAP auch keinen ECC RAM verbaut.
 

deo

Rear Admiral
Dabei seit
Okt. 2005
Beiträge
5.824
#65
>Pentium G4620 -> 102€ Geizhals

Wenn man richtig sparen will, kann man den Intel Pentium G4560, 2x 3.50GHz, boxed für 72€ nehmen.
 
Dabei seit
Jan. 2014
Beiträge
25.419
#67
bin gespannt auf den test. der G4560 könnte ne neue standardempfehlung für einstiegsgamingrechner werden.

Intel "könnte" bei den CPUs unterhalb der Core i aber durchaus mal klarere namen vergeben:freak:
 
Dabei seit
Jan. 2008
Beiträge
3.389
#68
Keine ECC mehr mit Pentium? Das wäre extrem schade. Für kleine Server auf Intel-Basis bedeutet dies ca. 60 € Preiserhöhung pro Gerät durch i3 statt Pentium.

Oder kommen als Ersatz low-end-Xeons auf den Markt?
 

Faust2011

1+1=10
Teammitglied
Dabei seit
Aug. 2011
Beiträge
8.095
#70
AVX, Verschlüsselungsbefehle in Hardware, Hyperthreading, Virtualisierungsfunktionen, ... es gibt so viele Features, die bei den LowCost-Produkten rein aus Marketinggründen/Strategie gekürzt werden, dass es wirklich zum Heulen ist. Ich empfinde das dann auch bei uns hier in den Kaufberatungen als schwierig, denn je nach Anwendungsfall könnte die Performance eines Pentium reichen, doch auf Grund eines fehlenden Features er schlichtweg doch nicht geeignet sein.
 
Dabei seit
Juli 2016
Beiträge
2.187
#71
@Marcel55

Stimmt waren die Notebook dinger sorry naja da gab es ja auch zwei Kern i7 mit HT. Echt bei den vielen Namen und Nummer soll noch einer durchblicken. ;-)

Naja auf dem Lapi bis jetzt immer nur AMD die hatten dass bessere P/L und die bessere iGPU.
 

Cytrox

Lt. Commander
Dabei seit
Jan. 2009
Beiträge
1.890
#73
Ich kann die Aufregung zum Thema ECC nicht ganz nachvollziehen. Wirklich relevant ist dies doch nur bei Serverfarmen, weil die (in Summe) eben genug RAM haben um so etwas halbwegs Regelmäßig zu beobachten.

Für Heimanwender dürfte das kaum ein Problem sein. Dann hat man halt 0.x% Chance pro Jahr das 1 Bit in einem Urlaubsfoto umfällt .. ist doch völlig egal. Da ist vermutlich die Wahrscheinlichkeit dass die gesamte Festplatte ausfällt um ein gutes Stück höher.
 

Skaro

Lieutenant
Dabei seit
Jan. 2015
Beiträge
771
#74
Hab aktuell den G4400 in mein NAS mit ein Plex Media Server am Laufen und guck schon nach ein Upgrade, da die CPU zu lahm für Transcoding wird aber 2 neue Threads via HT macht sicher kaum ein unterschied bei Video-Transcoding oder? Also maximal 20% mehr Leistung schätze ich mal oder liege ich da falsch?
 
Dabei seit
Juli 2004
Beiträge
8.216
#75
Wenn man richtig sparen will, kann man den Intel Pentium G4560, 2x 3.50GHz, boxed für 72€ nehmen.
Und wenn es Intel drauf anlegt, könnte es durchaus auch Boards geben, die OC für non-K Modelle erlauben. Technisch ist das alles möglich, auch wenn es gewisse Beschränkungen gibt. Intel wappnet sich zum Konkurrenzkampf. Mit 11 Milliarden Dollar Gewinn pro Jahr offenbar ein Akt, wo Intel nicht ins Schwitzen kommt.
 
Zuletzt bearbeitet:

0x8100

Lt. Junior Grade
Dabei seit
Okt. 2015
Beiträge
428
#76
Ich kann die Aufregung zum Thema ECC nicht ganz nachvollziehen. Wirklich relevant ist dies doch nur bei Serverfarmen, weil die (in Summe) eben genug RAM haben um so etwas halbwegs Regelmäßig zu beobachten.

Für Heimanwender dürfte das kaum ein Problem sein. Dann hat man halt 0.x% Chance pro Jahr das 1 Bit in einem Urlaubsfoto umfällt .. ist doch völlig egal. Da ist vermutlich die Wahrscheinlichkeit dass die gesamte Festplatte ausfällt um ein gutes Stück höher.
http://www.computerworld.com/articl...es-vastly-higher-than-previously-thought.html

"The study, which used tens of thousands of Google's servers, showed that about 8.2% of all dual in-line memory modules (DIMM) are affected by correctable errors and that an average DIMM experiences about 3,700 correctable errors per year."

3700 bitfehler pro dimm(!)/jahr - deiner meinung nach kann also ruhig mal was kaputt gehen (crash, korrupte daten auf der platte). na dann...
 

misu

Lieutenant
Dabei seit
Juni 2010
Beiträge
963
#77
Weil das hier ein paar mal aufgekommen ist: Ohne AVX1 und 2 und ohne FMA läuft vektorisierter Code nicht (viel) schneller wie auf einem Core 2. Rein von der theoretischen Peak Performance ist das schon mal eine Reduktion auf ein viertel der Performance (kein FMA + halbe Vektorbreite mit SSE4).
Die Frage ist dann, wie gut sind die Codes vektorisiert und das ist leider schwer zu beantworten. Aber alle neueren Benchmarks (seit 2011 Sandy Bridge) sollten AVX verwenden, jede Physik-Engine sollte zumindest AVX verwenden.

Im Übrigen ist auch denkbar, dass weitere Features innerhalb eines Cores deaktiviert wurden, z.b. eine der Execution Units. Leider ist mir kein Test bekannt, der das mal überprüft hat.
 

Cytrox

Lt. Commander
Dabei seit
Jan. 2009
Beiträge
1.890
#78
3700 bitfehler pro dimm(!)/jahr - deiner meinung nach kann also ruhig mal was kaputt gehen (crash, korrupte daten auf der platte). na dann...
Lies nochmal genauer, 8% um einen Riegel zu erwischen bei welchem sich überhaupt Fehler beobachten lassen. D.h. das sind eigentlich defekte/minderwertige Riegel.

Und bei diesen werden es dann deutlich mehr als die ~4k Fehler im Jahr (d.h. ~10 pro Tag?) gewesen sein, weil 4k eben der Durchschnitt über alle war. D.h. das ist etwas dass dann nicht zufällig unbemerkt passiert, sondern etwas dass auch in Memtest recht schnell beobachten lassen sollte.

Ganz abgesehen davon das eine pro-DIMM Betrachtung hier wenig Sinn macht, wenn die Grundlage des ganzen Auslastung auf Google-Niveau ist. Ja, wie erwähnt macht das Zeug für Serverfarmen Sinn.
 
Dabei seit
Dez. 2003
Beiträge
626
#79
Wow, das sind tolle Nachrichten (zumindest für mich in der Firma)! :)

Bereitet sich da schon jemand auf die kleinen Ryzen vor? Ich wüsste sonst nicht warum Intel diesen Schritt im Vorraus gehen sollte?!
 

0x8100

Lt. Junior Grade
Dabei seit
Okt. 2015
Beiträge
428
#80
Lies nochmal genauer, 8% um einen Riegel zu erwischen bei welchem sich überhaupt Fehler beobachten lassen. D.h. das sind eigentlich defekte/minderwertige Riegel.

Und bei diesen werden es dann deutlich mehr als die ~4k Fehler im Jahr (d.h. ~10 pro Tag?) gewesen sein, weil 4k eben der Durchschnitt über alle war. D.h. das ist etwas dass dann nicht zufällig unbemerkt passiert, sondern etwas dass auch in Memtest recht schnell beobachten lassen sollte.

Ganz abgesehen davon das eine pro-DIMM Betrachtung hier wenig Sinn macht, wenn die Grundlage des ganzen Auslastung auf Google-Niveau ist. Ja, wie erwähnt macht das Zeug für Serverfarmen Sinn.
nein, das steht da nicht. laut http://www.cs.toronto.edu/~bianca/papers/sigmetrics09.pdf bezieht sich diese error rate auf alle dimms. der durchschnittliche dimm hatte ~3700 correctable errors pro jahr. zu dieser inzw. älteren studie kommen inzwischen angriffe wie rowhammer. eigentlich sollte ecc eher standard als die ausnahme sein.
 
Top